<<

. 19
( 60 .)



>>

Wie wir schon gesehen haben, k¨nnen wir diese Matrix als lineare Abbildung
o
n m
K ’ K interpretieren. im(A) ist dann einfach der von den Spaltenvektoren
von A aufgespannte Unterraum. Nach Satz 4.18 und Satz 4.14 folgt dann

dim (im (A)) = n ’ dim (ker (A))
= rang (A) .

Wir haben also den folgenden Satz bewiesen:

Satz 4.19 Ist A eine m — n-Matrix, so ist der Rang der Matrix gleich der
Dimension des von den Spalten aufgespannten Unterraums von K m . (“Zeilen-
rang=Spaltenrang”)

Eine andere einfache Aussage uber den Rang ist
¨

Lemma 4.7 Sei A eine m — n-Matrix und B ein n — k-Matrix. Dann gilt

rang (AB) ¤ min (rang (A) , rang (B)) .

Beweis. O¬ensichtlich ist im (AB) ein Unterraum von imA und somit folgt

rang (AB) ¤ rang (A) .

Andererseits ist ker B ein Unterraum von ker (AB), woraus dim (ker B) ¤
dim (ker (AB)) folgt, was nach Satz 4.14

rang (AB) ¤ rang (B)

impliziert. Damit ist das Lemma bewiesen.
Dieses Lemma hat die folgende etwas uberraschende Konsequenz.
¨

Proposition 4.5 Sie A eine quadratische n — n-Matrix, die ein Rechtsinverses
hat. D.h. es existiert eine n — n-Matrix B mit AB = En . Dann ist A invertierbar
und es gilt B = A’1 . Die gleiche Aussage gilt, wenn A ein Linksinverses besitzt.




81
Beweis. Aus dem vorangegangen Lemma folgt

min (rang (A) , rang (B)) ≥ n,

was aber nur m¨glich ist, wenn A und B Rang n haben. Somit ist A invertierbar
o
und es folgt

B = En B = A’1 A B =
= A’1 (AB) = A’1 En = A’1 .

Wenn A ein Linksinverses besitzt, so geht der Beweis genau analog.
Die Aussage der Proposition ist insofern etwas erstaunlich, als allgemein in
Ringen keinesfalls richtig ist, dass die Existenz eines Rechtsinversen fur ein Ele-
¨
ment des Ringes impliziert, dass dieses Element invertierbar ist.
Ein wichtiges Anliegen in der Mathematik ist oft die Klassi¬kation von Ob-
jekten nach “Verwandtschaftsverh¨ltnissen”. Betrachten wir etwa zwei vorge-
a
gebene K-Vektorr¨ume V und W . Wir m¨chten wissen, wieviele “substantiell
a o
verschiedene” lineare Abbildungen V ’ W es gibt. Ein naheliegendes Verfahren
¨
ist das folgende: Wir de¬nieren eine Aquivalenzrelation auf hom (V, W ). Sind
f, g ∈ hom (V, W ) , d.h. lineare Abbildungen V ’ W , so setzen wir f ∼ g falls
Isomorphismen ψ : V ’ V und σ : W ’ W existieren mit

σ —¦ f = g —¦ ψ, (4.10)

oder
f = σ ’1 —¦ g —¦ ψ

¨ ¨
¨
Ubung 4.3 Uberzeugen Sie sich davon, dass dies eine Aquivalenzrelation auf
hom (V, W ) de¬niert.

Wir deklarieren nun zwei Elemente von hom (V, W ) als “wesentlich verschie-
¨
den”, wenn sie nicht ¨quivalent sind, wenn sie also nicht zur gleichen Aquivalenz-
a
¨
klassen geh¨ren. Wieviele Aquivalenzklassen gibt es? Nicht sehr viele:
o

Satz 4.20 Zwei lineare Abbildungen f, g ∈ hom (V, W ) sind genau dann ¨quiva-
a
lent, wenn sie denselben Rang haben.

Beweis. Wir setzen zun¨chst voraus, dass (4.10) gilt. Da ψ ein Isomorphis-
a
mus ist und insbesondere bijektiv, folgt

im (f ) = σ ’1 (v) : v ∈ im (g) = σ ’1 (im (g)) ,

in der Notation von Lemma 4.3. Nach Lemma 4.4 c) folgt, dass im (f ) und im (g)
isomorph sind und damit dieselbe Dimension haben.


82
Wir beweisen nun umgekehrt, dass aus

dim (im (f )) = dim (im (g))

folgt, dass Isomorphismen σ und ψ existieren, sodass (4.10) gilt. Zun¨chst a
folgt mit Hilfe von Satz 4.18, dass auch die Dimensionen d der Kerne uber- ¨
einstimmen. Wir w¨hlen zun¨chst eine Basis (u1 , . . . , ud ) in ker (f ) und ei-
a a
ne Basis (v1 , . . . , vd ) in ker (g) . Diese Basen k¨nnen wir zu Basen in ganz V
o
erg¨nzen: (u1 , . . . , ud , ud+1 , . . . , un ) und (v1 , . . . , vd , vd+1 , . . . , vn ) . Wir de¬nieren
a
wi := f (ud+i ) , 1 ¤ i ¤ n ’ d und xi := g (vd+i ) , 1 ¤ i ¤ n ’ d. Nach dem
Beweis von Satz 4.18 ist (w1 , . . . , wn’d ) eine Basis von im (f ) und (x1 , . . . , xn’d )
ist eine Basis von im (g) . Wir k¨nnen diese Basen zu Basen in W erg¨nzen:
o a
(w1 , . . . , wn’d , wn’d+1 , . . . , wm ) und (x1 , . . . , xn’d , xn’d+1 , . . . , xm ) . Wir de¬nie-
ren nun einen Isomorphismus ψ : V ’ V durch ψ (ui ) = vi fur i = 1, . . . , n und ¨
einen Isomorphismus σ : W ’ W durch σ (wi ) = xi fur i = 1, . . . , m. Dass dies
¨
Isomorphismen sind, folgt aus Lemma 4.4 d). Dann gilt

(g —¦ ψ) (ui ) = g (vi ) = 0
= (σ —¦ f ) (ui ) , 1 ¤ i ¤ d,

und

(g —¦ ψ) (ui ) = g (vi ) = xi
= σ (wi ) = (σ —¦ f ) (ui ) , d + 1 ¤ i ¤ n.

Demzufolge stimmen g —¦ψ und σ —¦f auf allen Basisvektoren ui uberein, und somit
¨
gilt (4.10).
Es muss hier schon im Hinblick auf sp¨tere Diskussionen bemerkt werden,
a
dass die Situation fur Endomorphismen V ’ V sich anders darstellt. Zwei
¨
Endomophismen f, g ∈ hom (V ) de¬niert man als “im wesentlichen gleich”, falls
ein Isomorphismus ψ : V ’ V existiert mit

f —¦ ψ = ψ —¦ g.
¨ ¨
Dies de¬niert ebenfalls eine Aquivalenzrelation auf hom (V ) . Die Aquivalenzklas-
sen sind jedoch hier sehr viel schwieriger zu diskutieren. Dieses Problem wird
uns noch detailliert besch¨ftigen.
a

4.7 Darstellende Matrix einer linearen Abbildung
Wir hatten schon im letzten Abschnitt gesehen, dass eine lineare Abbildung f :
V ’ W vollst¨ndig durch die Funktionswerte auf einer Basis von V festgelegt
a
sind. Betrachten wir eine Basis V = (v1 , . . . , vn ) von V und eine Basis W =


83
(w1 , . . . , wm ) von W. Die Funktionswerte f (vi ) sind dann Vektoren in W , und wir
konnen daher die Koordinaten dieser Vektoren bezuglich der Basis W berechnen:
¨ ¨
m
f (vi ) = aji wj . (4.11)
j=1


Die m — n-Matrix A erhalten wir also, indem wir den Koordinatenvektor von
f (vi ) bezuglich der Basis W in die i-te Spalte von A setzen.
¨

De¬nition 4.17 A heisst die darstellende Matrix von f bezuglich der Basen
¨
V und W.

Wir schreiben auch manchmal Af . Es muss jedoch immer im Auge behalten
werden, dass diese Matrix von der Wahl der Basen abh¨ngt. Wir k¨nnen also bei
a o
fest vorliegenden Basen V und W jeder linearen Abbildung f ∈ hom (V, W ) eine
m—n-Matrix zuordnen. Umgekehrt de¬niert auch jede m—n-Matrix A via (4.11)
f ’ Af ∈ M (n, m, K)
eine lineare Abbildung. Die Zuordnung hom (V, W )
ist, wie man leicht nachpruft, linear (M (n, m, K) ist ein K-Vektorraum, siehe
¨
Beispiel 4.6) und damit ein Isomorphismus. Dieser Isomophismus ist jedoch nicht
naturlich gegeben, sondern h¨ngt von der Wahl der Basen ab.
a
¨
Wir betrachten kurz den Spezialfall V = K n , W = K m . Eine lineare Abbil-
dung V ’ W wird einfach durch eine m — n-Matrix A beschrieben: K n x ’
Ax ∈ K m . A ist dann einfach die darstellende Matrix bezuglich der Standardba-
¨
n m
sen in K bzw. K : Ist ej der j-te (Spalten)Vektor der Standardbasis, so ist
Aej einfach die j-te Spalte von A, was naturlich gleich m aij ei ist.
¨ i=1
Wir k¨nnen die darstellende Matrix einer linearen Abbildung f : V ’ W
o
bezuglich zweier Basen V und W noch etwas anderes interpretieren. Wie wir
¨
im letzten Abschnitt gelernt haben, fuhrt die Wahl einer Basis V in V zum
¨
Isomorphismus φV : V ’ K n , der jedem Vektor seine Koordinaten bezuglich ¨
dieser Basis zuordnet. Dann ist die darstellende Matrix von f bezuglich Basen
¨
V in V und W in W einfach durch die lineare Abbildung φW —¦ f —¦ φ’1 : K n ’
V
m n
K gegeben. Ist n¨mlich (e1 , . . . , en ) die Standardbasis in K , so gilt vj =
a
φV (ej ) und φW —¦ f —¦ φ’1 (ej ) ist dann einfach der Komponentenvektor von
’1
V
f (vj ) bezuglich der Basis W, d.h. die j-te Spalte der darstellenden Matrix.
¨

Satz 4.21 Seien f : V ’ W und g : W ’ X lineare Abbildungen. Seien ferner
Basen V, W und X in den K-Vektorr¨umen V, W bzw. X gegeben. Dann gilt
a

Ag—¦f = Ag Af , (4.12)

wobei die darstellenden Matrizen jeweils bezuglich der entsprechenden Basen ge-
¨
nommen werden.



84
Beweis. Nach der vorherigen Diskussion ist Ag—¦f die durch die Abbildung
φX —¦ (g —¦ f ) —¦ φ’1 zwischen den Koordinatenraumen de¬nierte Matrix. Es gilt
¨
V
aber
φX —¦ (g —¦ f ) —¦ φ’1 = φX —¦ g —¦ φ’1 —¦ φW —¦ f —¦ φ’1 ,
V W V

was in Matrixsprechweise die Gleichung (4.12) ist.

Korollar 4.6 Sei f : V ’ W eine lineare Abbildung und V und W seien Ba-
sen von V bzw. von W. Dann ist f genau dann ein Isomorphismus, wenn Af
quadratisch und regul¨r ist, und es gilt Af ’1 = A’1 .
a f


Beweis. Ist f ein Isomorphismus mit inverser Abbildung f ’1 , so gilt nach
dem vorangegangenen Satz

Af Af ’1 = Af ’1 Af = E,

woraus folgt, dass Af regul¨r ist mit Inverser Af ’1 .
a
Ist Af quadratisch und regul¨r, so gilt dim V = dim W und die Abbildung
a
K dim V x ’ Af x ∈ K dim V ist ein Isomorphismus. Demzufolge ist auch f =
φ’1 —¦ Af —¦ φV ein Isomorphismus.
W
Um die Sache noch etwas komplizierter zu machen, untersuchen wir nun, was
mit der darstellenden Matrix passiert, wenn wir die Basen in den entsprechenden
Vektorr¨umen ¨ndern. Wir betrachten also zu den Basen V und W, jeweils in
a a
V und W , in diesen beiden Vektorr¨umen zwei “neue” Basen V = (v1 , . . . , vn )
a
und W = (w1 , . . . , wm ) , mit regul¨ren Matrizen der Basistransformationen: T =
a
(tij ) ∈ GL (n, K) fur die Transformation von V nach V :
¨
n
vj = tij vi ,
i=1

<<

. 19
( 60 .)



>>