<<

. 11
( 60 .)



>>


b ist hier der Spaltenvektor (3.6), den wir als m — 1-Matrix au¬assen. Das sieht
nun genau wie der triviale Fall (3.1) aus, nur dass a ∈ K durch die Matrix A
ersetzt wird, und b wie auch die Unbekannten zu je einem Spaltenvektor zusam-
megefasst werden.
Wir k¨nnen unsere im letzten Abschnitt eingefuhrten Zeilenoperationen eben-
o ¨
falls als Matrizenmultiplikationen interpretieren. Zun¨chst Z1: Betrachten wir
a
i,j k
die m — m-Matrix Z die wie folgt gebildet ist: Sei e der Zeilenvektor, dessen
k-te Komponente 1 ist und sonst 0
ek := (0 . . . 0 1 0 . . . 0) .

k

Die i-te Zeile der Matrix Z i,j ist ej , die j-te ist ei und fur k = i, j ist die k-te
¨
Zeile ek . Z i,j ist also “fast” die Einheitsmatrix, nur steht in den Zeilen i und j die
Eins jeweils an der vertauschten Stelle. Multiplizieren wir die Matrix A von links
mit Z i,j , so wird einfach die i-te Zeile von A mit der j-ten ausgetauscht. Z i,j b
ist einfach der Spaltenvektor, dessen i-te mit der j-ten Komponente ausgetauscht
sind. Man beachte, dass Z i,j invertierbar ist: Es gilt

Z i,j · Z i,j = Em ,

d.h. Z i,j ist sein eigenes Inverses. Das Gleichungssystem (3.11) hat deshalb die
gleiche L¨sungsmenge wie das System
o

Z i,j A x = Z i,j b.

46
Die Zeilenoperation Z1 ist also nichts anderes als die Multiplikation des Systems
von links mit einer dieser Z-Matrizen.
Nun zur Zeilenoperation Z2: Diese ist noch einfacher zu bewerkstelligen. Wir
betrachten die m — m-Diagonalmatrix Di,± deren i-tes Diagonalelement die Zahl
± ist und die anderen 1. Die Multiplikation des Gleichungssystems (3.11) von
links mit Di,± ,
Di,± Ax = Di,± b,
ist dann nichts anderes, als dass die i-te Gleichung mit ± multipliziert wird.
Wiederum ist fur ± = 0 die Matrix Di,± invertierbar mit
¨
’1
Di,± = Di,1/± .

Nun noch zur Zeilenoperation Z3: Addieren wir das ±-fache der l-ten Zeile
zur k-ten, so ist das einfach die Multiplikation von links mit der Matrix M l,k,± ,
die bis auf die k-te Zeile die Zeilen der Einheitsmatrix hat und deren k-te Zeile
gleich
(0 . . . 0 ± 0 . . . 1 0) .
‘ ‘
l k
ist. Wiederum ist M l,k,± invertierbar: Das Inverse ist einfach M l,k,’± .
Wir k¨nnen nun die De¬nition 3.1 wie folgt in Matrizensprechweise uberset-
o ¨
zen: Eine quadratische Matrix ist regul¨r (im Sinne dieser De¬nition), wenn sie
a
durch Multiplikation von links mit Z-, D- oder M -Matrizen der obigen Form
in die Einheitsmatrix uberfuhrt werden kann. Damit ergibt sich nun ziemlich
¨ ¨
einfach der folgende

Satz 3.7 Eine quadratische Matrix A ist genau dann invertierbar, wenn sie re-
gul¨r ist.
a

Beweis. I) Wir setzen zun¨chst voraus, dass die Matrix A invertierbar ist.
a
Dann hat das Gleichungssystem (3.11) die eindeutige L¨sung x = A’1 b. Nach
o
Satz 3.3 ist die Matrix A also regul¨r.
a
II) Wir setzen nun voraus, dass die Matrix A regul¨r ist. Gem¨ss der Diskus-
a a
sion vor der Formulierung des Satzes gibt es eine Matrix B, die als Produkt von
Z-, D- oder M -Matrizen dargestellt werden kann, mit

BA = En .

Wegen Satz 3.6 ist B invertierbar. Daraus folgt

A = B ’1 B A = B ’1 (BA) = B ’1 ,

also
AB = B ’1 B = En .

47
Somit ist A invertierbar und die Inverse davon ist B.
Die Identi¬kation der Inversen einer quadratischen Matrix A mit der Matrix B
des obigen Beweises fuhrt auf ein bequemes Schema, um die Inverse “von Hand”
¨
auszurechnen. Ist A eine n — n-Matrix, so bilden wir die n — 2n-Matrix, indem
wir die Einheitsmatrix En rechts an die Matrix anfugen:
¨
« 
1 0 ... 0
a11 a12 . . . a1n
... . ·

¬ a21 a22 . . . a2n
01 .
·.
¬
¬. . . . .. ..
. . . .
. . . . . 0
.
an1 an2 . . . ann 0 . . . 0 1
Nun fuhren wir elementare Zeilenoperationen durch, bis die linke H¨lfte die Ein-
a
¨
heitsmatrix ist (oder bis das Verfahren vorher abbricht, in welchem Fall die Matrix
A singul¨r ist). Dann steht in der rechten H¨lfte die Inverse von A (falls man
a a
sich nicht verrechnet hat).
Zum Schluss noch eine Begri¬sbildung, die sp¨ter wichtig werden wird.
a
De¬nition 3.6 a) Sei A eine m — n-Matrix: A = (aij ) . Dann nennt man die
n — m-Matrix, die man durch Vetauschung der Zeilen und Spalten aus A erh¨lt,
a
def
die transponierte Matrix AT von A: AT = aij , mit aij = aji .
b) Eine quadratische Matrix A heisst symmetrisch, wenn AT = A gilt.
Hier ein paar einfache Eigenschaften:
Satz 3.8 a) Seien A eine m — n-Matrix und B eine n — k-Matrix, so gilt
(AB)T = B T AT .
b) Ist A ∈ GL(n, K), so ist AT ∈ GL(n, K) und es gilt
’1 T
= A’1
AT .
Beweis. a) B T ist eine k — n-Matrix und AT eine n — m-Matrix. Somit ist
def
B T AT de¬niert. Sei D = (dij ) = AB und DT = dij . Dann gilt

dij = dji = ajk bki = bik akj ,
k k

mit der Notation AT = aij , B T = bij . Die rechte Seite der obigen Gleichung
ist genau die ij-te Komponente von B T AT .
b) Nach a) gilt
T T
A’1 AT = AA’1 T
= En = En ,
T T
AT A’1 = A’1 A T
= En = En .
T
Daraus folgt, dass (A’1 ) die Inverse von AT ist. Insbesondere folgt auch, dass
AT invertierbar ist.

48
4 Vektorr¨ume und lineare Abbildungen
a
4.1 Vektorr¨ume
a
Dreidimensionale Vektoren konnen bekanntlich addiert werden (Parallelogramm-
¨
regel) und mit reellen Zahlen (“Skalaren”) gestreckt werden. Wir betrachten in
diesem Kapitel Verallgemeinerungen dieser Situation. Zun¨chst k¨nnen die reel-
a o
len Zahlen durch Elemente eines beliebigen K¨rpers K ersetzt werden, z.B. C,
o
Z2 . Wir nennen die Elemente des K¨rpers manchmal auch “Skalare”.
o

De¬nition 4.1 Eine nichtleere Menge V , versehen mit zwei zweistelligen Ver-
knupfungen
¨

V —V (v, w) ’ v + w ∈ V,
K —V (±, v) ’ ±v ∈ V,

heisst K-Vektorraum (oder einfach Vektorraum, falls klar ist, mit was fur ei-
¨
nem K¨rper man arbeitet), wenn die folgenden Vektorraumaxiome (V1)-(V5)
o
erfullt sind:
¨

V1 (V, +) ist eine abelsche Gruppe,

V2
1v = v, ∀v ∈ V,

V3
± (βv) = (±β) v, ∀±, β ∈ K, ∀v ∈ V,

V4
(± + β) v = ±v + βv, ∀±, β ∈ K, ∀v ∈ V,

V5
± (v + w) = ±v + ±w, ∀± ∈ K, ∀v, w ∈ V.

Die Elemente von V bezeichnet man ublicherweise als “Vektoren”. Die Ope-
¨
ration + nennt man Vektoraddition, die von der Addition im K¨rper zu unter-
o
scheiden ist. Wir bezeichnen mit ’v das bezuglich der Addition inverse Element
¨
von v ∈ V. Die Axiome bedurfen einiger Erl¨uterungen. Zun¨chst bezeichnen wir
a a
¨
jeweils mit 0 das Neutralelement der Addition in V, das existiert, da (V, +) eine
abelsche Gruppe ist. Dies sollte jedoch nicht mit dem Nullelement des K¨rpers
o
verwechselt werden. In vielen Buchern werden Vektoren generell in der Nota-
¨
tion besonders hervorgehoben, z.B. indem man ’, oder v fur Elemente aus V
’v ¨


schreibt. Der Nullvektor w¨re entsprechend dann 0 oder 0. Dies fuhrt jedoch
a ¨
zu einer In¬‚ation von Notationen. Es ist aus dem Kontext immer klar, was fur ¨


49
eine Null in einer Formel steht. Der Leser sollte sich das jeweils genau uberle-
¨
gen. Entsprechende Unterscheidungen sind auch in (V2)-(V5) notwendig. Man
muss insbesondere zwischen + als Verknupfung der Korperelemente und + als
¨ ¨
Verknupfung der Vektoren unterscheiden. So ist das Plus auf der linken Seite von
¨
(V4) die Addition in K und auf der rechten Seite die in V. In (V5) ist das Plus
auf beiden Seiten die Verknupfung in V. Ein Ausdruck der Form ± + v mit ± ∈ K
¨
¨
und v ∈ V ist hingegen nicht de¬niert. Ahnliche Unterscheidungen gibt es bei der
Multiplikation. In (V2) wird auf der linken Seite zweimal die Multiplikation von
Vektoren mit Skalaren verwendet, w¨hrend auf der rechten Seite ±β naturlich
a ¨
die Multiplikation in K ist. Das resultierende K¨rperelement wird anschliessend
o
mit einem Vektor verknupft. Eine Multiplikation von zwei Vektoren ist ebenfalls
¨
nicht de¬niert.
Einige einfache Folgerungen aus den Axiomen:

Proposition 4.1 a)
0v = 0, ∀v ∈ V.
Hier ist die Null auf der linken Seite die “K¨rper-Null” und auf der rechten Seite
o
die “Vektorraum-Null”
b)
±0 = 0, ∀± ∈ K.
(Hier ist die Null auf beiden Seiten naturlich die “Vektorraum-Null”)
¨
c)
(’1) v = ’v, ∀v ∈ V.
Auf der linken Seite wird mit der ’1 des K¨rpers multipliziert und auf der rechten
o
Seite steht das inverse Element bezuglich der Addition in V.
¨
d) Falls ±v = 0 gilt, so folgt ± = 0 oder v = 0.

Beweis. a)

0v = (0 + 0) v (Eigenschaft der Null in K)
= 0v + 0v (V4).

Addiert man auf beiden Seiten ’ (0v) , das inverse Element von 0v in V bezuglich
¨
der Vektorraumaddition, so folgt 0v = 0.
b) geht analog.
c)

(’1) v + v = (’1) v + 1v (V2)
= (’1 + 1) v (V4)

<<

. 11
( 60 .)



>>