<<

. 10
( 60 .)



>>


3.2 Matrizenrechnung
Fur das Rechnen mit Gleichungssystemen ist es bequem, eine Addition und eine
¨
Multiplikation von zwei Matrizen einzufuhren. Wir betrachten hier Matrizen,
¨
deren Komponenten aus einem beliebigen aber fest gew¨hlten K¨rper K sind.
a o

41
Beide Operationen sind jedoch nur erklart, wenn die beiden Matrizen, die zu
¨
addieren bzw. zu multiplizieren sind, gewissen Bedingungen genugen. Zunachst
¨ ¨
die Addition. Sie ist nur fur zwei Matrizen des gleichen Typs erklart, d.h. wenn
¨ ¨
die Anzahl der Zeilen und die Anzahl der Spalten bei beiden Matrizen die gleiche
ist.

De¬nition 3.3 A = (aij ) und B = (bij ) seien zwei m — n-Matrizen. Dann ist
die Summe A + B wieder eine m — n-Matrix:

A + B = (aij + bij )1¤i¤m, 1¤j¤n .

Die Addition de¬niert man also einfach, indem man die Komponenten der
Matrizen addiert.
Es gibt gute Grunde dafur, dass man bei der Multiplikation anders vorgeht.
¨ ¨
Zun¨chst ist sie nur de¬niert, wenn die Anzahl der Spalten der ersten Matrix
a
gleich der Anzahl der Zeilen der zweiten Matrix ist:

De¬nition 3.4 A = (aij ) sei eine m — n-Matrix und B = (bij ) sei eine n — k-
Matrix. Dann ist die m — k-Matrix C = A · B = (cij ) wie folgt de¬niert:
n
ait btj , 1 ¤ i ¤ m, 1 ¤ j ¤ k.
cij :=
t=1

Die Komponente i, j von A · B ergibt sich also, indem man die Zeile Nummer
i der A-Matrix
ai1 ai2 . . . ain
und die Spalte Nummer j der B-Matrix
« 
b1j
¬ b2j ·
¬ ·
¬.
.
·
. 
bnj

nimmt und die Komponenten dieser Vektoren sukzessive paarweise miteinander
multipliziert und diese Produkte dann aufsummiert.
Hier ein Beispiel
« 
101
123
, B =  2 2 2 .
A=
’1 3 ’5
1 ’1 2

A · B ist dann eine 2 — 3-Matrix:
8 1 11
A·B = .
0 11 ’5

42
Man beachte, dass B · A nicht de¬niert ist, denn die Anzahl der Spalten von B
ist nicht gleich der Anzahl der Zeilen von A. Im nachfolgenden Satz formulieren
wir ein Reihe von elementaren Eigenschaften dieser Multiplikation. Wir lassen
ublicherweise den · weg. Ferner verwenden wir die Konvention, dass “mal” starker
¨ ¨
bindet als “plus”.

Satz 3.4 a) Ist A eine m — n-, B eine n — k- und C eine k — l-Matrix, so gilt

(AB) C = A (BC) .

b) Ist A eine m — n-, und sind B, C n — k- Matrizen, so gilt

A (B + C) = AB + AC.

c) Sind A, B zwei m — n-Matrizen, und ist C eine n — k- Matrix, so gilt

(A + B) C = AC + BC.

d) Ist A eine m — n-Matrix, und sind Em und En die durch (3.8) de¬nierten
Einheitsmatrizen, so gilt
Em A = AEn = A.

Beweis. Die Beweise folgen sofort aus den entsprechenden Assoziativ- und
Distributivgesetzen der Multiplikation in K. Wir beweisen a). Die Beweise der
anderen Aussagen seien dem Leser uberlassen.
¨
Wir betrachten die Komponente dij von D := (AB) C. Per De¬nition erhalten
wir sie als
k
dij = fit ctj ,
t=1

wobei fit die entsprechende Komponente von AB ist, also
n
fit = ais bst .
s=1

Zusammen ergibt das
k n n k
dij = ais bst ctj = ais bst ctj
t=1 s=1 s=1 t=1

nach den Assoziativ- und Distributivgesetzen in K. Die rechte Seite ist aber nichts
anderes als die Komponente Nummer i, j von A (BC) .
Ein Spezialfall sind die quadratischen Matrizen. Wir bezeichnen die Menge
der n — n-Matrizen mit Komponenten aus K mit M (n, K). Elemente in M (n, K)
k¨nnen wir also stets addieren und multiplizieren.
o

43
Satz 3.5 M (n, K) versehen mit der Addition + und der Matrizenmultiplikation
· ist ein Ring mit Eins. Das Neutralelement der Addition ist die Nullmatrix
(mit allen Komponenten 0) und das Neutralelement der Multiplikation ist die
Einheitsmatrix En .

Beweis. Das folgt sofort aus dem vorangegangen Satz.

Bemerkung 3.1 Es ist sehr wichtig zu bemerken, dass der Ring (M (n, K), +, ·)
nicht kommutativ ist (ausser naturlich fur n = 1). Dazu ein Beispiel
¨ ¨
01 12 34
= ,
12 34 7 10

12 01 25
= .
34 12 4 11
Es kann naturlich durchaus (auch fur n ≥ 2) fur zwei Matrizen A und B ∈
¨ ¨ ¨
M (n, K) vorkommen, dass AB = BA gilt. Ein triviales Beispiel ist A = En .
Man sagt dann, dass A und B vertauschen. “In der Regel” vertauschen jedoch
zwei Matrizen nicht. Wenn Sie zwei Matrizen “zuf¨llig” ausw¨hlen, so werden
a a
diese typischerweise nicht vertauschen. (Der letzte Satz macht naturlich keinen
¨
mathematisch pr¨zisen Sinn).
a

Wir bezeichnen die Nullmatrix auch einfach mit 0. Es sollte aus dem Kontext
stets klar sein, ob mit 0 die Null im K¨rper oder die Nullmatrix gemeint ist.
o
Von besonderem Interesse in einem Ring sind die bezuglich der Multiplikation
¨
invertierbaren Elemente.

De¬nition 3.5 Eine Matrix A ∈ M (n, K) heisst invertierbar, wenn eine Ma-
trix B ∈ M (n, K) existiert mit

AB = BA = En . (3.10)

Diese zu A inverse Matrix wird dann meist mit A’1 bezeichnet. Die Menge
aller invertierbaren n — n-Matrizen wird mit GL(n, K) bezeichnet. (GL steht fur
¨
“general linear”).

Bemerkung 3.2 Die obige De¬nition setzt implizit voraus, dass die Inverse A’1
eindeutig ist. Hier das Argument: Sind B, B zwei Matrizen, die (3.10) erfullen,
¨
so gilt
B = BEn = B (AB ) = (BA) B = En B = B .

Es ist keinesfalls so, dass alle von 0 verschiedenen Matrizen A ∈ M (n, K)
invertierbar sind. Betrachten wir etwa
01
A= .
00

44
Dann ist
b11 b12 b21 b22
A = ,
b21 b22 0 0
was naturlich unm¨glich die Einheitsmatrix ist. Demzufolge ist A nicht invertier-
o
¨
bar, obwohl es nicht die Nullmatrix ist.
’1
En ist trivialerweise invertierbar, und es gilt En = En .

Satz 3.6 a) (GL(n, k), ·) ist eine Gruppe. (Man nennt sie die allgemeine lineare
Gruppe).
b) Fur A, B ∈ GL(n, K) gilt (AB)’1 = B ’1 A’1 .
¨
’1
c) Fur A ∈ GL(n, K) ist A’1 ∈ GL(n, K) und es gilt (A’1 ) = A.
¨

Beweis. Wir mussen zeigen, dass · auf GL(n, k) uberhaupt de¬niert ist, denn
¨ ¨
bisher hatten wir nur gesehen, dass fur A, B ∈ M (n, K) das Produkt AB wieder
¨
eine n — n-Matrix ist. Wir mussen also zeigen, dass fur A, B ∈ GL(n, K), das
¨ ¨
Produkt AB wieder invertierbar ist. Das ist jedoch sehr einfach: Wir weisen nach,
dass B ’1 A’1 das Inverse davon ist (dann haben wir auch gleich b) bewiesen):

B ’1 A’1 (AB) = B ’1 A’1 A B = B ’1 En B
= B ’1 B = En ,

und
(AB) B ’1 A’1 = En
geht genau gleich.
Damit ist zun¨chst gezeigt, dass · eine zweistellige Verknupfung auf GL(n, K)
a ¨
ist. Damit folgt jedoch nun sofort, dass (GL(n, k), ·) eine Gruppe ist. Das Asso-
ziativgesetz ubertr¨gt sich einfach von M (n, K) her, En ist das Neutralelement,
a
¨
und jedes Element hat per De¬nition ein Inverses. Teil b) ist damit auch bewiesen
und c) ist evident.
Ein sehr einfacher Spezialfall von quadratischen Matrizen sind Diagonalma-
trizen. Dies sind Matrizen, die h¨chstens in der Diagonalen i = j von Null
o
verschiedene Elemente haben.
« 
d1 0 . . . . . . 0
¬ 0 d2 0 . . . 0 ·

..
¬
. . ·,
D = ¬ 0 0 d3 .·
¬
¬. .. ..
.
·
. . 0
.
0 . . . . . . 0 dn

oder kurz mit dem Kronecker-Symbol.

D = (di δij ) .


45
Eine derartige Diagonalmatrix ist genau dann invertierbar, wenn alle Diagonal-
element di von Null verschieden sind, und es ist dann
1
D’1 = δij .
di
Die Einheitsmatrix En ist die Diagonalmatrix mit di = 1.
Wir betrachten nun die Diskussion des Gleichungssystems (3.3) unter diesen
Gesichtspunkten. Zunachst konnen wir es etwas kompakter schreiben. Dazu
¨ ¨
fassen wir das n-Tupel der Unbekannten xi als Spaltenvektor auf
« 
x1
¬ x2 ·
x = ¬ . ·.
¬ ·
..
xn

Wir k¨nnen das naturlich auch als n — 1-Matrix au¬assen. Das Gleichungssystem
o ¨
(3.3) hat dann einfach die Form

Ax = b. (3.11)

<<

. 10
( 60 .)



>>