<<

. 35
( 60 .)



>>

..
¬. . ·.
·
.
. 0 .
¬. ..
¬ ·
. .
. 0
·

»i
··· ···
0 0 Jdi,r
i


152
Dabei ist ri (d.h. die Anzahl der Jordanbl¨cke fur den Eigenwert »i ) die geome-
o ¨
trische Vielfachheit von »i und ni ist die algebraische Vielfachheit von »i . Das
Minimalpolynom von f ist
s
(x ’ »i )mi ,
mf (x) = (7.15)
i=1


wobei mi := min k : Ek (»i ) = E (»i ) gilt. Ferner ist mi = max {di,1 , . . . , di,ri }.

Beweis. Wir beweisen die Existenz.
Nach Lemma 7.6 a) sind die verallemeinerten Eigenr¨ume E (»i ) f -invariant.
a
Wir k¨nnen deshalb f auf die E (»i ) einschr¨nken. Diese Einschr¨nkung bezeich-
o a a
nen wir mit fi . Nach Satz 7.3 stellt sich f als direkte Summe der fi dar, also
k
f= i=1 fi , wie im Abschnitt 6.2 eingefuhrt wurde. Nach der Diskussion in
¨
diesem Abschnitt ben¨tigen wir nur Basen in den einzelnen Unterr¨umen E (»i ) ,
o a
bezuglich welchen sich die fi durch die J (»i ) darstellen. Denn wegen Satz 7.3
¨
ist die Vereinigung dieser Basen der E (»i ) eine Basis in V , und ferner ist die
darstellende Matrix von f bezuglich dieser Basis in V durch (7.14) gegeben.
¨
Wir betrachten nun die Endomorphismen

gi := fi ’ »i idE(»i )
m
auf E (»i ) . Per De¬nition ist gi i = 0. Nach Satz 7.1 existiert eine Basis in
E (»i ), bezuglich der die darstellende Matrix von gi von der Form (7.1) ist. Die
¨
darstellende Matrix von fi gewinnt man einfach, indem man dazu »i Eni addiert.
Das ist jedoch nichts anderes als die Matrix J (»i ). Damit ist die Existenz einer
Jordanbasis gezeigt. Man beachte, dass mi die maximale Gr¨sse der Jordanbl¨cke
o o
zu »i ist.
Die Zusatzbehauptungen folgen sehr einfach: Falls die darstellende Matrix
durch (7.14) gegeben ist, so ist das charakteristische Polynom naturlich
¨
s
(»i ’ x)ni .
i=1

Somit sind die ni die algebraischen Vielfachheiten der Eigenwerte.
Wegen ker (f ’ »i idV ) ‚ E (»i ) gilt ker (f ’ »i idV ) = ker fi ’ »i idE(»i ) .
Demzufolge ist dim (ker (f ’ »i idV )) - also die geometrische Vielfachheit von
»i - gleich der Anzahl der Jordanbl¨cke des nilpotenten Endomorphismus fi ’
o
»i idE(»i ) , d.h. einfach gleich der Anzahl der Jordanbl¨cke in A fur den Eigenwert
o ¨
»i .
Wir hatten schon oben bemerkt dass mi die maximale Gr¨sse der Jordanbl¨cke
o o
zum Eigenwert »i ist. Wir zeigen noch, dass das Minimalpolynom durch (7.15)
gegeben ist. Bezeichnet p (x) das Polynom auf der rechten Seite von (7.15), so

153
bildet p (f ) o¬ensichtlich jeden Vektor der entsprechenden Jordanbasis nach Null
ab, d.h. es gilt p (f ) = 0. Daraus folgt, dass das Minimalpolynom p (x) teilt.
Andererseits gilt jedoch fur jeden echten Teiler q (x) von p (x) die Ungleichung
¨
q (f ) = 0, was man folgendermassen sieht:
Sei s
(x ’ »j )tj ,
q (x) =
j=1

mit tj ¤ mj und ti < mi fur mindestens ein i. Dann wird die oberste Schicht”
¨

ti
der Jordanbasis in E (»i ) unter fi ’ »i idE(»i ) nicht nach Null abgebildet, also
auch nicht unter (f ’ »i idV )ti . Ist nun v ein solcher Vektor ∈ E (»i ) mit w :=
(f ’ »i idV )ti (v) = 0. Wegen der Invarianz von E (»i ) ist (f ’ »j idV )k (w) ∈
E (»i ) fur jedes k ∈ N. Fur j = i ist dann (f ’ »j idV )tj (w) = 0 wegen E (»i ) ©
¨ ¨
E (»j ) = {0}.
Demzufolge ist
s
(f ’ »j )tj
q (f ) (v) = (w) = 0.
j=1, j=i


Wir haben also gezeigt, dass jeder echter Teiler von p (x) den Endomorphismus
nicht anulliert. Demzufolge ist p (x) das Minimalpolynom.
Der Beweis der Eindeutigkeit der Jordanmatrix (bis auf die Reihenfolge der
Bl¨cke) sei dem Leser uberlassen. (Man muss nur zeigen, dass jede Jordanbasis
o ¨
in Basen der E (»i ) zerf¨llt. Anschliessend benutzt man die Eindeutigkeit aus
a ¨
Satz 7.1.




154
8 Nicht negative reelle Matrizen,
Marko¬-Ketten
8.1 Einfuhrende Begri¬e, Beispiele
¨
In diesem Kapitel ist K = R. Wir bezeichnen mit M + (n, R) oder kurz M + (n) die
Menge der n — n-Matrizen A = (aij ) mit aij ≥ 0 fur alle i, j. Diese Matrizen sind
¨
besonders wichtig und haben spezielle Eigenschaften, die wir in diesem Kapitel
diskutieren werden.
Eine Matrix A ∈ M + (n) heisst stochastisch, wenn n aij = 1 fur alle ¨
j=1
1 ¤ i ¤ n gilt. Eine stochastische Matrix ist also einfach eine Matrix in M + (n) ,
die den Vektor «
1
¬1·
1 := ¬ . ·
¬·
..
1
als Eigenvektor zum Eigenwert 1 hat.
Fur jede quadratische n — n-Matrix A und k ∈ N0 bezeichnen wir wie ublich
¨ ¨
k 0
A die k-te Matrixpotenz von A, mit der Festlegung A := En , und schreiben
(k)
aij fur die Komponenten dieser Matrix.
¨
Fur viele Anwendungen ist es etwas unnaturlich, dass die Indizes der Matri-
¨ ¨
zenelemente von 1 bis n laufen. Wir k¨nnen statt dessen eine beliebige endliche
o
Indexmenge I nehmen und dann quadratische Matrizen (aij )i,j∈I . Da wir die
Indexmenge I naturlich einfach durchnumerieren k¨nnen, spielt das hier keine
o
¨
Rolle.
Stochastische Matrizen schreiben wir meist als P = (pij )i,j∈I . Sie spielen in der
Wahrscheinlichkeitstheorie eine grosse Rolle. pij wird dann als die Wahrschein-
lichkeit interpretiert, mit der man in den Zustand j” wechselt, falls man gerade

im Zustand i” ist. Die Bedingung j∈I pij = 1 ist die grundlegende Annahme

der Wahrscheinlichkeitsrechnung. (Wir setzen voraus, dass einige Grundkennt-
nisse uber Wahrscheinlichkeitsrechnung aus dem Gymnasium bekannt sind).
¨
Ein wichtiges Problem ist die Untersuchung der Wahrscheinlichkeiten bei Ite-
rationen des zuf¨lligen Vorgangs. Man fragt sich, mit welcher Wahrscheinlichkeit
a
man im Zustand j ist, wenn man in i startet, aber die zuf¨llige Bewegung” zwei
a

Mal ausfuhrt. Nach einer grundlegenden Regel der Wahrscheinlichkeitsrechnung
¨
muss man einfach uber die Zust¨nde k, die man nach dem ersten Schritt erreichen
a
¨
kann, summieren und dabei die Wahrscheinlichkeiten multiplizieren. Also: Nach
zwei Schritten gelangt man von i nach j mit Wahrscheinlichkeit k pik pkj . Das
ist naturlich nichts anderes als die ij-te Komponente von P 2 . Analog: Wenn man
¨
die Wahrscheinlichkeiten berechnen will, mit denen man nach n Schritten von i
nach j gelangt, muss man einfach die Matrix P zur n-ten Potenz nehmen und
dann die ij-te Komponente davon nehmen. Wir bezeichnen diese Komponente

155
(n)
in Zukunft mit pij . Naturlich ist P n auch wieder eine stochastische Matrix.
¨
Eine derartige Abfolge von Zufallsschritten nennt man in der Wahrschein-
lichkeitstheorie eine Marko¬-Kette. Von besonderem Interesse ist das Verhalten
von solchen Marko¬-Ketten fur grosse n. Dies h¨ngt eng mit den in der Phy-
a
¨
sik besonders wichtigen Ergodens¨tzen zusammen. Wir k¨nnen hier jedoch nur
a o
andeutungsweise darauf eingehen.
Wir betrachten einige Beispiele.

8.1.1 Irrfahrten auf Graphen
Ein (endlicher) Graph G = (E, K, •) besteht aus einer endlichen Menge E von
Ecken (englisch “vertices”) und einer endlichen Menge K von Kanten (englisch
“edges”). Jeder Kante k ∈ K wird ein Paar • (k) = {e, e } von Ecken zuge-
ordnet. Es kann auch e = e gelten. In diesem Fall ist • (k) eine einelementige
Menge. Formal ist • einfach eine Abbildung von K in die Menge der ein- oder
zweielementigen Teilmengen von E. Man sagt dann, dass die Kante k die Ecken
e, e verbindet”, wenn • (k) = {e, e } gilt. Man beachte, dass wir zulassen, dass

zwei verschiedene Kanten dieselben Ecken verbindet und dass eine Kante eine
Ecke mit sich selbst” verbindet.

Fur jede Ecke e ∈ E bezeichnen wir mit Ke die Menge der Kanten, die an e
¨
anstossen”, d.h.

Ke := {k ∈ K : e ∈ • (k)} .
Analog bezeichen wir mit Ke,e die Menge der Kanten, die e mit e verbinden:

Ke,e := {k ∈ K : • (k) = {e, e }} .

Wir setzen nun voraus, dass der Graph G = (E, K, •) die Eigenschaft hat, dass
Ke = … fur jede Ecke e gilt, und de¬nieren eine stochastische Matrix (pe,e )e,e ∈E
¨
durch
|Ke,e |
pe,e := .
|Ke |
Wir setzen naturlich pe,e := 0, wenn Ke,e = … gilt. Es ist o¬ensichtlich, dass
¨
e pe,e = 1 fur jede Ecke e ist. Zur Veranschaulichung stellt man sich diese
¨
¨
sogenannte Ubergangsmatrix” wie folgt vor. Ein Wanderer bewegt sich zuf¨lliga

auf dem Graphen. Be¬ndet er sich zu einem Zeitpunkt in einer Ecke e, so w¨hlt er
a
unter den an e anstossenden Kanten zuf¨llig (und mit gleicher Wahrscheinlichkeit)
a
eine aus und bewegt sich dann auf dieser Kante zur n¨chsten Ecke.
a
Hier ein konkretes

Beispiel 8.1 Wir nehmen E = {1, 2, 3} und folgende Kanten: Eine Kante, die 1
mit sich verbindet, eine, die 1 mit 2 verbindet, zwei Kanten, die 2 mit 3 verbinden,




156
und noch eine Kante, die 3 mit sich verbindet. Dann ist die zugeh¨rige Matrix
o
gegeben durch «1 1 
0
2 2
P =  1 0 2 .
3 3
0213 3
¨
Interessiert man sich fur die Ubergangswahrscheinlichkeiten nach 3 Schritten, so
¨
hat man 3 « 7
«1 1 31 5

0
2 2 24 72 18
P 3 =  1 0 2  =  108 108 13 
31 25
3 3 27
021 5 13 1
3 3 27 27 3
31
zu berechnen. Bei Start in 1 hat man also Wahrscheinlichkeit 72 , nach 3 Schritten

<<

. 35
( 60 .)



>>