<<

. 55
( 60 .)



>>

symmetrisch ist.
Eine ¨hnliche Aussage gilt fur selbstadjungierte Endomorphismen in einem
a ¨
unit¨ren Vektorraum, wobei man sich jedoch beschr¨nken muss: Ist f selbstad-
a a
jungiert und ist ± ∈ C, so ist ±f i.a. nicht selbstadjungiert:
±f (v) , w = ± f (v) , w = ± v, f (w)
= v, ±f (w) .
Man sieht somit, dass ±f nur dann selbstadjungiert ist, wenn ± ∈ R ist. Die
Menge der selbstadjungierten Endomorphismen eines unit¨ren Vektorraums bil-
a
den somit einen R-Vektorraum und keinen C-Vektorraum.
Lemma 11.10 Sei V = {0} . Jeder symmetrische Endomorphismus eines Eu-
klidschen, bzw. selbstadjungierte Endomorphismus eines unit¨ren Vektorraums,
a
hat mindestens einen reellen Eigenwert. Alle Eigenwerte des Endomorphismus
sind reell.
Beweis. Wir betrachten den unit¨ren Fall:
a
Sei f selbstadjungiert und » ∈ spec f. Dann existiert eine Eigenvektor v = 0
und es gilt:
2
»v = » v, v = »v, v = f (v) , v
2
= v, f (v) = v, »v = » v .

234
Wegen v = 0 folgt » = ». Somit sind alle Eigenwerte reell.
Ist f ein symmetrischer Endomorphismus eines Euklidschen Vektorraums, so
betrachten wir die darstellende Matrix bezuglich einer beliebigen orthonormierten
¨
Basis. Diese Matrix ist nach Lemma 11.9 symmetrisch. Aufgefasst als komplexe
¨
Matrix ist sie also Hermitesch. Nach der Uberlegung im unit¨ren Fall folgt also,
a
dass diese Matrix ausschliesslich reelle Eigenwerte hat, welche somit auch die
Eigenwerte von f sind.

Satz 11.10 (Spektralsatz, Hauptachsentransformation) Sei f : V ’ V
ein Endomorphismus. f ist genau dann symmetrisch (bzw. selbstadjungiert),
wenn eine orthonormale Basis existiert, die f reell diagonalisiert.

Beweis. I) Ist f mit einer orthonormierten Basis reell diagonalisierbar, so ist
f nach Lemma 11.9 o¬ensichtlich symmetrisch (bzw. selbstadjungiert), da jede
reelle Diagonalmatrix symmetrisch ist, bzw. Hermitesch.
II) Sei umgekehrt f symmetrisch, bzw. selbstadjungiert. Wir diskutieren den
selbstadjungierten Fall (in einem unit¨ren Vektorraum) und zeigen mit Induktion
a
nach n := dim V, dass f mit einer orthonormierten Matrix reell diagonalisierbar
ist. Wie wir schon wissen, hat f nur reelle Eigenwerte.
Die Induktionsverankerung n = 1 ist trivial.
Sei also n ≥ 2. Sei » ∈ spec (f ) . Nach Lemma 11.10 ist » ∈ R. Sei v ein
Eigenvektor. Wir k¨nnen (mit einer Streckung) annehmen, dass v = 1 gilt. Sei
o
U das orthogonale Komplement von L [v] .
Der springende Punkt ist, dass U f -invariant ist. Dies sieht man wie folgt:
Sei u ∈ U. Dann gilt

f (u) , v = u, f (v) = u, »v = » u, v = 0.

Somit ist f (u) ∈ U.
Wir betrachten nun die Einschrankung f von f auf U. Diese ist naturlich
¨ ¨
auch selbstadjungiert. Nach Induktionsvoraussetzung existiert eine orthonor-
mierte Basis v2 , . . . , vn von U, die f reell diagonalisiert. Dann ist v, v2 , . . . , vn
eine orthonormierte Basis von V, die f reell diagonalisiert.

Korollar 11.1 a) Jede symmetrische Matrix ist orthogonal ¨hnlich zu einer re-
a
ellen Diagonalmatrix.
b) Jede Hermitesche Matrix ist unit¨r ¨hnlich zu einer reellen Diagonalmatrix.
aa

Wir wollen noch kurz auf einen Zusammenhang von Endomorphismen und
Bilinearformen, und speziell von symmetrischen Endomorphismen und symme-
trischen Bilinearformen eingehen. Es ist dem Leser ho¬entlich schon aufgefal-
¨
len, dass eine Ahnlichkeitstransformation mit orthogonalen Matrizen genau der
Transformation von Grammatrizen entspricht: Ist A orthogonal ¨hnlich zu B,
a
d.h. existiert eine orthogonale Matrix S mit B = S ’1 AS, so ist das auch S T AS.

235
Das ist genau das Transformationsverhalten von Grammatrizen bei einem Basis-
wechsel. Wir wollen das nun etwas abstrakter formulieren. Wir diskutieren nur
den Euklidschen Fall.
Sei (V, , ) ein Euklidscher Vektorraum. Ist f : V ’ V ein Endomorphismus
(beliebig zun¨chst), so de¬nieren wir die Abbildung •f : V — V ’ R durch
a

•f (v, w) := f (v) , w .

Man sieht sofort, dass •f eine Bilinearform ist. Nun kann man sich sehr einfach
uberlegen, dass sich jede Bilinearform in dieser Weise darstellen l¨sst. Dazu
a
¨

erinnern wir uns des Isomorphismus φ zwischen V und V , den wir zum Beginn
des Kapitels vorgestellt hatten: Fur v ∈ V ist φ (v) das Element in V — mit
¨
φ (v) (w) = v, w . Wir bezeichnen diesen Isomorphismus hier mit ψ. Sei nun •
eine beliebige Bilinearform auf V. Fur jedes v ∈ V ist die Abbildung w ’ • (v, w)
¨

ein Element in V . Wir k¨nnen deshalb dessen Inverses unter ψ betrachten. Das
o
ist ein Element v ∈ V mit ψ (v) (w) = v, w = • (v, w) fur alle w ∈ V. Nun
¨
v ’ v ∈ V linear ist, was
muss man sich uberlegen, dass die Abbildung V
¨
dem Leser uberlassen sei. Wir bezeichnen diese Abbildung mit f. f ist also ein
¨
Endomorphismus. Damit erhalten wir • (v, w) = f (v) , w fur alle v, w ∈ V.
¨
Wir haben damit bewiesen, dass f ’ •f surjektiv ist. Es ist nicht schwer
zu zeigen, dass diese Abbildung ein Vektorraumisomorphismus zwischen dem
Vektorraum der Endomorphismen und dem Vektorraum der Bilinearformen ist.
Die Bilinearform •f ist genau dann symmetrisch, wenn

f (v) , w = f (w) , v = v, f (w) , ∀v, w ∈ V

gilt, d.h. wenn f gemass unserer De¬nition 11.6 symmetrisch ist.
¨
Wir konnen nun unseren Spektralsatz 11.10 noch etwas anders interpretieren.
¨
Er besagt, dass fur einen symmetrischen Endomorphismus eine orthonormale Ba-
¨
sis V = (v1 , . . . , vn ) existiert mit f (vi ) = »i vi . Fur die symmetrische Bilinearform
¨
•f bedeutet das

•f (vi , vj ) = f (vi ) , vj = »i vi , vj = »i δij .

Die V-Basis diagonalisiert also diese symmetrische Bilinearform im Sinne von Ka-
pitel 10. Allerdings wissen wir aus dem Satz von Sylvester, dass wir die Gram-
matrix weiter zu einer Matrix mit nur noch ±1 und Nullen in der Diagonalen
vereinfachen k¨nnen; dies geht jedoch dann nicht mehr mit einer orthonormier-
o
ten Basis (aber noch mit einer orthogonalen, denn wir brauchen ja die vi nur
noch zu strecken).
Wir kommen noch zu einer variationellen Beschreibung der Eigenwerte eines
symmetrischen oder selbstadjungierten Endomorphismus, deren unendlichdimen-
sionalen Versionen in der Analysis und der Mathematischen Physik eine grosse
Rolle spielen.

236
Wir betrachten einen symmetrischen Endomorphismus f eines Euklidschen
Vektorraumes, oder einen selbstadjungierten eines unitaren. Der selbstadjun-
¨
gierte Fall geht genau gleich wie der Euklidsche; wir begnugen uns mit letzterem.
¨
Wir wissen schon, dass die Eigenwerte alle reell sind und der Endomorphismus
diagonalisierbar ist. Seien »m < »m’1 < . . . < »1 die der Gr¨sse nach geordneten
o
Eigenwerte und Ei , 1 ¤ i ¤ m, die Eigenr¨ume. Da f diagonalisierbar ist gilt
a
m
V= Ei .
i=1

Ferner stehen nach dem Spektralsatz die Eigenraume alle senkrecht aufeinander.
¨

Satz 11.11 Es gilt
f (v) , v
»1 = sup (11.13)
v2
v∈V, v=0

und fur k ≥ 2
¨
k’1
f (v) , v
:v⊥
»k = sup Ei . (11.14)
v2 i=1

(v ⊥ U bedeutet, dass v orthogonal zu allen Vektoren in U ist).

Beweis. Jedes Element v ∈ V hat eine eindeutige Darstellung
m
vi , vi ∈ Ei .
v= (11.15)
i=1

Dann gilt
m
2 2
v = vi ,
i=1
m m
f (v) = f (vi ) = »i v i ,
i=1 i=1
m
2
f (v) , v = »i v i .
i=1

Somit folgt fur alle v ∈ V :
¨
m
2 2
f (v) , v ¤ »1 vi = »1 v .
i=1


Andererseits gilt naturlich fur v ∈ E1 : f (v) , v = »1 v 2 . Damit ist (11.13)
¨ ¨
bewiesen. (11.14) folgt ganz analog: Man muss nur beachten, dass die Vektoren v,

237
die senkrecht auf k’1 Ei stehen, genau die Elemente sind, die in der Darstellung
i=1
(11.15) v1 = . . . = vk’1 = 0 haben. Der Rest des Argumentes geht genau gleich.

Zum Schluss dieses Abschnittes geben wir noch eine
Anwendung auf stochastische Matrizen.
Zur Erinnerung: Eine stochastische Matrix P = (pij )i,j∈I war eine reelle
quadratische Matrix mit nicht-negativen Komponenten und j pij = 1 fur alle ¨
i ∈ I. (I ist eine endliche Menge, die wir naturlich mit 1, . . . , n durchnumerieren
¨
(n)
k¨nnen). P n = pij ist die n-te Potenz. Wir setzen nun stets voraus, dass P
o
irreduzibel und aperiodisch ist (siehe Kapitel 8). Wie wir in diesem Kapitel ge-
sehen hatten, existiert dann eindeutig ein station¨rer Wahrscheinlichkeitsvektor
a
(πi )i∈I mit
πi > 0, ∀i, πi pij = πj , ∀j.
πi = 1,
i i

Eine sehr spezielle aber in Anwendungen wichtige Situation liegt vor, wenn die
sogenannte detailed balance“ Bedingung erfullt ist:
¨

πi pij = πj pji , ∀i, j. (11.16)

De¬nition 11.7 Ein stochastische Matrix, die (11.16) erfullt heisst reversibel.
¨

Zu der stochastischen Matrix P de¬nieren wir nun den zugehorigen Endomor-
¨
I I
phismus fP : R ’ R , fP (x) := P x. Zudem fuhren wir das folgende Skalarpro-
¨
I
dukt auf R ein:
x, y π := πi xi yi .
i∈I

Lemma 11.11 Ist P reversibel, so ist fP symmetrisch bezuglich dieses Skalar-
¨
produktes.

Beweis. Fur x, y ∈ RI gilt
¨

fP (x) , y = πi pij xj yi = πj pji xj yi = x, fP (y) .
π π
i,j i,j




Bemerkung 11.7 P selbst braucht naturlich keine symmetrische Matrix zu sein.
¨
Die darstellende Matrix von fP bezuglich einer orthonormierten Basis ist jedoch
¨

<<

. 55
( 60 .)



>>