<<

. 54
( 60 .)



>>


Beweis. Zun¨chst eine Vorbemerkung: Ist f ein Isomorphismus und U ein
a
invarianter Unterraum unter f, so ist U auch invariant unter f ’1 . Der Beweis ist
einfach: Die Einschr¨nkung von f auf U , f |U , ist eine Abbildung U ’ U mit
a
Kern {0} . Daher ist diese Abbildung ein Isomorphismus, was impliziert, dass
f ’1 (u) ∈ U fur u ∈ U ist.
¨
Nun zum eigentlichen Beweis des Lemmas: Sei v ∈ U ⊥ . Dann gilt fur jedes
¨
Element u ∈ U

u, f (v) = f f ’1 (u) , f (v) = f ’1 (u) , v wegen der Isometrieeigenschaft
= 0 nach der Vorbemerkung und v ∈ U ⊥ .

Daraus folgt f (v) ∈ U ⊥ .

Satz 11.8 a) Sei (V, , ) ein Euklidscher Vektorraum und f eine Isometrie.
Dann existiert eine orthonormierte Basis, bezuglich der die darstellende Matrix
¨



230
von f die folgende K¨stchengestalt“ hat:
a

A+1
« 

A+2
¬ ·

0
..
¬ ·
.
¬ ·
¬ ·
A+k
¬ ·

¬ ·
1
¬ ·
¬ ·
·.
..
¬
.
¬ ·
¬ ·
1
¬ ·
0
¬ ·
’1
¬ ·
¬ ·
..
¬ ·
.
 
’1

Die A+ sind dabei die fruher eingefuhrten 2 — 2-K¨stchen. (Naturlich k¨nnen die
a o
¨ ¨ ¨

+1, ’1 oder die K¨stchen auch fehlen).
a
b) Jede orthogonale Matrix ist orthogonal ¨hnlich zu einer Matrix der obigen
a
Form.

Beweis. a) Wir fuhren eine Induktion nach n := dim V. n = 1, 2 hatten wir
¨
schon ausfuhrlich diskutiert.
¨
1. Fall f habe einen (reellen) Eigenwert ». v sei ein zugeh¨riger Eigenvektor.
o
Dann gilt
2 2 2 2
»2 v = »v = f (v) = f (v) , f (v) = v, v = v .

Somit ist » ∈ {’1, 1} .
Sei U := L [v] . U ist naturlich ein eindimensionaler invarianter Unterraum.
¨
Nach Lemma 10.3 gilt
V = U • U⊥ (11.12)
und demzufolge hat U ⊥ die Dimension n ’ 1. Nach Lemma 11.8 ist U ⊥ ebenfalls
invariant unter f . Wir k¨nnen daher f auf U ⊥ einschr¨nken. Die Einschr¨nkung
o a a

bezeichnen wir mit f . f ist dann ∈ Iso U (bezuglich der Einschr¨nkung des a
¨
Skalarproduktes auf diesen Unterraum). Nach Induktionsvoraussetzung existiert
daher eine daher eine Basis v2 , . . . , vn bezuglich der die darstellende Matrix B
¨
von f die obige K¨stchenform hat. Wegen (11.12) ist v2 , . . . , vn , v eine Basis von
a
V, und da U und U ⊥ invariant unter f sind, folgt, dass die darstellende Matrix
von f bezuglich dieser Basis durch
¨

B0


gegeben ist, wobei » = ±1 ist. Durch eine eventuelle Umstellung der Basis erh¨lt
a
man die gesuchte K¨stchenform.
a

231
2. Fall: f habe keinen (reellen) Eigenwert. In diesem Fall gibt es keine inva-
rianten eindimensionalen Unterraume. Nach Lemma 11.7 existiert dann jedoch
¨
mindestens ein zweidimensionaler invarianter Unterraum, nennen wir ihn wieder
U. (11.12) gilt nach wie vor, und U und U ⊥ sind beide invariant. Sei f1 die Ein-
schr¨nkung von f auf U und f2 die Einschr¨nkung von f auf U ⊥ . W¨hlen wir
a a a
eine beliebige orthonormierte Basis v1 , v2 von U, so ist die darstellende Matrix
von f1 bezuglich dieser Basis eine orthogonale Matrix, und demzufolge ist sie
¨
eine der Matrizen A+ oder A’ . Nun hat aber letztere stets Eigenwerte (±1), was
• •
wir jedoch in diesem Fall ausgeschlossen hatten. Auf f2 k¨nnen wir wieder die
o
Induktionsvoraussetzung anwenden und erhalten eine Basis v3 , . . . , vn von U ⊥ ,
bezuglich der die darstellende Matrix B eine (n ’ 2) — (n ’ 2)-K¨stchenmatrix
a
¨
ist. Dann ist die darstellende Matrix von f

A+ 0

.
0B

Damit ist Teil a) bewiesen.
b) folgt sofort aus a), denn b) ist nur eine matrizentheoretische Umformu-
lierung von a): Eine orthogonale Matrix de¬niert bezuglich einer (beliebigen)
¨
orthonormierten Basis eine Isometrie. Wenden wir a) auf diese Isometrie an,
so erhalten wir eine neue orthonormierte Basis, bezuglich der die darstellende
¨
Matrix die K¨stchenform hat. Die Matrix der Basistransformation ist selbst
a
eine orthogonale Matrix, denn sie transformiert eine orthonormierte Basis in eine
orthonormierte. Somit ist jede orthogonale Matrix orthogonal ¨hnlich zu einer
a
Matrix der K¨stchenform.
a

Bemerkung 11.4 Die Anzahl der ’1 in der K¨stchenmatrix kann man noch
a
’1 0
ist einfach A+ , sodass man die K¨stchen-
reduzieren: Die Matrix a
π
0 ’1
matrix darauf reduzieren kann, dass nur noch eine ’1 oder gar keine vorhanden
10
ist naturlich A+ ; die Einsen lassen wir jedoch besser
ist. Die Matrix ¨ 0
01
stehen. Wir k¨nnen also zu einer K¨stchenmatrix gelangen mit den Winkeln
o a
•i ∈ (0, 2π) , einer Anzahl +1 und einer oder keiner ’1. Die Matrix hat dann
Determinante +1, wenn keine ’1 vorkommt, und sonst hat sie Determinante ’1.

Der unit¨re Fall ist noch etwas einfacher als der Euklidsche, da wir hier stets
a
Eigenwerte haben:

Satz 11.9 a) Sei (V, , ) ein unit¨rer Vektorraum und f eine Isometrie. Dann
a
existiert eine orthonormierte Basis von V , bezuglich der die darstellende Matrix
¨
eine Diagonalmatrix ist, deren Eintr¨ge in der Diagonalen alle Betrag 1 haben,
a
die also von der Form ei•k sind fur 1 ¤ k ¤ n = dim V.
¨
b) Jede unit¨re Matrix ist unit¨r ¨hnlich zu einer Diagonalmatrix dieser Form.
a aa

232
Beweis. Da V ein komplexer Vektorraum ist, existieren stets Eigenwerte von
f. Sei » ∈ spec (f ) und v ein Eigenvektor. Dann gilt

|»|2 v 2 2
= »v, »v = f (v) , f (v) = v, v = v .

Wegen v = 0, d.h. v 2 = 0 folgt |»| = 1, d.h. es existiert • ∈ [0, 2π) mit » = ei• .
Der Rest des Arguments geht genau gleich wie im Euklidschen Fall (Fall 1).

11.6 Selbstadjungierte Abbildungen
(V, , ) sei ein Euklidscher oder unitarer Vektorraum.
¨

De¬nition 11.6 Ein Endomorphismus f : V ’ V heisst selbstadjungiert
oder symmetrisch (letztere meist im Euklidschen Fall), falls

f (v) , w = v, f (w) , ∀v, w ∈ V

gilt.

Lemma 11.9 V = (v1 , . . . , vn ) sei eine orthonormierte Basis von V.
a) Euklidscher Fall: f ist genau dann symmetrisch, wenn die darstellende
Matrix bezuglich V symmetrisch ist.
¨
b) Unit¨rer Fall: f ist genau dann selbstadjungiert, wenn die darstellende
a
Matrix bezuglich V Hermitesch ist.
¨

Beweis. Wir beweisen b): Aus der Linearitat von f und der Sesquilinearitat
¨ ¨
des Skalarproduktes folgt sofort, dass f genau dann selbstadjungiert ist, wenn

f (vi ) , vj = vi , f (vj ) , ∀i, j

gilt. Sei A = (aij ) die darstellende Matrix von f bezuglich V. Dann ist die linke
¨
Seite der obigen Gleichung
n n
aki vk , vj = aki vk , vj = aji ,
k=1 k=1

und die rechte Seite
n n
vi , akj vk = akj vi , vk = aij .
k=1 k=1

Somit ist f genau dann selbstadjungiert, wenn aji = aij fur alle i, j gilt, d.h.
¨
wenn A Hermitesch ist.



233
Bemerkung 11.5 Die Eigenschaft, dass die darstellende Matrix von f symme-
trisch ist, hat fur Vektorr¨ume ohne Skalarprodukt keine basisunab¨ngige Be-
a a
¨
deutung: Ist A symmetrisch und S eine regul¨re Matrix, so ist im Allgemeinen
a
S ’1 AS nicht symmetrisch.
In einem Euklidschen Vektorraum hat jedoch die Symmetrie der darstellenden
Matrix bezuglich einer orthonormierten Basis eine basisunabh¨ngige Bedeutung.
a
¨
Ist die darstellende Matrix symmetrisch, so ist sie es auch bezuglich einer belie-
¨
bigen anderen orthonormierten Basis. Dies sieht man auch auf der Ebene von
Matrizen sofort. Die Matrix einer Basistransformation von einer orthonormier-
ten Basis zu einer anderen orthonormierten ist orthogonal. Ist A symmetrisch
und S orthogonal, so gilt S ’1 AS = S T AS, was o¬ensichtlich wieder symmetrisch
ist. Analog: Ist A Hermitesch und S unit¨r, so ist S ’1 AS wieder Hermitesch.
a
Bemerkung 11.6 Die Menge der symmetrischen (bzw. selbstadjungierten) En-
domorphismen ist nicht abgeschlossen gegenuber Komposition: Sind f, g symme-
¨
trisch, so ist f —¦ g i.a. nicht symmetrisch:
f (g (v)) , w = g (v) , f (w) = v, g (f (w)) .
f —¦ g ist also genau dann symmetrisch, wenn f —¦ g = g —¦ f gilt. Letzteres ist aber
in der Regel nicht der Fall.
Die Menge der symmetrischen Endomorphismen bilden jedoch einen R-Vek-
torraum: Sind f, g symmetrisch, und sind ±, β ∈ R, so folgt sofort dass ±f + βg

<<

. 54
( 60 .)



>>