<<

. 53
( 60 .)



>>

= det AT det A = det Adet A = |det A|2 .

c) Ist A ∈ O (n) so gilt AT A = AAT = En . Daraus folgt sofort AT ∈ O (n) . Im
unitaren Fall folgt die Behauptung durch Konjugieren der Gleichung AAT = En .
¨
d) A ∈ O (n) gilt genau dann, wenn
n
aji ajk = δik , 1 ¤ i, k ¤ n
j=1

gilt. Das ist aber nichts anderes als dass die Spaltenvektoren
« 
a1i
¬ a2i ·
si = ¬ . ·
¬ ·
. .
a2i

bezuglich des Standardskalarproduktes orthonormiert sind. Dass dies ¨quivalent
a
¨
zur entsprechenden Aussage fur die Zeilen ist, folgt einfach aus c).
¨
e) Der unit¨re Fall geht analog zum orthogonalen Fall.
a

Bemerkung 11.3 Teil d) des obigen Lemmas besagt einfach, dass eine quadrati-
sche Matrix genau dann orthogonal ist, wenn die Spalten eine orthonormierte
Basis von Rn bilden. Analog im unit¨ren Fall.
a

Die orthogonalen und unit¨ren Matrizen mit Determinante 1 spielen eine be-
a
sondere Rolle:

226
De¬nition 11.4
SO (n) = {A ∈ O (n) : det A = 1} ,
SU (n) = {A ∈ U (n) : det A = 1} .
Die Matrizen in SO (n) heissen spezielle orthogonale Matrizen, und die in
SU (n) spezielle unit¨re Matrizen.
a
Lemma 11.5 SO (n) ist eine Untergruppe von O (n) , d.h. die Menge der spezi-
ellen orthogonalen Matrizen ist abgeschlossen gegenuber den Gruppenoperationen
¨
in O (n) . Eine entsprechende Aussage gilt fur SU (n) .
¨
Beweis. Wir diskutieren den orthogonalen Fall. En ist o¬ensichtlich in
SO (n) . Sind A, B in SO (n) , so ist AB ∈ SO (n) , denn erstens ist diese Matrix
orthogonal, weil O (n) bezuglich der Multiplikation eine Gruppe ist, und zweitens
¨
gilt det (AB) = det A det B = 1. Ist A ∈ SO (n), so ist auch A’1 ∈ SO (n) , was
sich sofort aus det (A’1 ) = (det A)’1 ergibt.
Wir wollen nun den wichtigen Spezialfall von orthogonalen 2 — 2-Matrizen
diskutieren. Zun¨chst jedoch der Trivialfall:
a
O (1) = {’1, 1} , U (1) = ei• : 0 ¤ • < 2π .
ab
Nun zu O (2) : Sei eine reelle Matrix. Nach Lemma 11.4 c) ist diese
cd
Matrix genau dann orthogonal, wenn die folgenden drei Gleichungen erfullt sind:
¨
a2 + c2 = 1, b2 + d2 = 1, ab + cd = 0.
a
Die erste Gleichung ist genau dann erfullt, wenn • ∈ [0, 2π) existiert mit =
¨
c
cos •
. Analog gilt fur die zweite Gleichung, dass sie genau dann erfullt ist,
¨ ¨
sin •
b cos ψ
wenn ψ ∈ [0, 2π) existiert mit = . Die dritte Gleichung bedeutet
d sin ψ
dann
cos • cos ψ + sin • sin ψ = cos (• ’ ψ) = 0.
Dies ist gleichbedeutend mit
π
ψ = •+ mod 2π, oder
2

ψ = •+ mod 2π.
2
Es gibt also zwei M¨glichkeiten fur unsere Matrix
o ¨
cos • ’ sin •
ab
=: A+ , oder
= •
cd sin • cos •
cos • sin •
=: A’ .
= •
sin • ’ cos •

227
Im ersten Fall hat die Matrix Determinante 1, ist also in SO (2) . Im zweiten Fall
ist die Determinante ’1.
Wir untersuchen als Nachstes die Eigenwerte dieser Matrizen.
¨
Zunachst die Eigenwerte von A+ : Das charakteristische Polynom ist
¨ •

χA+ (x) = det A+ ’ xE2 = (cos • ’ x)2 + sin2 •



= x2 ’ 2x cos • + 1.
Die zwei Eigenwerte sind also

’ sin2 •.
cos2 • ’ 1 = cos • ±
cos • ±
Man sieht also, dass die Eigenwerte nur fur • = 0, π reell sind. Sie sind in
¨
diesem Fall 1 bzw. ’1 und in beiden F¨llen algebraisch und geometrisch doppelt.
a
+
(A0 = E2 und Aπ = ’E2 ). Ansonsten sind die Eigenwerte e±i• .
+

Nun zu den Eigenwerten von A’ .


χA’ (x) = det A’ ’ xE2 = ’ (cos • ’ x) (cos • + x) ’ sin2 •



= x2 ’ 1.
Wir erhalten also einfach die beiden Eigenwerte ±1. A’ ist also ahnlich zur Matrix
¨


10
.
0 ’1
Die beiden Eigenvektoren sind einfach zu bestimmen:
cos (•/2)
zu 1 :
sin (•/2)
’ sin (•/2)
zu ’ 1 : .
cos (•/2)
Wir erhalten also
’1
cos (•/2) ’ sin (•/2) cos (•/2) ’ sin (•/2) 10
A’ = .

0 ’1
sin (•/2) cos (•/2) sin (•/2) cos (•/2)
Die Basistransformationsmatrix ist naturlich A+ , also selbst orthogonal (sogar
¨ •/2
in SO (2)).
Diese Situation ist wichtig genug fur eine De¬nition. Wir geben sie parallel
¨
fur den Euklidschen und den unit¨ren Fall an.
a
¨
De¬nition 11.5 Seien A, B quadratische reelle Matrizen [bzw. quadratische
komplexe Matrizen]. Dann heissen A und B orthogonal ¨hnlich [bzw. unit¨r
a a
¨hnlich], wenn S ∈ O (n) existiert mit
a
B = S ’1 AS = S T AS

228
[bzw. wenn eine unit¨re Matrix U existiert mit
a
T
B = U ’1 AU = U AU ].

Die Matrizen ∈ O (2) \SO (2) sind also orthogonal ¨hnlich zu der Matrix
a
10
.
0 ’1

Lemma 11.6 Sei (V, , ) ein Euklidscher [bzw. unit¨rer] Vektorraum. V =
a
(v1 , . . . , vn ) sei eine orthonormierte Basis. A sei eine n — n-Matrix. Dann sind
die folgenden Aussagen ¨quivalent:
a
a) A ∈ O (n) [bzw. A ∈ U (n)].
b) Die Abbildung f : V ’ V, deren darstellende Matrix bezuglich V A ist, ist
¨
eine Isometrie.
c) Der Satz von Vektoren u1 , . . . , un , de¬niert durch uj := i aij vi , ist eine
orthonormierte Basis.

¨
Beweis. Die Aquivalenz von a) und b) haben wir schon gezeigt: Orthogo-
nale Matrizen sind genau die darstellenden Matrizen von Isometrien bezuglich
¨
orthonormierten Basen.
¨
Wir zeigen die Aquivalenz von a) und c):

uj , ut = aij ast vi , vs = aij ait .
i,s i


Wir sehen also, dass die Orthogonalit¨tsbedingung an die Matrix ¨quivalent ist
a a
zu uj , ut = δjt , 1 ¤ j, t ¤ n.
Unsere n¨chste Aufgabe ist es, Normalformen fur orthogonale und unit¨re
a a
¨
Matrizen zu ¬nden. Wir brauchen zwei Voruberlegungen, die als Lemmata for-
¨
muliert sind:

Lemma 11.7 Sei V ein beliebiger R-Vektorraum (= {0}) und f ein Endomor-
phismus. Dann existiert mindestens ein eindimensionaler oder ein zweidimen-
sionaler invarianter Unterraum.

Beweis. Hat f einen reellen Eigenwert, so existiert naturlich ein eindimen-
¨
sionaler invarianter Unterraum. Habe also f keinen reellen Eigenwert. Wir un-
tersuchen die Sache am einfachsten via Matrizen. Sei V = (v1 , . . . , vn ) irgendeine
Basis von V und A die darstellende Matrix von f. Dann hat A sicher mindestens
einen komplexen Eigenwert » ∈ R, d.h. es existiert x ∈ Cn \ {0} mit Ax = »x.
/
Da A reell ist, folgt Ax = »x, d.h. » ist ein Eigenwert mit Eigenvektor x. Da
» nicht reell ist, folgt » = », und damit folgt, dass x und x linear unabh¨ngig a
sind. Wir betrachten den reellen Vektor, der aus den Realteilen von x besteht:


229
Re x := 1 (x + x) , und desgleichen Im x := 2i (x ’ x) . Wir konnen naturlich die
1
¨ ¨
2
n
beiden Vektoren Re x und Im x als Elemente von C au¬assen. Da die Matrix
1 1
2 2i
1 1
’ 2i
2

regular ist, folgt aus der Unabhangigkeit von x und x, dass Re x und Im x line-
¨ ¨
ar unabhangig sind. Damit sind sie aber naturlich auch linear unabhangig als
¨ ¨ ¨
n
Vektoren in R . Nun folgt
1 1
A Re x = (Ax + Ax) = »x + »x
2 2
= Re (»x) = Re » Re x ’ Im » Im x

und analog
A Im x = Re » Im x + Im » Re x.
Daraus folgt

A Re x ∈ L [Re x, Im x] und A Im x ∈ L [Re x, Im x] ,

d.h. L [Re x, Im x] ist invariant unter der Abbildung Rn z ’ Az ∈ Rn .
Dies ubertr¨gt sich nun unmittelbar auf f : Der zweidimensionale Unterraum
a
¨
L [ i=1 Re (xi ) vi , n Im (xi ) vi ] ist invariant unter f.
n
i=1


Lemma 11.8 (V, , ) sei Euklidsch, f eine Isometrie. Ist der Unterraum U ‚
V invariant unter f, so ist auch das orthogonale Komplement U ⊥ invariant unter
f.

<<

. 53
( 60 .)



>>