<<

. 57
( 60 .)



>>

σ1 = σ2 = σ3 = ,
01

σ1 σ2 = ’σ2 σ1 = iσ3
σ2 σ3 = ’σ3 σ2 = iσ1
σ3 σ1 = ’σ1 σ3 = iσ2 .

Nach b) folgt also
= δij , 1 ¤ i, j ¤ 3.
σi , σj H




Korollar 11.2 (H, . , . H) ist isometrisch zum 3-dimensionalen Euklidschen
Raum.

Wir betrachten nun eine wichtige Abbildung U (2) ’ Iso (H, ·, · H ). Sei
U ∈ U (2) . Wir de¬nieren U : H ’ H durch

U (A) := U AU ’1 .

Lemma 11.13 a) Fur A ∈ H, U ∈ U (2) ist U (A) ∈ H.
¨
b) U ∈ Iso (H, . , . H ) .

Beweis. a)
T T
U AU ’1 = U ’1 AT U T = U AU ’1 .

242
Somit ist U (A) Hermitesch. Weiter gilt

trace U AU ’1 = trace (A) = 0.

b) U ist o¬ensichtlich linear und invertierbar mit U ’1 = U ’1 . Fur A, B ∈ H
¨
gilt
1 1
trace U AU ’1 U BU ’1 = trace U ABU ’1
U (A) , U (B) =
2 2
H
1
= trace (AB) = A, B H .
2

Die darstellende Matrix von U bezuglich einer beliebigen orthonormierten
¨
Basis von H ist damit orthogonal. Nehmen wir speziell die Pauli-Matrizen als
Basis von H, so gilt nach Satz 11.5
3
U (σi ) = U (σi ) , σj σj ,
H
j=1


und die darstellende Matrix A = (aij ) ist somit gegeben durch
1
trace U σj U ’1 σi , 1 ¤ i, j ¤ 3 .
aij = U (σj ) , σi =
2
H

Wir bezeichnen mit ¦ diejenige Abbildung, welche einem U ∈ U (2) diese dar-
stellende Matrix zuordnet. Das heisst, ¦ : U (2) ’ O (3) ist de¬niert durch
¦(U ) := 2 trace (U σj U ’1 σi ) 1¤i,j¤3 . Hier einige wichtige Eigenschaften dieser
1

Abbildung:

Proposition 11.2 a) ¦ ist ein Gruppenhomomorphismus, d.h. es gilt

• ¦ (E2 ) = E3

• ¦ (U V ) = ¦ (U ) ¦ (V ) , U, V ∈ U (2)

• ¦ (U ’1 ) = ¦ (U )’1 , U ∈ U (2) .

b) ¦ (’U ) = U
c) ¦ (U ) ∈ SO (3) fur alle U ∈ U (2) .
¨
d) ¦|SU (2) bildet SU (2) surjektiv auf SO (3) ab.

Beweis. a) Die erste Aussage ist evident. Fur die zweite beachte man, dass
¨
fur U, V ∈ U (2) , A ∈ H
¨

(U V ) (A) = U V A (U V )’1 = U V AV ’1 U ’1 = U V (A)

243
gilt, d.h. (U V ) = U —¦ V . Daraus folgt die Behauptung. Die dritte Aussage folgt
aus den ersten beiden.
b) ist evident.
c) Wir verwenden Satz 11.9. Zu U ∈ U (2) , existiert S ∈ U (2) und •1 , •2 ∈
[0, 2π) mit
ei•1 0
’1
U =S S.
0 ei•2
Wir de¬nieren
eit•1 0
’1
S ∈ U (2) , 0 ¤ t ¤ 1.
Ut = S it•2
0e
Die Matrixelemente von Ut sind stetige Funktionen in t. Daraus folgt, dass die
Matrixelemente von ¦ (Ut ) , die gegeben sind durch 2 trace Ut σi Ut’1 σj , stetige
1

Funktionen in t sind. Somit ist auch det (¦ (Ut )) eine stetige Funktion in t.
det (¦ (Ut )) kann aber nur die beiden Werte ’1 und +1 annehmen (es ist die
Determinante einer orthogonalen Matrix). Damit muss

det (¦ (U )) = det (¦ (U1 )) = det (¦ (U0 )) = det (E3 ) = 1

gelten.
d) Sei B = (bij ) ∈ SO (3) . Wir suchen U ∈ SU (2) mit ¦ (U ) = B.
Wir de¬nieren fur j ∈ {1, 2, 3} die komplexen 2 — 2-Matrizen
¨
3
ξj := bij σi . (11.21)
i=1

Damit ist

¦ (U ) = B ⇐’ U (σj ) = ξj , j = 1, 2, 3
⇐’ σj = U ’1 ξj U, j = 1, 2, 3 .

Die ξj konnen wir naturlich wie ublich als lineare Abbildungen C2 ’ C2 auf-
¨ ¨ ¨
fassen. Wir suchen also ein unitare Basistransformation in SU (2), sodass die
¨
darstellenden Matrizen der ξj in dieser neuen Basis gerade durch die σj gegeben
sind.
Da B eine orthogonale Matrix ist, ergibt sich aus (11.21), dass (ξ1 , ξ2 , ξ3 )
wie (σ1 , σ2 , σ3 ) eine orthonormierte Basis von H ist. Daraus folgt ξi2 = E2 (vgl.
Beweis Lemma 11.12 a)), trace (ξi ) = 0, i = 1, 2, 3. Die ξi sind also alle Hermitesch
mit Eigenwerten +1 und ’1.
Wir beginnen mit ξ3 . Nach dem Spektralsatz ist ξ3 unit¨r ¨hnlich zu σ3 =
aa
10
. Es existiert also eine Matrix V ∈ U (2) mit
0 ’1

V ’1 ξ3 V = σ3 . (11.22)

244
V ist nicht ganz eindeutig: In den Spalten mussen einfach Eigenvektoren der
¨
Lange 1 von ξ3 stehen. Diese sind dann automatisch orthogonal; wir haben je-
¨
doch noch die Freiheit, diese Eigenvektoren mit Zahlen ei• zu multiplizieren. Dies
werden wir weiter unten ausnutzen, um V noch etwas zu verandern. Wir schrei-
¨ ¨
ben V = (v1 , v2 ) , vi die Spaltenvektoren von V. Wir untersuchen nun, welche
Folgerungen wir aus (11.22) fur ξ1 und ξ2 ziehen k¨nnen. v1 ist ein Eigenvektor
o
¨
zum Eigenwert 1 von ξ3 . Unter Ausnutzung von ξ1 , ξ3 H = 0 und Lemma 11.12
¨
b) erhalten wir
ξ1 v1 = ξ1 ξ3 v1 = ’ξ3 ξ1 v1 .
Somit ist ξ1 v1 ein Eigenvektor zum Eigenwert ’1 von ξ3 , d.h. von der Form av2 ,
a ∈ C. Analog folgt, dass ξ1 v2 ein Eigenvektor zum Eigenwert +1 von ξ3 ist.
Somit folgt, dass V ’1 ξ1 V von der Form
0b
V ’1 ξ1 V =
a0

ist. Da die Matrix auf der rechten Seite nach wie vor Hermitesch ist, folgt a = b,
und wegen ξ1 = E2 : |a|2 = |b|2 = 1. Somit ist V ’1 ξ1 V von der Form
2


0 e’i»
’1
, 0 ¤ » < 2π.
V ξ1 V =
ei» 0
Analog folgt
0 e’iµ
’1
, 0 ¤ µ < 2π.
V ξ2 V =
eiµ 0
Wir k¨nnen nun » und µ noch etwas weiter einschr¨nken: Aus ξ1 ξ2 = ’ξ2 ξ1 folgt
o a
0 e’i» 0 e’iµ ei(µ’») ei(»’µ)
0 0
=’
= .
ei» 0 eiµ 0 i(»’µ) i(µ’»)
0 e 0 e
Daraus folgt e2iµ = ’e2i» und damit eiµ = ±iei» .
Folgerung: Fur jede unit¨re Matrix V, die (11.22) erfullt, existiert » mit
a
¨ ¨
0 e’i» ie’i»
0
’1 ’1
V ξ1 V = ,V ξ2 V = . (11.23)
ei» 0 ±iei» 0
Wir versuchen nun, eine Matrix U ∈ SU (2) mit Spaltenvektoren u1 , u2 so zu
konstruieren, dass σi = U ’1 ξi U gilt. Wir beginnen mit einer beliebigen Matrix
V ∈ U (2), die (11.22) und (11.23) erfullt, und versuchen es mit u1 = ei• v1 ,
¨

u2 = e v2 , wobei wir •, ψ noch bestimmen mussen. Fur jede Wahl von •, ψ
¨ ¨
bleibt (11.22) richtig und es gilt U ∈ U (2) . Es ist dann
e’i• 0 e’i» ei• 0
0
’1
U ξ1 U =
0 e’iψ ei» 0 0 eiψ
ei(’»+ψ’•)
0
= .
e’i(’»+ψ’•) 0

245
Wahlen wir •, ψ so dass
¨
’» + ψ ’ • = 0 (11.24)
gilt, so ist
01
U ’1 ξ1 U = = σ1 .
10
Ferner folgt mit derselben Rechnung
U ’1 ξ2 U = ±σ2 .
Wir zeigen nun, dass U ’1 ξ2 U = ’σ2 nicht m¨glich ist. W¨re dies richtig, so w¨re
o a a
U (σ1 ) = ξ1 = i bi1 σi , U (σ2 ) = ’ξ2 = ’ i bi2 σi , und U (σ3 ) = ξ3 = i bi3 σi .
Weil die Determinante von B gleich 1 ist, w¨re die Determinante der darstellenden
a
Matrix von U gleich ’1, im Widerspruch zu Teil c) dieser Proposition.
Nun sind wir noch nicht ganz fertig, denn wir haben erst gezeigt, dass zu
jeder orthogonalen Matrix B eine Matrix U ∈ U (2) existiert mit ¦ (U ) = B.
U nach der obigen Konstruktion ist jedoch noch nicht ganz eindeutig. Es gilt
o¬ensichtlich ¦ (eiρ U ) = B fur jedes ρ ∈ [0, 2π). Nun ist jedoch
¨
det eiρ U = e2iρ det (U ) .
Da jede unit¨re Matrix U eine Determinante vom Betrag 1 hat, folgt also, dass
a
fur genau zwei Werte ρ die Matrix U := eiρ U in SU (2) ist: ρ = ρ1 , ρ = ρ2 =
¨
ρ1 + π. Die zwei M¨glichkeiten, U zu bestimmen, unterscheiden sich nur durchs
o
Vorzeichen.
Damit ist die Proposition vollst¨ndig bewiesen.
a
Bemerkung 11.8 Die obige Konstruktion einer Matrix U ∈ SU (2) mit ¦ (U ) =
B ist im wesentlichen eindeutig, bis auf die Freiheit in der Wahl von ρ im obigen
Beweis. Daraus ergibt sich, dass zu jeder Matrix B ∈ SO (3) genau zwei Matrizen
U ∈ SU (2) existieren mit ¦ (U ) = B. Diese beiden M¨glichkeiten unterscheiden
o
sich nur durch das Vorzeichen. Man sagt auch, SO (3) sei durch SU (2) zweifach
uberlagert.
¨
Die Struktur von SU (2) ist relativ einfach zu bestimmen: Ist die Determi-
nante einer Matrix
ab
, a, b, c, d ∈ C,
U=
cd
gleich 1, so ist ihr Inverses gleich
d ’b
U ’1 = .

<<

. 57
( 60 .)



>>