<<

. 48
( 60 .)



>>

’1

gilt. Einmalige partielle Integration liefert
1
1 1
dn 2 n’1
dn’1 2
kd
k n
(x2 ’ 1)n k’1
(x ’ 1)n dx.
(x ’ 1) dx = x ’k
x x
n n’1 n’1
dx dx dx
’1 ’1
’1

Der erste Summand verschwindet, denn nach (n ’ 1)-facher Di¬erentiation von
n
(x2 ’ 1) erh¨lt man eine Summe von Polynomen, von denen jedes den Faktor
a
2
(x ’ 1) noch mindestens ein Mal enth¨lt. Setzt man ±1 sein, so erh¨lt man
a a
0. Nun fahren wir mit dem zweiten Summanden in gleicher Weise weiter. Nach
k-maliger partieller Integration erh¨lt man
a
1 1
dn dn’k
n n
k
k
x2 ’ 1 x2 ’ 1
x dx = (’1) k! dx
n n’k
dx dx
’1 ’1
1
dn’k’1 n
k
= (’1) k! n’k’1 x2 ’ 1 = 0.
dx ’1

Damit ist (10.10) gezeigt. Nach der Bemerkung 10.4 sind die Pn (x) bis auf eine
Streckung die Polynome, die man aus dem Gram-Schmidt Verfahren erh¨lt, wenn a
1
2
man dieses auf die Folge 1, x, x , . . . anwendet. Der Vorfaktor 2n n! ist die richtige
Normierung, damit Pn (1) = 1 gilt. Der Leser m¨ge das selbst uberprufen.
o ¨ ¨



205
10.4 Positiv de¬nite Bilinearformen und Matrizen
Wir betrachten in diesem Abschnitt reelle oder komplexe Vektorr¨ume und • sei
a
eine symmetrische Bilinearform bzw. eine Hermitesche Form.
Ist G = (gij ) eine Grammatrix bezuglich irgendeiner Basis, so ist • genau
¨
dann positiv de¬nit, wenn fur alle x ∈ Rn \ {0} bzw. x ∈ Cn \ {0}
¨

gij xi xj > 0,
i,j


bzw.
gij xi xj > 0,
i,j

gilt. Eine symmetrische (bzw. Hermitesche) Matrix G mit dieser Eigenschaft
nennt man positiv de¬nit.

Lemma 10.7 a) Eine reelle Matrix G ist genau dann symmetrisch und positiv
de¬nit, wenn es eine regul¨re Matrix S gibt mit G = S T S.
a
b) Eine komplexe Matrix G ist genau dann Hermitesch und positiv de¬nit,
wenn es eine regul¨re Matrix S gibt mit G = S T S.
a

Beweis. Wir beweisen a). b) geht v¨llig analog.
o
T
Jede Matrix der Form S S ist o¬ensichtlich symmetrisch. Ist V die Standard-
basis von Rn , so ist G := S T S die Grammatrix der Form • (x, y) = n xi yi i=1
bezuglich der Basis die aus den Spalten von S besteht. Damit folgt, dass G die
¨
Grammatrix einer positiv de¬niten symmetrischen Bilinearform ist. Demzufolge
ist G positiv de¬nit. (Man kann das naturlich auch sofort direkt nachrechnen.)
¨
Ist andererseits G positiv de¬nit, so wissen wir nach Satz 10.4, dass eine regul¨re
a
’1
T T T
Matrix U existiert mit En = U GU, d.h. G = S En S = S S mit S = U .
In der Regel ist es nicht ganz einfach zu entscheiden, ob eine symmetrische
(oder Hermitesche) Matrix positiv de¬nit. Ein Kriterium basiert auf Determi-
nanten. Es reicht jedoch nicht aus, nur die Determinante von G zu berechnen.
Ist G = (gij ) eine n — n-Matrix, so bezeichnen wir mit G(m) = (gij )1¤i,j¤m ,
fur m = 1, . . . , n die sogenannten Hauptminoren. Man beachte, dass mit G
¨
auch die Hauptminoren symmetrisch sind. Ist G Hermitesch, so sind es auch die
Hauptminoren. Die Determinante einer Hermiteschen Matrix ist stets reell, denn
es gilt
det G = det GT = det G = det G.

Satz 10.9 a) Sei G reell und symmetrisch. Dann ist G genau dann positiv de¬-
nit, wenn det G(m) > 0 fur m = 1, . . . , n gilt.
¨
b) Sei G komplex und Hermitesch. Dann ist G genau dann positiv de¬nit,
wenn det G(m) > 0 fur m = 1, . . . , n gilt.
¨


206
Beweis. Wir beweisen den reellen Fall. Der Hermitesche geht vollig analog.
¨
(I) Wir setzen zunachst voraus, dass G positiv de¬nit ist. Dann existiert eine
¨
regulare Matrix S mit G = S T S. Demzufolge gilt
¨

det (G) = det S T S = det S T det (S) = det (S)2 > 0.

Ist G positiv de¬nit, so sind o¬ensichtlich auch alle Hauptminoren positiv de¬nit
und wir erhalten det G(m) > 0 fur alle m. ¨
(II) Die Umkehrung ist etwas delikater. Wir setzen voraus, dass det(G(m) )
> 0 fur alle m gilt. Sei V = (v1 , . . . , vn ) die Standardbasis von Rn . Wir setzen
¨
Um := L [v1 , . . . , vm ] . Sei • die zu G geh¨rende symmetrische Bilinearform. Dann
o
ist G(m) die Grammatrix von •m := •|Um . Aus det G(m) > 0 folgt, dass G(m)
regul¨r ist. Somit ist •m nichtdegeneriert, d.h. alle unsere Unterr¨ume Um sind
a a
nichtdegeneriert. Wir k¨nnen also das Gram-Schmidtsche Orthogonalisierungs-
o
verfahren auf die Standardbasis anwenden, d.h. wir k¨nnen eine orthogonale Basis
o
U = (u1 , . . . , un ) ¬nden mit Um = L [u1 , . . . , um ] fur alle m. Ist S die Matrix der
¨
Basistransformation n
uj = sij vi ,
i=1

so sind, nach der Konstruktion bei Gram-Schmidt, die sij = 0 fur i > j (uj wird
¨
linear aus v1 , . . . , vj kombiniert). Setzen wir ±i := • (ui , ui ) , so erhalten wir fur
¨
jedes m ¤ n :

±1 0 · · · 0
« 


¬ 0 ±2 0 .
¬
T
· = S (m) G(m) S (m) ,
¬. ...
. . 0
0 · · · 0 ±m

wobei S (m) die Hauptminoren von S sind. Daraus folgt
T 2
S (m) G(m) S (m) = det S (m) det G(m) > 0
±1 · . . . · ±m = det

fur 1 ¤ m ¤ n. Daraus folgt ±i > 0 fur alle i, woraus sich ergibt, dass die
¨ ¨
Signatur von • gleich (n, 0, 0) ist, was bedeutet, dass • und damit G positiv
de¬nit sind.

10.5 Isometrien
Ein Vektorraum V , der versehen ist mit einer Bilinearform •, fasst man am bes-
ten als einen Raum mit einer zus¨tzlichen Struktur auf. Wir schreiben dies dann
a
als Paar (V, •) . Ein Vektorraum ist per De¬nition schon versehen mit einer Ad-
dition und einer Multiplikation mit Skalaren. Ein Vektorraum mit einer Bilinear-

207
oder Sesquilinearform hat einfach eine zusatzliche Verknupfung • : V — V ’ K.
¨ ¨
Einige dieser Paare haben besondere Namen: Ein reeller Vektorraum versehen
mit einer positiv de¬niten symmetrischen Bilinearform heisst Euklidscher Vek-
torraum (was nicht heissen soll, dass Euklid das schon so formuliert hat). Ein
komplexer Vektorraum versehen mit einer positiv de¬niten Hermiteschen Form
heisst unit¨rer Vektorraum. Ein symplektischer Vektorraum ist einfach
a
versehen mit einer symplektischen Bilinearform. Von besonderer Bedeutung fur ¨
die Physik ist ein 4-dimensionaler reeller Vektorraum versehen mit einer symme-
trischen Bilinearform der Signatur (3, 1, 0) . Dies ist der sogenannte Minkowski-
Raum, der in der speziellen Relativit¨tstheorie eine besondere Rolle spielt.
a
Fur Vektorr¨ume ohne zus¨tzliche Struktur hatten wir bisher mit einigem
a a
¨
Aufwand die Abbildungen zwischen Vektorr¨umen, die die Vektorraumstruktu-
a
ren respektieren, untersucht, d.h. einfach die linearen Abbildungen. Von besonde-
rem Interesse waren dabei die linearen Selbstabbildungen eines Vektorraums, die
Endomorphismen. Wir beginnen nun in diesem Unterkapitel mit der Diskussion
von linearen Abbildungen, die die zus¨tzliche Struktur invariant lassen.
a
V, W seien zwei Vektorr¨ume. Ferner sei • eine Bilinearform auf V und ψ eine
a
Bilinearform auf W. (bzw. • und ψ sind Sesquilinearformen). Wir setzen nicht
notwendigerweise voraus, dass • und ψ symmetrisch sind. Wir setzen jedoch
stets voraus, dass sie entweder beide symmetrisch, beide symplektisch, oder beide
Hermitesch sind.

De¬nition 10.12 Eine linearer Isomorphismus f : V ’ W heisst eine Isome-
trie, wenn fur alle u, v ∈ V
¨

ψ (f (u) , f (v)) = • (u, v) (10.11)

gilt. (V, •) und (W, ψ) heissen isometrisch, wenn es eine Isometrie f : V ’ W
gibt.

Im Prinzip kann man naturlich auch allgemeine lineare Abbildungen f : V ’
¨
W betrachten, fur die (10.11) gilt. Man beachte jedoch, dass fur u ∈ ker f dann
¨ ¨
• (u, v) = 0 fur alle v ∈ V gilt, d.h. dass u ∈ ker • ist. Wir werden in der
¨
Regel jedoch nur nichtdegenerierte Bilinearformen betrachten, sodass man sich
dann auf jeden Fall auf injektive Abbildungen beschr¨nken muss. Eine injektive
a
Abbildung f : V ’ W de¬niert einen Isomorphismus V ’ Im f. Wir schr¨nken a
uns daher von vornherein auf Isomorphismen ein. Man beachte insbesondere,
dass ein Endomorphismus f : V ’ V, der (10.11) fur eine nichtdegenerierte
¨
Form erfullt, ein Isomorphismus sein muss (falls V endlichdimensional ist).
¨
Ist V = (v1 , . . . , vn ) eine Basis von V und f : V ’ W ein Isomorphismus,
so ist W = (w1 , . . . , wn ) := (f (v1 ) , . . . , f (vn )) eine Basis von W. Die Bedingung
der Isometrie besagt dann einfach, dass die Grammatrix von • bezuglich V gleich¨
der Grammatrix von ψ bezuglich W ist. Daraus und aus den S¨tzen der letzten a
¨
Abschnitte lassen sich die folgenden Aussagen herleiten:

208
Satz 10.10 a) Sei K = R und seien •, ψ symmetrisch. Dann sind (V, •) und
(W, ψ) genau dann isometrisch, wenn die Signaturen von • und ψ ubereinstim-
¨
men.
b) Sei K = C und seien •, ψ Hermitesch. Dann sind (V, •) und (W, ψ) genau
dann isometrisch, wenn die Signaturen von • und ψ ubereinstimmen.
¨
c) Sei K = C und seien •, ψ symmetrisch. Dann sind (V, •) und (W, ψ)
genau dann isometrisch, wenn dim (V ) = dim (W ) und dim (ker •) = dim (ker ψ)
gelten.
d) Seien •, ψ symplektisch. Dann sind (V, •) und (W, ψ) genau dann isome-
trisch, wenn dim (V ) = dim (W ) und dim (ker •) = dim (ker ψ) gelten.

Beweis. Die Beweise gehen alle parallel. Wir beweisen a).
I) Wir setzen zun¨chst voraus, dass • und ψ dieselbe Signatur (n+ , n’ , n0 )
a
haben. Dann muss dim V = dim W gelten (= n := n+ + n’ + n0 ). Nach Satz
10.4 existieren Basen

V = v1 , . . . , vn+ , vn+ +1 , . . . , vn+ +n’ , . . . , vn+ +n’ +n0
W = w1 , . . . , wn+ , wn+ +1 , . . . , wn+ +n’ , . . . , wn+ +n’ +n0

von V bzw. W mit
±
f¨r i = j ¤ n+
1 u

<<

. 48
( 60 .)



>>