<<

. 52
( 63 .)



>>

Sei (X, σ) euklidischer Vektorraum und sei L : X ’’ X linear. L heißt symme-
trisch (bez¨glich der Bilinearform σ), falls σ(T (x), y) = σ(x, T (y)) f¨r alle x, y ∈ X
u u
gilt.
2

Satz 8.48
Sei (X, σ) ein endlichdimensionaler euklidischer Vektorraum. Sei L : X ’’ X
linear und symmetrisch (bez¨glich der Bilinearform σ). Dann gilt:
u

(a) Es gibt x+ , x’ ∈ X mit x+ = x’ = 1 und
σ σ

»+ := RL (x+) = max RL (x) , »’ = RL (x’ ) = min RL (x).
x∈X\{θ} x∈X\{θ}

(b) L(x+) = »+ x+ , L(x’) = »’x’

(c) Fur jeden Eigenwert » ∈ IR von L gilt »+ ¤ » ¤ »’
¨
Beweis:
Zu (a) :
Wir zeigen, daß RL auf S(X) := {x ∈ X| x = 1} stetig ist. Seien u, v ∈ S(X).
σ


|RL (u) ’ RL (v)| = |σ(u, L(u)) ’ σ(v, L(v))|
¤ |σ(u, L(u)) ’ σ(u, L(v))| + |σ(u, L(v)) ’ σ(v, L(v))|
¤ u σ L(u ’ v) σ + u ’ v σ L(v) σ
¤ 2c u ’ v σ .

Dabei ist c so gew¨hlt, daß L(x) σ ¤ c x σ fur alle x ∈ X gilt (siehe Satz 8.16). Also
a ¨
folgt nun die Existenz der Extrema von RL wie in (a) behauptet.
Zu (b) :
Betrachte zu x ∈ X die Funktion f(t) := RL (x+ + tx), t ∈ IR . Da

≥ x+ ’ |t| x = 1’t x
x+ + tx σ σ σ σ


gilt, gibt es t0 > 0 mit
> 0 , t ∈ (’t0, t0).
x+ + tx σ

Also ist f auf (’t0, t0) de¬niert, ja sogar di¬erenzierbar, da f eine rationale Funktion ist.
Nach Konstruktion von x+ hat f in t = 0 ein lokales Maximum. Also gilt f (0) = 0.
Dies bedeutet

0 = σ(L(x+), x) ’ σ(x+, L(x+))σ(x+, x)
= σ(L(x+) ’ σ(x+, L(x+ ))x+, x).

Da x ∈ X beliebig war, folgt

L(x+ ) = σ(x+, L(x+))x+.
Baumeister: Lineare Algebra II / Stand: August 1996 216


Die Aussage L(x’) = »’ x’ folgt analog.
(c) ist klar.

Wir haben hier nun ziemlich viel Analysis benutzt. Man kann hier auch einen rein alge-
braischen Beweis fuhren. Dazu hat man allerdings nach C auszuweichen und den Fun-
¨
damentalsatz der Algebra zu benutzen. Da es sich bei euklidischen Vektorr¨umen ja um
a
eine metrische Struktur handelt, ist die Zuhilfenahme von Analysis wohl gerechtfertigt,
¨
ja vielleicht sogar angebracht. (Ubrigens, auch in den Beweisen des Fundamentalsatzes
steckt meist Analysis.)


Satz 8.49
Sei (X, σ) ein n “ dimensionaler euklidischer Vektorraum und sei L : X ’’
X linear und symmetrisch. Dann gibt es eine Orthonormalbasis x1 , . . . , xn in X,
bez¨glich der L die Matrixdarstellung
u

AL = diag(»1 , . . . , »n )

hat, wobei »1 , . . . , »n ∈ IR die zu x1, . . . , xn geh¨renden Eigenwerte sind.
o
Beweis:
Wir beweisen induktiv nach der Dimension n von X.
n = 1 : Klar, ein Endomorphismus ist Vielfaches der Identit¨t.
a
n>1:
Nach Satz 8.48 gibt es xn ∈ X und »n ∈ IR mit

L(xn ) = »n x , xn = 1.
σ


Setze U := L({xn }). Dann ist X = U • U ⊥ . O¬enbar ist L(U) ‚ U. Es gilt aber auch
L(U ⊥ ) ‚ U ⊥ , denn: Sei x ∈ U ⊥ , d.h. σ(x, u) = 0 fur alle u ∈ U. Dann gilt: σ(L(x), u) =
¨
σ(x, L(u)) = 0 fur alle u ∈ U, d.h. L(x) ∈ U ⊥ .
¨
Betrachte nun L1 := L|U ⊥ .
O¬enbar ist L1 : U ⊥ ’’ U ⊥ wieder linear und symmetrisch und (U ⊥ , σ) ein euklidischer
Vektorraum. Die Induktionsvoraussetzung, angewendet auf L1 liefert x1 , . . . , xn’1 ∈ U ⊥
und »1 , . . . , »n’1 ∈ IR mit

L(xi ) = »i xi , 1 ¤ i ¤ n ’ 1.

Damit ist der Beweis erbracht, wenn man noch beachtet, daß x1 , . . . , xn’1 , xn linear un-
abh¨ngig sind, da xn ∈ U gilt und x1, . . . , xn’1 ∈ U ⊥ nach Induktionsvoraussetzung linear
a
unabh¨ngig sind.
a
Baumeister: Lineare Algebra II / Stand: August 1996 217


Folgerung 8.50
Sei (X, σ) ein n“dimensionaler euklidischer Vektorraum und sei T : X — X ’’ IR
eine symmetrische Bilinearform. Dann gibt es eine Orthonormalbasis x1, ..., xn in X,
bez¨glich der die Bilinearform σ und T Matrixdarstellungen Bσ , BT der folgenden
u
Gestalt besitzen:

Bσ = diag(1, . . . , 1) , BT = diag(»1 , . . . , »n ).

Dabei sind »1 , . . . , »n die Eigenwerte des Endomorphismus L mit

T (x, y) = σ(x, L(y))

fur alle x, y ∈ X.
¨
Beweis:
Wir wissen aus Satz 8.22, daß es genau ein L ∈ Hom(X, X) gibt mit

T (x, y) = σ(x, L(y)) fur alle x, y ∈ X.
¨

Dieses L ist sogar symmetrisch, da T eine symmetrische Bilinearform ist. W¨hle nun nach
a
1 n
Satz 8.49 eine Orthonormalbasis x , . . . , x in X. Damit veri¬ziert man die Aussagen des
Satzes.

Der Sachverhalt in obiger Folgerung wird als simultane Diagonalisierbarkeit zweier Bili-
nearformen bezeichnet. Man nennt die Aussage auch Satz uber die Hauptachsen-
¨
transformation. Das Ergebnis aus Satz 8.49 ist die Tatsache, daß symmetrische Matrizen
diagonalisierbar sind (mit Hilfe orthogonaler Matrizen).


Bemerkung 8.51
Auf dem Raleigh-Quotienten baut ein Verfahren zur Berechnung des gr¨ßten Eigenwertes
o
von L auf. Man kann zeigen, daß

σ(x, Lk (x)) Lk x
»+ = lim , x+ = lim
k’∞ σ(x, Lk’1 (x)) k’∞ Lk x σ


2
gilt, wenn x nicht orthogonal zu x+ ist (Verfahren von Mises).


Beispiel 8.52
Ist L eine lineare Isometrie in einem euklidischen Vektorraum der Dimension 2, dann
ist L —¦ L— = L— —¦ L = id und det(L) = 1 oder det(L) = ’1. Daraus folgt, daß L eine
Matrixdarstellung der Form

cos γ ’ sin γ
AL =
sin γ cos γ

2
hat, falls det(L) = 1 ist.
Baumeister: Lineare Algebra II / Stand: August 1996 218


Satz 8.53
Sei (X, σ) ein n - dimensionaler euklidischer Vektorraum und sei L : X ’’ X eine
lineare Isometrie. Dann exisitiert eine Orthonormalbais x1, . . . , xn in X, bez¨glich
u
der die Matrixdarstellung von L die Form

AL = diag(D(γ1 ), . . . , D(γr ), 1, . . . , 1, ’1, . . . , ’1)

mit γ1 , . . . , γr ∈ IR hat. Hierbei ist

cos γi ’ sin γi
∈ IR2,2, 1 ¤ i ¤ r.
D(γi ) =
sin γi cos γi
Beweis:
Vollst¨ndige Induktion nach n.
a
n = 1 : Hier ist L = idX oder L = ’idX und nichts ist mehr zu beweisen.
n>1:
Setze H := L + L— = L + L’1 . H ist symmetrisch. Also gibt es » ∈ IR, x ∈ X\{θ} mit
H(x) = »x. Es folgt

L(x) + L’1 (x) = »x, L2 (x) = ’x + »L(x).

Setze U := L({x, L(x)}). Es gilt o¬enbar 1 ¤ dim U ¤ 2, L|U : U ’’ U Isometrie und
L(U) = U, da L bijektiv ist. Daraus folgt:

dim U ⊥ ¤ n ’ 1, L(U ⊥ ) = U ⊥, L|U ⊥ : U ⊥ ’’ U ⊥ ist Isometrie.

Also hat nun L|U eine Orthonormalbasis der behaupteten Form. Bei dim U = 1 folgt dies
aus der Betrachtung von n = 1, bei dim U = 2 ist die Voruberlegung in Beispiel 8.52
¨
0 ’1
anwendbar, da det = 1 gilt.

Anwendung der Induktionsvoraussetzung auf L|U ⊥ liefert eine Orthonormalbasis in U ⊥
der gewunschten Form.
¨

Die Matrix AL aus Satz 8.53 heißt Normalform der zugehorigen Drehung L.
¨


8.5 Quadriken
Wir besch¨ftigen uns hier nochmals mit Bilinearformen auf reellen Vektor¨umen. Jedes
a a
Skalarprodukt kann als Beispiel dienen.
Sei T ∈ T2 (X), X IR “ Vektorraum. Aus der Zerlegung

2T (x, y) = (T (x, y) + T (y, x)) + (T (x, y) ’ T (y, x))

liest man ab, daß man jede Bilinearform als Summe einer symmetrischen Bilinearform und
einer antisymmetrischen Bilinearform schreiben kann. (Wurde man hier einen allgemeinen
¨
Skalark¨rper IK verwenden, mußte man auf char(IK ) = 2 achten.) Wir wollen uns im
o ¨
folgenden nun auf symmetrische Bilinearformen beschr¨nken.
a
Baumeister: Lineare Algebra II / Stand: August 1996 219


De¬nition 8.54
Sei X ein IR ’Vektorraum und sei q : X ’’ IR eine Abbildung. Wir nennen q
eine quadratische Form auf X, falls es eine symmetrische Bilinearform T auf X
gibt, sodaß
q(x) = T (x, x) , x ∈ X,
gilt.
2

In der De¬nition 8.54 bestimmt T die quadratische Form q. Man kann aber T auch aus q
zuruckgewinnen:
¨
2T (x, y) = q(x + y) ’ q(x) ’ q(y), x, y ∈ X.
Fur eine quadratische Form gilt
¨

q(θ) = 0, q(’x) = q(x), q(ax) = a2q(x), a ∈ IR, x ∈ X,

und
q(x + y) + q(x ’ y) = 2q(x) + 2q(y), x, y ∈ X.


De¬nition 8.55
Sei q eine quadratische Form auf dem IR “ Vektorraum X und sei M ‚ X. Wir
nennen q

(a) positiv de¬nit auf M : ⇐’ q(x) > 0, x ∈ M\{θ}.

(b) positiv semide¬nit auf M : ⇐’ q(x) ≥ 0, x ∈ M.

(c) negativ de¬nit auf M : ⇐’ q(x) < 0, x ∈ M\{θ}.

(d) negativ semide¬nit auf M : ⇐’ q(x) ¤ 0, x ∈ M.

<<

. 52
( 63 .)



>>