<<

. 28
( 63 .)



>>

u a

(a) A = diag(»1 , . . . , »n) .

(b) L(xi ) = »i xi , 1 ¤ i ¤ n .
Beweis:
(a) =’ (b) :
Der Spaltenvektor »i ei ist der Koordinatenvektor des Bildes L(xi ), d.h.

L(xi ) = »i xi , 1 ¤ i ¤ n .



112
Baumeister: Lineare Algebra I / Stand: August 1996 113


(b) =’ (a) :
Man lese die obige Argumentation ruckw¨rts.
a
¨


De¬nition 5.2
Sei X ein IK “Vektorraum und sei L : X ’’ X ein Endomorphismus.
Ein Skalar » ∈ IK heißt Eigenwert von L genau dann, wenn es einen Vektor
x ∈ X\{θ}, genannt Eigenvektor, gibt mit L(x) = »x .
2

Der allgemeine Begri¬ des Eigenwerts eines Endomorphismus tauchte im achtzehnten Jahrhundert
auf, und zwar nicht im Zusammenhang mit linearen Abbildungen, sondern in der Theorie der
linearen Di¬erentialgleichungen. Hierin kann man eine wesentliche Anwendung fur die folgenden
¨
¨
Uberlegungen zu einer Normalform einer Matrixdarstellung sehen. Die Zusammenfassung aller
Eigenwerte einer linearen Abbildung mundete spater bei F. Riesz (1880 “ 1956) in den Begri¬ des
¨ ¨
Spektrums.

Das Lemma 5.1 sagt uns, welche Basis wir w¨hlen sollten, damit die Matrixdarstellung
a
eines Endomorphismus besonders einfach wird, n¨mlich eine Basis aus lauter Eigenvek-
a
toren. Endomorphismen, fur die eine solche Wahl m¨glich ist, sind ausgezeichnet und
o
¨
erhalten einen Namen.


De¬nition 5.3
Sei X ein IK “Vektorraum. Ein Endomorphismus L : X ’’ X heißt diagona-
lisierbar oder halbeinfach genau dann, wenn es in X eine Basis gibt, die aus
Eigenvektoren von L besteht.
2

Beispiel 5.4
Sei IK Korper, X := IK 2 und sei der Endomorphismus L gegeben durch die Matrix
¨

10
A := .
0 ’1

Diese Abbildung beschreibt o¬enbar eine Spiegelung der “Ebene“ IK 2 an der e1“Achse.
Man veri¬ziert leicht, daß

e1 Eigenvektor zum Eigenwert » = 1

(Auf L({e1 }) ist A die Identitat!)
¨
und
e2 Eigenvektor zum Eigenwert » = ’1
(Auf L({e2}) ist ’ A die Identitat!)
¨
Baumeister: Lineare Algebra I / Stand: August 1996 114


ist. Also ist A diagonalisierbar. Beachte, daß die Matrix A als Diagonalmatrix vorliegt.
2
Die Bezeichnung “diagonalisierbar“ wird sp¨ter erst klarer werden. Einige Arbeit werden
a
wir in die Problemstellung investieren, Basen zu ¬nden, zu denen eine Matrixdarstellung
von oberer Dreiecksgestalt geh¨rt.
o
Das folgende Beispiel erl¨utert die Bezeichnung und macht klar, daß Diagonalisierbarkeit
a
nicht immer errreichbar ist.

Beispiel 5.5
Sei X = IR2 und sei der Endomorphismus L gegeben durch die Matrix

0 ’1
A := .
10

Diese Abbildung beschreibt o¬enbar eine Drehung der “Ebene“ IR 2 um den Winkel π/2 .
Dieser Endomorphismus besitzt keine Eigenwerte, und damit de¬nitionsgem¨ß auch keine
a
Eigenvektoren. Da eine Drehung um π/2 vorliegt, uberrascht dies auch nicht, denn Ei-
¨
genvektoren werden durch die Anwendung des Endomorphismus ja nur “gestreckt“. Daß
in der Tat keine Eigenwerte existieren, veri¬ziert man so:
Aus A x = » x folgt ’x2 = » x1 , x1 = »x2 , also, falls etwa x2 = 0, ’x2 = »2 x2 , d.h.
»2 + 1 = 0 . Da diese Gleichung in IR nicht l¨sbar ist, kann auch kein Eigenwert existieren.
o
Betrachtet man den obigen Endomorphismus bzgl. des Skalark¨rpers C , dann ¨ndert sich
o a
die Situation vollst¨ndig, es existiert nun in C 2,1 sogar eine Basis aus Eigenvektoren,
a
n¨mlich:
a
u := ie1 + e2 ist Eigenvektor zum Eigenwert » = i ,
v := e1 + ie2 ist Eigenvektor zum Eigenwert » = ’i .
Der Endomorphismus L ist also diagonalisierbar. Man rechnet nach, daß es eine Matrix
S ∈ C 2,2 gibt mit S ’1 A S = D , wobei D eine Diagonalmatrix ist; S := (u|v) leistet
2
namlich das gewunschte.
¨ ¨

Die Frage nach der Existenz von Eigenwerten fuhrt auf das Gleichungssystem
¨

(A ’ »E)x = θ ;

gesucht ist eine nichttriviale L¨sung dieses Gleichungssystems. Bringt man dieses Glei-
o
chungssystem mit Hilfe der Gaußschen Elimination auf obere Dreiecksgestalt, so ist zu
erwarten, daß sich eine Bedingung an » ergibt, die hinreichend dafur ist, daß sich ei-
¨
ne nichttriviale L¨sung ¬nden l¨ßt. Da sich die Divisionen mit Pivotelementen bei den
o a
Umformungsschritten nachtr¨glich durch Multiplikation mit dem Hauptnenner wieder
a
“beseitigen“ lassen, ist zu erwarten, daß diese hinreichende Bedingung eine polynomiale
Gleichung in » ist; der Grad kann h¨chstens n sein, da maximal n’1 Eintr¨ge zu eliminie-
o a
ren sind. Sp¨ter wird uns diese Gleichung als Nullstellengleichung fur das charakteristische
a ¨
Polynom wieder begegnen.

Beispiel 5.6
Baumeister: Lineare Algebra I / Stand: August 1996 115


Sei « 
2 00
¬ ·
0 1  ∈ IR 3,3 .
A :=  0
0 ’1 0
Hier ist « 
2’» 0 0
¬
1 · ∈ IR 3,3 .
0 ’»
A ’ »E =  
0 ’1 ’»
Da der Rang von A’»E drei ist fur » = 0, ist » = 0 schon mal auszuschließen. Elimination,
¨
angewendet auf A ’ »E fuhrt auf
¨
« 
2’» 0 0
¬ ·
’»  ∈ IR
3,3
 0 1 .
’1
’1 ’» ’ »
0

Da die Gleichung »2 + 1 = 0 keine Losung besitzt, bleibt nur noch » = 2 als Eigenwert.
¨
Dazu ist « 
1
x := ¬ 0 ·
 
0
2
ein Eigenvektor.


Lemma 5.7
Sei X ein IK “Vektorraum und sei L : X ’’ X ein Endomorphismus. Sind
»1 , . . . , »r ∈ IK paarweise verschiedene Eigenwerte mit zugeh¨rigen Eigenvektoren
o
x1 , . . . , xr ∈ X, dann sind x1, . . . , xr linear unabh¨ngig.
a
Beweis:
Vollst¨ndige Induktion nach r.
a
Ist r = 1, so ist x1 linear uanabh¨ngig, da x1 = θ ist.
a
Sei die Behauptung nun fur r ’ 1 richtig. Sei
¨
r
a i xi = θ . (5.1)
i=1

Wenden wir L auf diese Linearkombination an, so entsteht
r
ai »i xi = θ . (5.2)
i=1

Multipliziert man (5.1) mit »r und subtrahiert die so erhaltenen Gleichung von (5.2),
erh¨lt man
a
r’1
ai (»i ’ »r )xi = θ .
i=1

Also folgt nun aus der Induktionsvoraussetzung

ai (»i ’ »r ) = 0 , also ai = 0 , 1 ¤ i ¤ r ’ 1 .
Baumeister: Lineare Algebra I / Stand: August 1996 116


Da xr ein Eigenvektor ist, ist wegen (5.1) auch ar = 0. Also sind x1, . . . , xr linear un-
abh¨ngig.
a


Folgerung 5.8
Sei X ein endlichdimensionaler IK “Vektorraum. Die Anzahl der verschiedenen Ei-
genwerte eines Endomorphismus L : X ’’ X ist nicht gr¨ßer als die Dimension
o
von X.
Beweis:
Triviale Folgerung aus Lemma 5.7

Satz 5.9
Sei X = {θ} ein endlichdimensionaler C “Vektorraum und sei L : X ’’ X ein
Endomorphismus. Dann besitzt L einen Eigenwert.
Beweis:
Sei n := dimC X. Sei x ∈ X\{θ} . Dann sind die n + 1 Vektoren

x, L(x), L2(x), . . . , Ln (x)

linear abh¨ngig; hierbei haben wir fur die n“fache Hintereinanderausfuhrung von L kurz
a ¨ ¨
L geschrieben. Also gibt es a = (a0, . . . , an ) ∈ C , a = θ, mit
n+1
n

n
ai Li (x) = θ.
i=0

n
Sei das Polynom p ∈ PC de¬niert durch p(z) := ai z i , z ∈ C . Da x = θ ist, ist p nicht
i=0
das konstante Polynom. Sei p (unter Verwendung des Fundamentalsatzes der Algebra und
Division mit Rest) zerlegt in Linearfaktoren:
n
(z ’ »i ), z ∈ C .
p(z) = c
i=1

Dann haben wir “ man argumentiere induktiv “
n
ai Li (x) = c (L ’ »1 idX ) —¦ · · · —¦ (L ’ »n idX )(x)
θ=
i=0

und folgern daraus, daß L ’ »i idX nicht injektiv ist fur mindestens ein i. Dies zeigt, daß
¨
mindestens ein »i Eigenwert von L ist.

Das eingangs gegebene Beispiel und der obige Satz belegen, daß der K¨rper C dank der
o

<<

. 28
( 63 .)



>>