<<

. 26
( 60 .)



>>

Null in der ersten Zeile und der zweiten Spalte ist die k1 — k2 -Nullmatrix.
Besonders einfach ist die Situation, wenn die Dimensionen der Ui alle gleich
1 sind. In diesem Fall sind die Ai 1 — 1-Matrizen, d.h. einfach K¨rperelemente:
o
Ai = (ai ) , ai ∈ K. Liegt diese Situation vor, so ist die obige darstellende Matrix
A naturlich einfach eine Diagonalmatrix.
¨
De¬nition 6.4 Sei V ein endlichdimensionaler Vektorraum und f ∈ hom (V ) .
Existiert eine Familie von eindimensionalen invarianten Unterr¨umen Ui mit
a
m
V = i=1 Ui , so heisst f diagonalisierbar.
Aus der obigen Diskussion folgt also, dass wenn f diagonalisierbar ist, eine
Basis existiert, in der die darstellende Matrix von f eine Diagonalmatrix ist.
Existiert umgekehrt eine Basis V = (v1 , . . . , vn ), bezuglich der die darstellende
¨
Matrix Diagonalgestalt hat, so folgt ganz einfach, dass die Situation der obi-
gen De¬nition vorliegt: Man nimmt einfach Ui := L [vi ] . Diagonalisierbarkeit
eines Endomorphismus ist also gleichbedeutend damit, dass eine Basis existiert,
bezuglich der die darstellende Matrix Diagonalgestalt hat.
¨
Wir k¨nnen das noch etwas anders formulieren. Ist eine beliebige Basis V =
o
(v1 , . . . , vn ) gegeben und ist A die darstellende Matrix von f bezuglich dieser
¨
Basis, so ist f genau dann diagonalisierbar, wenn eine regul¨re Matrix S existiert,
a
sodass S ’1 AS eine Diagonalmatrix ist. Dies folgt ganz einfach aus der Diskussion
der Transformation der darstellenden Matrix bei Basiswechsel in Kapitel 4.4.

112
Die Situation mit eindimensionalen Unterraumen ist so wichtig, dass wir ihr
¨
ein besonderes Unterkapitel zuweisen:

6.3 Eigenwerte und Eigenvektoren
W¨hrend des ganzen Unterkapitels sei f : V ’ V ein Endomorphismus des
a
K-Vektorraums V. Fur die Diskussion weiter unten brauchen wir eine einfache
¨
Erg¨nzung zu der Diskussion von Isomorphismen aus Kapitel 4.
a

Lemma 6.2 Sei V endlichdimensional und f ein Endomorphismus von V. Dann
ist f genau dann ein Isomorphismus, wenn ker (f ) = {0} ist.

Beweis. Sei ker (f ) = {0} . Dann ist wegen dim (V ) = dim (ker (f )) +
dim (im (f )) (Satz 4.18) dim (im (f )) = dim (V ) und demzufolge im (f ) = V.
Nach Lemma 4.6 folgt, dass f ein Isomorphismus ist.
Ist umgekehrt ker (f ) = {0} so folgt aus demselben Lemma, dass f kein
Isomorphismus ist.
Wenn immer wir Determinanten verwenden, setzen wir voraus, dass char(K)
= 2 ist.
Wir untersuchen in diesem Abschnitt eindimensionale invariante Unterr¨ume.
a
Ist U ‚ V ein eindimensionaler invarianter Unterraum: U = L [u] , mit u ∈ V,
u = 0, so gilt f (u) ∈ U, d.h. es existiert » ∈ K mit f (u) = »u. Naturlich gilt
¨
dann fur jeden anderen Vektor w = ±u ∈ U, ± ∈ K, die Gleichung f (w) =
¨
f (±u) = ±f (u) = ±»u = »±u = »w. Mit anderen Worten: Ist U ein invarianter
Unterraum, so existiert ein Skalar » ∈ K, sodass jeder Vektor in U unter f einfach
mit » gestreckt wird. Eine derartige Zahl » nennt man Eigenwert von f.

De¬nition 6.5 a) Eine Zahl » ∈ K heisst Eigenwert des Endomorphismus
f ∈ hom (V ) , wenn ein Vektor u = 0 existiert mit

f (u) = »u.

b) Das Spektrum von f , spec (f ), ist de¬niert als die Menge aller Eigen-
werte von f.
c) Ist » ∈ spec (f ) , so heisst jeder Vektor u = 0 mit f (u) = »u ein Eigen-
vektor zu ».

Bemerkung 6.2 a) Es ist sehr wichtig, dass in der De¬nition eines Eigenwertes
verlangt wird, dass ein Vektor u existiert, der von Null verschieden ist, mit f (u) =
»u. In der Tat erfullt naturlich der Nullvektor 0 stets die Gleichung f (0) = »0,
¨ ¨
sodass das gar keine Bedingung an » w¨re. a
b) » = 0 kann jedoch durchaus ein Eigenwert sein. 0 ∈ K ist genau dann
ein Eigenwert, wenn ein Vektor u = 0 existiert mit f (u) = 0. Nach Lemma
6.2 ist das gleichbedeutend damit, dass ker (f ) = {0} ist. Im Falle, dass V

113
endlichdimensional ist, ist das gleichbedeutend damit, dass f kein Isomorphismus
ist. Wie wir in Kapitel 5 gesehen hatten, ist das gleichbedeutend damit, dass
det (f ) = 0 ist.
c) Die Diskussion zu Beginn des Abschnittes zeigt, dass spec (f ) = … genau
dann gilt, wenn f mindestens einen eindimensionalen invarianten Unterraum
hat.
d) Das Spektrum eines Endomorphismus kann durchaus leer sein. So hat etwa
die Drehung um 45—¦ von R2 o¬ensichtlich keinen eindimensionalen invarianten
Unterraum, und demzufolge gibt es auch keinen Eigenwert.
e) Wir diskutieren hier ausschliesslich den Fall endlichdimensionaler Vek-
torr¨ume. Die Verh¨ltnisse bei unendlichdimensionalen Vektorr¨umen k¨nnen
a a a o
sehr kompliziert sein.

Satz 6.5
spec (f ) = {» ∈ K : det (f ’ » idV ) = 0} .
Hier ist f ’ » idV der Endomorphismus V v ’ f (v) ’ »v.

Beweis. » ist genau dann ein Eigenwert, wenn ein Vektor u = 0 existiert
mit f (u) = »u, d.h. (f ’ » idV ) (u) = 0. Wie wir schon oben gesehen haben,
ist das gleichbedeutend damit, dass f ’ » idV kein Isomorphismus ist, d.h. dass
det (f ’ » idV ) = 0 ist.

De¬nition 6.6 Ist » ∈ spec (f ) , so ist

E (») := {u ∈ V : f (u) = »u} = ker (f ’ » idV )

der Eigenraum von ».

Wir nehmen auch den Nullvektor als Element des Eigenraums. Auf diese
Weise ist dann E (») ein Unterraum von V. Wir konnen naturlich E (») fur jedes
¨ ¨ ¨
Element » ∈ K de¬nieren. » ∈ spec (f ) ist dann gleichbedeutend damit, dass
dim (E (»)) ≥ 1 ist. Ein Eigenraum eines Eigenwertes braucht nicht eindimen-
sional zu sein. So hat idV naturlich V als Eigenraum zum einzigen Eigenwert
¨
1.

Satz 6.6 Seien »1 , . . . , »n verschiedene Eigenwerte von f, und sei fur jedes i der
¨
Vektor ui ein Eigenvektor (= 0) zu »i . Dann sind u1 , . . . , un linear unabh¨ngig.
a

Beweis. Wir fuhren eine Induktion nach n. Fur n = 1 ist die Aussage trivial,
¨ ¨
denn ein einzelner Vektor = 0 ist linear unabhangig. Sei n ≥ 2, und sei
¨
n
±i ui = 0. (6.5)
i=1



114
Anwendung von f ergibt
n n n
0=f ±i ui = ±i f (ui ) = ±i »i ui . (6.6)
i=1 i=1 i=1

Kombination von (6.5) und (6.6) ergibt:
n n n’1
±i ui ’ (»n ’ »i ) ±i ui .
0 = »n »i ±i ui =
i=1 i=1 i=1

Nach Induktionsvoraussetzung sind die u1 , . . . , un’1 linear unabh¨ngig. Demzu-
a
folge gilt (»n ’ »i ) ±i = 0 fur i = 1, . . . , n’1. Da alle Eigenwerte verschieden sind,
¨
folgt also ±1 = . . . = ±n’1 = 0. Aus (6.5) folgt dann aber ±n un = 0 und wegen
un = 0 folgt auch ±n = 0. Damit ist die lineare Unabh¨ngigkeit von u1 , . . . , un
a
gezeigt.

Korollar 6.2 a) Seien »1 , . . . , »r verschiedene Eigenvektoren. Dann ist die
Summe der Eigenr¨ume eine direkte Summe:
a
r r
E (»i ) = E (»i ) .
i=1 i=1

b) Ist n := dim (V ) < ∞, so gibt es h¨chstens n verschiedene Eigenwerte.
o

Beweis. a) folgt sofort aus dem vorangegangenen Satz. b) folgt aus a).
Wie wir in Satz 6.5 gesehen haben gilt » ∈ spec (f ) genau dann, wenn
det (f ’ » idV ) = 0 ist. Wir de¬nieren die Funktion χf : K ’ K, χf (») :=
det (f ’ » idV ) .
Wir wollen nun χf als formales Polynom au¬assen ” wir ersetzen dazu, wie
im ersten Kapitel, » durch x und schreiben χf (x): Indem wir die darstellende
Matrix A von f bezuglich einer Basis V = (v1 , . . . , vn ) w¨hlen, k¨nnen wir dieses
a o
¨
Polynom formal de¬nieren durch
n
χf (x) := det (A ’ xEn ) = aπ(j),j ’ xδπ(j),j .
sign (π)
j=1
π∈Σn

(Zu zeigen bliebe an dieser Stelle, dass diese De¬nition unabh¨ngig ist von
a
der Wahl der Basis V. Dies ist aber auch in diesem formalen Kontext richtig ”
wir verweisen hierzu auf die Diskussion in Unterkapitel 5.4.)

De¬nition 6.7 χf (x) heisst das charakteristische Polynom von f.

Wir unterscheiden das charakteristische Polynom von der durch dieses Polynom
de¬nierten Abbildung K ’ K. Mehr dazu im Abschnitt 6.4.

115
Satz 6.7 Ist n := dim (V ) , so ist χf (x) ein Polynom von Grad n in x.

Beweis. Sei A die darstellende Matrix von f bezuglich der Basis V =
¨
(v1 , . . . , vn ) . Dann ist
n
aπ(j),j ’ xδπ(j),j .
χf (x) = sign (π)
j=1
π∈Σn

Nun sind jedoch n aπ(j),j ’ xδπ(j),j o¬ensichtlich Polynome von Grad ¤ n
j=1
in x. Demzufolge ist auch χf (x) ein Polynom von Grad ¤ n. Wir k¨nnen jedoch
o
n
noch etwas mehr aussagen: Die Polynome j=1 aπ(j),j ’ xδπ(j),j sind fur π = id
¨
Polynome von Grad < n, denn in diesem Fall enthalten nicht alle der Faktoren
wirklich x. Hingegen ist fur π = id
¨
n n
aπ(j),j ’ xδπ(j),j = (ajj ’ x) .
j=1 j=1

Dies ist ein Polynom in x, das mit (’1)n xn beginnt. Daraus folgt, dass χf (x)
ein Polynom in x ist, das mit (’1)n xn beginnt, also insbesondere ein Polynom
von Grad n.
Die Koe¬zienten des charakteristischen Polynoms sind im allgemeinen kom-
plizierte Ausdrucke. Die Berechnung erfolgt naturlich in der Regel uber die Wahl
¨ ¨ ¨
einer Basis und die darstellende Matrix A von f . Wir schreiben dann auch χA (x)
fur det (A ’ xEn ) und bezeichnen das als das charakteristische Polynom der Ma-
¨
¨
trix A. Da χf (x) = χA (x) fur jede Wahl einer Basis, gilt: Ahnliche Matrizen
¨
haben dieselbe charakteristischen Polynome. Sei

det (A ’ xEn ) = a0 + a1 x + . . . + an’1 xn’1 + an xn

Die Koe¬zienten von ai h¨ngen in komplizierter Weise von den Komponenten aij
a
der Matrix A ab. Einige der Koe¬zienten sind jedoch einfach zu berechnen. Wie
wir schon gesehen haben, ist der h¨chste Koe¬zient an = (’1)n . Der n¨chste ist
o a
n
ebenfalls einfach: Fur π = id ist n¨mlich j=1 aπ(j),j ’ xδπ(j),j ein Polynom
a
¨
von Grad h¨chstens n ’ 2, denn π (j) = j gilt in diesem Fall fur mindestens
o ¨
zwei j. (Eine Permutation, die nicht die Identit¨t ist, kann nicht n ’ 1 Fixpunkte
a
n
haben). Nun beginnt jedoch das Polynom j=1 (ajj ’ x) wie folgt:
n n
n n’1
n
ajj xn’1 + . . .
(ajj ’ x) = (’1) x + (’1)
j=1 j=1


Es folgt daher an’1 = (’1)n’1 n ajj = (’1)n’1 trace (A) , wobei trace (A) :=
j=1
n
j=1 ajj die sogenannte Spur der Matrix A ist. a0 ist ebenfalls einfach:

a0 = χA (0) = det (A) .

116
’1 8
Beispiel 6.3 f : R2 ’ R2 sei durch die Matrix A = gegeben. Die
’1 5

<<

. 26
( 60 .)



>>