<<

. 42
( 63 .)



>>


(1, ti ’ t1, ti2 ’ t1ti , . . . , tin’1 ’ t1tin’2 )

als i“te (i > 1) Zeile hat. Mit Regel (D13) folgt
«« 
t2 ’ t1 t2 (t2 ’ t1) · · · t2n’2 (t2 ’ t1)
¬¬ ··
. .
det(A(t1, . . . , tn )) = det ¬¬ ··
. .
 
. .
t2 ’ t1 t2 (t2 ’ t1) · · · t2n’2 (t2 ’ t1)

= (t2 ’ t1)(t3 ’ t1 ) · · · (tn ’ t1 ) det(A(t2, . . . , tn )) .

Die Behauptung folgt also mit Induktion.

Zur Berechnung der L¨sung der Interpolationsaufgabe eignet sich das obige Gleichungs-
o
system nicht sehr gut, da die Matrix A(t1, . . . , tn) vollbesetzt ist. Dies liegt daran, daß
die Monome 1, t, t2, . . . , tn’1 keine problemangepaßte Basis des n“dimensionalen Raums
PIK ,n’1 darstellen. Eine geeignetere Basis (“Basis der Newtonpolynome“) ist

1, t ’ t1, (t ’ t1 )(t ’ t2 ), . . . , (t ’ t1 ) · · · (t ’ tn’1 ) .

Das Gleichungssystem wird dann zu AN x = y mit
« 
···
1 0 0
¬ ·
1 t2 ’ t1 0 · · ·
¬ ·
0
¬ ·
:= ¬
·
. .
...
. .
¬ ·.
AN . .
¬ ·
¬ ·
1 0
 
··· (tn ’ t1) · · · (tn ’ tn’1 )
1

Dieses Gleichungssystem kann nun allein durch Vorwartselimination gel¨st werden.
o
¨

Eine in dieser Beziehung noch gunstigere Basis ist die Basis der “Lagrange“Polynome“:
¨
(t ’ tk )
n
, 1 ¤ j ¤ n.
lj (t) :=
(tj ’ tk )
k=1,k=j

Hierzu geh¨rt dann ein Gleichungssytem, das durch eine Diagonalmatrix beschrieben wird,
o
also sehr einfach au¬‚¨sbar ist. In dieser Basis hat das Interpolationspolynom die Darstel-
o
lung (Lagrangessche Interpolationsformel)
n
yili (t) , t ∈ IR .
p(t) =
i=1
Baumeister: Lineare Algebra II / Stand: August 1996 175


Allerdings hat diese Basis gegenuber der Basis der Newtonpolynome zwei Nachteile: Er-
¨
stens ist die Auswertung der Lagrangepolynome nicht sehr stabil, zweitens hat man die
Basis komplett neu aufzustellen, wenn etwa ein Datenpunkt tn+1 , yn+1 neu hinzukommt.
Die Darstellung des Interpolationspolynoms durch die Lagrangepolynome eignet sich aber
¨
sehr gut fur theoretische Uberlegungen (Fehlerabsch¨tzung, Entwurf von Quadraturfor-
a
¨
2
meln).

Ein Schwerpunkt der Gaußschen Beitr¨ge zur numerischen Mathematik liegt in der Interpolation
a
und der Integration. Am 25.11.1796 steht in seinem Tagebuch die Eintragung
“™Formula interpolationis elegans“
womit wahrscheinlich die Interpolationsformel von Lagrange gemeint ist.




7.4 Determinante von Endomorphismen
Nun ubertragen wir die Determinantenfunktion in naheliegender Weise auf Endomorphis-
¨
men.


De¬nition 7.22
Sei X ein IK “Vektorraum mit Basis ¦X = {x1, . . . , xn } und sei L : X ’’ X
IK “ linear. Wir setzen
det(L) := det(AL) ,
wobei AL die Matrixdarstellung von L bzgl. der Basis ¦X ist.
2

Damit die obige De¬nition sinnvoll ist, ist zu zeigen, daß det(L) nicht von der gew¨hlten
a
Basis abh¨ngt. Dies ist aber mit Bemerkung 4.33 sofort klar, da sich Matrixdarstellungen
a
¨
von L nur bis auf Ahnlichkeit unterscheiden, d.h.:
Ist AL die Darstellung von L bzgl. einer weiteren Basis ¦X , dann gibt es eine invertierbare
Matrix S mit
AL = S ’1 AL S .
Also ergibt der Multiplikationssatz

det(L) = det(S ’1 AL S) = det(S ’1 ) det(AL ) det(S) = det(L) .

Dies war zu zeigen.
Baumeister: Lineare Algebra II / Stand: August 1996 176


Satz 7.23
Sei X ein endlichdimensionaler IK “Vektorraum und sei L : X ’’ X IK “ linear.
Dann sind f¨r » ∈ IK ¨quivalent:
u a

(a) » ist Eigenwert von L .

(b) Kern(» idX ’ L) = {θ} .

(c) Kern(»E ’ A) = {θ} fur jede Matrixdarstellung A von L .
¨

(d) det(»E ’ A) = 0 fur jede Matrixdarstellung A von L .
¨

(e) det(» idX ’ L) = 0 .
Beweis:
Sei n := dimIK X und sei A eine Matrixdarstellung von L (bei gew¨hlter Basis in X .
a
(a) ⇐’ (b)
Klar, ein Vektor x ist Eigenvektor zu » genau dann, wenn x in Kern(» idX ’ L) ist.
(b) ⇐’ (c)
Betrachte das Diagramm

L
’’
X X
¦ ¦
¦ ¦
kX ¦ ¦kX
kX —¦ L = A —¦ kX
A
’’
IK n,1 IK n,1


mit der Koordinatenabbildung kX . Aus der Kommutativit¨t des Diagramms und der
a
Tatsache, daß kX ein Isomorphismus ist, folgt, daß jedes Element kX (x) ∈ IK n,1 mit
x ∈ Kern(» idX ’ L) in Kern(»E ’ A) liegt.
Damit ist (b) =’ (c) klar, die Umkehrung folgt analog.
Die Implikationen (c) ⇐’ (d) , (d) ⇐’ (e) sind trivial.

Sei A = (aij )i=1 (1 )n , j =1 (1 )n ∈ IK n,n . Betrachte die Abbildung

» ’’ det(»E ’ A) ∈ IK .
pA : IK

Die Darstellungsformel (D14) zeigt sofort, daß pA ein Polynom ist, dessen Grad h¨chstens
o
n ist. Der Grad ist wirklich n, denn der Summand, der zur Identit¨t id ∈ Sm geh¨rt,
a o
lautet
(» ’ a11) · · · (» ’ ann) .
Der Koe¬zient von »n ist also 1. Der Koe¬zient von »n’1 ergibt sich zu

’(a11 + . . . + ann ) ,

der Koe¬zient von »0 ist (’1)n det(A) . Also haben wir

pA (») = »n ’ (a11 + . . . + ann )»n’1 + . . . + (’1)n det(A) , » ∈ IK . (7.1)
Baumeister: Lineare Algebra II / Stand: August 1996 177


Kommen wir nun zur De¬nition des charakteristischen Polynoms in einer allgemeinen
Situation (siehe De¬nition 5.26).

De¬nition 7.24
Das Polynom χA (») := det(»E’A) heißt charakteristisches Polynom der Matrix
A = (aij )i=1 (1 )n , j =1 (1 )n .
Der Koe¬zient a11 + . . . + ann von »n’1 in χA heißt Spur von A .
2

Ist nun A ∈ IK n,n eine Matrixdarstellung einer IK “linearen Abbildung L, dann ist χA von
der speziellen Matrixdarstellung gar nicht abh¨ngig, da eine andere Matrixdarstellung
a
dazu ¨hnlich ist. Daher ist sinnvoll:
a

De¬nition 7.25
Sei X ein endlichdimensionaler IK “Vektorraum und sei L : X ’’ X IK “ linear.
Das Polynom χL , de¬niert durch χL (») := χA (») , » ∈ IK , wobei A eine Matrixdar-
stellung von L ist, heißt das charakteristisches Polynom von L.
2

Bemerkung 7.26
Bei ¨hnlichen Matrizen stimmen die charakteristischen Polynome o¬enbar uberein. Die
a ¨
Umkehrung gilt nicht, wie man an folgendem Paar nicht¨hnlicher Matrizen erkennt:
a
00 01
A := , B := .
00 00

2
Beide Matrizen haben als charakteristisches Polynom das Polynom p(») := »2 .

Folgerung 7.27
Sei X ein endlichdimensionaler IK “Vektorraum und sei L : X ’’ X IK “ linear.
» ∈ IK ist genau dann Eigenwert der IK “ linearen Abbildung L : X ’’ X , wenn
» Nullstelle des charakteristischen Polynoms χL von L ist.
Beweis:
Satz 7.23.

Kennt man einen Eigenwert » eines Endomorphismus L : X ’’ X (dimIK X endlich),
dann berechnet man einen Eigenvektor, indem man eine Basis von X w¨hlt, die zugeh¨ri-
a o
ge Matrixdarstellung A von L ermittelt, einen (Koordinaten“)Vektor a in Kern(»E ’ A)
berechnet und diesen mit Hilfe der Koordinatenabbildung kX zu einem Vektor x ∈
Kern(» idX ’ L) macht (siehe Beweis zu Satz 7.23).
Das Hauptproblem liegt also im Au¬nden von Eigenwerten von Matrizen. Hierzu sind
nach Folgerung 7.27 die Nullstellen des charakteristischen Polynoms aufzu¬nden. Damit
kommt nun der Fundamentalsatz der Algebra
Baumeister: Lineare Algebra II / Stand: August 1996 178


Jedes Polynom vom Grad n ≥ 1 besitzt genau n Nullstellen in C

wieder ins Spiel (siehe Abschnitt 3.3). Liegt also der Skalark¨rper C vor, dann haben wir
o
n := deg(χL ) Nullstellen des charakteristischen Polynoms und das Problem, genugend¨
viele Eigenvektoren zu ¬nden (siehe Lemma 5.7 und Lemma 5.1), scheint zumindest prin-
zipiell gel¨st. Leider fuhrt uns Lemma 5.7 nur dann zu einer Basis von Eigenvektoren in
o ¨
X, wenn die Eigenwerte paarweise verschieden sind. Hier ist wieder der zentrale Punkt
der Theorie diagonalisierbarer Abbildungen erreicht.

Der Satz von Cayley “ Hamilton erh¨lt nun eine allgemein gultige Fassung.
a ¨


Satz 7.28
Sei X ein endlichdimensionaler IK “ Vektorraum und sei L : X ’’ X IK “ linear.
Ist χL das charakteristische Polynom von L, so gilt χL (L) = ˜.
Beweis:
Sei n := dimIK X und sei A irgendeine Matrixdarstellung von L.
Sei p(») := det(»E ’ A) = a0 + a1 » + . . . + an’1 »n’1 + »n , » ∈ IK .
Sei fur » ∈ IK B # (») = (bji (»))i=1 (1 )n , j =1 (1 )n die zu »E ’ A komplement¨re Matrix.
a
¨
Jeder Eintrag bji (·) stellt ein Polynom dar und hat h¨chstens Grad n ’ 1; dies folgt aus
o
der De¬nition der algebraischen Komplemente. Also k¨nnen wir B #(») mit C0 , . . . , Cn’1 ∈
o
n’1,n’1

<<

. 42
( 63 .)



>>