Upload
nguyenmien
View
215
Download
0
Embed Size (px)
Citation preview
KAPITEL 4
Lineare Algebra
1. Der Vektorraum Rn
Definition 4.1. Der Vektorraum Rn besteht aus allen Spaltenvektoren
der Form ~a =
a1
a2
...
an
und wird von der kanonischen oder nat�urlichen
Basis
~e1 =
1
0...
0
, ~e2 =
0
1...
0
, . . . , ~en =
0
0...
1
.
Das Skalarprodukt zweier Vektoren ~a und ~b ist de�niert als
~a ·~b = a1b1 + a2b2 + . . .+ anbn
Der Vektorraum Rn versehen mit diesem Skalarprodukt hei�t Euklidi-
scher Raum. Der Vektor ~a besitzt die L�ange (den Betrag, die Norm)
|~a| :=√~a · ~a =
√√√√ n∑j=1
a2j
und der Winkel zwischen den Vektoren ~a und ~b wird de�niert als
cos ^(~a,~b) :=~a ·~b|~a| · |~b|
Beispiel 4.1. Gram-Schmidtsches Orthonormierungsverfahren. Es gilt
Satz 4.1. Sind die Vektoren ~v1, ~v2, . . . , ~vn des Rnpaarweise orthogonal,
d.h. gilt ~vi · ~vj =
{1, i = j,
0, i 6= j,so sind die Vektoren linear unabh�angig.
123
124 4. LINEARE ALGEBRA
Beweis: Es sei
α1~v1 + . . .+ αn~vn = ~0⇒ (α1~v1 + . . .+ αn~vn) · ~vj = αj~vj · ~vj = αj|~v2j | = 0. #
Satz 4.2. (Gram-Schmidtsches Orthonormierungsverfahren) Es sei-
en ~b1, . . . , ~bk ∈ Rn (k ≤ n) linear unabh�angige Vektoren des Rn. Hieraus
wird nun eine Orthonormalbasis ~c1, . . . , ~ck ∈ Rn (k ≤ n) der linearen
H�ulle Lin (~b1, . . . , ~bk) konstruiert:
(1) Man setzt
~c1 =1
|~b1|~b1.
(2) Der zweite Vektor soll nun zu ~c1 bzw. ~b1 orthogonal sein. Deshalb
zerlegt man den Vektor ~b2 in die zu ~c1 parallele Komponente =
Projektion von ~b2 auf ~c1 und den dazu orthogonalen Vektor:
~c ′2 = ~b2 − (~b2 · ~c1)~c1und normiert
~c2 =~c ′2|~c ′2|
.
(3) Nun wird der Vektor ~c3 aus ~b3 so konstruiert, dass ~c3 orthogonal
zu ~c1 und ~c2 ist, d.h. wir bilden zun�achst die Projektionen von~b3 auf ~c1 und ~c2 und berechnen dann
~c ′3 = ~b3 − (~b3 · ~c1)~c1 − (~b3 · ~c2)~c2und normieren
~c3 =~c ′3|~c ′3|
.
(4) Man f�ahrt so fort bis
~c ′k = ~bk −k−1∑i=1
(~bk · ~ci)~ci
und normiert
~ck =~c ′k|~c ′k|
.
Bemerkung 4.1. In jedem Schritt ist ein Element ~ci konstruierbar. W�are
dem nicht so, so w�are der Vektor ~bi linear abh�angig von ~c1, . . . ,~ci−1 und damit~b1, . . . ,~bi−1. Das ist aber nach Voraussetzung ausgeschlossen!
1. DER VEKTORRAUM Rn 125
u
v
vu
vu┴
Sind nur 2 linear unabh�angige Vektoren ~u, ~v zu orthogonalisieren, so entsteht
das orthogaonale System durch ~u1 = ~u und ~u2 = ~v⊥~u der orthogonale Vektor zur
Projektion von ~v auf ~u. Durch Normieren der Vektoren erh�alt man orthonor-
male Vektoren.
E
u1
u2
u3
w
wu1
wu2
w┴
Im Fall von 3 Vektoren ~u, ~v, ~w gewinnt man zun�achst 2 orthogonale bzw. ortho-
normale Vektoren von ~u, ~v wie bereits beschrieben. Der dritte Vektor ~w l�asst sich
in einen Anteil, der in der von ~u und ~v aufgespannten Ebene liegt, und einen
dazu orthogonalen Anteil aufspalten. Dieser orthogonale Anteil ist die gesuchte
dritte Richtung, durch Normieren erh�alt man den 3. normierten Vektor.
Es seien die folgenden 3 Vektoren gegeben:
~v1 =
1
2
0
3
, ~v2 =
4
0
5
8
, ~v3 =
8
1
5
6
.
Man benutze das Gram-Schmidtsche-Orthonormierungsverfahren, um eine Ba-
sis f�ur Lin (~v1, ~v2, ~v3) zu konstruieren.
126 4. LINEARE ALGEBRA
(1) ~u1 := 1|~v1|~v1 = 1√
14
1
2
0
3
.
(2) ~u′2 := ~v2 − (~v2)~u1 = ~v2 − (~v2 · ~u1)~u1 = ~v2 − 1√14
2 · 28
1
2
0
3
=
4− 2
0− 4
5− 0
8− 6
=
2
−4
5
2
und wir erhalten ~u2 = 1|~u′
2|~u′2 = 1
7
2
−4
5
2
.
(3) ~u′3 := ~v3 − (~v3)~u1 − (~v3)~u2 = ~v3 − (~v3 · ~u1)~u1 − (~v3 · ~u2)~u2 =
8
1
5
6
− 1√14
2 ·
28
1
2
0
3
− 172 · 49
2
−4
5
2
=
8− 2− 2
1− 4 + 4
5 + 0− 5
6− 6− 2
=
4
1
0
−2
und wir erhalten
~u3 = 1|~u′
3|~u′3 = 1√
21
4
1
0
−2
.
2. LINEARE ABBILDUNGEN UND KOORDINATENDARSTELLUNGEN 127
2. Lineare Abbildungen und Koordinatendarstellungen
2.1. Lineare Abbildungen und ihre Basisdarstellung. Seien V, W Vektorr�aume
�uber R. Mit einer Abbildung f : V → W ("von V in W\) wird jedem Vektor ~v ∈ V
ein eindeutig bestimmter Vektor ~w = f(~v) ∈ W, das sogenannte Bild von ~v unter f
zugeordnet.
Definition 4.2. Eine Abbildung hei�t linear, wenn gilt
L.1: f ist homogen; d.h. f(α~v) = α f(~v) f�ur alle α ∈ R, ~v ∈ V,L.2: f ist additiv; d.h. f(~u+ ~v) = f(~u) + f(~v) f�ur alle ~u, ~v ∈ V.
Man nennt lineare Abbildungen auch lineare Transformationen oder
auch lineare Operatoren.
Beispiele f�ur lineare Abbildungen:
Beispiel 4.2. Die Multipliaktion mit einer festen m× n-Matrix A
l : Rn → Rm, l(~x) := A~x.
Beispiel 4.3. Der Di�erentialoperator
d
dx: C1(I)→ C0(I),
d
dxf(x) := f ′(x).
Mit C0(I) bzw. C1(I) bezeichnet man den Vektorraum aller auf dem Intervall
I ⊆ R stetigen bzw. stetig di�erenzierbaren Funktionen.
Beispiel 4.4. Das Integral
f →∫ b
a
f(x) dx, f ∈ C0(I).
Beispiel 4.5. Die Werksto�beanspruchung eines elastischen K�orpers, auf den
von au�en Kr�afte wirken, wird in der linearen Elastostatik durch den Span-
nungstensor S (3× 3- Matrix) beschrieben.
Bemerkung 4.2. Da zu linearen Abbildungen f, g : V → W und α ∈ R, dieSumme
f + g : V → W, (f + g)(~v) := f(~v) + g(~v)
und das α-fache
αf : V → W, (αf)(~v) := αf(~v)
wieder lineare Abbildungen sind, bilden die linearen Abbildungen selbst wieder
einen Vektorraum
L(V, W ) := {f ; f : V → W ist linear.}
128 4. LINEARE ALGEBRA
Im folgenden sei V = W = Rn.Wir betrachten also nur noch lineare Abbildungen
des Rn in sich.
Satz 4.3. Gegeben sei eine lineare Abbildung f : Rn → Rn. Mit der
Matrix F = (f(~e1, f(~e2), . . . , f(~en)), deren Spalten aus den Bildern der
nat�urlichen Basisvektoren bestehen, gilt
f(~x) = F~x.
Man nennt F die Abbildungsmatrix von f bez�uglich der nat�urlichen Ba-
sis.
Beweis: F�ur ~x = x1~e1 + . . .+ xn~en folgt
f(~x) = f
(n∑
i=1
xi~ei
)=
n∑i=1
xi f(~ei) = F~x. #
Bemerkung 4.3. Man beachte, dass die Matrix F die Abbildungsmatrix der
linearen Abbildung bzgl. der nat�urlichen Basis ist. In einer anderen Basis sieht
die Matrix anders aus!
Beispiel 4.6. Die Abbildung
f : R3 → R3, f((x, y, z)T ) = (x, y + 2z, z)T
ist linear, da
αf
x1
y1
z1
+ βf
x2
y2
z2
= α
x1
y1 + 2z1
z1
+ β
x2
y2 + 2z2
z2
=
αx1 + βx2
αy1 + βy2 + 2(αz1 + βz2)
αz1 + βz2
= f
αx1 + βx2
αy1 + βy2
αz1 + βz2
.
Die Abbildung besitzt bez�uglich der Basis~e1 =
1
0
0
, ~e2 =
0
1
0
, ~e3 =
0
0
1
die Abbildungsmatrix
F = (f(~e1) f(~e2) f(~e3)) =
1 0 0
0 1 2
0 0 1
2. LINEARE ABBILDUNGEN UND KOORDINATENDARSTELLUNGEN 129
und damit ist
f(~x) = f((x, y, z)T ) =
1 0 0
0 1 2
0 0 1
~x =
1 0 0
0 1 2
0 0 1
x
y
z
=
x
y + 2z
z
.
Definition 4.3. Eine Basis B = {~b1, ~b2, . . . , ~bn} hei�t orthogonal, wenn
die Vektoren ~bi, i = 1, 2, . . . , n, paarweise orthogonal sind, d.h.
~bi ·~bj = 0 f�ur i 6= j.
Die Basis B = {~b1, ~b2, . . . , ~bn} hei�t orthonormal, wenn sie orthogonal
ist und alle Basisvektoren normiert sind.
Beispiel 4.7. Die nat�urliche Basis ist orthonormal.
Definition 4.4. Eine n× n-Matrix hei�t orthogonal, wenn gilt:
ATA = E, (also AT = A−1).
Satz 4.4. F�ur eine n× n-Matrix A sind �aquivalent
(1) A ist orthogonal.
(2) Die Abbildung T (~x) = A~x ist isometrisch (l�angentreu), d.h.
|A~x| = |~x|, f�ur alle ~x ∈ Rn.
(3) Die Abbildung T (~x) = A~x ist kongruent (l�angen- und winkeltreu),
d.h., T erh�alt das Skalarprodukt
(A~x) · (A~y) = ~xTATA~y = ~xT~y = ~x · ~y, f�ur alle ~x, ~y ∈ Rn.
(4) Die Spalten (Zeilen) von A bilden eine orthonormale Basis des
Rn.
Beweis: Wir beweisen nur (1) ⇐⇒ (4) :
ATA = E ⇔
~aT
1
~aT2...
~aTn
( ~a1 ~a2 . . . ~an
)= E ⇐⇒ ~aT
i ~aj = ~ai·~aj =
{0, i 6= j,
1, i = j.#
130 4. LINEARE ALGEBRA
Beispiel 4.8. Drehungen in der Ebene um den Nullpunkt lauten in kartesi-
schen Koordinaten:
d : R2 → R2, d
(x
y
)=
(x cosϕ− y sinϕ
x sinϕ+ y cosϕ
),
mit dem Drehwinkel ϕ, wie man sich leicht �uberzeugt, ist wegen |d(~x)| = |~x| :
~x =
(x
y
)=
(|~x| cosψ
|~x| sinψ
)und
d(~x) =
(x′
y′
)=
(|~x| cos(ϕ+ ψ)
|~x| sin(ϕ+ ψ)
)=
(|~x|(cosϕ · cosψ − sinϕ · sinψ)
|~x|(sinϕ · cosψ + cosϕ · sinψ)
)
=
(x cosϕ− y sinϕ
x sinϕ+ y cosϕ
)= (cosϕ) ~x+ (sinϕ) ~x⊥, ~x⊥ =
(−yx
)
xx'
y
y'
ψφ x
d x
cos xφ
sin xφ ┴
Die Abbildung d ist linear mit der orthogonalen Abbildungsmatrix
D =
(cosϕ − sinϕ
sinϕ cosϕ
), detD = 1.
3. EIGENWERTE UND EIGENVEKTOREN 131
3. Eigenwerte und Eigenvektoren
Wozu ben�otigt man Eigenwerte und Eigenvektoren?
• Diagonalmatrizen sind leicht zu handhaben. Eigenvektoren werden
zur Diagonalisierung von Matrizen verwendet. (siehe sp�ater)
• Zur Analyse von Quadriken bzw. quadratischen Formen. Darauf ge-
hen wir nicht ein.
• F�ur die Langzeitvorhersage von Wetter oder auch der Entwicklung
einer Population basierend auf Wahrscheinlichkeitsmatrizen bzw. so-
genannten Markovschen Ketten. Sollte in der Statistik/Stochastik
behandelt werden.
• F�ur stochastische Modelle.
• Matrizen repr�asentieren lineare Abbildung (Drehung, Scherung,
Spiegelung). Eigenvektoren geben die Geraden an, die dabei erhalten
bleiben. Und Strecken auf diesen Geraden werden um die Eigenwerte
gestreckt bzw. gestaucht.
• Invarianten physikalischer Systeme: Eigenfrequenzen, Eigenformen
und gegebenenfalls auch D�ampfungscharakteristik eines schwingf�ahi-
gen Systems, Knicklast eines Knickstabs (siehe Balkentheorie),
Hauptspannungen in der Festigkeitslehre: Umrechnung der Span-
nungen in ein Koordinatensystem, in dem es keine Schubspannun-
gen gibt. Eigenwerte spielen in der Quantenmechanik eine besondere
Rolle.
• Anwendung in der Bildverarbeitung: In der Bildverarbeitung wer-
den Eigenvektoren gerne benutzt, um Objekte auszurichten. Wenn
man beispielsweise Mikroskopbilder von ellipsenf�ormigen Bakterien
hat, gibt der gr�o�te Eigenvektor die Lage der Hauptachse an (daher
auch Hauptachsentransformation). Mit dieser Hauptachse k�onnen al-
le Bilder gleich ausgerichtet (gedreht) werden. Die Eigenwerte geben
die Verteilung entlang der Achsen an. Sie sind unabh�anging von der
Ausrichtung, so da� man sie zum Vermessen oder Klassi�zieren be-
nutzten kann, ohne das Bild vorher zu drehen.
• Systeme gew�ohnlicher Di�erentialgleichungen 1. Ordnung.
132 4. LINEARE ALGEBRA
Definition 4.5. Eine Zahl λ ∈ C hei�t Eigenwert der Matrix einer reellen
oder komplexen n×n-Matrix A, wenn es mindestens einen Spaltenvektor~b ∈ Cn, ~b 6= ~0, gibt mit
A~b = λ~b.
Jeder Vektor ~b 6= ~0, der diese Gleichung erf�ullt, hei�t Eigenvektor von A
zum Eigenwert λ.
3.1. Bestimmung von Eigenwerten. Wenn λ ein Eigenwert der Matrix A ist,
dann gibt es einen Spaltenvektor ~b 6= ~0 mit
A~b = λ~b⇔ (A− λE)~b = ~0.
Folglich besitzt das Gleichungssystem (16) nichttriviale L�osungen und damit ist die
Determinante der Koe�zientenmatrix gleich Null, also det (A − λE) = 0. Umge-
kehrt, ist diese Determinate gleich Null, dann hat das Gleichungssystem nichttriviale
L�osungen (vgl. Rechenregeln f�ur Determinanten (2.7) bzw. Cramersche Regel 2.9).
Insgesamt haben wir damit, λ ist ein Eigenwert der Matrix A genau dann wenn
gilt:
det (A− λE) = 0.
Deshalb
Zur Berechnung der Eigenwerte einer n×n-Matrix betrachtet man (mit einer
Variablen λ) das charakteristische Polynom von A
χA(λ) := det (A− λE).
Die Nullstellen des charakteristischen Polynoms sind die Eigenwerte der Ma-
trix A.
Beispiel 4.9. Wir betrachten die Matrix
A =
0 −1 0
−1 −1 1
0 1 0
, es ist A− λE =
−λ −1 0
−1 −1− λ 1
0 1 −λ
und damit
det (A− λE) = (−λ)(−1− λ)(−λ) + 0 + 0− 0− (−λ)− (−λ) = −λ2 − λ3 + 2λ = 0
⇔ λ2 + λ3 − 2λ = λ(λ2 + λ− 2) = 0
3. EIGENWERTE UND EIGENVEKTOREN 133
und ergibt die Nullstellen λ1 = 0 sowie
λ2 + λ− 2 = 0 ⇐⇒ λ2,3 = −1
2±√
1
4+ 2
und die Nullstellen λ2 = 1 und λ3 = −2.
Wenn man die Determinante det (A−λE) = χA(λ) berechnet und nach Potenzen
von λ ordnet, so erh�alt man
χA(λ) = (−λ)n + (spurA)(−λ)n−1 + . . .+ detA,
wobei spurA = a11 +a22 + . . .+ann die Summe der Elemente der Hauptdiagonale ist.
Beispiel 4.10. F�ur obige Matrix
A =
0 −1 0
−1 −1 1
0 1 0
ist spurA = 0− 1 + 0 = −1 und detA = 0, was auch aus dem charakteristischen
Polynom
χA(λ) = (−λ)3 + (−1)λ2 + 2λ+ 0
ablesbar ist.
3.2. Algebraische Vielfachheit. Das charakteristische Polynom
χA(λ) = (−λ)n + (spurA)(−λ)n−1 + . . .+ detA
ist folglich ein Polynom n-ten Grades (f�ur eine n × n-Matrix) und hat deshalb n
nicht notwendigerweise voneinander verschiedene komplexe Nullstellen λ1, λ2, . . . λn.
D.h. wir haben die Nullstelle λ1 mit der Vielfachheit k1, die Nullstelle λ2 mit der
Vielfachheit k2, . . . , die Nullstelle λr mit der Vielfachheit kr. Dabei kann man die
Eigenwerte der Gr�o�e nach ordnen λ1 ≤ λ2 ≤ . . . λr und es ist k1 + k2 + . . .+ kr = n.
Definition 4.6. Man bezeichnet die Vielfachheit ki der Nullstelle λi als
die algebraische Vielfachheit des Eigenwertes λi.
3.3. Eigenvektoren, Eigenraume und geometrische Vielfachheit. Hat man
nun alle Eigenwerte der Matrix A bestimmt, so werden dann die Eigenvektoren be-
rechnet, d.h. man l�ost das Gleichungssystem
(A− λiE)~b = ~0, i = 1, 2, . . . , r.
Da die Determinate der Koe�zientenmatrix gleich Null ist, besitzt das Gleichungs-
system nichttriviale L�osungen mit n− Rang (A− λiE) freien Parametern.
134 4. LINEARE ALGEBRA
Definition 4.7. Jede L�osung ~b 6= ~0 von (A−λiE)~b = ~0 ist ein Eigenvektor
zum Eigenwert λi.
V (λi) = {~b ∈ Cn : (A− λiE)~b = ~0} = Kern (A− λiE)
hei�t Eigenraum zum Eigenwert λi, (1 ≤ i ≤ r). Man nennt die Di-
mension des Eigenraumes DimV (λi) die geometrische Vielfachheit des
Eigenwertes λi.
Die algebraische und die geometrische Vielfachheit stimmen i. Allg. nicht �uberein!
Wie man leicht sieht ist:
DimV (λi) = n− Rang (A− λiE).
Bemerkung 4.4. Da die Eigenwerte die Nullstellen des charakteristischen
Polynoms sind, gilt
χA(λ) = (−λ)n + (spurA)(−λ)n−1 + . . .+ detA
= (λ− λ1)k1(λ− λ2)
k2 · · · (λ− λr)kr
= (−λ)n + (k1λ1 + k2λ2 + . . .+ krλr) + . . .+ λk11 λ
k22 · · ·λkr
r
mit den algebraischen Vielfachheiten ki, i = 1, 2, . . . , r. Hieraus liest man ab,
spurA = k1λ1 + k2λ2 + . . .+ krλr
detA = λk11 λ
k22 · · ·λkr
r
Diese Formeln sind n�utzlich f�ur Rechenkontrollen, au�erdem gestattet insbe-
sondere die 2. Formel Eigenwerte zu erraten, da die Eigenwerte Teiler des
Absolutgliedes des charakteristischen Polynoms sind.
Beispiel 4.11. Es sei
A =
5 4 2
4 5 2
2 2 2
.
3. EIGENWERTE UND EIGENVEKTOREN 135
Wir bestimmen die Eigenwerte als Nullstellen des charakteristischen Polynoms:
det (A− λE) =
∣∣∣∣∣∣∣5− λ 4 2
4 5− λ 2
2 2 2− λ
∣∣∣∣∣∣∣=
~z1 − ~z2
∣∣∣∣∣∣∣1− λ −1 + λ 0
4 5− λ 2
2 2 2− λ
∣∣∣∣∣∣∣=
~s2 − ~s1
∣∣∣∣∣∣∣1− λ 0 0
4 9− λ 2
2 4 2− λ
∣∣∣∣∣∣∣ = (1− λ)[(9− λ)(2− λ)− 8]
= (1− λ)[18− 11λ+ λ2 − 8] = (1− λ)(λ− 10)(λ− 1) = −(λ− 10)(λ− 1)2.
Folglich hat die 3×3-Matrix A den Eigenwert λ1 = 1 mit der algebraischen Viel-
fachheit k1 = 2 und den Eigenwert λ2 = 10 mit der algebraischen Vielfachheit
k2 = 1.
Wir bestimmen nun die Eigenvektoren, zun�achst f�ur λ1 = 1. Dazu l�osen wir das
Gleichungssystem
(A− λ1E)~b = ~0⇔
4 4 2
4 4 2
2 2 1
b1
b2b3
=
0
0
0
,
das die L�osung b1 = s, b2 = t, b3 = −2s− 2t mit t, s ∈ R besitzt. Folglich ist der
Eigenraum zum Eigenvektor λ1 = 1 :
V (λ1) = V (1) =
s
t
−2s− 2t
= s
1
0
−2
+ t
0
1
−2
, s, t ∈ R
.
Die Vektoren
1
0
−2
und
0
1
−2
bilden eine Basis von V (1). Deshalb hat
der Eigenraum die Dimension 2 und der Eigenwert λ1 = 1 die geometrische
Vielfachheit 2.
Nun zum Eigenwert λ2 = 10.
(A− λ2E)~b = ~0⇔
−5 4 2
4 −5 2
2 2 −8
b1
b2b3
=
0
0
0
136 4. LINEARE ALGEBRA
und wird mittels Gau�-Algorithmus umgeformt zu −5 4 2 0
4 −5 2 0
2 2 −8 0
≈12~z3
−5 4 2 0
4 −5 2 0
1 1 −4 0
≈
~z1 + 5~z3
~z2 − 4~z3
0 9 18 0
0 −9 −18 0
1 1 −4 0
≈ 0 1 −2 0
0 1 −2 0
1 1 −4 0
und hat die L�osung b3 = r, b2 = 2r und b1 = −b2 + 4b3 = −2r + 4r = 2r mit r ∈ RFolglich ist der Eigenraum zum Eigenvektor λ2 = 10 :
V (λ2) = V (10) =
2r
2r
r
= r
2
2
1
, r ∈ R
.
Eine Basis f�ur den Eigenraum V (10) ist der Vektor
2
2
1
und die Dimension
des Eigenraumes ist damit 1. Folglich hat der Eigenwert λ2 = 10 die geome-
trische Vielfachheit 1. In diesem Beispiel stimmen die algebraische und die
geometrische Vielfachheit der Eigenwerte �uberein, dass ist i.Allg. aber nicht so.
In diesem Beispiel stimmen die algebraische und die geometrische Vielfachheit
der Eigenwerte �uberein, dass ist i.Allg. aber nicht so.
Beispiel 4.12. Gegeben sei
A =
(a b
c d
)∈ R2×2.
Es werden zun�achst die Eigenwerte als Nullstellen des charakteristischen Poly-
noms bestimmt:
χA(λ) =
∣∣∣∣∣ a− λ b
c d− λ
∣∣∣∣∣ = (a− λ)(d− λ)− cb
= λ2 − (a+ d)λ+ (ad− bc)= λ2 − (spurA)λ+ detA = (λ− λ1)(λ− λ2) = 0
Anschlie�end wird f�ur jeden Eigenwert λi, i = 1, 2, der Eigenraum und eine
Basis des Eigenraums bestimmt. Dazu l�ost man das Gleichungssystem(a− λi b
c d− λi
)(b1b2
)=
(0
0
).
Im Fall n = 2 gibt es somit 4 verschiedene F�alle:
(1) λ1, λ2 ∈ R, λ1 6= λ2,
3. EIGENWERTE UND EIGENVEKTOREN 137
(2) λ1 = λ2 ∈ R algebraische = geometrische Vielfachheit = 2,
(3) λ1 = λ2 ∈ R algebraische Vielfach. = 2 6= geometrische Vielfachheit = 1,
(4) λ2 = λ1 ∈ C, λ1 6∈ R.Es seien konkrete Zahlenbeispiele f�ur alle 4 F�alle angegeben:
Es sei
A =
(1 2
2 1
).
Wir bestimmen die Eigenwerte
χA(λ) = det (A−λE) =
(1− λ 2
2 1− λ
)= (1−λ)2−4 = 1−2λ+λ2−4 = λ2−2λ−3 = 0
hat die Nullstellen:
λ1,2 = 1±√
1− (−3) = 1± 2.
Folglich hat A die beiden Eigenwerte λ1 = −1 und λ2 = 3. Die algebraische
Vielfachheit von λ1 = −1 und λ2 = 3 ist 1. Wir bestimmen nun die Eigenr�aume:
F�ur λ1 = −1 :
(A− λ1E)
(x
y
)=
(2 2
2 2
)(x
y
)=
(0
0
)ergibt die L�osung y = t und x = −t, d.h.
V (λ1) = V (−1) =
{(−tt
)= t
(−1
1
), t ∈ R
}.
Eine Basis f�ur den Eigenraum V (−1) ist der Vektor
(−1
1
)und die Dimension
des Eigenraumes ist damit 1. Folglich hat der Eigenwert λ1 = −1 die geometri-
sche Vielfachheit 1. Nun f�ur λ2 = 3 :
(A− λ2E)
(x
y
)=
(−2 2
2 −2
)(x
y
)=
(0
0
)ergibt die L�osung y = t und x = t, d.h.
V (λ2) = V (3) =
{(t
t
)= t
(1
1
), t ∈ R
}.
Eine Basis f�ur den Eigenraum V (3) ist der Vektor
(1
1
)und die Dimension
des Eigenraumes ist damit 1. Folglich hat der Eigenwert λ2 = 3 die geometrische
Vielfachheit 1.
Es sei
A =
(3 0
0 3
).
138 4. LINEARE ALGEBRA
Wir bestimmen die Eigenwerte
χA(λ) = det (A− λE) =
(3− λ 0
0 3− λ
)= (3− λ)2 = 0
hat die Nullstelle:
λ1,2 = 3.
Folglich hat A die beiden Eigenwerte λ = λ1 = λ2 = 3. Die algebraische Viel-
fachheit von λ = 3 ist 2. Wir bestimmen nun den Eigenraum:
F�ur λ = 3 :
(A− λE)
(x
y
)=
(0 0
0 0
)(x
y
)=
(0
0
)ist erf�ullt f�ur alle (x, y)T ∈ R2, d.h. V (3) = R2 und der Eigenraum hat die
Dimension 2. D.h. der Eigenwert λ = 3 hat die algebraische und geometrische
Vielfachheit 2.
Es sei
A =
(2 1
0 2
).
Wir bestimmen die Eigenwerte
χA(λ) = det (A− λE) =
(2− λ 1
0 2− λ
)= (2− λ)2 = 0
hat die Nullstelle:
λ1,2 = 2.
Folglich hat A die beiden Eigenwerte λ = λ1 = λ2 = 2. Die algebraische Viel-
fachheit von λ = 2 ist 2. Wir bestimmen nun den Eigenraum:
F�ur λ = 2 :
(A− λE)
(x
y
)=
(0 1
0 0
)(x
y
)=
(0
0
)und der Eigenraum ist
V (λ) = V (2) =
{(t
0
)= t
(1
0
), t ∈ R
}.
Eine Basis f�ur den Eigenraum V (2) ist der Vektor
(1
0
)und die Dimension
des Eigenraumes ist damit 1. Folglich hat der Eigenwert λ = 2 die geometrische
Vielfachheit 1.
Es sei
A =
(cosϕ − sinϕ
sinϕ cosϕ
)
3. EIGENWERTE UND EIGENVEKTOREN 139
Bestimmung der Eigenwerte:
χA(λ) = det (A− λE) = det
(cosϕ− λ − sinϕ
sinϕ cosϕ− λ
)= (cosϕ− λ)2 + sin2 ϕ = 1− 2λ cosϕ+ λ2 = 0
f�ur
λ1,2 = cosϕ±√
cos2 ϕ− 1 = cosϕ± i sinϕ.
Falls ϕ 6= kπ, k ∈ Z gibt es keine reellen Eigenwerte und damit auch keine
reellen Eigenvektoren. Die komplexen Eigenr�aume sind: F�ur λ1 = cosϕ+ i sinϕ :
(A− λ1E)
(x
y
)=
(cosϕ− cosϕ− i sinϕ − sinϕ
sinϕ cosϕ− cosϕ− i sinϕ
)(x
y
)
= sinϕ
(−i −1
1 −i
)(x
y
)=
(0
0
)und hat die L�osung y = t und x = it, und der Eigenraum ist
V (λ1) = V (cosϕ+ i sinϕ) =
{(it
t
)= t
(i
1
), t ∈ C
}.
Eine Basis f�ur den Eigenraum V (cosϕ + i sinϕ) ist der Vektor
(i
1
). Analog
erh�alt man f�ur λ2 = cosϕ− i sinϕ :
(A− λ2E)
(x
y
)=
(cosϕ− cosϕ+ i sinϕ − sinϕ
sinϕ cosϕ− cosϕ+ i sinϕ
)(x
y
)
= sinϕ
(i −1
1 i
)(x
y
)=
(0
0
)und hat die L�osung y = t und x = −it, und der Eigenraum ist
V (λ) = V (cosϕ+ i sinϕ) =
{(−itt
)= t
(−i1
), t ∈ C
}.
Eine Basis f�ur den Eigenraum V (cosϕ− i sinϕ) ist der Vektor
(−i1
).
Beispiel 4.13. Es sei
A =
5 −7 7
4 −3 4
4 −1 2
140 4. LINEARE ALGEBRA
Bestimmung der Eigenwerte
det (A− λE) =
∣∣∣∣∣∣∣5− λ −7 7
4 −3− λ 4
4 −1 2− λ
∣∣∣∣∣∣∣= (5− λ)(−3− λ)(2− λ)− 16 · 7− 28 + 28(3 + λ) + 4(5− λ) + 28(2− λ)
= (−15− 2λ+ λ2)(2− λ)− 112− 28 + 28 · 5 + 20− 4λ
= −30− 4λ+ 2λ2 + 15λ+ 2λ2 − λ3 − 140 + 140 + 20− 4λ
= −λ3 + 4λ2 + 7λ− 10 = 0.
Wir m�ussen den ersten Eigenwert"erraten\. Man �ndet schnell, dass λ1 = 1
ein Eigenwert ist, die �ubrigen Eigenwerte �ndet man durch abdividieren:
(−λ3+ 4λ2+ 7λ− 10) : (λ− 1) = −λ2 + 3λ+ 10
−λ3 + λ2
3λ2 + 7λ
3λ2 − 3λ
10λ− 10
10λ− 10
0
Folglich ergeben sich die beiden anderen Eigenwerte aus
λ2 − 3λ+ 10 = 0
zu λ2,3 =3
2±√
9
4+ 10 =
3
2± 7
2,
also λ2 = 5 und λ3 = −2. Die dazugeh�origen Eigenvektoren und Eigenr�aume
sind f�ur λ1 = 1 :
(A− λ1E)~x = ~0 ⇐⇒
4 −7 7 0
4 −4 4 0
4 −1 1 0
≈
~z1 − ~z3
~z2 − ~z3
0 −6 6 0
0 −3 3 0
4 −1 1 0
≈ 0 −1 1 0
0 −1 1 0
4 −1 1 0
.
Damit ist x3 = x2 = t und x1 = 14(t − t) = 0. Der Eigenraum zum Eigenvektor
λ1 = 1 ist
V (λ1) = V (1) =
0
t
t
= t
0
1
1
, t ∈ R
.
3. EIGENWERTE UND EIGENVEKTOREN 141
F�ur λ2 = 5 :
(A− λ2E)~x = ~0 ⇐⇒
0 −7 7 0
4 −8 4 0
4 −1 −3 0
≈~z2 − ~z4
0 −7 7 0
0 −7 7 0
4 −1 −3 0
Damit ist x3 = x2 = t und x1 = 1
4(t + 3t) = t. Der Eigenraum zum Eigenvektor
λ2 = 5 ist
V (λ2) = V (5) =
t
t
t
= t
1
1
1
, t ∈ R
.
F�ur λ3 = −2 :
(A− λ3E)~x = ~0 ⇐⇒
7 −7 7 0
4 −1 4 0
4 −1 4 0
≈ 1 −1 1 0
4 −1 4 0
4 −1 4 0
≈
~z2 − ~z3
1 −1 1 0
0 0 0 0
4 −1 4 0
≈ 1 −1 1 0
0 0 0 0
0 3 0 0
≈ 1 0 1 0
0 0 0 0
0 1 0 0
.
Damit ist x2 = 0, x1 = t und x3 = −t. Der Eigenraum zum Eigenvektor λ3 = −2
ist
V (λ3) = V (−2) =
t
0
−t
= t
1
0
−1
, t ∈ R
.
Alle Eigenwerte λ1, λ2, λ3 haben die algebraische und die geometrische Vielfach-
heit 1.
3.4. Invarianten.
Satz 4.5. Es sei A eine reelle oder komplexe n× n-Matrix. Dann gilt:
(1) A und die transponierte Matrix AT haben dasselbe charakteristi-
sche Polynom, deshalb besitzen sie dieselben Eigenwerte ( aber
im Allg. andere Eigenr�aume).
(2) Die �ahnlichen Matrizen A und B−1AB haben dasselbe charakte-
ristische Polynom und deshalb auch dieselben Eigenwerte; ~b ist
ein Eigenvektor zu A genau dann wenn B−1~b Eigenvektor von
B−1AB ist.
(3) Die Matrix A ist genau dann invertierbar, wenn alle Eigenwerte
6= 0 sind. Ist λ ein Eigenwert von A mit dem Eigenvektor ~b, dann
ist λ−1 Eigenwert von A−1 mit demselben Eigenvektor ~b.
142 4. LINEARE ALGEBRA
Beweis: zu (1): Es gilt (A− λE)T = AT − λET = AT − λE und
det (A− λE) = det (A− λE)T = det (AT − λE).
Beide Polynome sind also identisch und haben damit dieselben Nullstellen = Eigen-
werte.
zu (2): Es gilt
det (A−λE) = detB−1·det (A−λE)·detB = det (B−1(A−λE)B) = det (B−1AB−λE).
Damit sind beide charakteristische Polynome identisch und haben dieselben Null-
stelle = Eigenwerte. Weiterhin gilt
A~b = λ~b ⇐⇒ ABB−1~b = λBB−1~b = B(λB−1~b) ⇐⇒ (B−1AB)(B−1~b) = λ(B−1~b).
zu (3): detA = λk11 λ
k22 · · ·λkr
r 6= 0 ⇐⇒ λi 6= 0 f�ur alle i = 1, 2, . . . , r. Au�erdem
ist
A~b = λ~b ⇐⇒ ~b = λA−1~b ⇐⇒ A−1~b =1
λ~b. #
Bemerkung 4.5. Die Koe�zienten des charakteristischen Polynoms χA(λ)
sind Invarianten der n × n-Matrix A, bzw. Invarianten der zugeh�origen linearen
Abbildung ~x→ A~x, da sie sich bei einem Basiswechsel nicht �andern.
Satz 4.6. Eigenvektoren ~b1, ~b2, . . . , ~br zu paarweise verschiedenen Eigen-
werten sind linear unabh�angig.
Beweis: Aus
α1~b1 + α2
~b2 + . . .+ αr~br = ~0
folgt nach Anwendung von A :
α1A~b1 + α2A~b2 + . . .+ αrA~br = α1λ1~b1 + α2λ~b2 + . . .+ αrλr
~br = ~0
und nach Subtraktion von
λ1(α1~b1 + α2
~b2 + . . .+ αr~br) = ~0
erh�alt man
(λ1 − λ2)α2~b2 + (λ1 − λr) . . .+ αr
~br = ~0.
Wendet man auf diese Gleichung wiederum A an und subtrahiert das λ2-fache dieser
Gleichung, so folgt:
(λ1 − λ3)(λ2 − λ)α3~b3 + . . .+ (λ1 − λr)(λ2 − λr)αr
~br = ~0.
Sukzessive Fortsetzung ergibt
(λ1 − λr)(λ2 − λr) · · · (λr−1 − λr)αr~br = ~0
3. EIGENWERTE UND EIGENVEKTOREN 143
woraus αr = 0 folgt. Dies ergibt r�uckw�arts eingesetzt αr−1 = . . . = α2 = α1 = 0.
#
3.5. Diagonalisierung. Besonders g�unstig ist der Fall, wenn man eine Basis aus
Eigenvektoren bilden kann:
Satz 4.7. Besitzt eine reelle oder komplexe n × n-Matrix n linear un-
abh�angige Eigenvektoren ~b1, ~b2, . . . , ~bn mit A~bi = λi~bi, und den nicht not-
wendiger Weise verschiedenen Eigenwerten λi, dann bringt die Trans-
formationsmatrix
B = (~b1 ~b2 . . . ~bn)
(mit den Eigenvektoren als Spalten) die Matrix A auf Diagonalform,
d.h., es gilt, wenn die Reihenfolge der λi mit den der ~bi �ubereinstimmt,
B−1AB =
λ1 0 0 . . . 0
0 λ2 0 . . . 0
0 0 λ3 . . . 0...
......
. . ....
0 0 0 . . . λn
=: D.
Beweis: AB = (A~b1 A~b2 . . . A~bn) = (λ1~b1 λ2
~b2 . . . λn~bn) = BD. #
Beispiel 4.14. Es sei
A =
−2 −8 −12
1 4 4
0 0 1
.
Man berechne A100. Es ist von sehr gro�em Nutzen, wenn es gelingt A durch
eine entsprechende Transformation auf Diagonalgestalt zu bringen, denn dann
gilt:
Ak = (BDB−1)k = (BDB−1)(BDB−1)(BDB−1) · · · (BDB−1)
= BDkB−1 = B
λk
1 0 . . . 0
0 λk2 . . . 0
......
. . ....
0 0 . . . λkn
B−1.
144 4. LINEARE ALGEBRA
1. Wir bestimmen die Eigenwerte von A :
det (A− λE) =
∣∣∣∣∣∣∣−2− λ −8 −12
1 4− λ 4
0 0 1− λ
∣∣∣∣∣∣∣= (−2− λ)(4− λ)(1− λ) + 8(1− λ) = (−2λ+ λ2)(1− λ) = λ(λ− 2)(1− λ) = 0
und wir erhalten die Eigenwerte λ1 = 0, λ2 = 1, λ3 = 2.
2. Wir bestimmen die Eigenvektoren: zu l�osen ist des GS (A− λiE)~b = ~0 :
f�ur λ1 = 0 : −2 −8 −12 0
1 4 4 0
0 0 1 0
≈ −2 −8 0 0
1 4 0 0
0 0 1 0
≈ 0 0 0 0
1 4 0 0
0 0 1 0
V (λ1) = V (0) =
4t
−t0
= t
4
−1
0
, t ∈ R
, ~b1 =
4
−1
0
.
f�ur λ2 = 1 : −3 −8 −12 0
1 3 4 0
0 0 0 0
≈ 0 1 0 0
1 3 4 0
0 0 0 0
≈ 0 1 0 0
1 0 4 0
0 0 0 0
V (λ2) = V (1) =
4t
0
−t
= t
4
0
−1
, t ∈ R
, ~b2 =
4
0
−1
.
f�ur λ3 = 2 : −4 −8 −12 0
1 2 4 0
0 0 −1 0
≈ −4 −8 0 0
1 2 0 0
0 0 1 0
≈ 0 0 0 0
1 2 0 0
0 0 1 0
V (λ1) = V (0) =
2t
−t0
= t
2
−1
0
, t ∈ R
, ~b1 =
2
−1
0
.
3. Diagonalisierung:
B =
4 4 2
−1 0 −1
0 −1 0
3. EIGENWERTE UND EIGENVEKTOREN 145
Wir bestimmen B−1 : 4 4 2 1 0 0
−1 0 −1 0 1 0
0 −1 0 0 0 1
≈ 4 4 2 1 0 0
1 0 1 0 −1 0
0 1 0 0 0 −1
≈ 2 4 0 1 2 0
1 0 1 0 −1 0
0 1 0 0 0 −1
≈
2 0 0 1 2 4
1 0 1 0 −1 0
0 1 0 0 0 −1
≈ 1 0 0 1
21 2
0 0 1 −12−2 2
0 1 0 0 0 −1
Damit ist
B−1 =
12
1 2
0 0 −1
−12−2 2
und
A100 = BD100B−1 =
4 4 2
−1 0 −1
0 −1 0
0 0 0
0 1 0
0 0 2100
1
21 2
0 0 −1
−12−2 2
0 4 2101
0 0 −2100
0 −1 0
1
21 2
0 0 −1
−12−2 2
=
−2100 −2102 −4− 2102
299 2101 2101
0 0 1
.
Satz 4.8. (Eigenwertproblem fur symmetrische Matrizen)
F�ur jede reelle symmetrische n× n-Matrix gilt:
(1) Alle Eigenwerte von A sind reell.
(2) Eigenvektoren zu verschiedenen Eigenwerten von A sind ortho-
gonal.
(3) Algebraische und geometrische Vielfachheit jedes Eigenwertes
sind gleich.
Beweis: Wir beweisen nur die erste Eigenschaft. Ist λ ∈ C ein Eigenwert und ~b ∈ Cn
ein Eigenvektor von A, so folgt A~b = λ~b und durch komplexe Konjugation
A~b = λ~b ⇐⇒ A~b = λ~b ⇐⇒ A~b = λ~b,
da A reell ist. Damit erh�alt man
λ~bT~b = (A~b)T~bT = ~bTAT~b = ~bTλ~b = λ~bT~b
und wegen
~bT~b =n∑
i=1
bibi =n∑
i=1
|bi|2 > 0
146 4. LINEARE ALGEBRA
ergibt sich λ = λ und folglich ist λ eine reelle Zahl. #
4. Positiv definite Matrizen
Die Bestimmung der Extremwerte einer reellen Funktion in n Ver�anderlichen ist
eng verbunden mit der Frage, wann eine quadratische Form q(~x) = ~xTA~x f�ur ~x 6= ~0
nur positive oder nur negative Werte annimmt.
Definition 4.8. Eine quadratische Form q(~x) = ~xTA~x bzw. die zugeh�ori-
ge symmetrische Matrix A, hei�t positiv definit (negativ definit), wenn
aus ~x 6= ~0 stets q(~x) = ~xTA~x > 0 (q(~x) = ~xTA~x < 0) folgt.
Die quadratische Form hei�t indefinit, wenn sie sowohl positive als auch
negative Werte annimmt. Sie hei�t positiv (negativ) semide�nit, wenn
stets q(~x) = ~xTA~x ≥ 0 (q(~x) = ~xTA~x ≤ 0) gilt.
Bemerkung 4.6. In der speziellen Relativit�atstheorie spielen die nach H.A.Lorentz
benannten Transformationenx′
y′
z′
t′
= W
x
y
z
t
,
mit einer 4× 4 Matrix W des Raum-Zeit-Kontinuums, so dass die quadratische
Form
q(x, y, z, t) = x2 + y2 + z2 − c2t2
invariant bleibt, eine wichtige Rolle. Diese quadratische Form ist inde�nit; es
gibt"raumartige\ Vektoren ~u ∈ R4 mit q(~u) > 0 und
"zeitartige\ Vektoren ~v ∈ R4
mit q(~v) < 0.
Satz 4.9. Notwendige Bedinung: Wenn die symmetrische Matrix A
positiv de�nit ist, so m�ussen alle Hauptdiagonalelemente positiv sein.
Beweis: Ist die Matrix A positiv de�nit, so muss insbesondere f�ur die Einheitsvek-
toren ~ei gelten ~eTi A~ei = aii > 0. #
4. POSITIV DEFINITE MATRIZEN 147
Beispiel 4.15. Die Matrix
A =
1 2 −2
2 −5 −4
−2 −4 5
ist nicht positiv de�nit.
Satz 4.10. Positivit�at reeller symmetrischer Matrizen:
(1) D = diag (α1, α2, . . . , αn) ist genau dann positiv de�nit, wenn
alle αi positiv sind.
(2) Die reelle symmetrische Matrix A (also A = AT ) ist genau dann
positiv de�nit, wenn W TAW f�ur irgend eine invertierbare n× nMatrix W positiv de�nit ist.
(3) Die relle symmetrische Matrix A ist genau dann positiv de�nit,
wenn s�amtliche Eigenwerte von A positiv sind.
Beweis: zu 1) q(~x) = ~xTD~x =∑n
i=1 αix2i > 0 f�ur alle ~x 6= ~0 ⇐⇒ alle αi > 0.
zu 2) A positiv de�nit, dann gilt ~xT (W TAW )~x = (~xW )TA(W~x) > 0 f�ur alle ~x 6= ~0,
ist dagegen W TAW positiv de�nit, so folgt (W−1)T (W TAW )W−1 = A ist positiv
de�nit.
3) folgt aus 1) und 2) mit einem Hauptachsensystem W. #
Beispiel 4.16. Die Matrix
A =
1 2 −2
2 5 −4
−2 −4 5
ist positiv de�nit mit den Eigenwerten λ1 = 1, λ2 = 5 +
√24 und λ3 = 5−
√24.