You are on page 1of 150

LINEARE ALGEBRA

Vorlesungsskript zur Veranstaltung


Lineare Algebra
gehalten von
Daniel Kressner
im HS 2010 an der ETH Z urich.
20. Juli 2011
Zur Vorbereitung des vorliegenden Skriptes wurden die folgenden Quellen benutzt:
1. Gutknecht, Martin. Lineare Algebra f ur Informatiker. Vorlesungsskript ETH
Z urich, 2009. (Kapitel 0, 1, 2)
2. Liesen, J org und Mehrmann, Volker. Lineare Algebra. Vorlesungsskript TU
Berlin, Juli 2010. (Kapitel 2, 3)
3. Meyberg, Kurt. Algebra. Carl Hanser Verlag, 1975. (Kapitel 2)
4. Strang, Gilbert. Linear Algebra and Its Applications....
Diese Liste ist nicht als Literaturempfehlung zur Pr ufungvorbereitung zu verstehen.
Dank an Holger Brandsmeier und den Studenten der ETH Z urich (D-MATH/D-
PHYS HS 2010) f ur die zahlreichen Korrekturvorschl age. Einige der Illustrationen
wurden von Michael Steinlechner erstellt.
Korrekturvorschl age bitte unter http://elbanet.ethz.ch/wikifarm/dkressner/
index.php eintragen (Passwort nm2008) oder. direkt an
kressner@math.ethz.ch.
Kapitel 0
Lineare
Gleichungssysteme
Lineare Gleichungssysteme haben die Entwicklung der Linearen Algebra historisch ent-
scheidend beeinusst. In diesem einleitenden Kapitel wollen wir kurz, in Anlehnung an die
Schulmathematik, geometrische Veranschaulichung und L osung von linearen Gleichungs-
systemen vorstellen.
Eine Gleichung in einer Unbekannten. Eine einzige lineare Gleichung in einer Un-
bekannten x,
ax = b,
hat genau eine L osung, n amlich
x =
b
a
,
ausser wenn a = 0. In dieser Ausnahmesituation gibt es zwei F alle:
a = 0, b = 0 : jedes x ist L osung es gibt unendlich viele L osungen,
a = 0, b = 0 : kein x ist L osung es gibt keine L osungen.
Zwei Gleichungen in zwei Unbekannten. Betrachten wir als n achstes zwei Glei-
chungen in zwei Unbekannten x
1
und x
2
.
Beispiel 0.1:
x
1
+x
2
= 4
6x
1
2x
2
= 8.
(0.1)
Frage: Gibt es eine L osung und wenn ja, gibt es nur eine? Diese Frage nach Existenz und Eindeutig-
keit tritt in der Mathematik immer wieder auf.
Wir wollen sie zun achst geometrisch beantworten. Dazu stellen wir die Gleichungen in (0.1) so
um, dass sich auf der linken Seite nur noch die Variable x
2
bendet:
x
2
=x
1
+4, x
2
= 3x
1
4. (0.2)
In der (x
1
, x
2
)-Ebene liegen also alle L osungen der ersten Gleichung auf einer Geraden mit Steigung
1 und Verschiebung +4. Ebenso liegen alle L osungen der zweiten Gleichung auf einer Geraden
mit Steigung 3 und Verschiebung 4. Die gemeinsame L osung der beiden Gleichungen ist also der
Schnittpunkt (x
1
, x
2
) = (2, 2) der beiden Geraden, siehe Abb. 0.1.
Wir k onnen die Frage der L osbarkeit nat urlich auch ohne Geometrie beantworten. Dazu folgern
wir aus (0.2),
x
1
+4 = x
2
= 3x
1
4,
1
2 Version 20. Juli 2011 Kapitel 0. Lineare Gleichungssysteme
x
1
x
2
x
2
=x
1
+4
x
2
= 3x
1
4
(2, 2)
1 2 3 4
1
2
3
4
0
Abbildung 0.1. Geometrische Interpretation von Beispiel 0.1: Die L osung ist der Schnitt-
punkt der beiden Geraden.
x
1
x
2
x
2
= 2x
1
+1
x
2
= 2x
1
3
1 2 3 4
1
2
3
4
0
Abbildung 0.2. Geometrische Interpretation von Beispiel 0.2: Da beide Geraden parallel
liegen, gibt es keine L osung.
durch Umstellen 4x
1
= 8 und somit x
1
= 2. Einsetzen von x
1
= 2 in eine der beiden Gleichungen
ergibt x
2
=2. Durch Einsetzen ins urspr ungliche System (0.1) veriziert man, dass dieses Zahlenpaar
effektiv eine L osung ist.
Gibt es zu zwei Gleichungen in zwei Unbekannten immer genau eine L osung?
Beispiel 0.2:
4x
1
2x
2
= 2
2x
1
x
2
= 4.
(0.3)
Dieses Gleichungssystemhat offensichtlich keine L osung. Multipliziert man n amlich die zweite Glei-
chung mit 2, erh alt man 4x
1
2x
2
=8. Dies widerspricht der ersten Gleichung. Geometrisch bedeutet
dies, dass die entsprechenden Geraden parallel zueinander liegen und daher keinen Schnittpunkt ha-
ben, siehe Abb. 0.2.
Version 20. Juli 2011 3
x
3
x
2
x
1
(0, 1, 1)
0
Abbildung 0.3. Geometrische Interpretation von Beispiel 0.4: Die L osung ist der Schnitt-
punkt der drei Ebenen.
Beispiel 0.3:
4x
1
2x
2
= 8
2x
1
x
2
= 4.
Jetzt ist die erste Gleichung einfach das Doppelte der zweiten, und offensichtlich besteht nun kein Wi-
derspruch mehr. Man kann sogar die eine Variable, z.B. x
2
, frei w ahlen und erh alt f ur jede Wahl eine
andere L osung. Das heisst, es gibt hier unendlich viele L osungen. Geometrisch liegen alle L osungen
auf der durch x
2
= 2x
1
4 beschriebenen Geraden in Abb. 0.2.
Die Beispiele 0.2 und 0.3 zeichnen sich dadurch aus, dass auf den linken Seiten der Glei-
chungen die eine Gleichung ein Mehrfaches der anderen ist. Bei Beispiel 0.3 besteht diese
Abh angigkeit auch auf der rechten Seite. Beides sind Ausnahmef alle.
Also: In der Regel gibt es zu einer linearen Gleichung in einer Unbekannten und zu zwei
linearen Gleichungen in zwei Unbekannten genau eine L osung; aber in Ausnahmef allen
kann es keine oder unendlich viele geben.
Drei Gleichungen in drei Unbekannten. Wir erweitern nun unsere Diskussion auf
drei lineare Gleichungen in drei Unbekannten x
1
, x
2
, x
3
.
Beispiel 0.4:
x
1
+ 4x
2
+ 4x
3
= 0
3x
1
+ 4x
2
+ 16x
3
= 12
4x
1
+ 2x
2
+ x
3
= 1 .
(0.4)
Geometrisch schr ankt jede einzelne dieser drei Gleichungen die Menge der m oglichen L osungen auf
eine Ebene ein, siehe Abb. 0.3. Mit etwas Gl uck err at man den Schnittpunkt (x
1
, x
2
, x
3
) = (0, 1, 1)
dieser drei Ebenen. Da es nur einen Schnittpunkt gibt ist dies die einzige L osung von (0.4).
Um die L osung von (0.4) ohne Geometrie auszurechnen, k onnten wir im Prinzip wie in Bei-
spiel 0.1 vorgehen und versuchen, Variablen zu eliminieren. Bei drei und mehr Variablen kann dies
schnell un ubersichtlich werden; es lohnt sich daher systematisch vorzugehen. Dazu subtrahieren wir
4 Version 20. Juli 2011 Kapitel 0. Lineare Gleichungssysteme
x
3
x
2
x
1
g
0
Abbildung 0.4. Geometrische Interpretation von Beispiel 0.5: Die drei Ebenen schneiden
sich in einer Geraden; jeder Punkt auf der Geraden ist L osung.
das 3- bzw. 4-Fache der ersten Gleichung von der zweiten bzw. dritten Gleichung und erhalten:
1x
1
+ 4x
2
+ 4x
3
= 0
3x
1
+ 4x
2
+ 16x
3
= 12
4x
1
+ 2x
2
+ x
3
= 1
=
1x
1
+4x
2
+ 4x
3
= 0
8x
2
+ 4x
3
= 12
14x
2
15x
3
= 1 .
3
4
Die Vielfachen wurden gerade so gew ahlt, dass die Variable x
1
aus der zweiten und dritten Gleichung
verschwindet. Jetzt eliminieren wir noch die Variable x
2
in der dritten Gleichung indem wir das 7/4-
Fache der zweiten von der dritten Gleichung subtrahieren:
1x
1
+4x
2
+ 4x
3
= 0
8x
2
+ 4x
3
= 12
14x
2
15x
3
= 1
=
1x
1
+4x
2
+4x
3
= 0
8x
2
+4x
3
= 12
22x
3
= 22 .
7
4
Diese reduzierte Formerlaubt es, die Gleichungen von unten nach oben sukzessive zu l osen. Zun achst
folgt aus 22x
3
=22 sofort x
3
=1. Einsetzen in die zweite Gleichung ergibt 8x
2
+4 1 =12, also
x
2
=1. Einsetzen der bekannten Werte f ur x
1
, x
2
in die erste Gleichung ergibt x
1
+4 (1) +4 1 =
0, also x
1
= 0.
Es lassen sich auch hier Beispiele konstruieren, bei denen die drei Gleichungen keine
oder unendlich viele L osungen haben.
Beispiel 0.5:
3x
1
+ 4x
2
+ 16x
3
= 12
6x
1
+ x
2
+ 25x
3
= 24
4x
2
+ 4x
3
= 0.
(0.5)
Bei diesem Beispiel schneiden sich die durch die drei Gleichungen bestimmten Ebenen nicht mehr
in einem Punkt sondern in einer Geraden. Jeder Punkt dieser Schnittgeraden ist L osung von (0.5); es
gibt also unendlich viele L osungen!
Wir k onnen analog wie in Beispiel 0.4 vorgehen, um die L osungen zu bestimmen. Subtraktion
des 2-Fachen der ersten von der zweiten Zeile ergibt:
3x
1
+4x
2
+ 16x
3
= 12
7x
2
7x
3
= 0
4x
2
+ 4x
3
= 0 .
Version 20. Juli 2011 5
Nach dieser Transformation sieht man, dass die dritte Gleichung ein blosses Vielfaches der zweiten
Gleichung und damit uber ussig ist. W ahlen wir x
3
als freien Parameter so erhalten wir aus der
zweiten Gleichung x
2
= x
3
. Einsetzen in die erste Gleichung liefert 3x
1
4x
3
+16x
3
= 12, also
x
1
= 4 4x
3
. Die L osungen bilden also eine Schar von Punkten der Form (4 4x
3
, x
3
, x
3
); dies
beschreibt gerade die Schnittgerade g in Abbildung 0.4.
Beliebig viele Gleichungen in beliebig vielen Unbekannten. Wir werden se-
hen, dass sich die oben gewonnenen Erkenntnisse auf beliebig viele Gleichungen ubertra-
gen lassen, vorausgesetzt dass die Anzahl der Gleichungen der Anzahl der Unbekannten
entspricht. Im Verlauf der Vorlesung werden wir sogar den Fall von m Gleichungen in n
Unbekannten mit m = n behandeln. Bevor wir zu diesen Verallgemeinerungen kommen,
werden wir aber Matrizen und Vektoren einf uhren, um Systeme von linearen Gleichungen
nicht nur eleganter sondern auch f ur den Computer leichter verdaulicher zu schreiben.
6 Version 20. Juli 2011 Kapitel 0. Lineare Gleichungssysteme
Kapitel 1
Matrizenrechnung
Matrizen sind in der Linearen Algebra von zentraler Bedeutung. Formal ist eine Matrix
nichts weiter als eine tabellarische Anordnung von Zahlen, ahnlich wie in einem Tabellen-
kalkulationsprogramm. Interessant werden Matrizen f ur Anwendungen erst dadurch, dass
man mit ihnen mathematische Operationen elegant und kompakt beschreiben kann. Bitte
uberlesen Sie im ersten Durchgang alle Hinweise auf MATLAB, welches erst im sp ate-
ren Verlauf der Veranstaltung eingef uhrt wird.
1.1 Grundlegende Denitionen
Matrizen.
Denition 1.1 Eine mnMatrix [mn matrix; m-by-n matrix] (pl. Matrizen [matri-
ces]) ist ein rechteckiges Schema von mn reellen Zahlen
1
, angeordnet in m Zeilen [rows]
und n Spalten [columns].
Die mn Zahlen einer Matrix werden Elemente [elements] oder auch Eintr age [entries]
genannt. Das (i, j)Element der Matrix A, welches in der iten Zeile und in der jten Spalte
steht, bezeichnen wir mit a
i j
oder auch (A)
i j
. Die Elemente werden in runde Klammern
2
eingefasst:
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
. (1.1)
Beispiel 1.1:
A =
_
5 3 1
4 1 4
_
ist eine 23Matrix. Das (1, 2)-Element ist (A)
12
= a
12
= 3.
In MATLAB ist die Eingabe von Matrizen besonders einfach. Das folgende Skript voll-
zieht Beispiel 1.1 nach.
1
Matrizen k onnen auch aus anderen Objekten aufgebaut sein, z.B. komplexen Zahlen oder sogar Polynomen.
Dazu kommen wir in den Abschnitten 2.4 und 2.5.
2

Ublich sind auch eckige Klammern.
7
8 Version 20. Juli 2011 Kapitel 1. Matrizenrechnung
>> A = [ 5 3 1; 4 -1 4 ]
A = 5 3 1
4 -1 4
>> A(1,2)
In MATLAB werden Matrixelemente mit eckigen Klammern eingefasst, Zeilen mit Se-
mikolon abgeteilt, Elemente innerhalb einer Zeile mit einem Leerzeichen oder einem Kom-
ma abgeteilt. Um Fehlerquellen zu vermeiden, empehlt es sich grunds atzlich dann ein
Komma zu verwenden wenn Elemente mit zusammengesetzten Ausdr ucken auftreten. Die
Gr osse [size] (m, n) einer mnMatrix kann in MATLAB mit size abgerufen werden.
Spalten- und Zeilenvektoren. Wichtige Spezialf alle sind mn-Matrizen mit nur ei-
ner Spalte (n = 1) oder nur einer Zeile (m = 1).
Denition 1.2 Eine m1Matrix heisst Spaltenvektor [column vector] der L ange [length]
m und eine 1nMatrix heisst Zeilenvektor [row vector] der L ange n.
Wir arbeiten vorzugsweise mit Spaltenvektoren und nur selten mit Zeilenvektoren. Oft wird
daher ein Spaltenvektor auch bloss als Vektor bezeichnet. Das kte Element eines Spalten-
vektors x bzw. Zeilenvektors w nennen wir kte Komponente und bezeichnen es mit x
k
bzw. w
k
:
x =
_
_
_
_
_
x
1
x
2
.
.
.
x
m
_
_
_
_
_
, w =
_
w
1
w
2
w
n
_
.
In MATLAB erh alt man den j-ten
Spaltenvektor bzw. i-ten Zeilenvek-
tor einer Matrix A mit A(:,j)
bzw. A(i,:).
>> A = [ 8 1 6; 3 5 7; 4 9 2 ];
>> A(:,1),
ans = 8
3
4
>> A(2,:),
ans = 3 5 7
Die L ange eines Spalten- oder Zeilenvektors kann in MATLAB mit length abgerufen
werden.
1.2 Einige spezielle Matrixtypen
Quadratische Matrizen. Eine nnMatrix (d.h. eine Matrix mit n Spalten und gleich
vielen Zeilen) ist eine quadratische Matrix [square matrix] der Ordnung [order] n. In
Anwendungen sind Matrizen oft quadratisch. M ochte man explizit darauf hinweisen, dass
eine Matrix nicht quadratisch zu sein braucht, so wird die Matrix als rechteckig [rectangu-
lar matrix] bezeichnet.
Nullmatrizen und -vektoren. Eine mnMatrix, deren Elemente alle Null sind, heisst
Nullmatrix [zero matrix]. Sie wird mit 0 bezeichnet.
3
Analog ist der Nullvektor [zero vec-
tor] ein Spaltenvektor mit lauter Nullen als Komponenten; er wird hier mit o bezeichnet.
4
3
Einige Autoren schreiben allerdings O (gross Oh) statt 0 (Null).
4
Oft ndet man auch hier die Bezeichnung durch eine gew ohnliche Null: 0.
1.2. Einige spezielle Matrixtypen Version 20. Juli 2011 9
Beispiel 1.2:
Die 33Nullmatrix und der Nullvektor der L ange 3 sind
gegeben durch
O =
_
_
0 0 0
0 0 0
0 0 0
_
_
, o =
_
_
0
0
0
_
_
.
>> zeros(3)
ans = 0 0 0
0 0 0
0 0 0
>> zeros(3,1)
ans = 0
0
0

Matrix aller Einsen.


Im Vergleich zur Nullmatrix hat die Matrix aller Einsen, deren
Eintr age also alle 1 sind, kaum theoretische Bedeutung. Der ent-
sprechende MATLAB-Befehl ones zur Erzeugung solcher Ma-
trizen ist aber recht n utzlich bei der Eingabe von Matrizen mit
vielen Einsen oder identischen Eintr agen.
>> ones(2)
ans = 1 1
1 1
>> ones(1,3)
ans = 1 1 1
Diagonalelemente einer Matrix und Diagonalmatrizen. Sei A eine mn-Matrix.
Die Elemente a
j j
( j =1, 2, . . . , min{m, n}) heissen Diagonalelemente [diagonal elements].
Die Gesamtheit der Diagonalelemente bildet die (Haupt-)Diagonale [(main) diagonal ] von
A.
Eine nnMatrix D heisst diagonal [diagonal ], d.h. sie ist eine Diagonalmatrix [dia-
gonal matrix], falls (D)
i j
= 0 f ur i = j. F ur die Diagonalmatrix mit gegebenen Diagonal-
elementen d
11
, d
22
, . . . , d
nn
schreiben wir
D = diag (d
11
, d
22
, . . . , d
nn
).
Beispiel 1.3: Die Diagonalelemente der Matrix
A =
_
5 3 1
4 1 4
_
sind 5 und 1. Die Diagonalmatrix mit den Dia-
gonalelementen 1, 2, 3 ist die 33-Matrix
D = diag (1, 2, 3) =
_
_
1 0 0
0 2 0
0 0 3
_
_
.
>> diag([ 5 3 1; 4 -1 4 ]),
ans = 5
-1
>> diag([ 1 2 3 ]),
ans = 1 0 0
0 2 0
0 0 3

Einheitsmatrix und -vektoren. Die n nMatrix I


n
= diag (1, 1, . . . , 1) heisst Ein-
heitsmatrix [unit matrix] oder auch Identit atsmatrix [identity matrix] der Ordnung n.
Oft schreibt man einfach I und die Gr osse ergibt sich aus dem Kontext. Die Spalten der
Einheitsmatrix heissen Einheitsvektoren [unit vectors] und werden mit e
1
, e
2
, . . . , e
n
be-
zeichnet. Ein Einheitsvektor e
j
zeichnet sich dadurch aus, dass die j-te Komponente Eins
ist und alle anderen Komponenten Null sind.
Beispiel 1.4: Die Einheitsmatrix der Ordnung 3 ist
10 Version 20. Juli 2011 Kapitel 1. Matrizenrechnung
I = I
3
=
_
_
1 0 0
0 1 0
0 0 1
_
_
und die entsprechenden Einheitsvektoren sind
e
1
=
_
_
1
0
0
_
_
, e
2
=
_
_
0
1
0
_
_
, e
3
=
_
_
0
0
1
_
_
.
>> eye(3),
ans = 1 0 0
0 1 0
0 0 1
>> eye(3,2),
ans = 1 0
0 1
0 0

Dreiecksmatrizen. Eine Matrix R heisst obere Dreiecksmatrix [upper triangular ma-


trix] (seltener auch: Rechtsdreiecksmatrix), falls alle Elemente unterhalb der Diagonalen
von R Null sind, also (R)
i j
= 0 f ur i > j.
Eine Matrix L heisst untere Dreiecksmatrix [lower triangular matrix] (seltener auch:
Linksdreiecksmatrix), falls alle Elemente oberhalb der Diagonalen von L Null sind, also
(L)
i j
= 0 f ur i < j.
Die folgenden Symbole werden f ur quadratische Dreiecksmatrizen verwendet:
R =
@
@
@
, L =
@
@
@
.
Beispiel 1.5:
Beispiele f ur obere bzw. untere Dreiecksmatrizen
sind
R =
_
_
_
_
1 2 3 5
0 2 4 6
0 0 3 6
0 0 0 4
_
_
_
_
,
L =
_
_
7 0 0
1 8 0
1 5 6
_
_
.
>> A = [ 8 1 6; 3 5 7; 4 9 2 ];
% triu extrahiert oberen
% Dreiecksanteil einer Matrix
>> triu(A),
ans = 8 1 6
0 5 7
0 0 2
% tril extrahiert unteren
% Dreiecksanteil einer Matrix
>> tril(A),
ans = 8 0 0
3 5 0
4 9 2
Man beachte, dass die Denition von Dreiecksmatrizen grunds atzlich auch den Fall zul asst, dass die
Matrix rechteckig ist. Beispiele f ur rechteckige obere und untere Dreiecksmatrizen sind
R =
_
1 2 3 5
0 2 4 6
_
, L =
_
1 0 0 0
3 4 0 0
_
.

1.3 Notation
In dieser Vorlesung werden Matrizen immer mit Grossbuchstaben (A, B, . . .), Vektoren mit
Kleinbuchstaben (v, w, x, y, . . .), und skalare Gr ossen, die nicht Eintr age von Vektoren oder
Matrizen sind, mit griechischen Buchstaben (, , , . . .) bezeichnet.
1.4. Beispiele f ur Matrizen in Anwendungen Version 20. Juli 2011 11
1.4 Beispiele f ur Matrizen in Anwendungen
Im Folgenden soll an zwei einfachen Beispielen das Auftreten von Matrizen in der Praxis
illustriert werden.
1.4.1 Bilder
Ein farbiges oder graustuges Bild wird in MATLAB mittels zweier Matrizen deniert: die
Farbtabelle [color map] sowie die Bilddaten.
Die Farbtabelle ist eine reelle m3-Matrix C, wobei jede Zeile von C genau eine
Farbe codiert. Zur Codierung wird der RGB-Farbraum verwendet und die Eintr age der j-
ten Zeile entsprechen dem Rotanteil R, dem Gr unanteil G und dem Blauanteil B der j-ten
Farbe. Jeder Eintrag liegt zwischen 0 und 1, wobei 1 der maximalen Rot-, Gr un- bzw.
Blau-Intensit at entspricht. Der RGB-Farbraum ist additiv; Mischfarben werden durch die
additive Synthese gem ass der Dreifarbentheorie erzeugt:
Rotanteil Gr unanteil Blauanteil Codierung Farbe
0 0 0 (0, 0, 0) Schwarz
1 1 1 (1, 1, 1) Weiss
1 0 0 (1, 0, 0) Rot
0 1 0 (0, 1, 0) Gr un
0 0 1 (0, 0, 1) Blau
1 1 0 (1, 1, 0) Gelb
0 1 1 (0, 1, 1) Cyan
1 0 1 (1, 0, 1) Magenta
Bemerkung 1.3 Es ist eigentlich ublicher, Farbanteile als nat urliche Zahlen zwischen 0
und 255 anzugeben; Pink z.B. wird als Tupel (255, 192, 203) (Hexadezimalcode FFC0CB)
dargestellt. F ur die in MATLAB verwendete Codierung sind die Eintr age durch 255 zu
teilen; MATLABs Pink ist (1, 192/255, 203/255).
Die Bilddaten eines Bildes mit nm Pixeln werden in einer mn-Matrix, nennen wir
sie A, abgespeichert. Eine Au osung von 16001200 Pixeln ergibt also eine 12001600
Matrix mit 1920000 Eintr agen! Jeder Eintrag a
i j
ist eine nat urliche Zahl, so dass sich die
Farbe des entsprechenden Pixels aus dem Farbcode in der a
i j
-ten Zeile der Farbtabelle
ergibt.
In MATLAB werden Bilder mit image angezeigt und die entsprechende Farbtabelle
mit colormap eingestellt. Externen Bilddateien k onnen mit imread eingelesen werden.
Beispiel 1.6: Das folgende Skript erzeugt das in Abb. 1.1 dargestellte Schachbrettmuster.
5
map = [ 0 0 0; 1 1 1 ];
brett = ones(8);
brett(1:2:8,1:2:8) = 2;
brett(2:2:8,2:2:8) = 2;
image(brett);
colormap(map);
axis off, axis square
5
Die Befehle brett(1:2:8,1:2:8) bzw. brett(2:2:8,2:2:8) w ahlen jede zweite Zeile/Spalte
beginnend von der ersten bzw. zweiten Spalte der Matrix aus.
12 Version 20. Juli 2011 Kapitel 1. Matrizenrechnung
Abbildung 1.1. Schachbrettmuster aus Beispiel 1.6

Ubung 1.1: 1889 wurden die Masse der Schweizer Flagge festgelegt. Die Balken sind um ein
Sechstel l anger als breit, und der Abstand zum Fahnenrand ist auf allen Seiten gleich. Zudem ist die
Form der Flagge quadratisch. (Die Schweiz ist ubrigens das einzige UNO-Mitglied mit quadratischer
Flagge.)
Der genaue Farbton von Rot ist seit 2007 als sogenannte Pan-
tonezahl 485 festgelegt; dies entspricht im RGB-System un-
gef ahr (1, 0, 0).

Malen Sie unter Beachtung dieser Vorgaben die


Schweizer Flagge indem Sie die Bilddaten explizit in eine 3232-
Matrix eintragen und mit image unter Verwendung der korrekten
Farbtabelle anzeigen. Speichern Sie das Ergebnis mit imwrite
als gif-Datei. Hinweis: Sie k onnen sich sehr viel M uhe ersparen,
indem Sie den Operator : zur Auswahl von Untermatrizen verwen-
den.
6 6 6 7 7
7
7
6
6
6

1.4.2 Graphen
Ein Graph G = (V, E) besteht aus einer Menge von Knoten [vertices] V und einer Men-
ge von Kanten [edges] E, die zwischen den Knoten verlaufen. Je nach Art der Kanten
unterscheidet man zwischen ungerichteten und gerichteten Graphen.
Ungerichtete Graphen. Bei einem ungerichteten Graphen sind die Kanten ungeord-
nete Paare von Knoten.
Beispiel 1.7:
1.4. Beispiele f ur Matrizen in Anwendungen Version 20. Juli 2011 13
Die rechte Abbildung zeigt einen Ausschnitt des
Streckennetzes der SBB mit den entsprechenden
Zugfahrzeiten. Das Streckennetz l asst sich als un-
gerichteter Graph auffassen, mit der Knotenmen-
ge
V ={Maienfeld, Sargans, St. Gallen, Z urich}
und der Kantenmenge
E =
_
{Maienfeld, Sargans},
{Sargans, St. Gallen},
{Sargans, Z urich},
{St. Gallen, Z urich}
_
.
Z urich
St. Gallen
1h 6min
Sargans
55min
1h 9min
Maienfeld
8min

Ein Graph Graph G= (V, E) mit n Knoten kann durch eine nn Adjazenzmatrix [ad-
jacency matrix] A repr asentiert werden. Dabei ist a
i j
= 1 wenn die i-ten und j-ten Knoten
durch eine Kante verbunden sind. Andernfalls ist a
i j
= 0. So ergibt sich bei Beispiel 1.7
mit alphabetisch aufsteigender Ordnung der Knoten die Adjazenzmatrix
A =
_
_
_
_
0 1 0 0
1 0 1 1
0 1 0 1
0 1 1 0
_
_
_
_
. (1.2)
Versieht man die Kanten zus atzlich mit Werten so spricht man von einem gewichteten
Graph [weighted graph]. So sind in Beispiel 1.7 die Kanten mit Fahrzeiten versehen. Setzt
man die Fahrzeit formal auf falls es keine Zugverbindung zwischen zwei Orten gibt,
nimmt eine Verweildauer von 0 am gleichen Ort an, und tr agt die Fahrzeiten (in Minuten)
in die Adjazenzmatrix ein, dann ergibt sich
A =
_
_
_
_
0 8
8 0 69 55
69 0 66
55 66 0
_
_
_
_
. (1.3)
Solche Matrizen spielen bei der Bestimmung der k urzesten Fahrzeit zwischen zwei Orten
eine Rolle.
Gerichtete Graphen. Bei gerichteten Graphen sind die Kanten geordnete Paare von
Knoten.
Beispiel 1.8: Miteinander durch Links verbundene Webseiten lassen sich als gerichteter Graph,
dem sogenannten Linkgraphen, darstellen. Die Knoten des Linkgraphen sind gerade die Webseiten
und eine Kante von Knoten i zu Knoten j entspricht einem Link von der Webseite i auf die Webseite
j. Die folgenden Abbildungen zeigen ein Intranet von 8 untereinander verlinkter Webseiten und den
entsprechenden Linkgraphen.
Seite 2
Link zu Seite 4 Link zu Seite 2
Seite 4
Link zu Seite 5
Link zu Seite 6
Seite 1
Link zu Seite 2
Seite 8
Link zu Seite 3
Seite 5
Seite 6
Seite 7
Link zu Seite 1
Link zu Seite 5
Link zu Seite 8
Link zu Seite 8 Link zu Seite 6
Link zu Seite 7
Link zu Seite 2
Seite 3
Link zu Seite 5
Link zu Seite 7
14 Version 20. Juli 2011 Kapitel 1. Matrizenrechnung
Nummeriert man die Webseiten einfach durch, so erh alt man die Knotenmenge V = {1, 2, . . . , 8}.
Entsprechend ist die Kantenmenge des Linkgraphen
E =
_
(1, 2), (1, 3), (2, 4), (3, 2), (3, 5), (4, 2), (4, 5), (4, 6),
(5, 7), (6, 8), (7, 1), (7, 5), (7, 8), (8, 6), (8, 7)
_
.

Die Adjazenzmatrix A eines gerichteten Graphens ist ahnlich wie bei einem ungerichte-
ten Graphen deniert: a
i j
= 1 falls es eine Kante von Knoten i zu Knoten j gibt, ansonsten
a
i j
= 0. Auch hier k onnen die Kanten mit Gewichten versehen werden und in die Matrix
eintragen werden. So z ahlt man etwa die Links einer Webseite i und setzt das Gewicht je-
des Links von i auf das Reziproke ebendieser Anzahl. Beim Linkgraphen von Beispiel 1.8
ergibt sich die Matrix
A =
_
_
_
_
_
_
_
_
_
_
_
_
0
1
/2
1
/2 0 0 0 0 0
0 0 0 1 0 0 0 0
0
1
/2 0 0
1
/2 0 0 0
0
1
/3 0 0
1
/3
1
/3 0 0
0 0 0 0 0 0 1 0
0 0 0 0 0 0 0 1
1
/3 0 0 0
1
/3 0 0
1
/3
0 0 0 0 0
1
/2
1
/2 0
_
_
_
_
_
_
_
_
_
_
_
_
. (1.4)
Solche Link-Matrizen werden bei der Bewertung der Webseiten (dem sogenannten Page-
Rank) eine Rolle spielen, siehe Kapitel 7.
1.5 Das Rechnen mit Matrizen und Vektoren
In diesem Abschnitt erl autern wir die Addition und Multiplikation zweier Matrizen sowie
deren Multiplikation mit einem Skalar. Dabei sind Zeilen- und Spaltenvektoren als Spezi-
alf alle enthalten, als Matrizen mit nur einer Zeile oder Spalte.
1.5.1 Elementare Operationen
Multiplikation einer Matrix mit einer Zahl. Eine mnMatrix A wird mit einer
Zahl (einem Skalar) multipliziert [multiplied by a scalar], indem man jedes Element
von A mit multipliziert. Die resultierende mnMatrix wird mit A bezeichnet:
(A)
i j
:=(A)
i j
(i = 1, . . . , m; j = 1, . . . , n).
Beispiel 1.9:
5
_
1 3 5
2 4 6
_
=
_
5 15 25
10 20 30
_
,
1
4
_
4
8
_
=
_
1
2
_
.
>> 5
*
[ 1 -3 5; -2 4 -6 ],
ans = 5 -15 25
-10 20 -30
>> [ 4; 8 ] / 4,
ans = 1
2

1.5. Das Rechnen mit Matrizen und Vektoren Version 20. Juli 2011 15
Addition von Matrizen Zwei mnMatrizen A und B werden addiert [added], indem
man ihre Elemente addiert. Die resultierende mnMatrix A+B mit
(A+B)
i j
:= (A)
i j
+(B)
i j
(i = 1, . . . , m; j = 1, . . . , n)
heisst Summe [sum] der Matrizen A und B.
Beispiel 1.10:
_
5 2
1 5
_
+
_
1 1
6 5
_
=
_
4 3
5 0
_
,
_
_
2
5
9
_
_

_
_
1
1
3
_
_
=
_
_
1
6
12
_
_
.
>> [ 5 2; -1 -5 ] + ...
[ -1 1; 6 5 ],
ans = 4 3
5 0
>> [ 2; 5; 9 ] - [ 1; -1; -3 ],
ans = 1
6
12

Drei wichtige, einfache Eigenschaften der Matrixaddition sind im folgenden Satz zu-
sammengefasst. Sie ergeben sich direkt aus den entsprechenden Eigenschaften der reellen
Zahlen.
Satz 1.4 Es seien mn-Matrizen A, B gegeben. Dann gelten die folgenden Aussagen:
(i) A+O = O+A = A;
(ii) A+(A) = (A) +A = O, wobei A := (1)A;
(iii) A+X = B f ur X := B+(A).
Die Matrix O in Satz 1.4 steht nat urlich f ur die in Abschnitt 1.1 erw ahnte mn-
Nullmatrix. Teil (iii) des Satzes f uhrt auf eine sinnvolle Denition der Matrixsubtraktion:
BA := B+(A). (1.5)
Bemerkung 1.5 Im Gegensatz zur Summe ist das Produkt zweier Matrizen nicht durch
elementweise Multiplikation deniert; eine solche Operation wird in Anwendungen nur
ausserst selten gebraucht.
6
1.5.2 Multiplikation einer Matrix mit einem Vektor
Das Matrix-Vektor-Produkt [matrix vector product ] (oder kurz: Produkt) einer mn
Matrix A mit einem Spaltenvektor x der L ange n ist ein Vektor b :=Ax der L ange m, dessen
Komponenten wie folgt deniert sind:
b
i
:=
n

k=1
a
ik
x
k
= a
i1
x
1
+a
i2
x
2
+ +a
in
x
n
, (i = 1, . . . , m). (1.6)
6
Sollte man sie doch einmal brauchen: Die elementweise Multiplikation bezeichnet man als Hadamard- oder
Schur-Produkt. In MATLAB lassen sich Operationen elementweise durchf uhren indem man einen Punkt vor die
Operation stellt: A.
*
B, A./B, A.B.
16 Version 20. Juli 2011 Kapitel 1. Matrizenrechnung
In Worten: Die Eintr age der i-ten Zeile von A werden mit den Komponenten von x
multipliziert und die Summe dieser Produkte ergibt die i-te Komponente von b. In der
folgenden Illustration der Matrix-Vektor-Multiplikation steht x als Platzhalter f ur einen
beliebigen Eintrag:
i-te Zeile
_
_
_
_
_
_
x x x x
x x x x
x x x x
x x x x
x x x x
_
_
_
_
_
_
_
_
_
_
x
x
x
x
_
_
_
_
=
_
_
_
_
_
_
x
x
x
x
x
_
_
_
_
_
_
(Ax)
i
= b
i
A x Ax
Beispiel 1.11:
A =
_
1 3 5
2 4 6
_
, x =
_
_
2
1
1
_
_
Die Komponenten von b = Ax ergeben sich aus
b
1
= 1 2 + (3) 1 + 5 (1) = 6,
b
2
= (2) 2 + 4 1 + (6) (1) = 6.
In MATLAB werden Matrix-Vektor-Produkte mit dem Operator
*
berechnet, wobei die Matrix links
vom Operator und der Spaltenvektor rechts vom Operator stehen.
>> A = [ 1 -3 5; -2 4 -6 ];
>> b = [ 2; 1; -1 ];
>> A
*
b,
ans = -6
6

Matrix-Vektor-Darstellung linearer Gleichungssysteme. Matrix-Vektor-Produkte


erlauben es, lineare Gleichungssysteme kompakt darzustellen. Betrachten wir zun achst das
lineare Gleichungssystem aus Beispiel 0.4:
x
1
+ 4x
2
+ 4x
3
= 0
3x
1
+ 4x
2
+ 16x
3
= 12
4x
1
+ 2x
2
+ x
3
= 1 .
(1.7)
Mit den Denitionen
A =
_
_
1 4 4
3 4 16
4 2 1
_
_
, x =
_
_
x
1
x
2
x
3
_
_
, b =
_
_
0
12
1
_
_
, (1.8)
sieht man leicht, dass (1.7) gerade der Gleichung Ax = b entspricht.
Im allgemeinen hat ein lineares Gleichungssystem mit n Unbekannten und m Gleichun-
gen die Form
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= b
1
,
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= b
2
,
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= b
m
.
1.5. Das Rechnen mit Matrizen und Vektoren Version 20. Juli 2011 17
Deniert man nun eine mn-Matrix A mit den Eintr agen a
i j
, Vektoren x und b mit den
Eintr agen x
i
bzw. b
i
, so entspricht das lineare Gleichungssystem auch im allgemeinen Fall
der Gleichung
Ax = b. (1.9)
Die Matrix A ist die Koefzientenmatrix [coefcient matrix, system matrix], x ist der
L osungsvektor [solution vector] und b ist die rechte Seite [right-hand side].
Fibbonacci-Folge. Die Fibonacci-Folge [Fibonacci sequence]
1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, . . .
wird durch die folgende Rekursion beschrieben:
f
0
= 1, f
1
= 1, f
k+2
= f
k+1
+ f
k
, k 0. (1.10)
Leonardo da Pisa, auch Fibonacci genannt, illustrierte damit das explosionsartige Wachs-
tums einer Kaninchenpopulation. Die Zahlenfolge hat auch Eingang in die Popul arkultur
gefunden, so zum Beispiel in Dan Browns Roman Sakrileg [The Da Vinci Code]:
13 3 2 21 1 1 8 5
O DRACONIAN DEVIL!
OH LAME SAINT!
Nach Umordnung ergibt sich die wahre Botschaft:
1 1 2 3 5 8 13 21
LEONARDO DA VINCI!
THE MONA LISA!
Deniert man die Vektoren b
k
=
_
f
k
f
k+1
_
f ur k = 0, 1, . . ., so l asst sich die Rekursi-
on (1.10) auch als Matrix-Vektor-Produkt begreifen:
b
0
=
_
1
1
_
, b
k+1
=
_
0 1
1 1
_
b
k
, k 0. (1.11)
Sp ater, in Abschnitt 7.3, werden wir diese Schreibweise benutzen um eine explizite Dar-
stellung f ur die Zahlen der Fibbonacci-Folge zu bestimmen.
1.5.3 Multiplikation von Matrizen
Das Matrixprodukt [matrix product ] (oder kurz: Produkt) einer mn-Matrix A mit einer
np-Matrix B ist eine mp-Matrix C = AB , deren Eintr age wie folgt deniert sind:
c
i j
:=
n

k=1
a
ik
b
k j
= a
i1
b
1 j
+a
i2
b
2 j
+ +a
in
b
n j
, (i = 1, . . . , m; j = 1, . . . , p). (1.12)
In Worten: Die Eintr age der i-ten Zeile von A werden mit den Eintr agen der j-ten Spalte von
B multipliziert und die Summe dieser Produkte ergeben den (i, j)-Eintrag vonC. Illustration
18 Version 20. Juli 2011 Kapitel 1. Matrizenrechnung
f ur m = 5, n = 4, p = 3:
j-te Spalte j-te Spalte

i-te Zeile
_
_
_
_
_
_
x x x x
x x x x
x x x x
x x x x
x x x x
_
_
_
_
_
_
_
_
_
_
x x x
x x x
x x x
x x x
_
_
_
_
=
_
_
_
_
_
_
x x x
x x x
x x x
x x x
x x x
_
_
_
_
_
_
i-te Zeile
A B C = AB
Der

Ubersichtlichkeit halber empehlt es sich aber bei Handrechnungen die Matrix A links
und die Matrix B oberhalb des zu berechnenden Matrixprodukts zu platzieren:
B
_
_
_
_
x x x
x x x
x x x
x x x
_
_
_
_
_
_
_
_
_
_
x x x x
x x x x
x x x x
x x x x
x x x x
_
_
_
_
_
_
_
_
_
_
_
_
x x x
x x x
x x x
x x x
x x x
_
_
_
_
_
_
A C = AB
Bemerkung 1.6 W ahrend bei der Matrixaddition beide Summanden die gleiche Gr osse
haben m ussen, kommt es beim Produkt darauf an, dass die Breite des linken Faktors mit
der H ohe des rechten Faktors ubereinstimmt.
Beispiel 1.12: F ur die beiden Matrizen
A =
_
1 2 3
4 5 6
_
, B =
_
_
7 1 1 0
8 2 0 1
9 3 0 0
_
_
.
berechnet sich das Produkt gem ass dem oben vorgeschlage-
nen Schema wie folgt:
B
_
_
7 1 1 0
8 2 0 1
9 3 0 0
_
_
_
1 2 3
4 5 6
_ _
18 14 1 2
42 32 4 5
_
A C = AB
Dabei ergibt sich zum Beispiel das markierte Element aus
der Rechnung
a
21
b
11
+a
22
b
21
+a
23
b
31
= 4 7+5 (8) +6 9
= 2840+54 = 42.
Wie bei Matrix-Vektor-Produkten wer-
den in MATLAB Matrixprodukte mit
dem Operator
*
berechnet.
>> A = [ 1 2 3; ...
4 5 6 ];
>> B = [ 7 -1 1 0;
-8 -2 0 -1;
9 -3 0 0 ];
>> A
*
B,
ans =
18 -14 1 -2
42 -32 4 -5

1.5. Das Rechnen mit Matrizen und Vektoren Version 20. Juli 2011 19
Bemerkung 1.7 Der tiefere Grund f ur die komplizierte Art das Matrixprodukt zu denie-
ren, wird sp ater ersichtlich werden, wenn wir lineare Abbildungen mit Hilfe von Matrizen
beschreiben. Die Multiplikation von Matrizen entspricht dann gerade der Verkn upfung von
linearen Abbildungen.
Multiplikation mit speziellen Matrizen. In Spezialf allen vereinfacht sich das Ma-
trixprodukt erheblich.
Multiplikation mit der Nullmatrix. Ist einer der Faktoren die Nullmatrix (von passender
Gr osse) dann ist in jedem Produkt von (1.12) mindestens ein Faktor 0. Also ist das
Matrixprodukt die Nullmatrix:
OA = O, AO = O,
f ur jede mn-Matrix A.
Multiplikation mit der Einheitsmatrix. Bei der Multiplikation einer mn-Matrix A mit
der Einheitsmatrix B = I
n
ergibt sich f ur die Eintr age von C = AB aus der Deniti-
on (1.12)
c
i j
= a
i1
b
1 j
..
=0
+ +a
i, j1
b
j1, j
. .
=0
+a
i j
b
j j
..
=1
+a
i, j+1
b
j+1, j
. .
=0
+ +a
in
b
n j
..
=0
= a
i j
.
(1.13)
Also ist AI
n
= A. Analog sieht man I
m
A = A.
Multiplikation mit Diagonalmatrizen. Beim Matrixprodukt C =AD einer mn-Matrix
A mit einer Diagonalmatrix D=diag (d
11
, . . . , d
nn
) ergibt sich ahnlich wie in (1.13)

c
i j
= a
i j
d
j j
. (1.14)
Bezeichnet man die Spalten von A mit a
1
, . . . , a
n
und die Spalten von C mit c
1
, . . . , c
n
so l asst sich (1.14) wie folgt umschreiben:
C =
_
c
1
c
2
c
n
_
=
_
d
11
a
1
d
22
a
2
d
nn
a
n
_
.
Die Rechtsmultiplikation mit einer Diagonalmatrix entspricht also einer skalaren
Multiplikation der Spalten mit den entsprechenden Diagonalelementen. Man spricht
in diesem Fall auch von einer Diagonalskalierung [diagonal scaling]. Analog sieht
man dass die Linksmultiplikation mit einer Diagonalmatrix einer skalaren Multipli-
kation der Zeilen mit den entsprechenden Diagonalelementen entspricht.
Multiplikation von Dreiecksmatrizen. F ur obere nn-Dreiecksmatrizen A, B gelten a
ik
=
0 f ur i > k sowie b
k j
= 0 f ur k > j. In der Summe f ur die Eintr age von C = AB,
c
i j
=
n

k=1
a
ik
b
k j
,
sind also alle Summanden mit i >k oder k > j Null. Da nur Summanden mit i k j
ubrigbleiben gilt zwangsl aug c
i j
= 0 f ur i > j. Also ist C auch obere Dreiecks-
matrix. (Dieser Beweis wird noch einmal ausf uhrlicher in Lemma 2.13 dargestellt.)
Symbolisch l asst sich diese Aussage darstellen als
@
@
@

@
@
@
=
@
@
@
.
20 Version 20. Juli 2011 Kapitel 1. Matrizenrechnung

Ubung 1.2: Zeigen Sie, dass eine analoge Aussage f ur untere Dreiecksmatrizen gilt.
Sp ater werden wir noch einen weiteren wichtigen Spezialfall kennenlernen: Multiplikation
mit Permutationsmatrizen in Kapitel 2.
1.5.4 Eigenschaften der Matrixoperationen
Aus den Denitionen der drei eingef uhrten Matrixoperationen (Skalarmultiplikation, Ma-
trixaddition, Matrixprodukt) lassen sich eine ganze Reihe von Eigenschaften dieser Opera-
tionen herleiten, von denen die wichtigsten nachfolgend aufgef uhrt sind.
Satz 1.8 Die Addition, die Multiplikation und die skalare Multiplikation von Matrizen
(und Vektoren) haben die folgenden Eigenschaften, vorausgesetzt dass die Operationen
deniert sind:
()A =(A), (1.15)
(A)B =(AB) = A(B), (1.16)
( +)A = (A) +(A), (1.17)
(A+B) = (A) +(B), (1.18)
A+B = B+A (Add. kommutativ), (1.19)
(A+B) +C = A+(B+C) (Add. assoziativ), (1.20)
(AB)C = A(BC) (Mult. assoziativ), (1.21)
(A+B)C = (AC) +(BC) (Add./Mult. distributiv), (1.22)
A(B+C) = (AB) +(AC) (Add./Mult. distributiv). (1.23)
BEWEIS: Die Eigenschaften (1.15) und (1.17)(1.20) ergeben sich sofort aus entspre-
chenden Regeln f ur reelle Zahlen und der Tatsache, dass die skalare Multiplikation und die
Addition von Matrizen elementweise deniert sind, wobei nat urlich vorausgesetzt werden
muss, dass die in einer Regel auftretenden Matrizen die gleiche Gr osse haben.
Etwas zu zeigen bleibt also nur, wenn Matrixmultiplikationen auftreten wie in (1.16)
und (1.21)(1.23). Es ist zun achst zu verizieren, dass jeweils die linke und die rechte
Seite unter den gleichen Bedingungen an die Gr osse der Matrizen deniert sind. Dann zeigt
man, dass das (i, j)Element links und rechts gleich ist. F ur (1.16) soll dieser Nachweis als

Ubung durchgef uhrt werden.


F ur die Assoziativit at der Multiplikation (1.21) m ussen wir annehmen, dass A eine m
n-Matrix, B eine np-Matrix, und C eine pq-Matrix ist. Dann ist
((AB)C)
ik
=
p

l=1
(AB)
il
c
lk
=
p

l=1
n

j=1
a
i j
b
jl
c
lk
,
(A(BC))
ik
=
n

j=1
a
i j
(BC)
jk
=
n

j=1
p

l=1
a
i j
b
jl
c
lk
.
Die zwei Summenzeichen darf man vertauschen, also sind die beiden Ausdr ucke auf den
rechten Seiten identisch.
1.5. Das Rechnen mit Matrizen und Vektoren Version 20. Juli 2011 21
F ur das erste Distributivgesetz (1.22) brauchen wir stattdessen, dass A eine mn-
Matrix, B eine mn-Matrix, und C eine np-Matrix ist. Dann erhalten wir
((A+B)C)
i j
=
n

k=1
(A+B)
ik
c
k j
=
n

k=1
(a
ik
+b
ik
)c
k j
=
n

k=1
_
a
ik
c
k j
+b
ik
c
k j
_
=
n

k=1
a
ik
c
k j
+
n

k=1
b
ik
c
k j
= (AC)
i j
+(BC)
i j
= (AC+BC)
i j
.
Der Beweis f ur das zweite Distributivgesetz (1.23) verl auft analog.
Einige Bemerkungen:
1. Mehrere der Aussagen von Satz 1.8 bedeuten, dass man imentsprechenden Ausdruck
auf die Klammern verzichten kann, z.B. in A(BC) = ABC. Weitere Klammern fallen
weg, weil wir vereinbaren, dass (wie in R und C) die skalare Multiplikation und die
Matrixmultiplikation st arker binden als die Addition. Es ist also etwa (AB)+(CD) =
AB+CD.
2. Man beachte, dass Satz 1.8 eine theoretische Aussage liefert. In der Praxis kann es
einen erheblichen Unterschied machen, ob man etwa zuerst A mit B oder zuerst B
mit C in dem Ausdruck ABC miteinander multipliziert. Insbesondere trifft dies auf
den Rechenaufwand bei Faktoren unterschiedlicher Gr osse zu.
3. Da Operationen mit Vektoren ein Spezialfall von Operationen mit Matrizen sind, gel-
ten die Aussagen von Satz 1.8 nat urlich auch wenn einige oder alle der involvierten
Gr ossen Vektoren sind. Z.B. folgt aus (1.21) die Beziehung (AB)x = A(Bx) f ur jeden
Spaltenvektor x, vorausgesetzt dass A, B Matrizen von passender Gr osse sind. Auch
hier l asst man die Klammern weg und schreibt ABx.
Die Matrixmultiplikation ist nicht kommutativ, d.h. im allgemeinen haben wir
AB = BA. (1.24)
Dies sieht man sofort ein wenn die Dimensionen auf einer Seite nicht passen. Ist etwa A
eine 5 3-Matrix und B eine 3 4-Matrix dann ist zwar AB deniert aber nicht BA, da
die Anzahl der Spalten von B nicht der Anzahl der Zeilen von A entspricht. Doch selbst
quadratische Matrizen gleicher Ordnung kommutieren im allgemeinen nicht.
Beispiel 1.13: F ur die drei Matrizen
A =
_
2 6
1 7
_
, B =
_
3 1
2 1
_
, C =
_
15 6
1 20
_
gilt
AB =
_
6 4
11 6
_
, BA =
_
7 25
5 19
_
,
AC =
_
36 132
22 146
_
, CA =
_
36 132
22 146
_
.
Es ist also
AB = BA, AC =CA.

22 Version 20. Juli 2011 Kapitel 1. Matrizenrechnung


Gilt f ur zwei Matrizen A und B, dass AB = BA, so sagt man, dass diese Matrizen kom-
mutieren [commute]. Dass Matrizen kommutieren ist eher die Ausnahme als die Regel. In
Kapitel 7 werden wir eine Charakterisierung von kommutierenden Matrizen kennenlernen,
die dies eindr ucklich best atigt.
Einheitsmatrizen kommutieren immer, d.h. f ur jede n nMatrix A gilt I
n
A = A =
AI
n
. Es gilt sogar die st arkere Aussage, dass skalare Vielfache von Einheitsmatrizen die
einzigen Matrizen sind, die mit jeder quadratischen Matrix der gleichen Ordnung Matrix
kommutieren (Nachweis

Ubung).
Linearkombinationen und Neuinterpretation der Matrixmultiplikation
Denition 1.9 Eine Linearkombination [linear combination] von Spaltenvektoren glei-
cher L ange a
1
, a
2
, . . . , a
n
ist ein Ausdruck der Form

1
a
1
+
2
a
2
+ +
n
a
n
, (1.25)
wobei
1
,
2
, . . . ,
n
Zahlen (Skalare) sind.
Man beachte, dass man dank der Priorit at der Multiplikation vor der Addition und dank
der Assoziativit at der Matrixaddition (siehe Satz 1.8) keine Klammern setzen muss. Derar-
tige Vereinfachungen werden laufend benutzt, ohne dass wir erneut darauf hinweisen.
Oft ist es von Vorteil, die Vektoren in einer Linearkombination (1.25) als Spalten einer
Matrix aufzufassen:
A :=
_
a
1
a
2
a
n
_
. (1.26)
Mit dieser Notation lassen sich Matrix-Vektor-Produkte als Linearkombinationen der Ma-
trixspalten interpretieren.
Satz 1.10 Sind a
1
, a
2
, . . . , a
n
gem ass (1.26) die Spaltenvektoren der mnMatrix A, und
ist x ein Vektor der L ange n, so gilt:
Ax = a
1
x
1
+a
2
x
2
+ +a
n
x
n
= x
1
a
1
+x
2
a
2
+ +x
n
a
n
. (1.27)
Ist insbesondere e
j
der jte Spaltenvektor der Einheitsmatrix I
n
, so gilt:
Ae
j
= a
j
. (1.28)
BEWEIS: Um (1.27) zu beweisen, betrachten wir die i-te Komponente. Wir bezeichnen
jene von a
k
mit (a
k
)
i
, so dass (a
k
)
i
= a
ik
. Damit ist
(Ax)
i
=
n

k=1
a
ik
x
k
=
n

k=1
(a
k
)
i
x
k
=
n

k=1
(a
k
x
k
)
i
=
n

k=1
(x
k
a
k
)
i
.
Weiter ist Formel (1.28) bloss ein Spezialfall von (1.27).
Auf ahnliche Weise l asst sich das Produkt zweier Matrizen neu interpretieren.
Satz 1.11 Ist A eine mnMatrix und B =
_
b
1
b
2
b
p
_
eine n pMatrix, so
gilt:
AB =
_
Ab
1
Ab
2
Ab
p
_
. (1.29)
1.6. Die Transponierte einer Matrix Version 20. Juli 2011 23
BEWEIS: Nach Satz 1.10 ist b
j
= Be
j
, j = 1, . . . , p. Die j-te Spalte der Produktmatrix AB
l asst sich deshalb schreiben als (AB)e
j
. Dank der Assoziativit at der Matrizen-Multiplika-
tion folgt damit aus Satz 1.10 f ur j = 1, . . . , p:
(AB)e
j
= A(Be
j
) = Ab
j
.
In Abschnitt 1.5.2, siehe insbesondere (1.9), haben wir bereits gesehen, dass lineare
Gleichungssysteme in der Form Ax = b geschrieben werden k onnen. Aus Satz 1.10 ergibt
sich sofort folgende Aussage.
Satz 1.12 Das Gleichungssystem Ax = b hat genau dann (mindestens) eine L osung, wenn
b eine Linearkombination der Spalten von A ist.
Hat man verschiedene rechte Seiten b
1
, b
2
, . . . , b

und entsprechend L osungsvekto-


ren x
1
, x
2
, . . . , x

, so kann man diese in die Spalten zweier Matrizen B und X w ahlen:


B :=
_
b
1
b
2
b

_
, X :=
_
x
1
x
2
x

_
.
Diese Gleichungssysteme lassen sich wie folgt zusammenfassen:
AX = B. (1.30)
1.6 Die Transponierte einer Matrix
Denition 1.13 Ist A eine mnMatrix, so heisst die nmMatrix A
T
mit (A
T
)
i j
:= (A)
ji
die zu A transponierte [transposed] Matrix oder die Transponierte [transpose] von A.
Anstatt vom Transponieren spricht man mitunter auch vom St urzen einer Matrix. Bildlich
l asst sich dies f ur m > n so vorstellen, dass eine hohe schlanke Matrix umf allt und eine
niedrige breite Matrix wird.
Beispiel 1.14:
A =
_
_
_
_
1 5
2 6
3 7
4 8
_
_
_
_
, A
T
=
_
1 2 3 4
5 6 7 8
_
.
In MATLAB wird die Transponierte (f ur Matrizen
mit reellen Eintr agen ) mit einem Apostroph erzeugt.
>> A = [ 1 5; 2 6; 3 7; 4 8 ]; A
ans =
1 2 3 4
5 6 7 8

Die Transponierte einer unteren Dreiecksmatrix ist eine obere Dreiecksmatrix und
umgekehrt. Weiterhin gilt nat urlich: Die Transponierte eines Spaltenvektors ist ein Zei-
lenvektor und umgekehrt. Dies wird oft ausgen utzt, um Spaltenvektoren Platz sparend
aufzuschreiben:
x =
_
x
1
x
2
. . . x
n
_
T
=
_
1 3 5 3 5 3 1
_
T
.
F ur das Transponieren gelten folgende einfache Rechenregeln:
Satz 1.14 (i) F ur jede Matrix A gilt
(A
T
)
T
= A. (1.31)
24 Version 20. Juli 2011 Kapitel 1. Matrizenrechnung
(ii) F ur jede Matrix A und jeden Skalar gilt
( A)
T
= A
T
. (1.32)
(iii) F ur beliebige mnMatrizen A und B gilt
(A+B)
T
= A
T
+B
T
. (1.33)
(iv) F ur jede mnMatrix A und jede npMatrix B gilt
(AB)
T
= B
T
A
T
. (1.34)
BEWEIS: Die Aussagen (1.31)(1.33) sollten klar sein.
Um (1.34) zu beweisen bemerken wir, dass AB eine m pMatrix und somit (AB)
T
eine pmMatrix ist. Das Produkt B
T
A
T
ist ebenfalls eine pmMatrix. F ur die entspre-
chenden Elemente gilt
((AB)
T
)
i j
= (AB)
ji
=
n

k=1
a
jk
b
ki
=
n

k=1
b
ki
a
jk
=
n

k=1
(B
T
)
ik
(A
T
)
k j
= (B
T
A
T
)
i j
.
1.7 Symmetrische Matrizen
Denition 1.15 Eine quadratische Matrix A heisst symmetrisch [symmetric], falls
A
T
= A, d.h. (A)
i j
= (A)
ji
(i, j).
Beispiel 1.15: Die Matrix
B =
_
_
2 3 5
3 1 2
5 2 7
_
_
,
ist symmetrisch.
Ein weiteres Beispiel f ur symmetrische Matrizen haben wir bereits kennengelernt: die
Adjazenzmatrix (1.2) f ur einen ungerichteten Graphen. Quasi das Gegenteil von Symmetrie
wird in der folgenden Denition eingef uhrt.
Denition 1.16 Eine quadratische Matrix A heisst schiefsymmetrisch [skew-symmetric],
falls A
T
=A.
Beispiel 1.16: Die Matrix
_
_
0 3 5
3 0 4
5 4 0
_
_
ist schiefsymmetrisch und hat wie jede andere solche Matrix lauter Nullen auf der Diagonale.
Im allgemeinen ist das Produkt zweier symmetrischer Matrizen nicht symmetrisch.
Zum Beispiel ist
_
0 1
1 0
__
0 1
1 2
_
=
_
1 2
0 1
_
.
Aber man hat die folgenden Aussage.
1.8. Die Inverse einer Matrix Version 20. Juli 2011 25
Satz 1.17 Seien A eine mn-Matrix und B eine mm-Matrix. Ist B symmetrisch, so sind
A
T
BA und ABA
T
ebenfalls symmetrisch.
BEWEIS: Anwendung von Satz 1.14, insbesondere (1.31) und (1.34), ergibt
(A
T
BA)
T
= A
T
B
T
(A
T
)
T
= A
T
B
T
A,
also ist A
T
BA symmetrisch wenn B symmetrisch ist. Die Symmetrie von ABA
T
folgt analog.
Als Spezialfall von Satz 1.17 (mit B = I) folgt, dass f ur beliebige Matrizen A gilt:
A
T
A und AA
T
sind symmetrisch. (1.35)

Ubung 1.3: Sei A eine schiefsymmetrische nn-Matrix. Zeigen Sie x


T
Ax = 0 f ur jeden Vektor x
der L ange n. Tipp: Eine schiefsymmetrische 11-Matrix ist immer 0.
1.8 Die Inverse einer Matrix
Zwei quadratische Matrizen gleicher Ordnung kann man immer zueinander addieren, von-
einander subtrahieren und miteinander multiplizieren. Wir werden in diesem Abschnitt se-
hen, dass man sie oft, aber nicht immer, in gewissem Sinne auch durcheinander dividieren
kann.
Vergleicht man nnMatrizen mit Zahlen, so nimmt die Nullmatrix O
n
bei der Matrizen-
Addition die Rolle der Null ein und die Einheitsmatrix I
n
ubernimmt bei der Matrizen-
Multiplikation die Rolle der Eins.
Bei den Zahlen gibt es zu jedem = 0 ein , n amlich = 1/, so dass
= 1 =
ist. Gilt dies wohl analog f ur quadratische Matrizen? Das heisst, gibt es zu A = O
n
eine
nnMatrix X mit
AX = I
n
= XA. (1.36)
Ein einfaches Beispiel zeigt, dass das nicht so ist: f ur
A =
_
1 0
0 0
_
folgt bei beliebiger Wahl von X
AX =
_
1 0
0 0
__
x
11
x
12
x
21
x
22
_
=
_
x
11
x
12
0 0
_
= I
2
.
Es ist im allgemeinen einer Matrix A nicht einfach anzusehen ob es ein solches X,
das (1.36) erf ullt, gibt oder nicht. Zun achst bequemen wir uns damit, der Menge der Ma-
trizen mit (1.36) einen Namen zu geben.
Denition 1.18 Eine n nMatrix A heisst invertierbar [invertible], falls es eine n n
Matrix X gibt, so dass AX = I
n
= XA ist. Die Matrix X heisst Inverse [inverse] von A und
wird mit A
1
bezeichnet:
AA
1
= I
n
= A
1
A. (1.37)
Eine Matrix, die nicht invertierbar ist, bezeichnet man auch als singul ar [singular].
26 Version 20. Juli 2011 Kapitel 1. Matrizenrechnung
Das folgende Resultat erlaubt es uns von der Inversen einer Matrix zu sprechen.
Satz 1.19 Ist A invertierbar, so ist die Inverse eindeutig bestimmt.
BEWEIS: Den Beweis werden wir im allgemeinerem Rahmen in Kapitel 2 durchf uhren.
Beispiel 1.17: Es ist
_
2 2
1 2
__
1 1

1
2
1
_
=
_
1 0
0 1
_
_
1 1

1
2
1
__
2 2
1 2
_
=
_
1 0
0 1
_
;
die eine Matrix ist also die Inverse der anderen
und umgekehrt.
Wir haben oben bereits gesehen, dass die Ma-
trixmultiplikation mit einer Diagonalmatrix ei-
ner Zeilen- bzw. Spaltenskalierung der anderen
Matrix entspricht. Daraus folgt, dass die Inver-
se einer Diagonalmatrix mit von Null verschiede-
nen Diagonaleintr agen wieder eine Diagonalma-
trix ist:
diag (d
11
, . . . , d
nn
)
1
= diag (1/d
11
, . . . , 1/d
nn
).
Insbesondere ist die Einheitsmatrix I
n
nat urlich
invertierbar und ihre eigene Inverse, denn I
n
I
n
=
I
n
.
In MATLAB berechnet man die Inverse mit dem
Befehl inv.
>> A = [ 2 2; 1 2 ]; inv(A)
ans =
1.0000 -1.0000
-0.5000 1.0000
Allerdings wird inv fast nie in der Praxis ge-
braucht! Anstatt der expliziten Inversen ben otigt
man typischerweise nur die Multiplikation der
Inversen einer Matrix mit einer anderen Matrix.
Dann sind die Befehle A \ B bzw. B / A wesent-
lich efzienter und genauer als inv(A)
*
B bzw.
B
*
inv(A).
>> b = [ 1; 0 ]; A \ b
ans =
1.0000
-0.5000
Die hinter \, / und inv stehenden Algorithmen
werden in Kapitel 3 behandelt.

Man kann die Bedingung f ur die Inverse effektiv abschw achen: Es gen ugt, dass AX =I
oder X A = I gilt, dann folgt die andere Beziehung automatisch.
Satz 1.20 Die folgenden Aussagen uber eine nnMatrix A sind aquivalent:
i) A ist invertierbar.
ii) Es gibt eine nnMatrix X mit AX = I
n
.
iii) Es gibt eine nnMatrix X mit XA = I
n
.
BEWEIS: Auch diesen Beweis werden wir erst sp ater, in Kapitel 3, durchf uhren.
Als n achstes stellen wir einige Eigenschaften der Inversen zusammen.
Satz 1.21 Sind A und B invertierbare nnMatrizen, so gilt:
i) A
1
ist invertierbar und
(A
1
)
1
= A. (1.38)
ii) AB ist invertierbar und
(AB)
1
= B
1
A
1
. (1.39)
iii) A
T
ist invertierbar und
(A
T
)
1
= (A
1
)
T
. (1.40)
1.9. Untermatrizen Version 20. Juli 2011 27
BEWEIS: i) ergibt sich sofort aus der Denition (1.37).
Zu ii): Aus (AB)(B
1
A
1
) =A(BB
1
)A
1
=AA
1
=I
n
und Satz 1.20 folgt, dass B
1
A
1
die Inverse von AB ist.
Zu iii): Gem ass (1.34) ist A
T
(A
1
)
T
= (A
1
A)
T
= I
T
n
= I
n
. Also ist wiederum nach
Satz 1.20 (A
1
)
T
die Inverse von A
T
.
Die Inverse und lineare Gleichungssysteme. Die Inverse einer Matrix ist eng mit
der L osung von linearen Gleichungssystemen verkn upft. Insbesondere kann man auf bei-
den Seiten von Ax = b mit der Inversen von A (vorausgesetzt A ist invertierbar) multiplizie-
ren und erh alt
x = A
1
b. (1.41)
Mit der Kenntnis der Inversen lassen sich also die L osungen von linearen Gleichungssyste-
me einfach per Matrix-Vektor-Multiplikation berechnen. Dieser Weg wird aber praktisch
nie verwendet.
Um die Inverse von A zu berechnen, betrachten wir die Spalten von X = A
1
:
A
1
=
_
A
1
e
1
A
1
e
2
A
1
e
n
_
=
_
x
1
x
2
x
n
_
= X,
wobei e
j
die j-te Spalte der n n-Einheitsmatrix ist. Mit (1.41) folgt, dass sich die j-te
Spalte von A
1
aus der L osung des linearen Gleichungssystems
Ax
j
= e
j
ergibt.
Beispiel 1.18: Sei
A =
_
_
1 2 3
0 2 3
0 0 1
_
_
.
Zur Berechnung der Inversen von A sind die drei linearen Gleichungssysteme Ax
1
= e
1
, Ax
2
= e
2
,
Ax
3
=e
3
zu l osen. Aufgrund der oberen Dreiecksform von A lassen sich diese L osungen recht einfach
berechnen und man erh alt
x
1
=
_
_
1
0
0
_
_
, x
2
=
_
_
1
1/2
0
_
_
, x
3
=
_
_
0
3/2
0
_
_
Also ist die Inverse
A
1
=
_
_
1 1 0
0 1/2 3/2
0 0 1
_
_
.

1.9 Untermatrizen
Aus ausgew ahlten Elementen einer gegebenen Matrix lassen sich neue Matrizen, soge-
nannte Untermatrizen, konstruieren.
Denition 1.22 Sei A eine mn-Matrix, und I = {i
1
, . . . , i
k
}, J = {j
1
, . . . , j

} Index-
mengen mit
1 i
1
< < i
k
m, 1 j
1
< < j

n.
28 Version 20. Juli 2011 Kapitel 1. Matrizenrechnung
Dann ist die k -Matrix
A(I, J) =
_
a
i
p
, j
q
_
, p = 1, . . . , k, q = 1, . . . , ,
die zugeh orige Untermatrix [submatrix] von A.
Obige Denition l asst sich bildlich einfacher als mit Formeln beschreiben: Die Index-
menge I w ahlt Zeilen von A aus, die Indexmenge J w ahlt Spalten von A aus, und die
Untermatrix A(I, J) besteht gerade aus den Elementen auf den Kreuzungen der aus-
gew ahlten Zeilen und Spalten.
Beispiel 1.19:
Die folgende Illustration veranschaulicht den Be-
griff der Untermatrix f ur m = n = 6 und I =
{3, 5}, J ={2, 4, 5}:
In MATLAB
>> A = magic(6)
A =
35 1 6 26 19 24
3 32 7 21 23 25
31 9 2 22 27 20
8 28 33 17 10 15
30 5 34 12 14 16
4 36 29 13 18 11
>> A([3,5],[2,4,5])
ans =
9 22 27
5 12 14

Denition 1.23 Die einer mn Matrix A =


_
a
i j
_
1im, 1jn
zugeordneten min{m, n}
quadratischen Teilmatrizen
A
k
=
_
a
i j
_
1ik, 1jk
(k = 1, . . . , min{m, n}) (1.42)
heissen f uhrende Hauptuntermatrizen [leading principal submatrices] von A.
Kapitel 2
Algebraische Strukturen
Operationen mit Matrizen erf ullen eine ganze Reihe von Rechenregeln, siehe insbesondere
Satz 1.8, die bereits von Operationen mit Zahlen bekannt sind. Es gibt aber auch einige
wesentliche Unterschiede zu Zahlen: der Verlust der Kommutativit at bei Multiplikation
und die Tatsache, dass nicht alle von Null verschiedenen Matrizen invertierbar sind. Im
folgenden wollen wir diese Gemeinsamkeiten und Unterschiede in algebraischen Struktu-
ren einfangen und damit nicht nur Zahlen und Matrizen sondern viele weitere Objekte
(Funktionen, Polynome, Restklassen, . . .) abdecken.
2.1 Gruppen
Wir beginnen mit Halbgruppen, eine Struktur mit wenigen Forderungen aber auch dement-
sprechend wenig n utzlichen Eigenschaften.
Denition 2.1 Eine Halbgruppe [semigroup] ist eine Menge H mit einer Abbildung, ge-
nannt Verkn upfung oder Operation,
: HH H, (a, b) ab,
f ur die folgende Regel erf ullt ist:
1. Die Verkn upfung ist assoziativ, d.h., (ab) c = a(bc) f ur alle a, b, c H.
Aus Satz 1.8 (insbesondere (1.20) und (1.21)) folgt, dass f ur jedes fest vorgegebene n die
Menge der nn-Matrizen eine Halbgruppe sowohl mit der Addition als auch mit der Ma-
trixmultiplikation bildet. Die Assoziativit at von erlaubt es uns wie bei der Matrixmul-
tiplikation die Klammerung bei mehrfachen Verkn upfungen einfach wegzulassen oder
beliebig zu setzen.
Etwas versteckt in Denition 2.1 ist die Annahme, dass ab H f ur alle a, b H gelten
muss. Diese Forderung der Abgeschlossenheit von H unter der Verkn upfung ist keines-
wegs selbstverst andlich. Zum Beispiel ist die Menge der symmetrischen n n-Matrizen
zwar eine Halbgruppe bez uglich der Addition aber nicht bez uglich der Multiplikation, da
das Produkt zweier symmetrischer Matrizen im allgemeinen keine symmetrische Matrix
ergibt.
Um sinnvolle Aussagen treffen zu k onnen, braucht es uber Denition 2.1 hinausgehen-
de Forderungen an die algebraische Struktur. Insbesondere ist die Existenz eines neutralen
Elements unerl asslich.
29
30 Version 20. Juli 2011 Kapitel 2. Algebraische Strukturen
Denition 2.2 Sei (H, ) Halbgruppe. Dann heisst e H neutrales Element [identity ele-
ment, neutral element ], wenn e a = ae = a f ur alle a H gilt.
Bei der Matrixaddition ist die Nullmatrix neutrales Element, bei der Matrixmultiplikation
die Einheitsmatrix. Das folgende Lemma zeigt, dass es h ochstens ein neutrales Element in
einer Halbgruppe geben kann.
Lemma 2.3 Seien e und e

neutrale Elemente einer Halbgruppe (H, ). Dann gilt e = e

.
BEWEIS: Aus Denition 2.2 folgt sofort e =ee

=e

, wobei bei der ersten Gleichheit die


Neutralit at von e

und bei der zweiten Gleichheit die Neutralit at von e ausgenutzt wurden.
Die Existenz eines neutralen Elementes erlaubt die sinnvolle Denition des Inversen.
Denition 2.4 Sei (H, ) Halbgruppe mit neutralem Element e. Ein Element a H heisst
invertierbar [invertible], wenn es ein Element b H gibt mit ba =ab =e. Das Element
b wird Inverses von a genannt.
Invertierbarkeit l asst sich abschw achen indem man nur verlangt, dass a linksinvertier-
bar (ba = e) oder rechtsinvertierbar (ab = e) ist.
Lemma 2.5 Sei (H, ) Halbgruppe mit neutralem Element e und a H. Gibt es b, b

H
mit ba = e und ab

= e, so gilt b = b

.
BEWEIS:
b = be (e neutral),
= b(ab

) (b

Rechtsinverses)
= (ba) b

( assoziativ)
= e b

(b Linksinverses)
= b

. (e neutral).
Lemma 2.5 zeigt unter anderem, dass das Inverse immer eindeutig bestimmt ist. Als
weitere Implikation erhalten wir, dass es bei invertierbaren Elementen gen ugt eine der bei-
den Beziehungen ba =e oder ab =e zu uberpr ufen, umnachzuweisen dass b das Inverse
ist (Beweis

Ubung). Im allgemeinen werden wir das Inverse von a mit a
1
bezeichnen. Be-
schreibt die Gruppe aber eine additive Struktur (z.B. Addition von Zahlen, Matrizen, oder
Funktionen), so ist es praktischer das Inverse mit a zu bezeichnen.
Nicht jedes Element einer Halbgruppe mit neutralem Element ist notwendigerweise
invertierbar, wie das Beispiel der Matrixmultiplikation anschaulich verdeutlicht. Die For-
derung nach der Invertierbarkeit von jedem Element ergibt die folgende Struktur.
Denition 2.6 Eine Gruppe [group] ist ein Paar (G, ) mit den folgenden Eigenschaften:
1. (G, ) ist Halbgruppe.
2. Es gibt ein neutrales Element e G.
3. Jedes a G ist invertierbar.
Lemma 2.7 Sei (G, ) Gruppe und a, b G. Dann gelten (a
1
)
1
= a und (a b)
1
=
b
1
a
1
.
BEWEIS:

Ubung.
Eine Gruppe (G, ) heisst abelsch [abelian] oder kommutativ wenn a b = b a gilt f ur
alle a, b G.
2.1. Gruppen Version 20. Juli 2011 31
2.1.1 Beispiele von Gruppen
Zahlen. (Z, +), (Q, +), (R, +) sowie ({+1, 1}, ), (Q\ {0}, ), (R\ {0}, ) sind abel-
sche Gruppen.
Die kleinste Gruppe. G ={e} mit e e = e.
Matrizen. F ur jedes feste m, n N bilden die mn Matrizen zusammen mit der Ma-
trixaddition eine abelsche Gruppe. F ur jedes feste n N bilden die invertierbaren n n
Matrizen eine Gruppe, welche mit Gl(n) bezeichnet wird. Letzteres Beispiel ist Prototyp
f ur das folgende Resultat.
Lemma 2.8 Sei (H, ) Halbgruppe mit neutralem Element und bezeichne H

die Menge
der invertierbaren Elemente in H. Dann ist (H

, ) Gruppe.
BEWEIS: Seien a
1
, a
2
H

mit Inversen a
1
1
, a
1
2
und bezeichne e das neutrale Element.
Dann gelten
(a
1
2
a
1
1
) (a
1
a
2
) = a
1
2
(a
1
1
a
1
) a
2
= a
1
2
a
2
= e
und analog (a
1
a
2
) (a
1
2
a
1
1
) = e. Also ist auch (a
1
a
2
) H

. Die Assoziativit at
erben die Elemente aus H

von H; also ist (H

, ) Halbgruppe. Da beiden anderen Grup-


peneigenschaften (ii) und (iii) von Denition 2.6 sind per Voraussetzung erf ullt.
Abbildungen. Sei X eine Menge und Abb(X, X) die Menge aller Abbildungen von X
nach X. Bezeichne nun f g die Verkettung (auch Komposition oder Kombination genannt)
zweier Abbildungen f , g Abb(X, X), d.h., ( f g)(x) = f (g(x)) f ur jedes x X. Dann ist
f g Abb(X, X). Desweiteren ist offenbar assoziativ, also ist (Abb(X, X), ) Halbgruppe
mit neutralem Element id, der identischen Abbildung id(x) = x f ur alle x X. .
Ist f Abb(X, X) invertierbar (im Sinne der Halbgruppe), dann gibt es g Abb(X, X)
mit g f =id. Also ist g Umkehrfunktion und damit muss f bijektiv sein. Die R uckrichtung
gilt auch: Ist f bijektiv, dann gibt es eine Umkehrfunktion g f = id. Die Umkehrfunktion
von g ist wieder f und damit f g = id. Also ist f invertierbar.
Damit entspricht die Menge Abb(X, X)

der invertierbaren Funktionen gerade der Men-


ge der bijektiven Funktionen auf X. Nach Lemma 2.8 ist (Abb(X, X)

, ) Gruppe.
Ist X endlich, so wird S(X) := Abb(X, X)

als symmetrische Gruppe von X bezeich-


net. F ur den wichtigen Spezialfall X = {1, 2, . . . , n} mit festem n N setzen wir S
n
:=
S(X) =Abb(X, X)

. Die Elemente von S


n
heissen Permutationen [permutations] und wer-
den h aug in der Form
=
_
1 2 n
(1) (2) (n)
_
, S
n
, (2.1)
angegeben. Damit ergibt sich f ur die Verkettung mit , S
n
:
_
1 n
(1) (n)
_

_
1 n
(1) (n)
_
=
_
1 n
((1)) ((n))
_
.
Die Umkehrfunktion
1
von ist die Abbildung (i) i f ur i = 1, . . . , n. Das entspre-
chende Schema erh alt man, indem die beiden Zeilen in (2.1) vertauscht werden,
_
(1) (n)
1 n
_
,
32 Version 20. Juli 2011 Kapitel 2. Algebraische Strukturen
und die obere Zeile in die richtige Reihenfolge gebracht wird.
Beispiel 2.1: Seien
=
_
1 2 3 4
4 2 3 1
_
,
=
_
1 2 3 4
1 4 2 3
_
.
Das Inverse von ist

1
=
_
1 2 3 4
1 3 4 2
_
.
Die Verkettung ist
=
_
1 2 3 4
(1) (4) (2) (3)
_
=
_
1 2 3 4
4 1 2 3
_
.
In MATLAB speichert man Permutationen am be-
sten als Vektoren ab:
>> pi = [ 4 2 3 1 ];
>> sigma = [ 1 4 2 3 ];
Der Befehl pi(sigma) ergibt einen Vek-
tor mit den Eintr agen pi(sigma(1)),
pi(sigma(2)), . . ., also gerade den Vektor
der Verkettung von und .
>> pi(sigma)
ans =
4 1 2 3
Das Inverse
1
erf ullt
1
((1)) = 1,

1
((2)) = 2, . . .. In MATLAB lassen sich
diese Beziehungen wie folgt schreiben:
>> r = [];
>> r(sigma) = 1:4,
r =
1 3 4 2

Endliche Gruppen. Ist G eine endliche (und nicht allzu grosse) Menge mit einer Ver-
kn upfung , dann ist es oft sinnvoll die sogenannte Verkn upfungstafel [Cayley table]
anzugeben:
a
1
a
2
a
n
a
1
a
1
a
1
a
1
a
2
a
1
a
n
a
2
a
2
a
1
a
2
a
2
a
2
a
n
.
.
.
.
.
.
.
.
.
.
.
.
a
n
a
n
a
1
a
n
a
2
a
n
a
n
Ist (G, ) eine Gruppe, so wird die Verkn upfungstafel auch als Gruppentafel bezeichnet.
Im folgenden werden wir eine sehr praktische Charakterisierung f ur Gruppentafeln her-
leiten. Dazu bemerken wir zun achst, dass in einer Gruppe die Gleichungen a x = b und
ya =b die L osungen x =a
1
b bzw. y =ba
1
haben. Das folgende Lemma zeigt, dass
diese L osungen sogar eindeutig sind
Lemma 2.9 Sei (G, ) Gruppe und a, x, x

, y, y

G. Dann gelten die sogenannten K urzungs-


regeln
ax = ax

x = x

, y a = y

a y = y

. (2.2)
BEWEIS: x = ex = a
1
ax = a
1
ax

= ex

= x

. Die andere K urzungsregel wird


analog bewiesen.
Satz 2.10 F ur eine Halbgruppe (H, ) mit einer endlichen Menge H gilt: (H, ) ist genau
dann Gruppe wenn die K urzungsregeln (2.2) f ur alle a, x, x

, y, y

H gelten.
BEWEIS: F ur ein festes c H betrachten wir die Funktionen f
c
: H H mit f
c
: x cx
und g
c
: H H mit g
c
: y y c. Sind die K urzungsregeln (2.2) erf ullt, so sind f
c
, g
c
injektiv. Da H endlich ist, folgt die Surjektivit at von f
c
, g
c
. Insbesondere hat die Gleichung
2.1. Gruppen Version 20. Juli 2011 33
c e = c eine L osung e H. F ur jedes beliebige a H hat auch die Gleichung b c = a
eine L osung b H. Also gilt
ae = bc e = bc = a
f ur alle a H. Analog zeigt man die Existenz von e

mit e

a = a f ur alle H. Wie im
Beweis von Lemma 2.3 gilt aber e = e e

= e

und damit ist e neutrales Element. Wegen


Surjektivit at von f
a
, g
a
sind die Gleichungen ax = e und y a = e f ur jedes a H l osbar
und nach Lemma 2.5 ist x = y Inverses von a. Also ist (H, ) eine Gruppe.
Die Umkehrung ist bereits durch Lemma 2.9 bewiesen.
Satz 2.11 Die Verkn upfungstafel einer Halbgruppe (G, ) ist genau dann Gruppentafel,
wenn jedes Element von G in jeder Zeile und jeder Spalte h ochstens einmal vorkommt.
BEWEIS: Sei G = {a
1
, a
2
, . . . , a
n
}. Der Eintrag in der i-ten Zeile und j-ten Spalte der
Verkn upfungstafel ist von der Form a
i
a
j
. Die Forderung, dass jedes Element in der j-ten
Spalte h ochstens einmal vorkommt entspricht der ersten K urzungsregel (2.2) f ur x =a
j
. Die
Forderung, dass jedes Element in der i-ten Zeile h ochstens einmal vorkommt entspricht der
zweiten K urzungsregel (2.2) f ur y = a
i
. Also sind die beiden Forderungen aquivalent zu
den K urzungsregeln. Mit Satz 2.10 folgt die Behauptung.
F ur eine zweielementige Menge G ={e, a} ist nur eine Gruppentafel m oglich:
e a
e e a
a a e
Sei nun G ={e, a, b} mit dem neutralen Element e. Dann hat die Verkn upfungstafel die
folgende Gestalt:
e a b
e e a b
a a ? ?
b b ? ?
Die unbestimmten Eintr age ? ermittelt man wie bei Sudoku aus der Forderung von
Satz 2.11:
e a b
e e a b
a a b e
b b e a
(2.3)
Man uberzeuge sich durch Nachrechnen, dass assoziativ ist.
7
Damit ist (2.3) Gruppenta-
fel.
2.1.2 Untergruppen
Denition 2.12 Sei (G, ) Gruppe und U G. Dann heisst (U, ) Untergruppe [sub-
group] von (G, ) wenn (U, ) selbst Gruppe ist.
Da (U, ) die Assoziativit at von (G, ) erbt, ist (U, ) Untergruppe wenn Abgeschlossenheit
gilt und wenn mit a U auch das Inverse a
1
in U liegt. F ur U = / 0 w ahlt man ein a U
aus und das neutrale Element e = aa
1
liegt dann automatisch in U.
Jede Gruppe (G, ) mit neutralem Element e hat die trivialen Untergruppen ({e}, ) und
(G, ). Spannender sind Untergruppen die zwischen diesen beiden Extremen liegen.
7
Die Assoziativit at sieht man der Verkn upfungstafel leider nicht an und muss per Hand uberpr uft werden.
34 Version 20. Juli 2011 Kapitel 2. Algebraische Strukturen
Matrixuntergruppen, Teil I. Wir betrachten die Gruppe Gl(2) der invertierbaren 22-
Matrizen und die Rotationsmatrizen
SO(2) :=
_
G() =
_
cos() sin()
sin() cos()
_
: [0, 2)
_
.
SO(2) ist abgeschlossen bez uglich Matrixmultiplikation (Beweis

Ubung) und Matrixinver-
sion: G()
1
= G(). Damit bildet SO(2) eine Untergruppe von Gl(2).
Matrixuntergruppen, Teil II. Wir betrachten
M
2
:=
_
A(a, b) =
_
a b
b a
_
: a, b R
_
.
Offenbar gelten A(a
1
, b
1
) +A(a
2
, b
2
) = A(a
1
+a
2
, b
1
+b
2
) und A(a, b) = A(a, b).
Damit bildet M
2
eine Untergruppe der 22-Matrizen bez uglich der Matrixaddition.
Bez uglich der Matrixmultiplikation gelten A(a
1
, b
1
)A(a
2
, b
2
) M
2
und A(a, b)
1
M
2
ausser wenn a = b = 0. Der Beweis dieser beiden Aussagen ist

Ubung. Nach Lemma 2.8
ist M
2
\{A(0, 0)} Untergruppe von Gl(2) bez uglich der Matrixmultiplikation.
Matrixuntergruppen, Teil III. Wir betrachten die Menge der oberen Dreiecksmatrizen
mit von Null verschiedenen Diagonalelementen:

triu(n) =
_

_
R =
_
_
_
r
11
. . . r
1n
.
.
.
.
.
.
r
nn
_
_
_: r
11
= 0, . . . , r
nn
= 0
_

_
Lemma 2.13 Das Produkt von zwei oberen n n-Dreiecksmatrizen ist wieder eine Drei-
ecksmatrix.
BEWEIS: Sei T = RS mit oberen Dreiecksmatrizen R, S. Dann gilt r
ik
= 0 f ur i > k und
s
k j
= 0 f ur k > j. F ur i > j gilt
t
i j
=
n

k=1
r
ik
s
k j
=t
i j
=
i1

k=1
r
ik
..
=0
s
k j
+
n

k=i
r
ik
s
k j
..
=0
= 0.
Damit ist T obere Dreiecksmatrix. Desweiteren gilt
t
ii
=
i1

k=1
r
ik
..
=0
s
ki
+r
ii
s
ii
+
n

k=i+1
r
ik
s
ki
..
=0
= r
ii
s
ii
. (2.4)
Wegen Lemma 2.13 und (2.4) ist

triu(n) bez uglich der Matrixmultiplikation abge-
schlossen.
Lemma 2.14 Sei R

triu(n). Dann ist R invertierbar und R


1

triu(n).
BEWEIS: Der Beweis erfolgt mittels Induktion uber n. F ur n = 1 ist die Aussage trivialer-
weise erf ullt. Sei die Aussage nun f ur n1 erf ullt. Dann partitionieren wir
R =
_
R
11
r
n
0 r
nn
_
,
2.2. Ringe Version 20. Juli 2011 35
so dass R
11

triu(n1) und r
nn
= 0. Per Induktionsvoraussetzung ist R
11
invertierbar. F ur
die Matrix
R
1
=
_
R
1
11
R
1
11
r
n
r
1
nn
0 r
1
nn
_
lassen sich die Beziehungen R
1
R = RR
1
= I
n
leicht uberpr ufen. Also ist R
1
Inverses
von R und R
1

triu(n).
Zusammenfassend kann man sagen, dass

triu(n) eine Untergruppe von Gl(n) bez uglich


der Matrixmultiplikation bildet. Eine analoge Aussage trifft auf untere Dreiecksmatrizen
mit von Null verschiedenen Diagonalelementen zu.
2.1.3 Gruppenhomomorphismen
Denition 2.15 Seien (G, ) und (H, ) Gruppen. Ein (Gruppen-)Homomorphismus [group
homomorphism] ist eine Abbildung : GH mit (ab) =(a)(b) f ur alle a, b G.
Ist dar uberhinaus bijektiv so bezeichnet man als (Gruppen-)Ismorphismus [group
isomorphism].
Lemma 2.16 Seien (G, ), (H, ) Gruppen und : G H Homomorphismus.
a) Ist e das neutrale Element von G, so ist (e) das neutrale Element von H.
b) (a
1
) =
_
(a)
_
1
f ur jedes a G.
BEWEIS: a) (e) (a) =(e a) =(a); (a) (e) =(ae) =(a).
b) (a
1
) (a) =(a
1
a) =(e) =(aa
1
) =(a) (a
1
).
Gruppen zwischen denen ein Isomorphismus besteht heissen isomorph zueinander.
Formal schreibt man (G, )

= (H, ). Die Klassizierung von Gruppen durch Homo- und


Isomorphismen ist ein wichtiges Teilgebiet der Algebra und ragt weit uber den Vorlesungs-
kanon der linearen Algebra hinaus.
2.2 Ringe
Bei Gruppen betrachtet man jeweils nur eine Verkn upfung und kann dadurch keine Inter-
aktionen zwischen zwei verschiedenen Verkn upfungen beschreiben. Ein Beispiel f ur sol-
che Interaktionen sind die Distributivgesetze der Matrixaddition und -multiplikation, siehe
Satz 1.8. Im folgenden wollen wir daher Strukturen mit zwei Verkn upfungen betrachten.
Dabei sollte man sich zun achst die Addition und Multiplikation (von Zahlen oder Matri-
zen) als Paten f ur die beiden Verkn upfungen vorstellen. Wir werden sp ater noch weitere
Beispiele kennenlernen.
Denition 2.17 Ein Ring [ring] (R, +, ) ist eine Menge R mit zwei Verkn upfungen
+ : RR R, (a, b) a+b,
: RR R, (a, b) a b,
(2.5)
f ur die folgende Regeln erf ullt sind:
(1) a+b = b+a, a, b R. (Kommutativit at+)
(2) a+(b+c) = (a+b) +c, a, b, c R. (Assoziativit at+)
(3) Es gibt 0 R mit 0+a = a f ur alle a R. (Nullelement)
36 Version 20. Juli 2011 Kapitel 2. Algebraische Strukturen
(4) Zu jedem a R gibt es a R mit a+(a) = 0. (Inverses+)
(5) a (b c) = (a b) c, a, b, c R. (Assoziativit at)
(6) (a+b) c = (a c) +(b c), a, b, c R. (Distributivit at I)
(7) a (b+c) = (a b) +(a c), a, b, c R. (Distributivit at II)
Wie bei den Gruppen wieder der Hinweis, dass die in (2.5) versteckte Abgeschlossenheit
der beiden Verkn upfungen ein wichtiges Merkmal von Ringen ist. Gem ass den Regeln (1)
(4) ist (R, +) kommutative Gruppe w ahrend (R, ) aufgrund von Regel (5) lediglich eine
Halbgruppe zu sein braucht.
Wie bei den Zahlen und Matrizen werden wir in folgenden eine vereinfachte Schreib-
weise ab = a b verwenden. Die Regel Punkt vor Strich erlaubt es uns Klammern einzu-
sparen: a+(bc) = a+bc.
Die Existenz eines neutralen Elements bez uglich wird in der Denition eines Rings
selbst nicht gefordert, ist aber oft gegeben.
Denition 2.18 Sei (R, +, ) Ring.
1. Gibt es 1 R mit 1 a = a 1 f ur alle a R, so wird 1 als Einselement des Rings
bezeichnet. In diesem Fall nennt man (R, +, ) Ring mit Eins.
2. Ein Ring heisst kommutativ wenn ab = ba f ur alle a, b R gilt.
Einige (Gegen-)Beispiele f ur Ringe:
Die Mengen Z, Q, R bilden zusammen mit der gew ohnlichen Addition und Multipli-
kation jeweils einen kommutativen Ring mit Eins.
F ur jedes feste n N bildet die Menge nZ={nz : z Z} zusammen mit der gew ohn-
lichen Addition und Multiplikation einen kommutativen Ring (ohne Einselement, es
sei denn n = 1).
Die Menge der nn-Matrizen bildet zusammen mit Matrixaddition und -multiplikation
einen Ring mit Eins. Dies folgt aus Satz 1.8 und der Einheitsmatrix als Einselement.
Dagegen bildet die Menge Gl(n) der invertierbaren nn-Matrizen mit diesen Ope-
rationen keinen Ring, weil z.B. O Gl(n).
Betrachte auf der Menge R{} die Operationen
ab = min{a, b}, ab = a+b.
Dann bildet
_
R{}, , } keinen Ring. (

Ubung: Welche Regeln sind (nicht) erf ullt?)


Sei X eine nichtleere Menge und (R, +, ) ein Ring. Dann bildet die Menge der Ab-
bildungen nach R,
Abb(X, R) :=
_
f : f ist Abbildung von X nach R
_
zusammen mit den Operationen
( f +g)(x) := f (x) +g(x), ( f g)(x) := f (x)g(x)
einen Ring.
2.2. Ringe Version 20. Juli 2011 37
Sei (R, +, ) ein Ring. Ein Polynom uber R in einer Unbekannten t hat die Form
p = a
0
t
0
+a
1
t
1
+a
2
t
2
+ +a
n
t
n
, a
0
, a
1
, . . . , a
n
R. (2.6)
Oft schreibt man auch einfach a
0
t
0
= a
0
und a
1
t
1
= a
1
t. Der Grad [degree] von
p, bezeichnet mit deg(p), ist der gr osste Index j f ur den a
j
= 0 gilt. Die Menge aller
Polynome uber R bezeichnen wir mit R[t].
Man muss an dieser Stelle sehr vorsichtig sein und nicht zu vorschnellen Schl ussen
neigen: Der Ausdruck (2.6) ist zun achst rein formal zu verstehen; t ist lediglich ein
Platzhalter f ur ein unbestimmtes Objekt. Auch die Potenzen t
j
und die Summations-
zeichen sind rein formal zu verstehen und stehen einfach dort, weil man sich dann
die folgenden Rechenregeln einfacher merken kann. Erst wenn das Polynom aus-
gewertet wird (was wir an dieser Stelle nicht tun werden), muss man sich darauf
verst andigen, was Potenzen von t, die Multiplikation mit Elementen aus R und die
Addition wirklich bedeuten.
Seien p, q R[t] mit
p = a
0
+a
1
t + +a
m
t
m
, q = b
0
+b
1
t + +b
n
t
n
.
Dann denieren wir die folgenden Verkn upfungen:
p+q := (a
0
+b
0
) +(a
1
+b
1
) t + +(a
max{m,n}
+b
max{m,n}
) t
max{m,n}
p q := c
0
+c
1
t + +c
m+n
t
m+n
, c
k
:=

i+j=k
a
i
b
j
.
(Sollten die Polynome unterschiedlich lang sein, also m= n, so f ullt man einfach die
Koefzienten des k urzeren Polynoms mit Nullen auf.)
Wie man sich leicht uberzeugen kann, ist (R[t], +, ) wieder ein Ring. Das Nullele-
ment ist 0 t
0
. Ist (R, +, ) kommutativer Ring mit Eins, so ist auch (R[t], +, ) kom-
mutativer Ring mit Eins. Das Einselement ist 1 t
0
.
Das folgende Resultat enth alt aus Denition 2.17 abgeleitete Rechenregeln, die f ur viele
der oben genannten Beispiele als vollkommen selbstverst andlich angesehen werden.
Lemma 2.19 Sei (R, +, ) Ring. Dann gilt f ur alle a, b R:
(i) 0 a = a 0 = 0;
(ii) (a)b = a(b) =(ab);
(iii) (a)(b) = ab.
BEWEIS:
(i) Aus Distributivit at I folgt
0 a =0 a+0 =0 a+0 a+((0 a)) = (0+0) a+((0 a)) =0 a+((0 a)) =0.
Analog folgt a 0 = 0.
(ii) Aus Distributivit at I bzw. II, zusammen mit Teil (i), folgen
ab+(a)b = (a+(a))b = 0 b = 0
bzw.
ab+a(b) = a(b+(b)) = a 0 = 0.
38 Version 20. Juli 2011 Kapitel 2. Algebraische Strukturen
(iii) folgt sofort aus (ii) und Lemma 2.7: (a)(b) =(a(b) =((ab)) = ab.
Lemma 2.19 erlaubt es uns, ab ohne Uneindeutigkeiten zu schreiben. Es kann leicht
gezeigt werden, dass die beiden Distributivgesetze auch gelten wenn Addition durch Sub-
traktion
ab := a+(b)
ersetzt wird.
Analog wie bei Gruppen lassen sich auch bei Ringen Homo- und Isomorphismen de-
nieren.
Denition 2.20 Es seien (R, +, ) und (S, , ) Ringe. Ein Ringhomomorphismus ist eine
Abbildung : R S
(a+b) =(a) (b), (a b) =(a) (b),
f ur alle a, b R. Ist zus atzlich bijektiv, dann heisst Ringisomorphismus und wir schrei-
ben (R, +, )

= (S, , )
Ebenso ubertr agt sich das Konzept von Untergruppen auf Ringe.
Denition 2.21 Sei (R, +, ) Ring und U R. Dann heisst (U, +, ) Unterring [subring]
von (R, +, ) wenn (U, +, ) selbst ein Ring ist.
Nat urlich braucht man bei Unterringen nicht alle Regeln von Denition 2.17 zu uberpr ufen.
Satz 2.22 Sei (R, +, ) Ring und U R mit U = / 0. Dann sind die folgenden Aussagen
aquivalent:
(i) (U, +, ) ist Unterring von (R, +, ).
(ii) F ur alle a, b U sind auch ab und ab in U.
BEWEIS: (i)(ii) ist trivial.
(ii)(i). W ahle ein a U aus, dann ist wegen 0 =aa U das Nullelement inU enthalten.
F ur jedes b U gilt b = 0 b, also ist b U enthalten. F ur alle a, b U gilt a +b =
a (b) U wegen b U, also ist die Addition innerhalb von U abgeschlossen. Die
restlichen Ringeigenschaften erbt U von R.
Zum Beispiel ist nZ f ur jedes n NUnterring von Z. Die auf Seite 34 eingef uhrte Men-
ge M
2
bilden einen Unterring der 22-Matrizen mit Matrixaddition und -multiplikation.
2.3 K orper
In einem Ring (R, +, ) mit Einselement 1 versteht man die Invertierbarkeit von a R
bez uglich der Verkn upfung . Dementsprechend erf ullt das Inverse von a die Beziehung
a
1
a = aa
1
= 1. Um degenerierte F alle auszuschliessen, verlangt man ublicherweise
1 = 0. Wegen Lemma 2.19 kann dann 0 niemals invertierbar sein. Fordert man aber die
Invertierbarkeit aller anderen Elemente, so erh alt man die folgenden Strukturen.
Denition 2.23 Sei (R, +, ) Ring mit Einselement 1 = 0. Ist jedes a R\{0} invertierbar,
so nennt man (R, +, ) Schiefk orper [skew eld] oder Divisionsring [division ring]. Ein
kommutativer Schiefk orper heisst K orper [eld].
Die folgende Charakterisierung eines Schiefk orpers ist mitunter handlicher.
2.3. K orper Version 20. Juli 2011 39
Satz 2.24 Ein Ring (R, +, ) ist genau dann Schiefk orper, wenn (R\{0}, ) eine Gruppe ist.
BEWEIS: F ur einen Schiefk orper ist denitionsgem ass (R, ) Halbgruppe und alle Elemen-
te aus R\{0} sind invertierbar. Da das Produkt von zwei invertierbaren Elementen wieder
invertierbar ist, folgt Abgeschlossenheit von R\{0}. Also ist R\{0} eine Gruppe.
Ist umgekehrt (R\ {0}, ) eine Gruppe, so gibt es ein neutrales Element e R\ {0}).
Wegen 0 e = e 0 = 0 ist e auch Einselement von (R, +, ). Die restlichen Eigenschaften
eines Schiefk orpers sind per Voraussetzung erf ullt.
Der

Ubersicht halber f uhren wir alle Regeln, die in einem K orper gelten m ussen, expli-
zit auf:
a+b R, a b R a, b R. (Abgeschlossenheit)
a+b = b+a, a, b R. (Kommutativit at+)
a+(b+c) = (a+b) +c, a, b, c R. (Assoziativit at+)
Es gibt 0 R mit 0+a = a f ur alle a R. (Nullelement)
Zu jedem a R gibt es a R mit a+(a) = 0. (Inverses+)
a b = b a, a, b R. (Kommutativit at)
a (b c) = (a b) c, a, b, c R. (Assoziativit at)
Es gibt 1 R\{0} mit 1 a = a f ur alle a R. (Einselement)
Zu jedem a R\{0} gibt es a
1
R mit a a
1
= 1. (Inverses)
(a+b) c = (a c) +(b c), a, b, c R. (Distributivit at I)
a (b+c) = (a b) +(a c), a, b, c R. (Distributivit at II)
Aufgrund der Kommutativit at von folgt Distributivit at II aus Distributivit at I und ist hier
nur der Vollst andigkeit halber mit aufgez ahlt.
Einige (Gegen-)Beispiele f ur K orper:
Qund Rbilden zusammen mit der gew ohnlichen Addition und Multiplikation K orper.
Z und nZ bilden keine K orper.
Die Menge der nn-Matrizen bildet keinen K orper.
Die auf Seite 34 eingef uhrte Menge M
2
bildet zusammen mit Matrixaddition und
-multiplikation einen K orper.
Wir werden in den Abschnitten 2.5 und 2.6 zwar noch weitere Beispiele kennenlernen, aber
insgesamt ist die Auswahl an K orpern nicht furchtbar gross. K orper stellen hohe Anspr uche
an (R, +, ) und sind die Diven unter den algebraischen Strukturen, die wir kennengelernt
haben.
Homo- und Isomorphismen von K orpern sind die Homo- und Isomorphismen der zu-
grundeliegenden Ringe.
40 Version 20. Juli 2011 Kapitel 2. Algebraische Strukturen
2.4. Matrizen uber Ringen und K orpern Version 20. Juli 2011 41
2.4 Matrizen uber Ringen und K orpern
Unsere urspr ungliche Denition 1.1 einer Matrix erlaubte nur Eintr age mit reellen Zahlen.
Im folgenden wollen wir den Begriff einer Matrix wesentlich allgemeiner fassen.
Denition 2.25 Sei (R, +, ) kommutativer Ring mit Eins. Ein rechteckiges Schema der
Form
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
,
mit a
i j
R, i = 1, . . . , n, j = 1, . . . , m, heisst mn-Matrix uber R. Die Menge aller mn-
Matrizen uber R wird mit R
mn
bezeichnet.
Alle Denitionen und Aussagen von Kapitel 1 zu Matrizen lassen sich direkt auf Matri-
zen uber (R, +, ) ubertragen, da nirgends spezielle Eigenschaften von R ausgenutzt wurde.
Insbesondere besteht jetzt die Nullmatrix aus lauter Nullelementen aus R und die Einheits-
matrix hat Einselemente auf der Diagonalen und sonst nur Nullelemente. Die Matrixaddi-
tion und -multiplikation sind genau wie in Kapitel 1 deniert, nur dass die gew ohnliche
Addition und Multiplikation von reellen Zahlen durch die Addition und Multiplikation des
Ringes ersetzt werden. S atze 1.4 und 1.8 ubertragen sich auf R
mn
und liefern das folgende
Resultat.
Satz 2.26 Sei (R, +, ) kommutativer Ring mit Eins. Dann bildet R
nn
zusammen mit der
Matrixaddition und -multiplikation einen Ring mit Eins.
Invertierbarkeit einer Matrix A R
nn
bedeutet Existenz einer Matrix X R
nn
, so dass
AX = XA = I
n
mit der Einheitsmatrix I
n
R
nn
. Hier muss man ein wenig vorsichtig sein: Matrizen die in
einem Ring invertierbar sind k onnen in einem anderen Ring betrachtet ihre Invertierbarkeit
verlieren. Zum Beispiel ist A =
_
1 2
3 4
_
R
22
invertierbar:
A
1
=
1
2
_
4 2
3 1
_
R
22
.
Doch die gleiche Matrix ist in Z
22
nicht invertierbar: G abe es X Z
22
mit AX =XA=I
n
,
so h atte A R
22
zwei verschiedene Inverse, n amlich X und A
1
. Dies st unde aber im
Widerspruch zur Eindeutigkeit der Inversen.
2.5 Komplexe Zahlen
Die Menge der komplexen Zahlen ist deniert als
C ={x +yi : x, y R},
wobei i die imagin are Einheit [imaginary unit ] ist mit i
2
= 1. F ur eine komplexe Zahl
z = x +yi heisst x Realteil [real part ] und y Imagin arteil [imaginary part ] von z. Wir
schreiben x = Re(z) und y = Im(z).
42 Version 20. Juli 2011 Kapitel 2. Algebraische Strukturen
Vom algebraischen Standpunkt betrachtet, sind komplexe Zahlen einfach Paare von re-
ellen Zahlen und die Bezeichung x +yi hilft lediglich, sich die folgenden Operationen bes-
ser merken zu k onnen. Wir denieren auf Cdie folgenden Verkn upfungen als Addition und
Multiplikation:
+ : CC C, (x
1
+y
1
i) +(x
2
+y
2
i) := (x
1
+x
2
) +(y
1
+y
2
)i,
: CC C, (x
1
+y
1
i) (x
2
+y
2
i) := (x
1
x
2
y
1
y
2
) +(x
1
y
2
+y
1
x
2
)i.
Beispiel 2.2:
Zum Beispiel gelten
(1+i) +(2+i) =1+2i
und
(1+i)(2+i) =3i.
In MATLAB ist die imagin are Einheit i (oder j).
>> (1+1i) + (-2+1i),
ans =
-1.0000 + 2.0000i
>> (1+1i)
*
(-2+1i),
ans =
-3.0000 - 1.0000i
Es empehlt sich i nie alleinstehend zu verwenden sondern
immer in der Form1i, da MATLAB i als eine mit einen an-
deren Wert uberschriebene Variable interpretieren k onnte.

Es ist leicht zu sehen, dass (C, +) die Eigenschaften von (R, +) erbt und eine abelsche
Gruppe bildet. Das neutrale Element ist 0 =0+0i und das additive Inverse von z =x+yi
C ist z := x yi. Die Subtraktion zweier komplexer Zahlen z
1
= x
1
+y
1
i und z
2
=
x
2
+y
2
i ist demnach
z
1
z
2
:= z
1
+(z
2
) = (x
1
x
2
) +(y
1
y
2
)i.
Um uns aller M uhen beim Nachweis der Eigenschaften der Multiplikation von komple-
xen Zahlen zu entledigen, denieren wir die Abbildung
: C M
2
, : x +yi
_
x y
y x
_
, (2.7)
wobei M
2
auf Seite 34 deniert wurde. Offenbar ist bijektiv und bildet einen Gruppeni-
somorphismus zwischen (C, +) und (M
2
, +). Desweiteren gilt
(x
1
+y
1
i)(x
2
+y
2
i) =
_
x
1
y
1
y
1
x
1
__
x
2
y
2
y
2
x
2
_
=
_
x
1
x
2
y
1
y
2
x
1
y
2
+y
1
x
2
y
1
x
2
x
1
y
2
y
1
y
2
+x
1
x
2
_
=
_
(x
1
+y
1
i)(x
2
+y
2
i)
_
.
Da (M
2
\{0}, ) Gruppe ist, folgt, dass auch (C\{0}, ) Gruppe ist. Das neutrale Element
ist 1 =
1
(I
2
) = 1+0i und das multiplikative Inverse von z = x +yi C\{0} ist
z
1
=
1
((z)
1
) =
1
_
_
x y
y x
_
1
_
=
1
_
1
x
2
+y
2
_
x y
y x
_
1
_
=
x
x
2
+y
2

y
x
2
+y
2
i.
Aufgrund des Isomorphismus ubertragen sich die Distributivit atsgesetze der Matrixaddi-
tion und -multiplikation auf (C, +, ). Desweiteren sieht man leicht dass die Multiplikation
in C (und M
2
) kommutativ ist und somit erhalten wir zusammenfassend:
2.5. Komplexe Zahlen Version 20. Juli 2011 43
Satz 2.27 (C, +, ) ist ein K orper.
Betrachtet man wie oben empfohlen komplexe Zahlen als Paare von reellen Zah-
len, so ist die obige Konstruktion der Multiplikation schon recht speziell. Es stellt sich
die naheliegende Frage, ob und wie sich diese Konstruktion sinnvoll auf Tripel, Quadru-
pel oder gar beliebige Tupel von reellen Zahlen ubertragen l asst. F ur Quadrupel ist dies
tats achlich m oglich und f uhrt auf die sogenannten Quaternionen [quaternions], die einen
Schiefk orper (aber keinen K orper) bilden.
Denition 2.28 Sei z = x +yi C. Dann ist z := x yi die zu z Konjugierte [conjugate].
Der Betrag [absolute value] ist |z| :=
_
x
2
+y
2
.
In M
2
entspricht Konjugation der Matrixtransposition:
(z) =
_
x y
y x
_
=
_
x y
y x
_
T
=(z)
T
. (2.8)
Die Konjugation ist mit Addition und Multiplikation vertr aglich
z
1
+z
2
= z
1
+z
2
, z
1
z
2
= z
1
z
2
, z
1
, z
2
C. (2.9)
Bei der Addition sieht man dies sofort ein. Bei der Multiplikation liesse sich dies auch
einfach nachrechnen oder man bem uht (2.8):
(z
1
z
2
) =(z
1
z
2
)
T
=(z
2
)
T
(z
1
)
T
=(z
1
)
T
(z
2
)
T
=(z
1
)(z
2
) =(z
1
z
2
).
Die Beziehungen (2.9) sagen aus, dass Konjugation ein K orperisomorphismus von (C, +, )
auf sich selbst
8
ist.
Lemma 2.29 Es gelten die folgenden Rechenregeln f ur z, z
1
, z
2
C:
(i) Re(z) =
1
2
(z +z)
(ii) Im(z) =
1
2
(z z)
(iii) z z =|z|
2
(iv) z
1
=
z
|z|
2
, (z = 0)
(v) z
1
= z
1
, (z = 0)
BEWEIS:

Ubung.
Die Division zweier komplexer Zahlen z
1
, z
2
C mit z
2
= 0 ist deniert als z
1
/z
2
:=
z
1
z
1
2
. Mit Lemma 2.29 (iv) ergibt sich
z
1
z
2
=
z
1
z
2
|z
2
|
2
.
8
Ein Isomorphismus einer algebraischen Struktur auf sich selbst heisst Automorphismus.
44 Version 20. Juli 2011 Kapitel 2. Algebraische Strukturen
2.5.1 Matrizen uber komplexen Zahlen
Als Spezialfall von Denition 2.25 ergibt sich f ur R = C die Menge C
mn
der mn-
Matrizen uber den komplexen Zahlen (oder kurz: komplexe mn-Matrizen).
Die Konjugation ubertr agt sich auf Matrizen, indem man einfach jeden Eintrag konju-
giert:
A C
mn
A C
mn
mit (A)
i j
:= a
i j
, i = 1, . . . , m, j = 1, . . . , n.
Beispiel 2.3:
Seien
A =
_
_
1+2i 1i
3 i
2i 2+i
_
_
,
B =
_
1+i 1i
1i 1+i
_
.
Dann ergeben sich
A =
_
_
12i 1+i
3 i
2+i 2i
_
_
,
AB =
_
_
3+3i 5+i
2+4i 44i
22i 2
_
_
.
In MATLAB gibt man komplexe Matri-
zen wie reelle Matrizen ein.
>> A = [1+2i 1-1i;
3 -1i;
2-1i 2+1i];
>> B = [1+1i 1-1i;
-1-1i 1+1i];
>> conj(A),
ans =
1 - 2i 1 + 1i
3 - 0i -0 + 1i
2 + 1i 2 - 1i
>> A
*
B,
ans =
-3 + 3i 5 + 1i
2 + 4i 4 - 4i
2 - 2i 2 + 0i

Die in Abschnitt 1.6 eingef uhrte Transponierte einer reellen Matrix kann trivialerweise
auf komplexe Matrizen erweitert werden. Bei komplexen Matrizen macht es aber in der
Regel mehr Sinn
9
, die Eintr age nicht nur zu st urzen sondern auch noch zu konjugieren.
Denition 2.30 Ist A C
mn
, so heisst A
H
C
nm
mit (A
H
)
i j
:= a
ji
, f ur i = 1, . . . , n und
j = 1, . . . , m, die zu A konjugiert-transponierte [conjugate transpose] oder Hermitesch-
transponierte [Hermitian transpose] Matrix.
Beispiel 2.4:
Sei A wie in Beispiel 2.3. Dann sind
A
H
=
_
12i 3 2+i
1+i i 2i
_
,
A
T
=
_
1+2i 3 2i
1i i 2+i
_
.
In MATLAB wird die Hermitesch Transponierte, wie bei der
Transposition von reellen Matrizen, berechnet indem man ein
Apostroph hinter die Matrix gestellt. F ur die selten ben otigte
(komplex) Transponierte ist ein Punkt vor das Apostroph zu
stellen.
>> A
ans =
1 - 2i 3 - 0i 2 + 1i
1 + 1i -0 + 1i 2 - 1i
>> A.
ans =
1 + 2i 3 + 0i 2 - 1i
1 - 1i -0 - 1i 2 + 1i

9
Dies wird leider erst im Verlaufe der Vorlesung, bei der Cholesky-Zerlegung und bei den Eigenwerten,
richtig klar werden.
2.6. Restklassenringe und -k orper Version 20. Juli 2011 45
Aus Denition 2.30 folgt sofort die Beziehung
A
H
= (A)
T
= A
T
. (2.10)
Da im Beweis von Satz 1.14 keine besonderen Eigenschaften der reellen Zahlen ausgenutzt
wurden, ubertragen sich dessen Rechenregeln f ur die Transposition direkt auf Matrizen
uber beliebigen kommutativen Ringen, inbesondere auf komplexe Matrizen. Kombiniert
mit (2.10) erhalten wir daraus unmittelbar entsprechende Rechenregeln f ur Hermitesche
Transposition.
Korollar 2.31 (i) F ur A C
mn
gilt
(A
H
)
H
= A.
(ii) F ur A C
mn
und C gilt
( A)
H
= A
H
.
(iii) F ur A, B C
mn
gilt
(A+B)
H
= A
H
+B
H
.
(iv) F ur A C
mn
und B C
np
gilt
(AB)
H
= B
H
A
H
.
BEWEIS: Den Nachweis von (i)(iii) uberlassen wir dem geneigten Leser zur

Ubung.
Zum Nachweis von (iv) bemerken wir zun achst, dass aus der Vertr aglichkeit (2.9) von
Konjugation mit Addition und Multiplikation die Beziehung AB = A B folgt. Zusammen
mit (2.10) und Satz 1.14 (iv) ergibt sich
(AB)
H
=
_
AB
_
T
=
_
A B
_
T
= B
T
A
T
= B
H
A
H
.
Denition 2.32 Eine Matrix A C
nn
heisst Hermitesch [Hermitian], falls
A
H
= A, dass heisst a
i j
= a
ji
f ur i, j = 1, . . . , n.
Zum Beispiel ist bei
A =
_
_
1 2+3i 4+5i
23i 6 7+8i
45i 78i 9
_
_
, B =
_
_
1+i 2+3i 4+5i
2+3i 6+2i 7+8i
4+5i 7+8i 93i
_
_
,
die Matrix A Hermitesch. Die Matrix B ist (komplex) symmetrisch aber nicht Hermitesch.
Bei Hermiteschen Matrizen sind die Diagonalelemente immer reell.
2.6 Restklassenringe und -k orper
ZumAbschluss dieses Kapitels wollen wir uns noch mit algebraischen Strukturen besch afti-
gen, die einerseits in der Codierungstheorie wichtig sind und andererseits illustrieren, wie
man aus bestehenden Strukturen mit Hilfe von

Aquivalenzrelationen neue Strukturen ge-
winnen kann.
Zun achst wiederholen wir den bereits aus der Analysis bekannten Begriff einer

Aqui-
valenzrelation.
46 Version 20. Juli 2011 Kapitel 2. Algebraische Strukturen
Denition 2.33 Sei X eine Menge. Eine Teilmenge R von X X heisst

Aquivalenzrelation
[equivalence relation] auf X wenn:
(i) (x, x) R f ur alle x R; (reexiv)
(ii) aus (x, y) R folgt (y, x) R; (symmetrisch)
(iii) aus (x, y) R und (y, z) R folgt (x, z) R. (transitiv)
Ist klar welches R gemeint ist, so schreibt man k urzer x y an Stelle von (x, y) R. Zu
jedem x X heisst
[x]
R
:={y X : x y}
die

Aquivalenzklasse [equivalence class] von x (bez uglich R). Die Menge der

Aquivalenz-
klassen wird mit
X/R :={[x]
R
: x X}
bezeichnet.

Aquivalenzrelationen und -klassen erlauben es, eine gegebene Menge X in ge-
wissermassen gleichgesinnte Elemente zu partitionieren.
Lemma 2.34 F ur eine Menge X = 0 und eine

Aquivalenzrelation R auf X gelten:
(i) X =
_
xX
[x]
R
;
(ii) [x]
R
= / 0 f ur alle x X;
(iii) [x]
R
[y]
R
= / 0 x y [x]
R
= [y]
R
.
BEWEIS: Aufgrund von Reexivit at gilt x [x]
R
. Dies zeigt (i) und (ii).
Sei z [x]
R
[y]
R
, d.h. z x und z y. Aufgrund von Symmetrie und Transitivit at folgt
daraus x y. Dies zeigt [x]
R
[y]
R
= / 0 x y. Sei nun x y und z [x]
R
, also z x.
Wieder aufgrund von Symmetrie und Transitivit at folgt daraus z y, also z [y]
R
. Dies
zeigt [x]
R
[y]
R
und analog zeigt man [y]
R
[x]
R
. Also haben wir x y [x]
R
= [y]
R
. Mit
der trivialen Implikation [x]
R
= [y]
R
[x]
R
[y]
R
= / 0 schliesst sich der Kreis und (iii) ist
bewiesen.
F ur uns sind im Moment (zum Gl uck) nur

Aquivalenzrelationen auf Z von Interesse.
Beispiel 2.5: Eine ganze Zahl hat bei Division durch 3 entweder den Rest 0, 1, oder 2. (Um
Missverst andnisse bei negativen Zahlen zu vermeiden: Subtrahiert man den Rest von der Zahl, so
ergibt sich ein Vielfaches von 3.) Betrachten wir die

Aquivalenzrelation: x y wenn x und y den
gleichen Rest bei Division durch 3 haben, so ergeben sich die folgenden

Aquivalenzklassen:
[0] ={. . . , 6, 3, 0, 3, 6, . . .},
[1] ={. . . , 5, 2, 1, 4, 7, . . .},
[2] ={. . . , 4, 1, 2, 5, 8, . . .}.

Wir wollen im Folgenden Beispiel 2.5 verallgemeinern. Sei p N fest gew ahlt. Dann
gibt es zu jedem x Z eindeutig bestimmte q, r Z mit
x = pq+r, 0 r q1. (2.11)
Dabei heisst r der Rest [remainder] von x bei der Division mit p. Mit Hilfe von 2.11
erkl aren wir auf Z eine Relation R
p
durch
(x, y) R
p
x und y haben bei der Division mit p den gleichen Rest.
2.6. Restklassenringe und -k orper Version 20. Juli 2011 47
Man sieht leicht ein, dass R
p

Aquivalenzrelation ist. Anstatt von (x, y) R
p
oder x y ist
die folgende Schreibweise ublicher:
x y mod p.
Aus x = pq
x
+r
x
und y = pq
y
+r
y
folgt xy = p(q
x
q
y
) +(r
x
r
y
) und damit haben wir
x y mod p x y pZ. (2.12)
Die zu R
p
geh origen

Aquivalenzklassen sind also
[x] ={y Z : x y pZ} ={x + pq : q Z} = x + pZ.
Die Menge aller Restklassen wird mit F
p
=Z/pZ bezeichnet.
10
Jede Restklasse geh ort zu
einem Rest, also
F
p
={[0], [1], [2], . . . , [p1]}.
Um algebraische Strukturen betrachten zu k onnen, ben otigen wir noch Verkn upfungen auf
F
p
. Verkn upfungen auf

Aquivalenzklassen deniert man am besten mittels Verkn upfun-
gen auf Repr asentanten; die Denition darf aber nicht von der Wahl der Repr asentanten
abh angen.
Denition 2.35 Sei R eine

Aquivalenzrelation auf X und : X X X eine Verkn upfung.
Dann heisst vertr aglich [compatible, class invariant ] mit R, wenn aus x x

und y y

stets (x y) (x

) folgt.
Satz 2.36 Sei die Relation R auf X vertr aglich mit : X X X. Ist (X, ) Halbgruppe,
so bildet auch X/R zusammen mit
[x]
R
[y]
R
= [x y]
R
(2.13)
eine Halbgruppe.
BEWEIS: Zun achst muss gezeigt werden, dass (2.13) tats achlich Sinn macht. Seien dazu
[x]
R
= [x

]
R
und [y]
R
= [y

]
R
. Nach Lemma 2.34 ist dies gleichbedeutend mit x x

und
y y

. Wegen Vertr aglichkeit folgt (x y) (x

) und damit [x y]
R
= [x

]
R
. Also
ist (2.13) unabh angig von der Wahl der Repr asentanten und bildet somit eine wohldenierte
Verkn upfung auf X/R. Die Assoziativit at von (X/R, ) folgt direkt aus der Assoziativit at
von (X/R, ).
Mit Hilfe von (2.13) l asst sich auf F
p
eine Addition und Multiplikation mittels der
entsprechenden Operationen auf Z erkl aren.
Korollar 2.37 Sei p N. Dann sind (F
p
, +) und (F
p
, ) Halbgruppen.
BEWEIS: Nach Satz 2.36 muss nur noch uberpr uft werden, dass Addition und Multipli-
kation mit mod p vertr aglich sind. Seien x x

mod p und y y

mod p. Wegen (2.12)


sind x x

pZ, y y

pZ und damit
xy x

= (x x

)y +x

(y y

) pZ xy x

.
10
Diese Bezeichnung stammt wohl vom englischen Wort eld f ur K orper, da wie wir im folgenden sehen
werden F
p
f ur bestimmte p Paradebeispiele f ur endliche K orper ergeben.
48 Version 20. Juli 2011 Kapitel 2. Algebraische Strukturen
Noch einfacher folgt die Vertr aglichkeit der Addition:
(x +y) (x

) = (x x

) +(y y

) (x +y) (x

+y

).
Beispiel 2.6: Im Folgenden die Verkn upfungstafeln f ur p = 2, 3, 4. Aus Bequemlichkeit lassen wir
die eckigen Klammern weg.
F
2
:
+ 0 1
0 0 1
1 1 0
0 1
0 0 0
1 0 1
F
3
:
+ 0 1 2
0 0 1 2
1 1 2 0
2 2 0 1
0 1 2
0 0 0 0
1 0 1 2
2 0 2 1
F
4
:
+ 0 1 2 3
0 0 1 2 3
1 1 2 3 0
2 2 3 0 1
3 3 0 1 2
0 1 2 3
0 0 0 0 0
1 0 1 2 3
2 0 2 0 2
3 0 3 2 1
Nach der Sudoku-Regel (Satz 2.11) sind (F
2
, +), (F
2
\{[0]}, ), (F
3
, +), (F
3
\{[0]}, ), (F
4
, +) Grup-
pen. (F
4
\{[0]}, ) ist keine Gruppe, z.B. ist das Element [2] nicht invertierbar.
Wegen
[x] +[x] = [0]
sind in (F
p
, +) f ur jedes p N alle Elemente invertierbar. Wir betrachten jetzt die Inver-
tierbarkeit in (F
p
, ). Sei [x] F
p
\{[0]}. Wir suchen y, q Z so dass
xy + pq = 1. (2.14)
Der gr osste gemeinsame Teiler ggT(x, p) teilt offenbar die linke Seite der Gleichung. Damit
folgt aus (2.14) dass ggT(x, p) = 1. Gilt umgekehrt ggT(x, p) = 1, so ndet man y, q Z,
die (2.14) mit Hilfe des erweiterten Euklidischen Algorithmus. Insgesamt erhalten wir:
Lemma 2.38 (F
p
\{[0]}, ) ist genau dann Gruppe wenn p Primzahl ist.
Da sich alle Ringeigenschaften von (Z, +, ) auf (F
p
, +, ) ubertragen, erhalten wir letzt-
endlich.
Korollar 2.39 (F
p
, +, ) ist kommutativer Ring mit Eins f ur alle p N. (F
p
, +, ) ist
K orper genau dann wenn p Primzahl ist.
Man nennt den K orper (F
p
, +, ) auch Primk orper.
In MATLAB wird Divison mit Rest mit dem Befehl mod durchgef uhrt. Die L osung der
Gleichung (2.14) kann mit [y,q] = gcd(x,p) berechnet werden.
Es lassen sich ohne weiteres Matrizen uber F
p
denieren. Bei der Matrixmultiplikation
(von Hand oder mit MATLAB) ist es oft bequemer, zun achst irgendwelche Repr asentanten
f ur die Matrixeintr age zu bestimmen, mit der normalen Addition und Multiplikation in Z.
2.6. Restklassenringe und -k orper Version 20. Juli 2011 49
Erst zum Schluss wird die Division mit Rest durchgef uhrt, um die Eintr age in den Bereich
0, . . . , p1 zu bringen.
Beispiel 2.7:
Seien A F
32
5
, B F
22
5
mit
A =
_
_
2 3
4 1
2 4
_
_
, B =
_
1 1
1 3
_
.
Dann ist
C = AB =
_
_
0 1
0 2
1 4
_
_
In MATLAB gibt es keine dedizierten Befehle oder Daten-
strukturen um mit Matrizen uber Primk orpern zu arbei-
ten. Die Matrixmultiplikation l asst sich dennoch einfach
durchf uhren:
>> A = [ 2 3; 4 1; 2 4];
>> B = [ 1 1; 1 3 ];
>> mod( A
*
B, 5 ),
ans =
0 1
0 2
1 4

50 Version 20. Juli 2011 Kapitel 2. Algebraische Strukturen


Kapitel 3
Die Treppennormalform
Im folgenden sei (K, +, ) K orper; insbesondere denken wir an K =R, K =C oder K =F
2
.
Ein grundlegende und immer wiederkehrende Idee in der Linearen Algebra ist die Trans-
formation (oder Reduktion) einer gegebenen Matrix A K
mn
auf eine Matrix

A K
mn
von einfacherer Form (z.B. Diagonalmatrix, obere Dreiecksmatrix, . . .). F ur

AK
mn
kann
dann der Nachweis gewisser Eigenschaften oft erheblicher einfacher durchgef uhrt werden.
Im Folgenden werden wir als erstes Beispiel

Aquivalenztransformationen kennenlernen,
die sich u.a. zum Nachweis der Invertierbarkeit und zur L osung von linearen Gleichungsy-
stemen eignen.
3.1 Elementarmatrizen
Die oben erw ahnten Transformationen setzen sich aus den folgenden drei Formen von Ele-
mentarmatrizen zusammen.
Elementarmatrix I: P
i j
. Zu einer gegebenen Permutation S
n
wird eine nn-Matrix
wie folgt konstruiert:
P

=
_
_
_
_
_
_
e
T
(1)
e
T
(2)
.
.
.
e
T
(n)
_
_
_
_
_
_
, (3.1)
wobei e
i
der i-te Einheitsvektor der L ange n ist. (e
i
hat als i-ten Eintrag Eins und sonst nur
Nullen). Eine Matrix der Form (3.1) heisst Permutationsmatrix.
Beispiel 3.1: Die zu
=
_
1 2 3 4
1 4 2 3
_
geh orige Permutationsmatrix ist
P

=
_
_
_
_
1 0 0 0
0 0 0 1
0 1 0 0
0 0 1 0
_
_
_
_
.
Permutationsmatrizen in MATLAB:
>> sigma = [ 1 4 2 3 ];
>> P = eye(4); P = P(sigma,:)
P =
1 0 0 0
0 0 0 1
0 1 0 0
0 0 1 0

51
52 Version 20. Juli 2011 Kapitel 3. Die Treppennormalform
Lemma 3.1 Eine nn-Matrix ist genau dann Permutationsmatrix wenn sie in jeder Zeile
und Spalte genau eine Eins und sonst nur Nullen hat.
BEWEIS:

Ubung.
Die Matrix-Vektor-Multiplikation mit Permutationsmatrizen bewirkt die entsprechende
Permutation der Eintr age des Vektors:
P

v =
_
_
_
e
T
(1)
.
.
.
e
T
(n)
_
_
_
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
=
_
_
_
_
_
v
(1)
v
(2)
.
.
.
v
(n)
_
_
_
_
_
.
Setzen wir v := P

v; es gilt also v
i
= v
(i)
f ur i = 1, . . . , n.
Wenn wir mit einer weiteren Permutationsmatrix P

multiplizieren, so erhalten wir


P

v = P

v =
_
_
_
_
_
v
(1)
v
(2)
.
.
.
v
(n)
_
_
_
_
_
=
_
_
_
_
_
v
((1))
v
((2))
.
.
.
v
((n))
_
_
_
_
_
= P

v.
Da v beliebig ist, muss
P

= P

(3.2)
gelten. Man beachte die umgekehrte Reihenfolge von und !
Betrachten wir f ur eine gegebene Permutation S
n
die inverse Abbildung
1
S
n
,
so gilt wegen (3.2)

1
= id =
_
1 2 n
1 2 n
_
P

1 = P

= P
id
= I
n
.
Auf der anderen Seite gilt
P

P
T

=
_
_
_
e
T
(1)
.
.
.
e
T
(n)
_
_
_
_
e
(1)
e
(n)
_
=
_
_
_
e
T
(1)
e
(1)
e
T
(1)
e
(n)
.
.
.
.
.
.
e
T
(n)
e
(1)
e
T
(n)
e
(n)
_
_
_= I
n
.
Wegen der Eindeutigkeit der Inversen (siehe S atze 1.19 und 1.20) erhalten wir
P
1

= P

1 = P
T

. (3.3)
Satz 3.2 Die nn-Permutationsmatrizen bilden zusammen mit der Matrixmultiplikation
eine Untergruppe von Gl(n).
BEWEIS: Aus (3.2) folgt Abgeschlossenheit und wegen (3.3) ist die Inverse einer Permu-
tationsmatrix auch wieder Permutationsmatrix. Damit folgt die Aussage, siehe Bemerkun-
gen nach Denition 2.12.
3.1. Elementarmatrizen Version 20. Juli 2011 53
Denition 3.3 Eine Transposition [transposition] ist eine Permutation, die genau zwei
Elemente vertauscht:
=
_
1 i 1 i i +1 j 1 j j +1 n
1 i 1 j i +1 j 1 i j +1 n
_
, 1 i < j n.
Die zugeh orige Permutationsmatrix wird mit P
i j
bezeichnet.
Jede Permutation l asst sich als Verkettung von (maximal n1) Transpositionen darstellen;
dies werden wir in Kapitel 6 noch ausf uhrlicher behandeln. Multipliziert man P
i j
von links
mit einer Matrix so werden die Zeilen i und j dieser Matrix vertauscht. Multipliziert man
P
i j
von rechts mit einer Matrix so werden die Spalten i und j dieser Matrix vertauscht.
Beispiel 3.2:
A =
_
_
1 2 3
4 5 6
7 8 9
_
_
P
13
A =
_
_
7 8 9
4 5 6
1 2 3
_
_
, AP
13
=
_
_
3 2 1
6 5 4
9 8 7
_
_
.

Man uberzeugt sich leicht, dass P


i j
symmetrisch ist, es gilt also nach (3.3),
P
i j
= P
T
i j
= P
1
i j
.
Elementarmatrix II: M
i
(). F ur K denieren wir die nn-Diagonalmatrix
M
i
() = diag (1, . . . , 1
. .
i1 Mal
, , 1, . . . , 1
. .
ni Mal
)
Multipliziert man M
i
() von links an eine Matrix so werden die Eintr age in der i-ten Zeile
dieser Matrix mit multipliziert.
Beispiel 3.3:
A =
_
_
1 2 3
4 5 6
7 8 9
_
_
M
2
(3)A =
_
_
1 2 3
12 15 18
7 8 9
_
_

Aus der bekannten Regel f ur die Invertierung von Diagonalmatrizen (siehe Beispiel 1.17)
folgt, dass M
i
() f ur = 0 invertierbar ist, mit
M
i
()
1
= M
i
(
1
).
Elementarmatrix III: G
i j
(). F ur n 2 und K, 1 i < j n, denieren wir die
nn-Matrix
G
i j
() = I
n
+e
j
e
T
i
=
_
_
_
_
_
i

1
.
.
.
j
.
.
.
1
_
_
_
_
_
.
54 Version 20. Juli 2011 Kapitel 3. Die Treppennormalform
Multiplikation von G
i j
() mit einer np-Matrix A ergibt
G
i j
()A = (I
n
+e
j
e
T
i
)A = A+e
j
e
T
i
A = A+
_
_
0 0
j a
i1
a
ip
0 0
_
_
.
Zu der j-ten Zeile wird also das -Fache der i-ten Zeile hinzuaddiert. Analog wird bei der
Multiplikation von G
i j
()
T
das -Fache der j-ten Zeile auf die i-te Zeile addiert:
G
i j
()
T
A = (I
n
+e
i
e
T
j
)A = A+e
i
e
T
j
A.
Beispiel 3.4:
A =
_
_
1 2 3
4 5 6
7 8 9
_
_
G
13
(2)A =
_
_
1 2 3
4 5 6
5 4 3
_
_
, G
13
(2)
T
A =
_
_
13 14 15
4 5 6
7 8 9
_
_
.

Lemma 3.4 G
i j
()
1
= G
i j
().
BEWEIS:
G
i j
()G
i j
() = (I
n
+e
j
e
T
i
)(I
n
e
j
e
T
i
)
= I
n
+e
j
e
T
i
e
j
e
T
i

2
e
j
e
T
i
e
j
..
=0
e
T
i
= I
n
.
3.2 Konstruktion der Treppennormalform
Zu einer gegebenen Matrix A K
mn
wollen wir nun eine invertierbare Matrix B K
mm
konstruieren, so dass BA so einfach wie m oglich aussieht. Die Konstruktion beruht auf
dem Gauschen Algorithmus, welcher vielleicht bereits aus der Schule zur L osung von
linearen Gleichungssystemen eingesetzt wurde. Im Unterschied zur ublichen Herleitung
werden wir aber die einzelnen Zeilenumformungen des Gauschen Algorithmus durch die
Multiplikation mit Elementarmatrizen ausdr ucken:
I. P
i j
Vertauschen der Zeilen i und j.
II. M
i
() Multiplikation der i-ten Zeile mit .
III. G
i j
() Addition des -Fachen der i-ten Zeile auf die j-te Zeile.
Die Matrix B wird als Matrixprodukt dieser Elementarmatrizen konstruiert werden.
Denition 3.5 Eine Matrix C K
mn
ist in Treppennormalform (TNF) (auch: Zeilenstu-
fenform, [staircase form] [(reduced) row echelon form]) wenn sie in der Form
C =
_
_
_
_
_
_
_
_
_
_
1 0 0 0
0 1 0 : :
0 1 : :
0
.
.
.
0
0 1
0
_
_
_
_
_
_
_
_
_
_
(3.4)
3.2. Konstruktion der Treppennormalform Version 20. Juli 2011 55
ist. Hierbei ist Platzhalter f ur beliebige Eintr age in C.
Formal l asst sich die Form (3.4) wie folgt ausdr ucken: Es gibt nat urliche Zahlen j
1
, . . . , j
r

N mit 1 j
1
< < j
r
n und 1 r min{m, n}, so dass
c
i j
= 0 f ur 0 < i m und 0 < j < j
1
;
c
i j
= 0 f ur k < i m und j
k
j < j
k+1
, mit k = 1, . . . , r;
c
i j
k
= 0 f ur 1 i < j
k
und c
k j
k
= 1, mit k = 1, . . . , r.
Beispiel 3.5: Die Matrix
C =
_
_
_
_
_
_
0 1 0 3 0 5 0
0 0 1 2 0 2 4
0 0 0 0 1 3 7
0 0 0 0 0 0 0
0 0 0 0 0 0 0
_
_
_
_
_
_
ist in TNF mit r = 3 und j
1
= 2, j
2
= 3, j
3
= 5.
Satz 3.6 Sei A K
mn
. Dann gibt es eine invertierbare Matrix B K
mm
, so dass B
Produkt von Elementarmatrizen ist und C := BA in Treppennormalform (3.4) ist. F ur m =
n ist A invertierbar genau dann wenn C = I
n
gilt. In diesem Fall ist A
1
= B.
BEWEIS: F ur A = 0 gilt die Aussage mit B = I
m
trivialerweise. Sei nun A = 0 und j
1
der
Index der ersten Spalte von A, die nicht aus lauter Nullen besteht. Bezeichne a
i
1
, j
1
das erste
Nichtnullelement dieser Spalte; A
(1)
:= A hat also die Form
A
(1)
=
_
_
_
_
_
_
j
1

0 0
i
1
0 a
(1)
i
1
, j
1

0
_
_
_
_
_
_
.
Durch Vertauschen bringen wir das sogenannte Pivotelement a
(1)
i
1
, j
1
in die erste Zeile und
dividieren diese durch a
(1)
i
1
, j
1
:

A
(1)
:= M
1
_
1/a
(1)
i
1
, j
1
_
P
1,i
1
A
(1)
=
_
_
_
_
_
_
0 1
0 a
(1)
2, j
1

.
.
.
.
.
.
.
.
.
0 a
(1)
m, j
1

_
_
_
_
_
_
.
Jetzt entledigen wir uns der Eintr age unterhalb der Eins indem passende Vielfache der
ersten Zeile auf die anderen Zeilen hinzuaddiert werden:
A
(2)
:= G
1,m
_
a
(1)
m, j
1
_
G
1,2
_
a
(1)
2, j
1
_

A
(1)
=
_
_
_
_
_
0 1
0 0
.
.
.
.
.
.

A
(2)
0 0
_
_
_
_
_
.
56 Version 20. Juli 2011 Kapitel 3. Die Treppennormalform
Alle bisher durchgef uhrten Transformationen werden in der (invertierbaren) Matrix
B
1
= G
1,m
_
a
(1)
m, j
1
_
G
1,2
_
a
(1)
2, j
1
_
M
1
_
1/a
(1)
i
1
, j
1
_
P
1,i
1
A
(1)
gesammelt.
Ist

A
(2)
= 0 so wird der eben beschriebene Prozess auf

A
(2)
angewandt. Bezeichnet j
2
den Index der ersten von Null verschiedenen Spalte innerhalb von

A
(2)
und i
2
2 den Index
des ersten Nichtnulleintrags in dieser Spalte, so gilt
M
2
_
1/a
(2)
i
2
, j
2
_
P
2,i
2
A
(2)
=
_
_
_
_
_
_
_
_
0 1
0 0 0 1
a
(2)
3, j
2
0 0 0
.
.
.
a
(2)
m, j
2
_
_
_
_
_
_
_
_
.
Hierbei wurde ausgenutzt, dass die angewandten Transformationen die erste Zeile nicht
ver andern. Die st orenden Nichtnulleintr age unterhalb der 1 verschwinden wieder durch
Addition passender Vielfache der zweiten Zeile auf die Zeilen 3, . . . , m. Setzen wir also
B
2
= G
1,m
_
a
(2)
m, j
2
_
G
1,3
_
a
(2)
3, j
2
_
M
2
_
1/a
(2)
i
2
, j
2
_
P
2,i
2
,
so ergibt sich insgesamt
A
(3)
:= B
2
B
1
A =
_
_
0 1
0 0 0 1
0 0 0 0

A
(3)
_
_
.
Der Prozess wird jetzt auf

A
(3)
angewandt, danach wieder auf die verbleibende Unter-
matrix, usw. Dies wird solange wiederholt bis die verbleibende Untermatrix Null ist oder
verschwindet. Nach insgesamt r min{m, n} Schritten ergibt sich
A
(r)
:= B
r
B
2
B
1
A =
_
_
_
_
_
_
_
_
_
_
1
0 1 : :
0 1 : :
0
.
.
.

0 1
0
_
_
_
_
_
_
_
_
_
_
. (3.5)
Per Konstruktion stehen die Einsen an den Stellen
(1, j
1
), (2, j
2
), . . . , (r, j
r
). (3.6)
Im Vergleich zur TNF (3.4) st oren uns in (3.5) noch die Eintr age oberhalb der Einsen
wenn r > 1. Um diese wegzukriegen, setzen wir C
(r)
:= A
(r)
und denieren rekursiv f ur
k = r, r 1, . . . , 2:
C
(k1)
:=

B
k
C
(k)
,
mit

B
k
:=
_
G
1,k
(c
(k)
1, j
k
)
_
T
_
G
2,k
(c
(k)
2, j
k
)
_
T

_
G
k1,k
(c
(k)
k1, j
k
)
_
T
.
3.2. Konstruktion der Treppennormalform Version 20. Juli 2011 57
Am Schluss erhalten wir, dass C :=C
(1)
in TNF ist. Dies zeigt den ersten Teil der Aussage
mit der invertierbaren Matrix
B :=

B
2


B
r
B
r
B
1
.
Sei nun m = n und C = BA in TNF. Ist A invertierbar, so ist C als Produkt von inver-
tierbaren Matrizen auch invertierbar. Eine invertierbare Matrix darf aber keine Nullspalten
oder Nullzeilen haben
11
, also muss C = I
n
gelten. Ist andererseits C = I
n
, so gilt A = B
1
und damit ist A nat urlich invertierbar.
Beispiel 3.6: Betrachte
A =
_
_
0 2 1 3
0 2 0 1
0 2 0 2
_
_
Q
34
.
Wir wenden die Transformation wie im Beweise von Satz 3.6 an:
B
1
:
M
1
(1/2)

_
_
0 1 1/2 3/2
0 2 0 1
0 2 0 2
_
_
G
12
(2)
G
13
(2)

_
_
0 1 1/2 3/2
0 0 1 2
0 0 1 1
_
_
B
2
:
M
2
(1)

_
_
0 1 1/2 3/2
0 0 1 2
0 0 1 1
_
_
G
23
(1)

_
_
0 1 1/2 3/2
0 0 1 2
0 0 0 1
_
_

B
3
:
G
23
(2)
T
G
13
(3/2)
T

_
_
0 1 1/2 0
0 0 1 0
0 0 0 1
_
_

B
2
:
G
12
(1/2)
T

_
_
0 1 0 0
0 0 1 0
0 0 0 1
_
_
=C.
Die Transformationsmatrix B ergibt sich aus dem Produkt der Elementarmatrizen:
B =

B
2

B
3
B
2
B
1
= G
12
(1/2)
T
G
13
(3/2)
T
G
23
(2)
T
G
23
(1)M
2
(1)G
13
(2)G
12
(2)M
1
(1/2)
=
_
_
0 1 1/2
1 1 2
0 1 1
_
_
.
Man uberzeugt sich leicht, dass tats achlich BA =C gilt.
Die Positionen (1, j
1
), (2, j
2
), . . . , (r, j
r
) der Einsen in der TNF (siehe (3.6)) werden
als Pivotpositionen bezeichnet.
Aus Satz 3.6 folgt nun (endlich!) der nichttriviale Teil der Aussage von Satz 1.20.
Korollar 3.7 Sei A K
nn
.
(i) Gibt es X K
nn
mit AX = I
n
, so ist A invertierbar.
(ii) Gibt es X K
nn
mit XA = I
n
, so ist A invertierbar.
BEWEIS: (i) Seien AX = I
n
und C = BA in TNF mit B invertierbar gem ass Satz 3.6. Dann
folgt BAX = CX = B. W are A nicht invertierbar, dann w are C = I
n
und insbesondere die
letzte Zeile von C Nullzeile. Demzufolge w are auch die letzte Zeile von B = CX eine
Nullzeile. Dies ist aber ein Widerspruch, da B invertierbar ist.
(ii) folgt aus (i) denn aus XA = I
n
folgt A
T
X
T
= I und A ist genau dann invertierbar
wenn A
T
invertierbar ist.
11
Beweis

Ubung.
58 Version 20. Juli 2011 Kapitel 3. Die Treppennormalform
3.3

Aquivalenz von Matrizen und Rang einer Matrix
In der TNF wurden nur Zeilentransformationen (Transformationsmatrizen von links) ver-
wendet. Es stellt sich die naheliegende Frage inwiefern sich die Form weiter vereinfacht
wenn auch Spaltentransformationen (Transformationsmatrizen von rechts) erlaubt sind.
Denition 3.8 Zwei Matrizen A, B K
mn
sind aquivalent zueinander, wenn es invertier-
bare Matrizen Q K
mm
und Z K
nn
mit A = QBZ gibt.
Man sieht leicht, dass

Aquivalenz von Matrizen eine

Aquivalenzrelation auf K
mn
erzeugt.
Reexivit at: A ist aquivalent zu sich selbst, mit Q = I
m
, Z = I
n
.
Symmetrie: Aus A = QBZ folgt B = Q
1
AZ
1
.
Transitivit at: Aus A = Q
1
BZ
1
und B = Q
2
CZ
2
folgt A = (Q
1
Q
2
)C(Z
2
Z
1
).
Die zu A geh orige

Aquivalenzklasse ist
[A] =
_
QAZ : Q K
mm
, Z K
nn
invertierbar
_
.
Satz 3.9 (i) Sei A K
mn
mit TNF (3.4) gem ass Satz 3.6. Dann ist A aquivalent zu
_
I
r
0
0 0
_
,
wobei r die Anzahl der Pivotpositionen in der TNF ist.
(ii) Zwei Matrizen
_
I
r
0
0 0
_
K
mn
und
_
I
s
0
0 0
_
K
mn
sind genau dann aqui-
valent, wenn r = s.
BEWEIS: (i). Wegen Satz 3.6 gibt es eine invertierbare Matrix Q so dass C = QA in TNF
ist. Deniere eine Permutation der Form
=
_
1 2 r r +1 n
j
1
j
2
j
r

_
. (3.7)
Die entsprechende Permutationsmatrix P

sortiert die Spalten von A mit den Pivotelemen-


ten nach vorn
12
:
AP
T

=
_
I
r

0 0
_
=:
_
I
r
X
0 0
_
.
Die Matrix Z
0
=
_
I
r
X
0 I
nr
_
ist invertierbar, mit der Inversen Z
1
0
=
_
I
r
X
0 I
nr
_
. Wir
erhalten
QAP
T

Z
0
=
_
I
r
X
0 0
__
I
r
X
0 0
_
=
_
I
r
0
0 0
_
.
Mit Z = P
T

Z
0
folgt die Behauptung von Teil (i).
12
Um sich dies klar zu machen, hilft es die Transponierte (AP
T

)
T
= P

A
T
zu betrachten.
3.3.

Aquivalenz von Matrizen und Rang einer Matrix Version 20. Juli 2011 59
(ii). Es ist klar, dass die beiden Matrizen f ur s = r aquivalent sind. F ur die andere Rich-
tung erfolgt der Beweis per Widerspruch. Sei r = s, o.B.d.A sei r < s, und nehmen wir an
es gibt invertierbare Matrizen Q, Z mit
_
_
I
r
0 0
0 I
sr
0
0 0 0
_
_
=
_
_
Q
11
Q
12
Q
13
Q
21
Q
22
Q
23
Q
31
Q
32
Q
33
_
_
_
_
I
r
0 0
0 0 0
0 0 0
_
_
_
_
Z
11
Z
12
Z
13
Z
21
Z
22
Z
23
Z
31
Z
32
Z
33
_
_
=
_
_
Q
11
Z
11
Q
11
Z
12
Q
11
Z
13
Q
21
Z
11
Q
21
Z
12
Q
21
Z
13
Q
31
Z
11
Q
31
Z
12
Q
31
Z
13
_
_
,
wobei Q und Z entsprechend partitioniert wurden. Insbesondere folgt daraus die Beziehung
Q
11
Z
11
= I
r
und damit nach Korollar 3.7 die Invertierbarkeit von Q
11
. Multiplizieren wir
nun Q
1
11
von links auf die Beziehung Q
11
Z
12
= 0, so folgt Z
12
= 0. Dies steht aber im
Widerspruch zu der Beziehung Q
21
Z
12
= I
sr
.
Bemerkung 3.10 In der Sprache der

Aquivalenzklassen bedeutet Satz 3.9:
K
mn
=
min{m,n}
_
r=0
__
I
r
0
0 0
__
mit
__
I
r
0
0 0
__

__
I
s
0
0 0
__
= / 0 f ur r = s.
Als Nebenprodukt von Satz 3.9 erhalten wir ausserdem, dass jede TNF einer Matrix die
gleiche Anzahl r der Pivotpositionen hat.
13
Korollar 3.11 Seien A K
mn
und Q
1
, Q
2
K
mm
invertierbare Matrizen, so dass Q
1
A
und Q
2
A beide in TNF sind. Dann ist die Anzahl der Pivotpositionen in Q
1
A und Q
2
A
gleich.
BEWEIS: Nach Satz 3.9 (i) sind Q
1
A bzw. Q
2
A jeweils aquivalent zu E
1
=
_
I
r
1
0
0 0
_
bzw. E
2
=
_
I
r
2
0
0 0
_
. Da Q
1
A und Q
2
A selbst zueinander aquivalent sind, folgt aus Tran-
sitivit at dass auch E
1
und E
2
zueinander aquivalent sind. Also folgt wegen Satz 3.9 (ii)
r
1
= r
2
.
Denition 3.12 Die Anzahl r der Pivotpositionen einer Matrix A K
mn
wird als Rang
[rank] von A bezeichnet. Wir schreiben r = Rang(A).
Der n achste Satz enth alt zwei grundlegende Eigenschaften des Rangs.
Satz 3.13 F ur A K
mn
gelten die folgenden Aussagen:
(i) Sind Q K
mm
und Z K
nn
invertierbar, so gilt
Rang(QAZ) = Rang(A).
13
Man kann sogar zeigen, dass die gesamte TNF einer gegebenen Matrix A eindeutig bestimmt ist. Der Beweis
ist aber etwas technisch und wird im folgenden nicht ben otigt.
60 Version 20. Juli 2011 Kapitel 3. Die Treppennormalform
(ii) Ist A = BC mit B K
ms
,C K
sn
, so gilt
Rang(A) Rang(B), Rang(A) Rang(C).
(iii) Rang(A
T
) = Rang(A).
BEWEIS: (i). Aus Satz 3.9 folgt direkt, dass zueinander aquivalente Matrizen den gleichen
Rang haben.
(iii). Nach Satz 3.9 (i) gibt es invertierbare Matrizen Q, Z mit QAZ =
_
I
r
0
0 0
_
. Durch
Transponieren erh alt man
Z
T
A
T
Q
T
=
_
I
r
0
0 0
_
.
Der Rang der Matrix auf der rechten Seite ist offenbar r = Rang(A) und nach (i) hat damit
auch A
T
Rang r.
(ii) Wir beweisen zun achst Rang(A) Rang(B). Sei Q invertierbare Matrix mit QB
in TNF. Dann sind die letzten mRang(B) Zeilen von QB und damit auch die letzten
mRang(B) Zeilen von QA = QBC Nullzeilen. Eine Matrix mit mRang(B) Nullzeilen
kann aber nicht mehr als Rang(B) Pivotelemente haben. Zusammen mit (i) ergibt sich die
Behauptung: Rang(A) = Rang(QA) Rang(B).
Die Aussage Rang(A) Rang(C) folgt nach Transponieren, A
T
= C
T
B
T
, zusammen
mit (iii) aus der ersten Ungleichung: Rang(A) =Rang(A
T
) Rang(C
T
) =Rang(C).
3.4 Anwendung auf lineare Gleichungssysteme
Die TNF und der Rang einer Matrix eignen sich vorz uglich, umdie L osbarkeit und L osungs-
mengen von linearen Gleichungssystemen (LGS) zu charakterisieren. Im folgenden be-
trachten wir ein LGS uber (K, +, ) mit m Gleichungen in n Unbekannten:
a
11
x
1
+ + a
1n
x
n
= b
1
,
a
21
x
1
+ + a
2n
x
n
= b
2
,
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ + a
mn
x
n
= b
m
.
Wie gehabt, deniert man A K
mn
und b K
m1
mit den Eintr agen a
i j
bzw. b
i
und erh alt
die kompakte Schreibweise f ur das LGS:
Ax = b. (3.8)
Ist b = 0, so bezeichnet man das LGS (3.8) als homogen [homogeneous] und anderen-
falls als inhomogen [inhomogeneous]. Jedes x K
n
, dass (3.8) erf ullt, wird als L osung
[solution] des LGS bezeichnet. Die Menge aller L osungen bildet die L osungsmenge
L(A, b) =
_
x K
n
: Ax = b
_
.
Das folgende Lemma liefert eine n utzliche Charakterisierung von L osungsmengen.
Lemma 3.14 Sei A K
mn
, b K
n
und x
p
L(A, b). Dann gilt
L(A, b) = x
p
+L(A, 0) :=
_
x
p
+x
h
: x
h
L(A, 0)
_
.
3.4. Anwendung auf lineare Gleichungssysteme Version 20. Juli 2011 61
BEWEIS: (a) x
p
+L(A, 0) L(A, b): Sei x
h
L(A, 0), also x
p
+x
h
x
p
+L(A, 0). Dann
folgt
A(x
p
+x
h
) = Ax
p
+Ax
h
= b+0 x
p
+x
h
L(A, b).
(b) L(A, b) x
p
+L(A, 0): F ur x L(A, b) folgt
A(x x
p
) = Ax Ax
b
= bb = 0 x x
p
L(A, 0),
also x = x
p
+(x x
p
) x
p
+L(A, 0).
In Worten sagt Lemma 3.14 folgendes aus: Um die L osungsmenge eines inhomogenen
LGS zu bestimmen, addiert man zu (irgendeiner) partikul aren L osung die L osungsmenge
des entsprechenden homogenen LGS.
Sei Q K
mm
invertierbar. Durch Multiplikation mit Q bzw. Q
1
erhalten wir
Ax = b QAx = Qb,
also
L(A, b) = L(QA, Qb). (3.9)
Wir k onnen insbesondere A durch QA in TNF ersetzen ohne dass sich die L osungsmenge
andert:
_
_
_
_
_
_
_
_
_
_
1 0 0 0
0 1 0 : :
0 1 : :
0
.
.
.
0
0 1
0
_
_
_
_
_
_
_
_
_
_
x =

b,
mit

b = Qb. Diese Form des LGS ist noch ein wenig unbequem und wir konstruieren eine
Permutationsmatrix P wie im Beweis von Satz 3.9 (siehe inbesondere (3.7)), so dass

A := QAP
T
=
_
I
r

A
12
0 0
_
Ersetzt man A durch

A so andert sich die L osungsmenge:
Ax = b QAP
T
Px = Qb

A x =

b,
wobei x = Px. Allerdings lassen sich die L osungen von Ax = b und

A x =

b durch Vertau-
schen der Eintr age einfach ineinander uberf uhren. Durch enstsprechendes Partitionieren
von x und

b l asst sich

A x =

b wie folgt schreiben:
_
I
r

A
12
0 0
__
x
1
x
2
_
=
_

b
1

b
2
_
, x
1
K
r
, x
2
K
nr
,

b
1
K
r
,

b
2
K
mr
. (3.10)
Der untere Teil der Gleichung 0 = 0 x
2
=

b
2
ist offenbar nicht l osbar wenn

b
2
= 0 gilt.
Nimmt man andererseits

b
2
= 0 an, so sieht man sofort, dass
x
p
=
_

b
1
0
_
L(

A,

b) = / 0. (3.11)
Also ist

A x =

b genau dann l osbar wenn

b
2
= 0 gilt. Diese Forderung l asst sich noch ele-
ganter ausdr ucken.
62 Version 20. Juli 2011 Kapitel 3. Die Treppennormalform
Lemma 3.15 Sei A K
mn
und b K
m1
. Dann gilt L(A, b) = / 0 genau dann, wenn
Rang
__
A b
__
= Rang(A).
BEWEIS: Wir zeigen die Aussage zun achst f ur die reduzierte Gleichung (3.10):
_

A

b
_
=
_
I
r

A
12

b
1
0 0

b
2
_
.
Ist

b
2
= 0 dann ist der Rang dieser Matrix r = Rang(

A). Ist dagegen

b
2
= 0 so w urde die
Konstruktion der TNF einen weiteren Schritt durchf uhren und ein weiteres Pivotelement
produzieren, also ist dann der Rang r +1 = Rang(

A). Aufgrund der obigen

Uberlegungen
gilt aber

b
2
= 0 genau dann wenn L(A, b) = / 0. Damit gilt die Behauptung f ur (3.10).
F ur das urspr ungliche LGS Ax = b erh alt man die Aussage mittels Satz 3.13 (i):
Rang(A) = Rang(QA) = Rang(

A),
Rang
__
A b
__
= Rang
_
Q
_
A b
__
Rang
__

A

b
__
.
Die in Lemma 3.15 konstruierte Matrix
_
A b
_
K
m(n+1)
heisst erweiterte Koefzi-
entenmatrix.
Um die L osungsmenge von

A x =

b zu charakterisieren, verwenden wir Lemma 3.14.
Ein partikul are L osung x ist bereits in (3.11) angegeben. F ur den homogenen Fall setzen
wir

b
1
= 0 und erhalten
L(

A, 0) =
__
x
h1
x
h2
_
: x
h2
K
nr
, x
h1
=

A
12
x
h2
_
,
also
L(

A,

b) =
__

b
1


A
12
x
h2
x
h2
_
: x
h2
K
nr
_
.
Da x
h2
frei w ahlbar ist, gibt es genau eine L osung wenn n = r und mehr als eine L osung
wenn n > r gilt. Da L(A, b) = P
T
L(

A,

b), ubertr agt sich diese Aussage auf L osungen von


Ax = b.
Zusammenfassung: L osbarkeit des LGS Ax = b mit A K
mn
, b K
m1
:
1. Ist Rang
__
A b
__
> Rang(A), so gibt es keine L osung: L(A, b) = / 0.
2. Ist Rang
__
A b
__
= Rang(A) = n, so gibt es genau eine L osung.
3. Ist Rang
__
A b
__
= Rang(A) < n, so gibt es mehr als eine L osung.
Wieviele L osungen es im Fall 3 genau gibt, h angt vom K orper ab. Gibt es unendlich vie-
le Elemente im K orper K (z.B. Q, R, C), so gibt es auch unendlich viele L osungen. Wir
werden die Struktur von L osungsmengen noch genauer in einem allgemeineren Rahmen in
Kapitel 4 studieren.
Beispiel 3.7: Obige

Uberlegungen lassen sich auch ganz praktisch einsetzen, umdie L osungsmenge
eines LGS zu bestimmen. Dabei gibt es noch einen Trick, der viel Rechenarbeit spart. Um

b = Qb
zu bestimmen, muss die Transformationsmatrix Q, die A auf TNF bringt, nicht explizit ausgerechnet
werden. Stattdessen wendet man die einzelnen Transformationen w ahrend der Reduktion auf TNF
3.5. Die LR-Zerlegung Version 20. Juli 2011 63
gleichzeitig auf b an. Seien z.B. K =Q und
A =
_
_
_
_
0 2 1 3
0 2 0 1
0 2 0 2
0 2 0 1
_
_
_
_
, b =
_
_
_
_
2
3
2
3
_
_
_
_
Die TNF erhalten wir ahnlich wie in Beispiel 3.6:
_
A b
_

_
_
_
_
0 1 1/2 3/2 1
0 0 1 2 1
0 0 1 1 0
0 0 1 2 1
_
_
_
_

_
_
_
_
0 1 1/2 3/2 1
0 0 1 2 1
0 0 0 1 1
0 0 0 0 0
_
_
_
_

_
_
_
_
0 1 1/2 0 5/2
0 0 1 0 1
0 0 0 1 1
0 0 0 0 0
_
_
_
_

_
_
_
_
0 1 0 0 2
0 0 1 0 1
0 0 0 1 1
0 0 0 0 0
_
_
_
_
=
_
QA Qb
_
.
Zum Schluss m ussen noch die Spalten richtig sortiert werden:
P =
_
_
_
_
0 1 0 0
0 0 1 0
0 0 0 1
1 0 0 0
_
_
_
_

_

A

b
_
=
_
QAP
T
Qb
_
=
_
_
_
_
1 0 0 0 2
0 1 0 0 1
0 0 1 0 1
0 0 0 0 0
_
_
_
_
.
Schlussendlich ergibt sich
L(

A,

b) =
_

_
_
_
_
_
2
1
1
x
4
_
_
_
_
: x
4
Q
_

_
L(A, b) =
_

_
_
_
_
_
x
1
2
1
1
_
_
_
_
: x
1
Q
_

_
.

3.5 Die LR-Zerlegung


Die TNF in einer Matrix ist f ur theoretische Zwecke hervorragend geeignet und wird uns
im Verlauf der Vorlesung noch weitere wertvolle Dienste leisten. In der Praxis, d.h. in
numerischen Algorithmen, wird sie hingegen kaum eingesetzt, um z.B. den Rang einer
Matrix zu bestimmen oder die L osung eines LGS zu berechnen. ZumEinen liegt dies daran,
dass die Entscheidung, ob gewisse Eintr age Null oder nicht Null sind, numerisch wenig
sinnvoll ist: Durch Rundungsfehler werden aus Berechnungen hervorgegangene Eintr age
faktisch nie Null, selbst wenn sie eigentlich theoretisch Null sein sollten. Zum Anderen ist
die Konstruktion im Beweis von Satz 3.6 numerisch instabil; dies wird in nahezu jedem
einf uhrenden Buch der numerischen Mathematik n aher erl autert.
In der Praxis verwendet man auf dem Gauschen Algorithmus beruhende Verfahren
daher oft nur wenn m = n und A K
nn
invertierbar ist. Davon wollen wir im folgen-
den ausgehen. Die sogenannte LR-Zerlegung [LU decomposition] erh alt man, indem die
Konstruktion im Beweis von Satz 3.6 nur zur H alfte durchgef uhrt wird, nicht durch die
Pivotelemente geteilt wird und die Elementarmatrizen geschickt zusammengefasst werden.
Satz 3.16 Sei A K
nn
invertierbar. Dann gibt es eine Permutationsmatrix P K
nn
, eine
untere Dreiecksmatrix L K
nn
(mit Einsen auf der Diagonalen) und eine obere Dreiecks-
matrix R K
nn
, so dass
PA = LR. (3.12)
64 Version 20. Juli 2011 Kapitel 3. Die Treppennormalform
BEWEIS: Wir geben lediglich eine Beweisskizze an; die Vorgehensweise ist dem ersten
Teil des Beweises von Satz 3.6 recht ahnlich. Sei A
(1)
:= A. Wegen Invertierbarkeit kann
die erste Spalte von A
(1)
nicht Null sein und somit gibt es i
1
mit a
(1)
i
1
,1
= 0.
14
Dann haben
wir

A
(1)
= P
1,i
1
A
(1)
=
_
_
_
_
_
_
a
(1)
11

a
(1)
21

.
.
.
.
.
.
a
(1)
n1

_
_
_
_
_
_
, a
(1)
11
= 0.
Setze
i1
= a
(1)
i1
/ a
(1)
11
f ur i = 2, . . . , n und
L
1
= G
1n
(
n1
) G
13
(
31
)G
12
(
21
) =
_
_
_
_
_
1

21
1
.
.
.
.
.
.

n1
1
_
_
_
_
_
.
Per Konstruktion gilt
A
(2)
:= L
1
P
1,i
1
A
(1)
=
_
a
(1)
11

0

A
(2)
_
.
Dieser Prozess wird f ur

A
(2)
rekursiv solange wiederholt bis man bei der letzten Spalte
ankommt. Am Ende steht die Zerlegung
L
n1
P
n1,i
n1
L
2
P
2,i
2
L
1
P
1,i
1
A =
_
_
_
_
_
_
_
a
(1)
11

a
(2)
22
.
.
.
.
.
.
.
.
.

a
(n)
nn
_
_
_
_
_
_
_
=: R. (3.13)
f ur gewisse i
k
mit i
k
k und
L
k
=
_
_
_
_
_
_
_
I
k1
1

k+1,k
.
.
.

n,k
I
nk
_
_
_
_
_
_
_
, k = 1, . . . , n1.
Uns st oren noch die Permutationsmatrizen zwischen den L-Faktoren. Gl ucklicherweise gilt
f ur j = 1, . . . , k 1
P
k, j
k
_
_
_
_
_
_
_
I
j1
1

j+1, j
.
.
.

n, j
I
nj
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
I
j1
1

j+1, j
.
.
.

n, j
I
nj
_
_
_
_
_
_
_
P
k, j
k
14
In der Numerik w ahlt man i
1
so, dass a
(1)
i
1
,1
der betragsgr osste Eintrag in der ersten Spalte ist. Dies vermeidet,
dass man mit potentiell sehr kleinen Eintr agen teilen muss, was zu sehr grossen Eintr agen in den Faktoren f uhren
kann und numerisch ung unstig ist.
3.5. Die LR-Zerlegung Version 20. Juli 2011 65
wobei

j+1, j
, . . . ,

n, j
einfach eine passende Permutation von
j+1, j
, . . . ,
n, j
ist. (Am besten
einmal am Beispiel uberlegen.) So kann man die Permutationsmatrizen in (3.13) sukzessive
durch die L-Faktoren nach rechts an A ranschieben und erh alt

L
n1

L
2

L
1
P
n1,i
n1
P
2,i
2
P
1,i
1
A = R, (3.14)
mit gewissen

L
k
=
_
_
_
_
_
_
_
I
k1
1

k+1,k
.
.
.

n,k
I
nk
_
_
_
_
_
_
_
.
Wir setzen nun P := P
n1,i
n1
P
2,i
2
P
1,i
1
und
L :=

L
1
1

L
1
2

L
1
n1
=
_
_
_
_
_
1

21
1
.
.
.
.
.
.
.
.
.

n1

n,n1
1
_
_
_
_
_
.
(Beweis der letzten Gleichheit durch Nachrechnen.) Dann folgt aus (3.14) die Behauptung.
Beispiel 3.8: Sei
A
(1)
= A =
_
_
2 2 4
5 6 7
3 2 1
_
_
Die beiden Schritt im Beweis von Satz 3.16 entsprechen
A
(2)
:=
_
_
2 2 4
0 1 3
0 5 5
_
_
= L
1
A
(1)
, mit L
1
=
_
_
1 0 0
5/2 1 0
3/2 0 1
_
_
.
A
(3)
:=
_
_
2 2 4
0 1 3
0 0 20
_
_
= L
2
A
(2)
, mit L
2
=
_
_
1 0 0
0 1 0
0 5 1
_
_
.
Insgesamt haben wir
A = LR, mit L = L
1
1
L
1
2
L
1
3
=
_
_
1 0 0
5/2 1 0
3/2 5 1
_
_
, R =
_
_
2 2 4
0 1 3
0 0 20
_
_
.

Mit einer LR-Zerlegung PA = LR kann die L osung eines LGS wesentlich vereinfacht
werden. Da P, L, R invertierbar sind, gilt
Ax = b PAx = Pb LRx = Pb x = R
1
L
1
Pb.
Dies rechtfertigt das folgende Vorgehen:
1. Berechne

b = Pb.
2. L ose das LGS Lc =

b. (Vorw artseinsetzen)
66 Version 20. Juli 2011 Kapitel 3. Die Treppennormalform
3. L ose das LGS Rx = c. (R uckw artseinsetzen)
LGS mit unteren (oder oberen) Dreiecksmatrizen lassen sich einfach l osen indem man
die Eintr age des L osungsvektors sukzessive von oben nach unten (von unten nach oben)
bestimmt.
Beispiel 3.9: Wir setzen Beispiel 3.8 fort und betrachten die L osung von Ax =b f ur b =
_
6, 7, 9
_
T
mit Hilfe der berechneten LR-Zerlegung A = LR.
Lc = b :
_
_
1 0 0
5/2 1 0
3/2 5 1
_
_
_
_
c
1
c
2
c
3
_
_
=
_
_
6
7
9
_
_
c =
_
_
6
8
40
_
_
,
Rx = c :
_
_
2 2 4
0 1 3
0 0 20
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
6
8
40
_
_
x =
_
_
2
2
1
_
_
.

Kapitel 4
Vektorr aume
In diesem Kapitel werden wir die grundlegende algebraische Struktur der linearen Algebra
behandeln: die Struktur eines Vektorraums.
4.1 Denitionen und Eigenschaften
Im folgenden ist K immer K orper mit der entsprechenden Addition und Multiplikation.
Denition 4.1 Ein Vektorraum (auch: linearer Raum) [vector space, linear space] uber
K ist eine Menge V mit zwei Verkn upfungen
+ : V V V, (v, w) v +w,
: KV V, (, v) v,
(4.1)
Addition und Skalarmultiplikation genannt, f ur die folgende Regeln erf ullt sind:
(1) v +w = w+v, v, w V. (Kommutativit at+)
(2) u+(v +w) = (u+v) +w, u, v, w V. (Assoziativit at+)
(3) Es gibt 0
V
V mit 0
V
+v = v f ur alle v V. (Nullelement in V)
(4) Zu jedem v V gibt es v V mit v +(v) = 0
V
. (Inverses+)
(5) ( v) = () v, , K, v V. (Kompatibilit at)
(6) 1 v = v, v V. (Neutralit at 1)
(7) ( +) v = ( v) +( v), , K, v V. (Distributivit at I)
(8) (v +w) = ( v) +( w), K, v, w V. (Distributivit at II)
Einige Bemerkungen:
In Denition 4.1 werden f ur die Addition/Multiplikation des K orpers die gleichen
Symbole +/ wie f ur die Addition/Multiplikation des Vektorraums verwendet. Wel-
che Verkn upfung gemeint ist ergibt sich aus dem Kontext. Bei der Skalarmultiplika-
tion spart schreibt man oft k urzer: v = v. Wegen der Kompatibilit at kann man die
67
68 Version 20. Juli 2011 Kapitel 4. Vektorr aume
Klammern bei wiederholter Skalarmultiplikation weglassen: v =(v) = ()v.
Mit der Vereinbarung, dass Skalarmultiplikation st arker bindet als Addition, erspart
man sich weitere Klammern: v +w = (v) +(w).
Wieder der Hinweis, dass die Abgeschlossenheit der beiden Verkn upfungen eine
wichtige Eigenschaft ist und in (4.1) versteckt ist.
(1)(4) geht auch k urzer: (V, +) ist kommutative Gruppe.
Wie gewohnt schreiben wir v w := v +(w).
Die Elemente eines Vektorraums werden als Vektoren bezeichnet.
15
Beispiele f ur Vektorr aume
Spaltenvektoren. Der Prototyp eines Vektorraums ist die Menge der Spaltenvektoren K
n1
mit der gew ohnlichen (Matrix-)Addition und skalaren Multiplikation. Wir werden
bald in Abschnitt 5.2 sehen, dass sich viele andere Vektorr aume auf diesen Vek-
torraum zur uckf uhren lassen.
Matrizen. Die Menge K
mn
der mn-Matrizen uber K mit der gew ohnlichen Matrixad-
dition und skalaren Multiplikation bildet einen Vektorraum.
Polynome. Ein Polynom uber K in einer Unbekannten t hat die Form
p =
0
+
1
t +
2
t
2
+ +
n
t
n
,
0
,
1
, . . . ,
n
K, (4.2)
siehe Seite 37. Der Grad [degree] eines Polynoms ist die gr osste Zahl k N
0
, f ur
die der Koefzient
k
nicht Null ist. Der Grad wird mit deg(p) bezeichnet. Per Ver-
einbarung hat das Nullpolynom p = 0 den Grad 0.
Wir betrachten nun die Menge der Polynome vom Grad h ochstens n:
K
n
[t] :=
_
p =
0
+
1
t + +
n
t
n
:
0
,
1
, . . . ,
n
K
_
, (4.3)
Es leicht einzusehen, dass K
n
[t] unter der ubliche Polynomaddition abgeschlossen
ist und eine kommutative Gruppe bildet. Als Skalarmultiplikation denieren wir f ur
p K
n
[t]:
p :=
0
+
1
t +
2
t
2
+ +
n
t
n
.
Die Regeln (5)(8) folgen sofort aus den entsprechenden Regeln, die im K orper K
gelten. Damit bildet (K
n
[t], +, ) einen Vektorraum uber K.
Auf der Menge der Polynome kann man also sowohl die Struktur eines Ringes (siehe
Seite 37) als auch die Struktur eines Vektorraums denieren. Man beachte, dass die
Addition in beiden F allen zwar gleich, die Multiplikation aber grundverschieden ist.
Zahlenfolgen. Seien v ={v
n
}

n=1
mit v
n
K und w ={w
n
}

n=1
mit w
n
K Zahlenfolgen.
Zusammen mit den Verkn upfungen
v +w :={v
n
+w
n
}

n=1
, v :={v
n
}

n=1
, K,
bildet die Menge aller Zahlenfolgen einen Vektorraum.
15
Nicht zu verwechseln mit den bereits kennengelernten Spaltenvektoren und Zeilenvektoren, die lediglich
einen Spezialfall darstellen.
4.1. Denitionen und Eigenschaften Version 20. Juli 2011 69
Abbildungen. Seien X nichtleere Menge und Abb(X, K) die bereits in Abschnitt 2.2 be-
trachtete Menge aller Abbildungen von X nach K. Zusammen mit den Verkn upfun-
gen
( f +g)(x) := f (x) +g(x), ( f )(x) := f (x), f , g Abb(X, K), K,
bildet Abb(X, K) einen Vektorraum uber K.
Wie schon bei Ringen gilt es zun achst aus Denition 4.1 einige, f ur alle obigen Bei-
spiele vollkommen trivial erscheinende Folgerungen abzuleiten.
Lemma 4.2 Sei (V, +, ) Vektorraum. Dann gelten die folgenden Aussagen.
(i) 0 v = 0
V
f ur alle v V;
(ii) 0
V
= 0
V
f ur alle K;
(iii) (1) v =v f ur alle v V;
(iv) ( v) = () v = (v) f ur alle K, v V.
Bevor wir zum Beweis kommen, noch einmal (i) und (iii) in Worten: (i) Skalarmultiplika-
tion mit dem Nullelement aus dem K orper mit irgendeinem Element aus dem Vektorraum
ergibt das Nullelement des Vektorraums. (iii) Skalarmultiplikation mit dem additiven In-
versen des Einselements ergibt das additive Inverse des Vektors.
BEWEIS: (i) 0
V
= 0 v (0 v) = (0+0) v (0 v) = 0 v +0 v (0 v) = 0 v.
(ii) 0
V
= 0
V
0
V
= (0
V
+0
V
) 0
V
= 0
V
+ 0
V
0
V
= 0
V
.
(iii) v +(1) v = 1 v +(1) v = (11) v = 0 v = 0.
(iv) () v = (1) ( v) =( v). () v = ((1) v) = (v).
Denition 4.3 Sei (V, +, ) VektorraumundU V. Dann heisst (U, +, ) Unterraum(auch:
Untervektorraum, Teilraum) [subspace] von (V, +, ) wenn (U, +, ) selbst Vektorraum ist.
Um uns Schreibarbeit zu ersparen, schreiben wir im folgenden immer V statt (V, +, ) wenn
die beiden Verkn upfungen klar sind. Wie schon bei Untergruppen und Unterringen verer-
ben sich die meisten Eigenschaften von V automatisch auf U und brauchen nicht zu uber-
pr uft werden.
Lemma 4.4 Sei V Vektorraum und U V nicht leer. U ist genau dann Unterraum wenn
die folgenden beiden Eigenschaften erf ullt sind:
(i) v +w U f ur alle v, w U;
(ii) v U f ur alle K, v U.
BEWEIS:

Ubung.
In der Praxis lohnt es sich oft zun achst einmal zu uberpr ufen, ob 0
V
in U enthalten
ist. Gleichzeitig uberpr uft man damit die erste Forderung von Lemma 4.4: U ist nicht leer
wenn 0
V
U. Tats achlich ist {0
V
} selbst immer Unterraum von V. Auch ist V Unterraum
seiner selbst. Nat urlich liegen die interessanten F alle zwischen diesen beiden Extremen.
70 Version 20. Juli 2011 Kapitel 4. Vektorr aume
Beispiele f ur Unterr aume
L osungsmengen homogener Gleichungssysteme. Sei A K
mn
. Aus Ax =0, Ay =0 fol-
gen A(x+y) =0 und A(x) =0. Da 0 L(A, 0) gilt L(A, 0) = / 0 und damit ist L(A, 0)
Unterraum von K
n1
.
Symmetrische Matrizen. Die Menge der symmetrischen n n-Matrizen uber K ist ein
Unterraum von K
nn
(mit der gew ohnlichen Matrixaddition und skalaren Multipli-
kation).
Polynome. F ur den oben eingef uhrten VektorraumK
n
[t] der Polynome vomGrad h ochstens
n ist K
m
[t] ein Unterraum von K
n
[t] f ur m n.
Konvergente Zahlenfolgen. F ur zwei konvergente Zahlenfolgen v = {v
n
}

n=1
mit v
n
n

v K und w ={w
n
}

n=1
mit w
n
n
w K gilt
v
n
+w
n
n
v + w v
n
n
v.
Also sind auch v +w und v konvergente Zahlenfolgen. Da die Menge der konver-
genten Zahlenfolgen offensichtlich nicht leer ist, bildet sie einen Unterraum des oben
betrachteten Vektorraums aller Zahlenfolgen.
Schnittmengen. Sei V Vektorraum und {W
i
: i I} eine Menge von Unterr aumen von V
mit einer Indexmenge I. Dann ist

iI
W
i
wieder Unterraum. Beweis:

Ubung.
Aus jeder beliebigen Menge von Vektoren kann ein Unterraum konstruiert werden, indem
man alle Vektoren, die gem ass Lemma 4.4 noch fehlen, einfach hinzunimmt.
Denition 4.5 Sei (V, +, ) Vektorraum uber einen K orper K und v
1
, . . . , v
n
V. Ein Vek-
tor v der Form
v =
1
v
1
+
2
v
2
+ +
n
v
n
V
heisst Linearkombination [linear combination] von v
1
, . . . , v
n
mit den Koefzienten

1
, . . . ,
n
K. Die lineare H ulle (auch Spann) [linear hull, span] von v
1
, . . . , v
n
ist die
Menge aller m oglichen Linearkombinationen:
span(v
1
, . . . , v
n
) :=
_ n

i=1

i
v
i
:
1
, . . . ,
n
K
_
.
Denition 4.5 l asst sich auf Familien von unendlich vielen Vektoren verallgemeinern.
Sei dazu eine Familie
16
(v
i
)
iI
gegeben, mit einer (allenfalls unendlich grossen) Indexmen-
ge I. Dann ist span(v
i
)
iI
die Menge aller m oglichen Linearkombinationen von endlich
vielen Elementen aus S:
span(v
i
)
iI
:=
_

1
v
i
1
+ +
n
v
i
n
: n N, {i
1
, . . . , i
n
} I,
1
, . . . ,
n
K
_
.
Entspricht (v
i
)
iI
einer Menge M so kann man auch span(M) schreiben. F ur den Spezialfall
M = / 0 setzt man span(M) ={0}.
16
Im Gegensatz zu einer Menge k onnen in einer Familie einzelne Elemente mehrfach vorkommen, wenn z.B.
das gleiche Element aus V zwei verschiedenen Indizes entspricht.
4.1. Denitionen und Eigenschaften Version 20. Juli 2011 71
Lemma 4.6 Sei V Vektorraum und (v
i
)
iI
V. Dann ist span(v
i
)
iI
Unterraum von V.
BEWEIS: Sind x, y span(v
i
)
iI
, dann gibt es endliche Indexmengen I
x
, I
y
I und Koef-
zienten
i
,
i
K mit
x =

iI
x

i
v
i
, y =

iI
y

i
v
i
.
Daraus folgt
x +y =

iI
x
I
y
(
i
+
i
)v
i
span(S), x =

iI
x
(
i
)v
i
span(S),
wobei im ersten Fall die fehlenden Koefzienten als 0 angenommen werden.
Beispiel 4.1:
(i) Wir betrachten V = K
n1
. Jeder Spaltenvektor x K
n1
l asst sich als Linearkombination der
Einheitsvektoren e
1
, . . . , e
n
schreiben:
x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
= x
1
_
_
_
_
_
1
0
.
.
.
0
_
_
_
_
_
+ +x
n
_
_
_
_
_
0
.
.
.
0
1
_
_
_
_
_
=
n

i=1
x
i
e
i
.
Insbesondere gilt K
n1
= span{e
1
, . . . , e
n
}.
(ii) Matrix-Vektor-Multiplikationen lassen sich als Linearkombinationen interpretieren: Unterteile
dazu die Matrix A K
mn
in ihre Spalten: A =
_
a
1
, a
2
, . . . , a
n
_
mit a
j
K
m1
. Dann folgt f ur
x K
n1
:
Ax = A
_ n

i=1
x
i
e
i
_
=
n

i=1
x
i
Ae
i
=
n

i=1
x
i
a
i
.
Also ist Ax Linearkombination der Spalten von A. Der entsprechende Unterraum
Bild(A) := span(a
1
, a
2
, . . . , a
n
)
wird als Spaltenraum [column subspace] oder Bild
17
[image] von A bezeichnet. Offenbar
hat ein Gleichungssystem Ax = b genau dann mindestens eine L osung wenn b Bild(A).
(iii) Wir betrachten den Vektorraum aller Zahlenfolgen und darin die Zahlenfolgen
z
1
= (1, 0, 0, 0, 0, . . .)
z
2
= (0, 1, 0, 0, 0, . . .)
z
3
= (0, 0, 1, 0, 0, . . .)
.
.
.
.
.
.
Jede Zahlenfolge mit endlich vielen von Null verschiedenen Folgengliedern l asst sich als Li-
nearkombination von z
1
, z
2
, . . . darstellen. Zahlenfolgen mit unendlich vielen von Null ver-
schiedenen Folgengliedern, wie z.B. (1, 1, 1, . . .), lassen sich nicht als Linearkombination von
z
1
, z
2
, . . . darstellen.

17
Wir werden den Begriff des Bildes sp ater noch einmal im allgemeineren Rahmen in Kapitel 5 denieren
und untersuchen.
72 Version 20. Juli 2011 Kapitel 4. Vektorr aume
4.2 Lineare Unabh angigkeit, Basen und Dimension
Oben haben wir gesehen, wie eine gegebene Familie von Vektoren einen Unterraum auf-
spannt. Im Folgenden wollen wir den umgedrehten Weg gehen und untersuchen, wie man
f ur einen gegebenen Unterraum bzw. Vektorraum eine m oglichst kleine Familie von Vek-
toren nden kann, die diesen aufspannen.
Denition 4.7 Sei V Vektorraum. Eine Familie (v
i
)
iI
V heisst Erzeugendensystem von
V wenn V = span(v
i
)
iI
.
Die Wahl des Erzeugendensystems ist hochgradig uneindeutig. ZumBeispiel bilden sowohl
{v
1
, v
2
, v
3
} =
_
_
_
_
_
1
0
0
_
_
,
_
_
0
1
0
_
_
,
_
_
0
0
1
_
_
_
_
_
als auch
{v
1
, v
2
, v
3
, v
4
} =
_
_
_
_
_
1
0
0
_
_
,
_
_
0
1
0
_
_
,
_
_
0
0
1
_
_
,
_
_
1
1
1
_
_
_
_
_
Erzeugendensysteme f ur R
31
. Im ersten Erzeugendensystem ist die Darstellung jedes
Spaltenvektors als Linearkombination eindeutig, insbesondere gilt f ur die Darstellung des
Nullvektors:
0 =
1
v
1
+
2
v
2
+
3
v
3

1
=
2
=
3
= 0.
Im zweiten Erzeugendensystem ist dies nicht der Fall, wir haben z.B.
0 = 0 v
1
+0 v
2
+0 v
3
+0 v
4
= 1 v
1
+1 v
2
+1 v
3
+(1) v
4
.
Diese Betrachtungen motvieren die folgende Denition
Denition 4.8 Sei V Vektorraum. Die Vektoren v
1
, . . . , v
n
V heissen linear unabh angig
[linearly independent ] falls gilt: Aus
0 =
1
v
1
+
2
v
2
+ +
n
v
n
,
1
, . . . ,
n
K,
folgt

1
=
2
= =
n
= 0.
Ist die Bedingung von Denition 4.8 verletzt, gibt es also
1
, . . . ,
n
K mit mindestens
einem
j
= 0 so dass 0 =
n
i=1

i
v
i
, dann heissen die Vektoren v
1
, . . . , v
n
linear abh angig.
Eine unendliche Familie (v
i
)
iI
heisst linear unabh angig wenn jede endliche Teilfamilie
linear unabh angig ist.
Beispiel 4.9 Mit der Matrix-Vektor-Interpretation aus Beispiel 4.1 (ii) l asst sich die li-
neare Unabh angigkeit von Spaltenvektoren a
1
, . . . , a
n
K
m1
recht einfach uberpr ufen.
Deniert man die mn-Matrix A = (a
1
, . . . , a
n
), so sind die Spaltenvektoren linear un-
abh angig wenn
Ax = 0 x = 0,
also L(A, 0) ={0}. Gem ass den Erkenntnissen von Abschnitt 3.4 ist dies genau dann der
Fall wenn Rang(A) = n gilt.
4.2. Lineare Unabh angigkeit, Basen und Dimension Version 20. Juli 2011 73
Man sieht leicht ein, dass eine Familie, die den Nullvektor enth alt, niemals linear un-
abh angig sein kann. Genauswenig kann eine Familie, die einen Vektor mehrmals enth alt,
linear unabh angig sein. Linear unabh angige Familien k onnten also ohne Verluste als Men-
gen betrachtet werden.
Lemma 4.10 Sei (v
i
)
iI
eine Familie von Vektoren eines Vektorraums V. Dann sind die
folgenden beiden Aussagen aquivalent:
(i) (v
i
)
iI
ist linear unabh angig.
(ii) Jeder Vektor v span(v
i
)
iI
l asst sich in eindeutiger Weise als Linearkombination
von Vektoren aus (v
i
)
iI
darstellen.
BEWEIS: Die Richtung (ii)(i) folgt sofort mit der Wahl v = 0.
Zu (i)(ii): Betrachte zwei (endliche) Linearkombinationen
v =

iI
1

i
v
i
=

iI
2

i
v
i
.
Bilde
0 = v v =

iI
1

i
v
i

iI
2

i
v
i
=

iI
1
I
2
(
i

i
)v
i
,
wobei
i
:= 0 f ur i I
2
\I
1
und
i
:= 0 f ur i I
1
\I
2
. Aus (i) folgt dann
i

i
= 0 f ur alle
i, also kann es keine zwei verschiedenen Linearkombinationen f ur v geben.
Das folgende Lemma enth alt eine Charakterisierung von linearer Abh angigkeit, die
vielleicht einleuchtender als obige Denition ist, sich aber schlechter handhaben l asst.
Lemma 4.11 Sei V Vektorraum. Eine Familie von Vektoren {v
i
}
iI
mit mindestens zwei
Elementen ist genau dann linear abh angig wenn sich mindestens einer dieser Vektoren als
Linearkombinationen der anderen Vektoren schreiben l asst.
BEWEIS: Sei {v
i
}
iI
linear abh angig. Dann gibt es eine endliche Teilmenge I
0
I und
eine Linearkombination
iI
0

i
v
i
= 0 mit
i
K f ur alle i I
0
und
j
= 0 f ur ein j I
0
.
Also folgt
v
j
=

iI
0
\{ j}

j
v
i
.
F ur die R uckrichtung nehmen wir an, dass es ein j I und eine endliche Teilmenge
I
1
I \ {j} sowie Koefzienten
i
K f ur i I
1
gibt, so dass v
j
=
iI
1

i
v
i
. Dann folgt
1 v
j

iI
1

i
v
i
= 0, also ist {v
i
}
iI
linear abh angig.
Nun kommen wir zu einem der grundlegenden Konzepte bei der Arbeit mit Vektorr aumen.
Denition 4.12 Eine Familie B= (v
i
)
iI
in einem Vektorraum V heisst Basis wenn
(i) (v
i
)
iI
ein Erzeugendensystem von V ist; und
(ii) (v
i
)
iI
linear unabh angig ist.
Beispiele f ur Basen
Spaltenvektoren. B = (e
1
, e
2
, . . . , e
n
), wobei e
i
der i-te Einheitsvektor der L ange n ist,
ist eine Basis von K
n1
. Diese Basis heisst kanonische Basis. Allgemeiner formen
74 Version 20. Juli 2011 Kapitel 4. Vektorr aume
die Spalten (b
1
, . . . , b
n
) von jeder invertierbaren Matrix B K
nn
eine Basis von
K
n1
. Dies folgt aus der Interpretation von Linearkombinationen als Matrix-Vektor-
Multiplikationen (siehe Beispiel 4.9) kombiniert mit der Tatsache, dass die L osung
eines LGS Bx = c mit invertierbarem B eindeutig ist.
Polynome. Die Monome 1, t, t
2
, . . . , t
n
bilden eine Basis des Vektorraums K
n
[t] der Poly-
nome vom H ochstgrad n.
Nullvektorraum. Besteht der Vektorraum nur aus {0
V
}, so ist die leere Menge B = / 0
eine Basis.
Imfolgenden werden uns vor allemmit endlichen Erzeugendensystemen und Basen v
1
, . . . , v
n
besch aftigen. Auf den allgemeineren Fall werden wir in Abschnitt 4.2.1 kurz eingehen.
Wird ein Vektorraum aus endlich vielen Vektoren erzeugt, so l asst sich immer eine
Basis nden. Der folgende Satz geht sogar noch weiter und zeigt, dass in diesem Fall sich
jede linear unabh angige Menge zu einer Basis erg anzen l asst.
Satz 4.13 (Basiserg anzungssatz) Sei V Vektorraum und v
1
, . . . , v
r
, w
1
, . . . , w
s
V, so dass
v
1
, . . . , v
r
linear unabh angig sind und span(v
1
, . . . , v
r
, w
1
, . . . , w
s
) =V. Dann kann v
1
, . . . , v
r
durch Hinzunahme von geeigneten Elementen aus w
1
, . . . , w
s
zu einer Basis erg anzt werden.
BEWEIS: Die Aussage wird per Induktion uber s bewiesen. F ur s =0 ist (v
1
, . . . , v
r
) bereits
eine Basis von V per Vorraussetzung. Sei die Aussage nun f ur s 1 0 und f ur beliebiges
r erf ullt. Im folgenden soll die Aussage f ur s bewiesen werden. Falls (v
1
, . . . , v
r
) bereits
Basis ist, so sind wir fertig. Anderenfalls gilt span(v
1
, . . . , v
r
) =V; es gibt also mindestens
ein w
j
=0, 1 j s, welches nicht in span(v
1
, . . . , v
r
) enthalten ist. Insbesondere folgt aus
r

i=1

i
v
i
+w
j
= 0,
dass =0 und damit wegen der linearen Unabh angigkeit von v
1
, . . . , v
r
auch
1
= =

r
= 0 gelten. Also ist v
1
, . . . , v
r
, w
j
linear unabh angig. Nach Induktionsannahme l asst sich
v
1
, . . . , v
r
, w
j
mit Elementen aus der Familie w
1
, . . . , w
j1
, w
j+1
, . . . , w
s
(die s 1 Elemente
hat) erg anzen. Damit gilt die Aussage f ur s. (Induktionsschritt)
Beispiel 4.2: Die Aussage von Satz 4.13 l asst sich im Vektorraum K
m1
konkretisieren. Wir schrei-
ben dazu die Vektoren aus dem Satz in eine m(r +s)-Matrix
A =
_
v
1
v
r
w
1
w
s
_
und berechnen die TNF: C = BA mit B K
mm
invertierbar. Da die Spalten den gesamten Raum
K
m1
aufspannen, gilt Rang(A) =m. W are n amlich Rang(A) <m, so g abe es b K
m1
mit L(A, b) =
/ 0 oder b Bild(A), siehe Diskussion am Ende von Abschnitt 3.4, und damit l age b nicht im Spann
der Spaltenvektoren von A. Dar uberhinaus haben haben die ersten r Spalten von A vollen Rang r und
damit sind die Pivotpositionen der TNF C von der Form
(1, 1), (2, 2), . . . , (r, r), (r +1, j
r+1
), (r +2, j
r+2
), . . . , (r +s, j
r+s
).
Also bilden die Spalten von
B
1
= B
1
_
e
1
e
r
e
r+1
w
s
_
=
_
v
1
v
r
w
j
r+1
r
w
j
r+s
r
_
eine Basis von K
m1
.
4.2. Lineare Unabh angigkeit, Basen und Dimension Version 20. Juli 2011 75
Korollar 4.14 Sei A
1
K
mr
mit Rang(A
1
) = r. Dann gibt es A
2
K
m(mr)
, so dass
A =
_
A
1
A
2
_
invertierbar ist.
BEWEIS:

Ubung.
Im Moment ist noch nicht klar, dass jede Basis eines Vektorraums die gleiche Anzahl
von Elementen hat. Dies wollen wir imfolgenden f ur aus endlich vielen Vektoren erzeugten
Vektorr aumen zeigen. Das folgende Lemma wird dabei eine zentrale Rolle spielen.
Lemma 4.15 (Austauschlemma) Sei V Vektorraumund w
1
, . . . , w
n
V. Sei v span(w
1
, . . . , w
n
)
mit der Darstellung v =
n
i=1

i
w
i
. Gibt es
k
= 0, mit 1 k n, so gilt
span(w
1
, . . . , w
n
) = span(w
1
, . . . , w
k1
, v, w
k+1
, . . . , w
n
). (4.4)
BEWEIS: Umden Beweis zu vereinfachen nehmen wir k =1 an, was immer durch entspre-
chende Umnummerierung der Vektoren w
i
erreicht werden kann. Sei wspan(w
1
, . . . , w
n
).
Dann gibt es
1
, . . . ,
n
K so dass w =
n
i=1

i
w
i
. Einsetzen der Beziehung
w
1
=
1

1
v
n

i=2

1
w
i
ergibt
w =

1

1
v +
n

i=2
_

1
_
w
i
.
Also ist w span(v, w
2
, . . . , w
n
). Da w beliebig gew ahlt war, folgt
span(w
1
, . . . , w
n
) span(v, w
2
, . . . , w
n
).
Die entgegengesetzte Inklusion ist aber trivial und damit ist (4.4) bewiesen.
Wiederholte Anwendung des Austauschlemmas f uhrt auf das folgende Resultat.
Satz 4.16 (Austauschsatz von Steinitz) Sei V Vektorraum und v
1
, . . . , v
m
V sowie
w
1
, . . . , w
n
V. Sind v
1
, . . . , v
m
linear unabh angig und
span(v
1
, . . . , v
m
) span(w
1
, . . . , w
n
), (4.5)
dann gelten die folgenden Aussagen:
(i) m n.
(ii) Man kann m Elemente von w
1
, . . . , w
n
durch v
1
, . . . , v
m
austauschen, ohne dass sich
die lineare H ulle von w
1
, . . . , w
n
andert.
Bevor wir zum Beweis kommen, die Aussage von Satz 4.16 (ii) noch einmal ausf uhrlicher
und formaler: Es gibt Indizes i
1
, . . . , i
m
{1, . . . , n} derart, dass man w
i
1
durch v
1
, w
i
2
durch
v
2
, usw. bis w
i
m
durch v
m
ersetzen kann, ohne dass sich die lineare H ulle von w
1
, . . . , w
n
andert. Wenn man nach entsprechender Umnummerierung i
1
= 1, i
2
= 2, . . . , i
m
= m an-
nimmt, dann gilt also
span(v
1
, . . . , v
m
, w
m+1
, . . . , w
n
) = span(w
1
, . . . , w
n
). (4.6)
76 Version 20. Juli 2011 Kapitel 4. Vektorr aume
BEWEIS: Wegen (4.5) gibt es eine Darstellung v
1
=
1
w
1
+ +
n
w
n
mit mindestens
einem
i
1
= 0, 1 i
1
n, da v
1
= 0 aufgrund der linearen Unabh angigkeit von v
1
, . . . , v
n
.
Nach dem Austauschlemma (Lemma 4.15) gilt
span(w
1
, . . . , w
n
) = span(w
1
, . . . , w
i
1
1
, v
1
, w
i
1
+1
, . . . , w
n
).
Nach entsprechender Umnumerierung erhalten wir
span(w
1
, . . . , w
n
) = span(v
1
, w
2
, . . . , w
n
).
Dieser Prozess wird solange induktiv wiederholt bis alle m Vektoren getauscht sind. Seien
also f ur ein r, mit 1 r m1, die Vektoren w
1
, . . . , w
r
bereits mit v
1
, . . . , v
r
getauscht, so
dass
span(w
1
, . . . , w
n
) = span(v
1
, . . . , v
r
, w
r+1
, . . . , w
n
).
Es gilt offenbar r n. Wegen (4.5) gibt es
1
, . . . ,
n
K, so dass
v
r+1
=
r

i=1

i
v
i
+
n

i=r+1

i
w
i
.
Dabei k onnen nicht alle
r+1
, . . . ,
n
Null sein, ansonsten w are v
r+1
span(v
1
, . . . , v
r
) und
dies widerspr ache der linearen Unabh angigkeit von v
1
, . . . , v
r+1
(siehe Lemma 4.11). Insbe-
sondere muss deswegen auch r +1 n gelten. Also gibt es i
r+1
r +1 mit
i
r+1
= 0. Wie-
der einmal k onnen wir nach entsprechender Umnummerierung annehmen, dass i
r+1
=r +1
gilt. Anwendung des Austauschlemmas ergibt
span(w
1
, . . . , w
n
) = span(v
1
, . . . , v
r+1
, w
r+2
, . . . , w
n
).
Wiederholte Anwendung dieses Prozesses bis r = m1 ergibt m n und die in (ii) be-
hauptete Beziehung (4.6).
Wichtigste Folgerung des Steinitzschen Austauschsatzes ist, dass jede Basis eines Vek-
torraums gleich viele Elemente hat.
Korollar 4.17 Sei V Vektorraum.
(i) Hat V eine endliche Basis, so ist jede Basis von V endlich.
(ii) Je zwei endliche Basen von V haben gleich viele Elemente.
BEWEIS: Zu (i). Sei v
1
, . . . , v
n
eine (endliche) Basis von V und (w
i
)
iI
eine beliebige
weitere Basis von V. W are I unendlich, so g abe es insbesondere n+1 linear unabh angige
Elemente. Dies widerspricht aber dem Austauschsatz.
Zu (ii). Seien {v
1
, . . . , v
m
} und {w
1
, . . . , w
n
} jeweils Basis von V. Anwendung des Aus-
tauschsatzes ergibt einerseits m n und andererseits (wenn man die Rollen von v und w
vertauscht) n m. Also gilt m = n.
Eine weitere Folgerung des Austauschsatzes: Hat man erst einmal unendlich viele linear
unabh angige Vektoren gefunden, so kann es keine endliche Basis geben. So kann es z.B.
keine endliche Basis f ur den Vektorraum der Zahlenfolgen geben.
Da nach Korollar 4.17 die Anzahl der Basiselemente unabh angig von der Wahl der
Basis ist, macht die folgende Denition Sinn.
4.2. Lineare Unabh angigkeit, Basen und Dimension Version 20. Juli 2011 77
Denition 4.18 Sei V Vektorraum. Dann ist die Dimension von V deniert als
dim(V) :=
_
n, wenn es eine Basis von V mit n Elementen gibt,
, wenn es keine Basis mit endlich vielen Elementen gibt.
Einen VektorraumV mit dim(V) < nennt man endlichdimensional und ansonsten unend-
lichdimensional.
Einige Beispiele:
Der Vektorraum K
n1
der Spaltenvektoren hat die kanonische Basis e
1
, . . . , e
n
und
damit gilt dim(K
n1
) = n.
Der Vektorraum K
n
[t] der Polynome vom Grad h ochstens n hat eine Basis 1, t, . . . , t
n
und damit gilt dim(K
n
[t]) = n+1.
ImVektorraumaller Zahlenfolgen ndet man unendlich viele linear unabh angig Vek-
toren (1, 0, 0, . . .), (0, 1, 0, . . .), . . . und damit ist dieser Vektorraum unendlich.
Der Vektorraum K
mn
hat Dimension mn. F ur m = n hat der Unterraum der symme-
trischen Matrizen Dimension n(n+1)/2. Beweis

Ubung.
Zum Abschluss noch zwei Resultate, die weitere Einblicke in die Dimension von Vek-
torr aumen geben.
Lemma 4.19 In einem VektorraumV mit Dimension n < kann es nicht mehr als n linear
unabh angige Elemente geben.
BEWEIS: G abe es mehr als n linear unabh angige Elemente, so k onnten diese nach dem
Basiserg anzungssatz zu einer Basis mit mehr als n Elementen erg anzt werden. Dies steht
aber im Widerspruch zu Korollar 4.17.
Lemma 4.20 Sei U Unterraumeines endlichdimensionalen Vektorraums V. Dann gilt dim(U)
dim(V). Aus dim(U) = dim(V) folgt U =V.
BEWEIS: Zun achst einmal muss U auch endlichdimensional sein, sonst g abe es unendlich
viele linear unabh angige Vektoren in V. Eine Basis von U mit dim(U) Elementen ist linear
unabh angig in V und damit gilt dim(U) dim(V) nach dem Austauschsatz.
Sei nun n = dim(U) = dim(V) und u
1
, . . . , u
n
Basis von U. W are U = V, dann g abe
es v V mit v span(u
1
, . . . , u
n
). Insbesondere sind dann u
1
, . . . , u
n
, v linear unabh angig.
Dies widerspricht aber Lemma 4.19.
4.2.1 Der unendlichdimensionale Fall
Der Basiserg anzungssatz zeigt nur f ur den endlichdimensionalen Fall die Existenz einer
Basis. Dass dies f ur den unendlichdimensionalen Fall gar nicht so klar ist, macht man
sich leicht am Vektorraum aller Zahlenfolgen klar. Um auch dort die Existenz einer Basis
sichern zu k onnen, m ussen wir die Vektorr aume kurz verlassen und einige Begriffe der
Mengenlehre einf uhren.
Denition 4.21 Sei X eine Menge. Eine Relation H X X ist eine Halbordnung (auch:
partielle Ordnung) [partial order] auf X, wenn gilt:
78 Version 20. Juli 2011 Kapitel 4. Vektorr aume
(i) (x, x) H f ur alle x H;
(ii) aus (x, y) H und (y, x) H folgt x = y;
(iii) aus (x, y) H und (y, z) H folgt (x, z) H.
Typische Beispiele f ur Halbordnungen sind die Relation auf R oder die Relation auf
der Potenzmenge P(M) f ur eine Menge M. Im folgenden werden wir f ur eine allgemeine
Halbordnung H anstatt von (x, y) H immer x y schreiben.
Denition 4.22 Sei H Halbordnung auf einer Menge X. Dann heisst eine nichtleere Teil-
menge A X vollst andig geordnet [totally ordered] wenn f ur alle x, y A stets x y oder
y x gilt.
Offenbar ist R mit der ublichen Halbordnung vollst andig geordnet. Dagegen ist die Po-
tenzmenge P(M) mit der Halbordnung nicht vollst andig geordnet. Betrachtet man aber
eine Teilmenge der Form A ={M
1
, M
2
, M
3
, . . .} P(M) mit M
1
M
2
M
3
, so ist A
vollst andig geordnet.
Denition 4.23 Sei H Halbordnung auf einer Menge X und A X mit A = / 0.
s(A) X heisst obere Schranke von A, wenn a s(A) f ur alle a A.
m(A) A heisst maximales Element von A, wenn aus a A und m(A) a die Be-
ziehung m(A) = a folgt.
X heisst induktiv geordnet, wenn jede vollst andig geordnete Teilmenge A von X eine
obere Schranke in X besitzt.
Lemma 4.24 (Zorn
18
) Jede nichtleere induktiv geordnete Menge besitzt ein maximales
Element.
BEWEIS: Der Beweis beruht auf dem Auswahlaxiom und soll hier nicht erbracht werden.
Tats achlich ist die Aussage aquivalent zum Auswahlaxiom und damit k onnen wir sie ge-
nausogut selbst als Axiom betrachten.
Diese Begriffe werden nun auf das einzige f ur uns relevante Beispiel angewendet. Sei
V ein Vektorraum. Wir betrachten die Menge aller linear unabh angigen Mengen in V:
X :={M V : die Elemente von M sind linear unabh angig}. (4.7)
Die Menge X ist nicht leer; im schlimmsten Fall ist V ={0}, dann haben wir X ={/ 0} und
damit X = / 0. Der Nachweis der zweiten im Lemma von Zorn geforderten Eigenschaft ist
nicht ganz so trivial.
Lemma 4.25 Bez uglich der Halbordnung ist die in (4.7) eingef uhrte Menge X induktiv
geordnet.
BEWEIS: Sei A X vollst andig geordnete Menge linear unabh angiger Teilmengen von
V. Als Kandidat f ur eine obere Schranke nehmen wir
A =
_
MA
M.
18
Das Lemma von Zorn wird oft auch Lemma von Kuratowski-Zorn genannt, nach den Mathematikern Kazi-
mierz Kuratowski und Max Zorn.
4.2. Lineare Unabh angigkeit, Basen und Dimension Version 20. Juli 2011 79
Damit ist A offenbar obere Schranke in P(A). Es gilt aber noch zu kl aren, ob A X, also
ob die Elemente von A linear unabh angig sind.
W ahle dazu eine beliebige, endliche Teilfamilie von Vektoren
v
1
, . . . , v
n
A.
Wir zeigen per Induktion uber n, dass es eine Menge M
n
A gibt mit v
1
, . . . , v
n
M
n
. F ur
n = 1 folgt dies sofort aus der Denition von A. Sei die Aussage f ur n 1 erf ullt, es gibt
also M
n1
A mit v
1
, . . . , v
n1
M
n1
. F ur v
n
gibt es M

A mit v
n
M

. Da A vollst andig
geordnet ist gilt M
n1
M

oder M

M
n1
. Im ersten Fall folgt die Induktionsbehauptung
mit M
n
= M

, im zweiten Fall mit M


n
= M
n1
.
Da M
n
linear unabh angig ist, folgt dass v
1
, . . . , v
n
und damit A selbst linear unabh angig
ist. Damit ist A X obere Schranke f ur A.
Anwendung des Lemmas von Zorn zeigt die Existenz einer maximalen linear unabh angi-
gen Menge in V. Der folgende Satz zeigt, dass diese Menge tats achlich eine Basis ist. Dabei
heisst ein ErzeugendensystemBV minimal, falls jedes A Bkein Erzeugendensystem
von V ist.
Satz 4.26 Sei V Vektorraum und BV. Dann sind die folgenden Aussagen aquivalent:
(i) B ist eine Basis;
(ii) B ist ein minimales Erzeugendensystem;
(iii) B ist maximal linear unabh angig.
BEWEIS: Zu (i) (ii). Sei B Basis und A B. Da B linear unabh angig ist, kann es
f ur v B\ A keine Linearkombination mit Elementen aus A geben (siehe Lemma 4.11).
Insbesondere ist A kein Erzeugendensystem.
Zu (ii) (iii). Sei B minimales Erzeugendensystem und nehmen wir an B w are linear
abh angig. Dann gibt es nach Lemma 4.11 ein v B so dass v sich als Linearkombinati-
on von Elementen aus B\ {v} darstellen l asst. Damit w are B\ {v} Erzeugendensystem,
was aber im Widerspruch zur angenommenen Minimalit at von B steht. Also ist B linear
unabh angig. Es ist auch maximal: da B Erzeugendensystem, ist jedes Element in V linear
abh angig von B und aus BB

, mit B

linear unabh angig, folgt stets B=B

.
Zu (iii) (i). Sei B maximal linear unabh angig. F ur (i) muss noch gezeigt werden, dass
B auch Erzeugendensystem ist. Jedes v B erf ullt trivialerweise v span(B). Sei also
v B. Wegen Maximalit at kann dann B{v} nicht linear unabh angig sein. Es gibt also
eine Linearkombination
v +
1
v
1
+ +
n
v
n
= 0
f ur Vektoren v
1
, . . . , v
n
B und mit mindestens einer der Koefzienten ,
1
, . . . ,
n
K
verschieden von Null. Es gilt insbesondere = 0, da ansonsten v
1
, . . . , v
n
(und damit auch
B) linear abh angig w aren. Also ist v Linearkombination von Elementen aus B:
v =
n

i=1

v
i
.
Da v beliebig gew ahlt war, ist B Erzeugendensystem.
Korollar 4.27 Jeder Vektorraum hat eine Basis.
80 Version 20. Juli 2011 Kapitel 4. Vektorr aume
4.3 Summen von Unterr aumen
Nach diesem kurzen Ausug in abstrakte Gelde kommen wir wieder zu grundlegenderen
Konzepten. Die Summe von s Unterr aumen erh alt man, indem man einfach alle m oglichen
Summen von Elementen aus diesen Unterr aumen bildet.
Denition 4.28 SeienU
1
, . . . ,U
s
Unterr aume eines Vektorraums V. Die Summe dieser Un-
terr aume denieren wir als
U
1
+ +U
s
:=
_
u
1
+ +u
s
: u
1
U
1
, . . . , u
s
U
s
_
.
Der Beweis der folgenden Resultate ist einfach und sei dem Leser zur

Ubung empfohlen.
Lemma 4.29 Seien U
1
, . . . ,U
s
Unterr aume eines Vektorraums V. Dann gelten die folgen-
den Aussagen:
(i) U
1
+ +U
s
ist wieder Unterraum von V;
(ii) U
1
+ +U
s
= span(U
1
U
s
);
(iii) dim(U
1
+ +U
s
) dim(U
1
) + +dim(U
s
).
Im allgemeinen gilt in Lemma 4.29 (iii) keine Gleichheit. Das sieht man am deutlichsten
bei der Summe eines Unterraums U = {0} mit sich selbst: U +U = U, also dim(U) =
dim(U +U) < dim(U) +dim(U). Der folgende Satz liefert eine genaue Charakterisierung
f ur die Unscharfheit der Ungleichung im Fall s = 2. Wir erinnern daran, dass der Schnitt
zweier Unterr aume wieder Unterraum ist, siehe Seite 70.
Satz 4.30 (Dimensionsformel f ur Unterr aume) Seien U
1
,U
2
endlichdimensionale Un-
terr aume eines Vektorraums V. Dann gilt
dim(U
1
+U
2
) = dim(U
1
) +dim(U
2
) dim(U
1
U
2
). (4.8)
BEWEIS: Sei r = dim(U
1
U
2
) und v
1
, . . . , v
r
Basis von U
1
U
2
. Gem ass dem Basi-
serg anzungssatz k onnen wir v
1
, . . . , v
r
jeweils zu einer Basis v
1
, . . . , v
r
, w
1
, . . . , w
m
1
von U
1
sowie zu einer Basis v
1
, . . . , v
r
, z
1
, . . . , z
m
2
von U
2
erg anzen. Die Aussage des Satzes ist
bewiesen wenn wir zeigen k onnen, dass
v
1
, . . . , v
r
, w
1
, . . . , w
m
1
, z
1
, . . . , z
m
2
eine Basis von U
1
+U
2
ist. Offenbar gilt
span(v
1
, . . . , v
r
, w
1
, . . . , w
m
1
, z
1
, . . . , z
m
2
) = span(U
1
U
2
) =U
1
+U
2
,
es bleibt also nur noch die lineare Unabh angigkeit dieser Vektoren zu zeigen. Seien dazu

1
, . . . ,
r
K,
1
, . . . ,
m
1
K und
1
, . . . ,
m
2
K, so dass
0 =
r

i=1

i
v
i
+
m
1

i=1

i
w
i
+
m
2

i=1

i
z
i
. (4.9)
Durch Umstellen erhalten wir
v :=
r

i=1

i
v
i
+
m
1

i=1

i
w
i
=
m
2

i=1

i
z
i
. (4.10)
4.3. Summen von Unterr aumen Version 20. Juli 2011 81
Aus der ersten Gleichung folgt v U
1
und aus der zweiten v U
2
, also v U
1
U
2
. Damit
l asst sich v als Linearkombination von v
1
, . . . , v
r
darstellen. Da aber v
1
, . . . , v
r
, w
1
, . . . , w
m
1
Basis ist, folgt aus (4.10) die Beziehung
1
= =
m
1
=0. Setzt man dies in (4.9) ein und
nutzt die Tatsache, dass v
1
, . . . , v
r
, z
1
, . . . , z
m
2
Basis ist, so folgt
1
= =
r
=
1
= =

m
2
= 0.
Entsprechende Dimensionsformeln kann man auch f ur s > 2 durch rekursives Anwenden
von Satz 4.30 angeben, aber das wird sehr schnell un ubersichtlich.
Der Korrekturterm in (4.8) verschwindet, wenn U
1
U
2
= {0}. Diese Bedingung l asst
sich auch anders charakterisieren.
Lemma 4.31 Sei V = U
1
+U
2
mit Unterr aumen U
1
,U
2
von V. Dann sind die folgenden
beiden Aussagen aquivalent.
(i) U
1
U
2
={0}.
(ii) Jedes v V hat eine eindeutige Zerlegung v = u
1
+u
2
mit u
1
U
1
, u
2
U
2
.
BEWEIS: Zu (i)(ii). Habe v V zwei Zerlegungen v =u
1
+u
2
=u

1
+u

2
mit u
1
, u

1
U
1
und u
2
, u

2
U
2
. Dann folgt
u
1
u

1
. .
U
1
= u
2
u

2
. .
U
2
U
1
U
2
={0},
also u
1
= u

1
und u
2
= u

2
.
Zu (ii)(i). Sei u U
1
U
2
. Dann sind 0 = 0+0 und 0 = u+(u) zwei Zerlegungen.
Wegen der Eindeutigkeit der Zerlegung folgt u = 0.
Denition 4.32 Sei V = U
1
+U
2
mit Unterr aumen U
1
,U
2
von V. Gilt U
1
U
2
= {0}, so
nennen wir V direkte Summe von U
1
und U
2
und schreiben V =U
1
U
2
.
Nun zeigen wir noch, dass sich jeder Unterraum durch eine direkte Summe zum ganzen
Vektorraum erg anzen l asst.
Satz 4.33 Sei U Unterraumeines endlichdimensionalen Vektorraums V. Dann gibt es einen
weiteren Unterraum U

so dass V =U U

.
BEWEIS: Sei v
1
, . . . , v
r
Basis von U. Nach dem Basiserg anzungssatz gibt es Vektoren
v
r+1
, . . . , v
n
V, so dass v
1
, . . . , v
r
, v
r+1
, . . . , v
n
Basis von V ist. F ur U

=span(v
r+1
, . . . , v
n
)
gilt offenbar V =U +U

und U U

={0}.
Zum Abschluss die entsprechenden Denition f ur mehr als zwei Unterr aume.
Denition 4.34 Sei V = U
1
+ +U
r
mit Unterr aumen U
1
, . . . ,U
r
von V. Sind von Null
verschiedene Vektoren u
1
U
1
, . . . , u
r
U
r
stets linear unabh angig, so nennen wir V di-
rekte Summe von U
1
, . . . ,U
r
und schreiben V =U
1
U
r
.
Die etwas gewundene Bedingung in Denition 4.34 ist notwendig und kann nicht etwa
durch die einfacher erscheinende Bedingung U
i
U
j
= {0} ersetzt werden. Zum Beispiel
bilden
U
1
=
__

0
_
: K
_
, U
2
=
__
0

_
: K
_
, U
3
=
__

_
: K
_
,
keine direkte Summe von R
21
.
Satz 4.35 Seien U
1
, . . . ,U
r
Untervektorr aume eines Vektorraums V. Dann sind die folgen-
den Aussagen aquivalent.
82 Version 20. Juli 2011 Kapitel 4. Vektorr aume
(i) V =U
1
U
r
.
(ii) Sind Basen v
i,1
, . . . , v
i,n
i
von U
i
f ur i = 1, . . . , r gegeben, so bildet
B=
_
v
1,1
, . . . , v
1,n
1
, v
2,1
, . . . , v
2,n
2
, . . . , v
r,1
, . . . , v
r,n
r
_
eine Basis von V.
(iii) V =U
1
+ +U
r
und dim(V) = dim(U
1
) + +dim(U
r
).
BEWEIS: (i) (ii). Da V sich als die Summe der Untervektorr aume ergibt, ist klar, dass
B ein Erzeugendensystem f ur V bildet. Zum Beweis der linearen Unabh angigkeit:
0 =
r

i=1
n
i

j=1

i j
v
i j
. .
=:w
i
Def. 4.34
w
1
= = w
r
= 0.
Da v
i,1
, . . . , v
i,n
i
Basis, folgt aus w
i
= 0, dass
i1
= =
i,n
i
= 0 f ur i = 1, . . . , r.
(ii) (i). Der erste Teil der Denition, V =U
1
+ +U
r
, ist klar. F ur den zweiten Teil
w ahlen wir nun von Null verschiedene Vektoren u
i
U
i
aus. Diese haben die Basisdarstel-
lung
u
i
=
n
i

j=1

i j
v
i j
, i = 1, . . . , r.
Hierbei muss jeweils mindestens ein
i,i
verschieden von Null sein. Betrachte jetzt eine
Linearkombination
0 =
r

i=1

i
u
i
=
r

i=1
n
i

j=1

i j
v
i j
.
Da B Basis, folgt
i

i j
= 0 und insbesondere f ur j = i

folgt
i
= 0. Damit ist u
1
, . . . , u
r
linear unabh angig.
(ii) (iii) ist offensichtlich.
Kapitel 5
Lineare Abbildungen
Zwischen zwei Vektorr aume U und V lassen sich ohne weiteres beliebige Abbildungen
denieren, indem man U und V einfach als Mengen auffasst und die Struktur der Vek-
torr aume ignoriert. Im folgenden werden wir diese Struktur mit einbeziehen und uns mit
Abbildungen besch aftigen, die in einem gewissen Sinne kompatibel zu Vektorr aumen sind.
5.1 Denitionen und Eigenschaften
Denition 5.1 Seien V,W Vektorr aume uber einen K orper K. Eine Abbildung F : V
W heisst linear (auch: (Vektorraum-)Homomorphismus) [linear map, homomorphism],
wenn die folgenden beiden Eigenschaften erf ullt sind:
(i) F(v
1
+v
2
) = F(v
1
) +F(v
2
) f ur alle v
1
, v
2
V;
(ii) F(v) =F(v) f ur alle K, v V.
Die Forderung (i) und (ii) von Denition 5.1 lassen sich kompakter zusammenfassen zu
F(
1
v
1
+
2
v
2
) =
1
F(v
1
) +
2
F(v
2
). (5.1)
Welche der beiden aquivalenten Forderungen, Denition 5.1 (i)+(ii) oder (5.1), bevorzugt
wird, ist Geschmackssache. Als direkte Folgerung von Denition 5.1 (ii) muss F(0) = 0
gelten. Oft erkennt man, dass eine Abbildung nicht linear ist, bereits daran, dass diese
notwendige Bedingung verletzt ist.
Beispiele f ur lineare Abbildungen
In allen folgenden Beispielen ist K =R.
Lineare Funktionen. Sei V =W =R. Dann ist die Funktion g(x) =x mit R lineare
Abbildung, da
g(
1
x
1
+
2
x
2
) =
1
x
1
+
2
x
2
=
1
g(x
1
) +
2
g(x
2
).
Man beachte, dass eine lineare Funktion der Form g(x) =x+ mit R\{0} keine
lineare Abbildung ist! So trivial wie die Funktion g(x) = x auch aussehen mag, so
83
84 Version 20. Juli 2011 Kapitel 5. Lineare Abbildungen
wichtig ist sie in der Praxis. Sei z.B. f (x) eine stetig differenzierbare Funktion und
x
0
R.
x
0
Um das Verhalten von f in der N ahe von x
0
R approximativ zu beschreiben, ver-
wenden wir Taylor-Entwicklung:
f (x) = f (x
0
) + f

(x
0
)(x x
0
) +o(|x x
0
|) f (x) f (x
0
) + f

(x
0
)(x x
0
).
Die Funktion f wird also in der N ahe von x
0
gut durch eine lineare Funktion mit
Steigung f

(x
0
) dargestellt. Dies wird in der Numerischen Mathematik noch eine
wichtige Rolle, z.B. in Verfahren zur Bestimmung von Nullstellen, spielen.
Matrix-Vektor-Multiplikation. F ur die Vektorr aume V =K
n1
,W =K
m1
ist die Matrix-
Vektor-Multiplikation mit einer Matrix A K
mn
,
F
A
: K
n1
K
m1
, F
A
(x) = Ax,
eine lineare Abbildung:
F
A
(x +y) = A(x +y) =Ax +Ay =F
A
(x) +F
A
(y).
Wir werden im Verlauf dieses Kapitels noch feststellen, dass alle linearen Abbildun-
gen zwischen endlichdimensionalen Vektorr aumen als Matrix-Vektor-Multiplikationen
aufgefasst werden k onnen.
F ur mehrdimensionale Funktionen haben lineare Abbildungen eine ahnliche Bedeu-
tung wie oben f ur eindimensionale Funktionen. Ist f : K
n1
K
m1
stetig differen-
zierbar, dann l asst sich das Verhalten von f = ( f
1
(x), . . . , f
m
(x))
T
in der N ahe von
x
(0)
K
n1
wie folgt approximieren:
f (x) f (x
0
) +J
f
(x
0
)(x x
(0)
), mit J
f
=
_
_
_
_
f
1
x
1

f
1
x
n
.
.
.
.
.
.
f
m
x
1

f
m
x
n
_
_
_
_
.
Integral. F ur den Vektorraum C
0
([0, 1]) der auf dem Intervall [0, 1] stetigen reellen Funk-
tionen ist das Integral eine lineare Abbildung:
S : C
0
([0, 1]) C
0
([0, 1]), [S( f )](x) :=
_
x
0
f (t) dt.
Ableitung. F ur den Vektorraum C

([0, 1]) der auf dem Intervall [0, 1] unendlich oft diffe-
renzierbaren reellen Funktionen ist die Ableitung eine lineare Abbildung:
D : C

([0, 1]) C

([0, 1]), [D( f )](x) := f

(x).
5.1. Denitionen und Eigenschaften Version 20. Juli 2011 85
Zahlenfolgen. Sei V der Vektorraumaller Zahlenfolgen uber K. Dann ist der Shift-Operator
: V V, (v
0
, v
1
, v
2
, . . .) := (v
1
, v
2
, v
3
, . . .)
eine lineare Abbildung.
Die Menge aller linearen Abbildungen wird mit L(V,W) bezeichnet.
Denition 5.2 (i) Eine bijektive lineare Abbildung nennt man Isomorphismus. Findet
man f ur zwei Vektorr aume V,W einen Isomorhpismus f L(V,W) so sind V und W
isomorph zueinander und man schreibt
V

=W.
(ii) F ur V =W heisst jede lineare Abbildung f L(V,V) Endomorphismus. Ist dar uber
hinaus f bijektiv, so nennt man f Automorphismus.
Anwendung von Denition 5.2 auf den Spezialfall V = K
n
, W = K
m
ergibt f ur die zu einer
Matrix A K
mn
geh origen linearen Abbildung F
A
:
F
A
Isomorphismus m = n und A invertierbar F
A
Automorphismus.
Im folgenden wollen wir einige grundlegende Eigenschaften von linearen Abbildungen
kennenlernen.
Denition 5.3 Seien V,W Vektorr aume uber K und F L(V,W). Dann sind der Kern [null
space] und das Bild [image] von f wie folgt deniert:
Kern(F) :={v V : F(v) = 0}, Bild(F) :={F(v) : v V}.
Wir k onnen diese Begriffe noch ein wenig allgemeiner fassen. F ur eine Teilmenge

V V
ist
F(

V) :={F(v) : v

V}.
Es gilt insbesondere F(V) = Bild(F). F ur eine Teilmenge

W W ist
F
1
(

W) :={v V : F(v)

W}.
(Diese Schreibweise verwendet man unabh angig davon, ob die Abbildung eine Umkehrab-
bildung besitzt oder nicht. Nur wenn F bijektiv ist, entspricht F
1
der Umkehrabbildung.)
Im Folgenden werden einelementige Mengen immer mit Ihrem (einzigen) Element identi-
ziert, insbesondere schreibt man k urzer F
1
(w) =F
1
({w}). Es gilt F
1
(0) :=Kern(F).
Lemma 5.4 Seien V,W Vektorr aume uber K. Dann gelten die folgenden Aussagen f ur F
L(V,W).
(i) F(
1
v
1
+ +
n
v
n
) =
1
F(v
1
) + +
n
F(v
n
) f ur
1
, . . . ,
n
K, v
1
, . . . , v
n
V.
(ii) Ist

V Unterraum von V, so ist auch F(

V) Unterraum von W. Ist



W Unterraum von
W, so ist auch f
1
(

W) Unterraum von V.
(iii) Ist (v
i
)
iI
linear abh angige Familie in V, so ist auch
_
F(v
i
)
_
iI
linear abh angige
Familie in W.
(iv) Ist (v
i
)
iI
linear unabh angige Familie in V und F injektiv, so ist auch
_
F(v
i
)
_
iI
linear unabh angige Familie in W.
86 Version 20. Juli 2011 Kapitel 5. Lineare Abbildungen
(v) Kern(F) ={0} genau dann wenn F injektiv ist.
(vi) Bild(F) =W genau dann wenn F surjektiv ist.
(vii) Ist F Isomorphismus, so ist F
1
L(W,V).
BEWEIS: Zu (i). Folgt direkt aus wiederholter Anwendung von (5.1).
Zu (ii). Da 0

V F(0) F(

V), ist die Menge F(

V) nicht leer. Seien nun F(v


1
), F(v
2
)
F(

V). Da

V Unterraum ist, gilt

1
F(v
1
) +
2
F(v
2
) = F(
1
v
1
+
2
v
2
. .

V
) F(

V)
und damit ist F(

V) auch Unterraum.
Da stets 0 F
1
(

W) ist diese Menge nicht leer. Seien nun v
1
, v
2
F
1
(

W), also
F(v
1
), F(v
2
)

W. Da

W Unterraum ist, gilt
F(
1
v
1
+
2
v
2
) =
1
F(v
1
) +
2
F(v
2
)

W
und damit ist F
1
(

W) auch Unterraum.
Zu (iii). Aus
1
v
1
+ +
n
v
n
= 0, mit einem
j
= 0, folgt wegen (i) die Beziehung

1
F(v
1
) + +
n
F(v
n
) = 0.
Zu (iv). Sei I
0
I endliche Indexmenge mit einer entsprechenden Linearkombination

iI
0

i
F(v
i
) =0. Wegen (i) folgt F
_

iI
0

i
v
i
_
=0. Da F(0) =0 und F injektiv, impliziert
dies
iI
0

i
v
i
= 0. Da (v
i
)
iI
linear unabh angig, folgt
i
= 0 f ur alle i I
0
.
Zu (v). Sei F(v
1
) = F(v
2
). Dann gilt 0 = F(v
1
) F(v
2
) = F(v
1
v
2
) und zusammen
mit Kern(F) ={0} folgt v
1
v
2
= 0 bzw. v
1
= v
2
. Die andere Richtung ist trivial.
(vi) folgt direkt aus der Denition von Surjektivit at.
Zu (vii). Da F bijektiv, ist F
1
Abbildung und es bleibt deren Linearit at zu uberpr ufen.
F ur w
1
, w
2
W gibt es v
1
, v
2
V mit w
1
= F(v
1
), w
2
= F(v
2
) und unter Ausnutzung der
Linearit at von F folgt
F
1
(
1
w
1
+
2
w
2
) = F
1
(
1
F(v
1
) +
2
F(v
2
)) = F
1
(F(
1
v
1
+
2
v
2
)
=
1
v
1
+
2
v
2
=
1
F
1
(w
1
) +
2
F
1
(v
2
).
Also ist F
1
linear.
Als Korollar von Lemma 5.4 (ii) ergibt sich, dass Kern(F) und Bild(F) Unterr aume
von V bzw. W sind.
5.1.1 Die Dimensionsformel
Wir wollen im folgenden die Dimensionen von Bild und Kern einer linearen Abbildung
untersuchen, unter der Voraussetzung, dass V endlichdimensionaler Vektorraum ist. Die
Dimension des Bildes von F L(V,W) wird als Rang von F bezeichnet. Mitunter schreibt
man auch Rang(F) := dimBild(F); wir werden dies aber im weiteren nicht verwenden.
Beispiel 5.1: F ur den Spezialfall V = K
n
, W = K
m
und f ur die zu einer Matrix A = (a
1
, . . . , a
n
)
K
mn
geh origen linearen Abbildung F
A
wissen wir bereits aus der Diskussion von Beispiel 4.1 (ii),
dass
Bild(F
A
) = Bild(A) = span(a
1
, . . . , a
n
).
Das Bild von F
A
ist also gerade der Spaltenraum von A. Aus der Treppennormalform von A sieht man
leicht, dass die Dimension des Spaltenraums gerade Rang(A) ist. Wir haben also dimBild(F
A
) =
Rang(A).
5.1. Denitionen und Eigenschaften Version 20. Juli 2011 87
Aus Lemma 5.4 (iii) folgt die Beziehung
dimBild(F) dimV (5.2)
f ur beliebiges F L(V,W). Der folgende Satz quantiziert wie weit die beiden Seiten in
der Ungleichung (5.2) voneinander entfernt sind.
Satz 5.5 Sei F L(V,W) mit V endlichdimensional. Dann gilt die Dimensionsformel
dimV = dimBild(F) +dimKern(F).
BEWEIS: Sei r := dimBild(F) und k := dimKern(F). Dann gibt es eine Basis w
1
, . . . , w
r
von Bild(F) sowie eine Basis v
1
, . . . , v
k
von Kern(F). Wir w ahlen beliebige Vektoren
u
1
F
1
(w
1
), u
2
F
1
(w
2
), . . . , u
r
F
1
(w
r
).
Die Aussage des Satzes ist bewiesen, wenn wir zeigen k onnen, dass
u
1
, . . . , u
r
, v
1
, . . . , v
k
(5.3)
eine Basis von V bildet. Sei dazu v V beliebig. Dann hat F(v) eine Darstellung
F(v) =
1
w
1
+ +
r
w
r
,
1
, . . . ,
r
K.
Setze v :=
1
u
1
+ +
r
u
r
. Dann gilt
F(v v) =F(v)F( v) =F(v)
1
F(u
1
)
r
F(u
r
) =F(v)
1
w
1

r
w
r
=0.
Also ist v v Kern(F) und hat eine Darstellung
v v =
1
v
1
+ +
k
v
k
,
1
, . . . ,
k
K.
Insgesamt gilt also
v = v +v v =
1
u
1
+ +
r
u
r
+
1
v
1
+ +
k
v
k
und damit ist (5.3) Erzeugendensystem f ur V. Sei nun
0 =
1
u
1
+ +
r
u
r
+
1
v
1
+ +
k
v
k
. (5.4)
Anwendung von F auf beide Seiten ergibt 0 =
1
w
1
+ +
r
w
r
. Da w
1
, . . . , w
r
Basis, folgt

1
= =
r
= 0. Einsetzen in (5.4) zieht
1
= =
k
= 0 nach sich, da auch v
1
, . . . , v
k
Basis ist. Also ist (5.3) linear unabh angig und damit eine Basis.
Korollar 5.6 Seien V,W endlichdimensionale Vektorr aume uber K mit dimV = dimW.
Dann sind die folgenden Aussagen f ur F L(V,W) aquivalent:
(i) F ist injektiv;
(ii) F ist surjektiv;
(iii) F ist bijektiv.
Korollar 5.7 Seien V,W Vektorr aume uber K mit V endlichdimensional. Dann gilt V

=W
genau dann, wenn W endlichdimensional ist und dimV = dimW.
BEWEIS: Ist V

=W, dann gibt es einen Isomorphismus F L(V,W), f ur den Bild(F) =
W und Kern(F) = {0} gelten. Aus der Dimensionsformel von Satz 5.5 folgt dimV =
dimBild(F) +dimKern(F) = dim(W).
Die andere Richtung, die Konstruktion eines Isomorphismus zwischen Vektorr aumen
gleicher Dimension, zeigen wir in Satz 5.9 unten.
88 Version 20. Juli 2011 Kapitel 5. Lineare Abbildungen
5.1.2 Verkettung von linearen Abbildungen
Die Verkettung von linearen Abbildungen ergibt wieder eine lineare Abbildung.
Satz 5.8 Seien U,V,W Vektorr aume uber K und F L(V,W), G L(U,V). Dann ist
F G L(U,W).
BEWEIS:
(F G)(
1
v
1
+
2
v
2
) = F(G(
1
v
1
+
2
v
2
))
G linear
= F(
1
G(v
1
) +
2
G(v
2
))
F linear
=
1
F(G(v
1
)) +
2
F(G(v
2
))
=
1
(F G)(v
1
) +
2
(F G)(v
2
).
Die Reihenfolge der Abbildungen von Satz 5.8 veranschaulicht man sich am besten in
einem Diagramm:
U
FG

@
@
@
@
@
@
@
W
V
F

~
~
~
~
~
~
~
Abb(V,W), die Menge aller Abbildungen von V nach W, bildet einen Vektorraum mit den
folgenden Verkn upfungen f ur F
1
, F
2
Abb(V,W) und K:
(F
1
+F
2
)(v) := F
1
(v) +F
2
(v), ( F
1
)(v) := F
1
(v). (5.5)
Man kann ohne grosse M uhe zeigen, dass L(V,W) einen Unterraum von Abb(V,W) bildet.
F ur V =W bildet die Menge der Endomorphismen L(V,V) zusammen mit der Addition
wie in (5.5) und der Verkettung als Multiplikation einen Ring.
5.2 Koordinaten und Matrizen
Im folgenden wollen wir die Beziehungen zwischen linearen Abbildungen und Matrizen
n aher untersuchen. Wir wissen bereits, dass jede Matrix eine lineare Abbildung durch
Matrix-Vektor-Multiplikation induziert. Wir werden sehen, dass im gewissen Sinn auch
die umgedrehte Aussage gilt. Zun achst holen wir die fehlende Richtung im Beweis von
Korollar 5.7 nach.
Satz 5.9 Seien V,W endlichdimensionale Vektorr aume uber K mit dim(V) = dim(W) =
n und entsprechenden Basen v
1
, . . . , v
n
bzw. w
1
, . . . , w
n
. Dann gibt es genau eine lineare
Abbildung F : V W mit
F(v
i
) = w
i
, i = 1, . . . , n. (5.6)
Diese Abbildung ist ein Isomorphismus.
5.2. Koordinaten und Matrizen Version 20. Juli 2011 89
BEWEIS: Sei v V mit der Darstellung v =
1
v
1
+ +
n
v
n
mit
1
, . . . ,
n
K. Diese
Darstellung ist nach Lemma 4.10 eindeutig. Setze
F(v) :=
1
w
1
+ +
n
w
n
.
Dann erf ullt F offenbar (5.6). Wir zeigen nun, dass F linear ist. Betrachte dazu einen wei-
teren Vektor v V mit der Darstellung v =
1
v
1
+ +
n
v
n
. F ur ,

K erhalten wir
daraus eine Darstellung f ur die entsprechende Linearkombination:
v +

v =
n

i=1
(
i
+


i
)v
i
.
Nun folgt die Linearit at von F aus
F(v +

v) =
n

i=1
(
i
+


i
)w
i
=
n

i=1

i
w
i
+

i=1

i
w
i
=F(v) +

F( v).
Ausserdem gilt Kern(F) = {0}; also ist F injektiv wegen Lemma 5.4 (v) und damit Iso-
morphismus wegen Korollar 5.6.
Sei

F eine weitere lineare Abbildung, die (5.6) erf ullt. Dann gilt f ur beliebiges v =

1
v
1
+ +
n
v
n
, dass
F(v)

F(v) = F
_ n

i=1

i
v
i
_


F
_ n

i=1

i
v
i
_
=
n

i=1

i
_
F(v
i
)

F(v
i
)
_
= 0.
Also ist F =

F eindeutig bestimmt.
F ur uns ist vor allem der Spezialfall K
n1
von Interesse.
Korollar 5.10 Sei V Vektorraum uber K mit einer Basis B = (v
1
, . . . , v
n
). Dann gibt es
genau einen Isomorphismus

B
: K
n1
V mit
B
(e
i
) = v
i
, i = 1, . . . , n,
wobei e
1
, . . . , e
n
die kanonische Basis im K
n1
ist. Man nennt
B
das (durch Bbestimmte)
Koordinatensystem von V.
F ur einen gegebenen Vektor v V bezeichnet man x =
1
B
(v) als die Koordinaten von v.
Um diese zu bestimmen, muss zun achst die Basisdarstellung von v gefunden werden,
v =
1
v
1
+ +
n
v
n
, (5.7)
und danach werden die Koefzienten einfach in einen Spaltenvektor geschrieben: x =
(
1
, . . . ,
n
)
T
. Die Bestimmung von (5.7) ist f ur sehr spezielle Basen trivial; im allgemeinen
muss hierbei aber ein LGS gel ost werden.
Einige Beispiele:
Polynome. Betrachte K
n
[t], den Vektorraum der Polynome vom Grad h ochstens n und die
Basis der Monome: A = (1, t, . . . , t
n
).

Ublicherweise werden Polynome genau in
dieser Basis dargestellt:
p =
0
+
1
t + +
n
t
n

1
A
(p) = (
0
,
1
, . . . ,
n
)
T
.
Sei nun
B= (v
0
, v
1
, . . . , v
n
) = (1, 1+t, 1+t +t
2
, . . . , 1+t + +t
n
)
90 Version 20. Juli 2011 Kapitel 5. Lineare Abbildungen
eine weitere Basis. Um f ur ein gegebenes Polynom p =
0
+
1
t + +
n
t
n
die Dar-
stellung in dieser Basis zu bestimmen, setzen wir in den Ansatz p =
0
v
0
+
n
v
n
die Beziehung v
i
= 1+t + +t
i
ein und erhalten
p =
n

j=0

j
v
j
=
n

j=0
j

i=0

j
t
i
=
n

i=0
_ n

j=i

j
)t
i
.
Koefzientenvergleich mit p =
0
+
1
t + +
n
t
n
ergibt das LGS
n

j=i

j
=
i
, i = 1, . . . , n
_
_
_
_
_
_
1 1 1
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
0 0 1
_
_
_
_
_
_
_
_
_
_
_

1
.
.
.

n
_
_
_
_
_
=
_
_
_
_
_

1
.
.
.

n
_
_
_
_
_
.
Die L osung dieses LGS, das man einfach mit R uckw artseinsetzen l osen kann, ergibt
die Koordinaten
1
B
(p).
Stetige, st uckweise lineare Funktionen. Wir betrachten auf dem Intervall [0, 1] eine Un-
terteilung in n gleich grosse Teilintervalle [0, h], [h, 2h], . . . , [(n1)h, 1] mit h = 1/n.
Sei V der Vektorraum der reellen Funktionen, die auf jedem Teilintervall linear (also
von der Form t +) und auf dem gesamten Intervall stetig sind.
F ur n = 4 ist eine solche Funktion in der rechten
Abbildung dargestellt. Eine Basis f ur V l asst sich
wie folgt denieren:
b
0
(t) := max{1t/h, 0},
b
i
(t) :=
_
_
_
(t (i 1)h)/h, t [(i 1)h, ih)],
(t (i +1)h)/h, t [ih, (i +1)h)],
0, sonst,
b
n
(t) := max{(t (n1)h)/h, 0},
mit i = 1, . . . , n1.
0 0.2 0.4 0.6 0.8 1
2
1
0
1
2
3
Illustration der 5 Basisfunktionen f ur n = 4:
0
0.5
1
0
0.5
1
0
0.5
1
0
0.5
1
0
0.5
1
Die Darstellung einer gegebenen st uckweisen linearen Funktion f ist einfach
f (t) = f (0)b
0
(t) + f (h)b
1
(t) + + f
_
(n1)h
_
b
n1
(t) + f (1)b
n
(t).
Die Koordinaten von f sind also
_
f (0), f (h), . . . , f (1)
_
T
. F ur die oben dargestellte
Funktion sind die Koordinaten (3, 1, 1, 2, 2)
T
.
5.2. Koordinaten und Matrizen Version 20. Juli 2011 91
5.2.1 Matrixdarstellung von linearen Abbildungen
Seien weiterhin V,W endlichdimensionale Vektorr aume uber K mit Basen V = (v
1
, . . . , v
n
)
bzw. W = (w
1
, . . . , w
m
). F ur F L(V,W) haben wir das folgende Diagramm
V
F

W
K
n1
F
V ,W

K
m1

Aufgrund von Lemma 5.4 (vii) und Satz 5.8 ist


F
V ,W
:=
1
W
F
V
(5.8)
lineare Abbildung von K
n1
nach K
m1
. Das folgende Lemma zeigt, dass es genau eine
Matrix gibt, welche diese lineare Abbildung beschreibt.
Lemma 5.11 Sei F L(K
n1
, K
m1
). Dann gibt es genau eine Matrix A K
mn
, so dass
F(x) = Ax.
BEWEIS: F ur x = e
j
mit dem j-ten Einheitsvektor e
j
folgt Ae
j
= F(e
j
), deswegen muss
A die Form A =
_
F(e
1
), F(e
2
), . . . , F(e
n
)
_
haben. Ausserdem gilt
Ax =
n

i=1
x
i
F(e
i
) = F
_ n

i=1
x
i
e
i
_
= F(x).
Denition 5.12 Die gem ass Lemma 5.11 zu F
V ,W
geh orige Matrix heisst die Matrixdar-
stellung [matrix representation] von F L(V,W) bez uglich der Basen V von V und W
von W. Diese Matrix wird mit [F]
V ,W
bezeichnet.
Die obige Herleitung war recht abstrakt und wir werden daher im Folgenden das kon-
krete Vorgehen zur Bestimmung einer Matrixdarstellung erl autern. Nach dem Beweis von
Lemma 5.11 ist die j-te Spalte a
j
von [F]
V ,W
durch
a
j
= F
V ,W
(e
j
) =
1
W
_
F
_

V
(e
j
)
__
=
1
W
_
F(v
j
))
gegeben. F ur F(v
j
) W gibt es eindeutig bestimmte Koefzienten a
1 j
, . . . , a
mj
K, so dass
F(v
j
) = a
1 j
w
1
+a
2 j
w
2
+ +a
mj
w
m
.
Also folgt schlussendlich
F
V ,W
(e
j
) =
_
_
_
a
1 j
.
.
.
a
mj
_
_
_ [F]
V ,W
=
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
m1
a
mn
_
_
_. (5.9)
Beispiel 5.2: Sei V =W =R
3
[t] und betrachte die Ableitung
D L(V,V), D(p) := p

.
92 Version 20. Juli 2011 Kapitel 5. Lineare Abbildungen
Als Basis vonV sei A = (1, t, t
2
, t
3
) gew ahlt. Umdie entsprechende Matrixdarstellung zu bestimmen,
wird D auf die einzelnen Basisvektoren angewandt:
D(1) = 0, D(t) = 1, D(t
2
) = 2t, D(t
3
) = 3t
2
.
In diesem Fall kann man die Darstellung der erhaltenen Vektoren in A einfach ablesen und es folgt
[D]
A,A
=
_
_
_
_
0 1 0 0
0 0 2 0
0 0 0 3
0 0 0 0
_
_
_
_
. (5.10)

Satz 5.13 Seien V , W Basen von endlichdimensionalen Vektorr aumenV,W und n =dim(V),
m = dim(W). Dann ist die Abbildung
L(V,W) K
mn
, F [F]
V ,W
,
ein Isomorphismus, also gilt L(V,W)

= K
mn
.
BEWEIS: Der Nachweis der Linearit at erfolgt durch einfaches Nachrechnen. Es bleibt zu
uberpr ufen, dass der Kern der Abbildung trivial ist. Sei dazu [F]
V ,W
= 0 K
mn
, also

1
W
F
V
= 0
W

1
W
F
V

1
V
= 0 F = 0.
Das folgende sehr elegante Resultat zeigt, dass die Verkettung von linearen Abbildun-
gen der Multiplikation von Matrizen entspricht.
Satz 5.14 Seien U,V,W endlichdimensionale Vektorr aume mit Basen U , V , W . F ur linea-
re Abbildungen G : U V und F : V W gilt:
[F G]
U ,W
= [F]
V ,W
[G]
U ,V
.
BEWEIS: Setze m = dim(U), n = dim(V), r = dim(W) und A = [F]
V ,W
, B = [G]
U ,V
.
Dann gilt das folgende kommutative Diagramm
19
:
U
G

H
H
H
H
H
H
H
H
H
H
FG

W
V
F

v
v
v
v
v
v
v
v
v
v
K
n1

G
G
G
G
G
G
G
G
K
m1
B

w
w
w
w
w
w
w
w
w
AB

K
r1

19
In dieser Vorlesung ist ein Diagramm immer ein gerichteter Graph mit Vektorr aumen als Knoten und li-
nearen Abbildungen als gerichtete Kanten. Ist die lineare Abbildung in einer Richtung der Kante bijektiv, so
entspricht die R uckrichtung der inversen Abbildung. Ein Weg durch dem Graph beschreibt eine Verkettung der
linearen Abbildungen auf den durchlaufenen Kanten. Ein Diagramm heisst kommutativ, wenn f ur zwei beliebig
gew ahlte Knoten jeder Weg zwischen diesen beiden Knoten die gleiche lineare Abbildung ergibt. Im vorliegenden
Fall ist das Diagramm kommutativ, weil alle drei- und viereckigen Teildiagramme kommutativ sind.
5.2. Koordinaten und Matrizen Version 20. Juli 2011 93
Aus diesem Diagramm l asst sich die gew unschte Beziehung ablesen, indem man zwei
verschiedene Wege von K
m1
nach K
r1
w ahlt: AB = [F G]
U ,W
.
Wem das zu schnell ging, das ganze noch einmal zu Fuss f ur einen beliebigen Vektor
x K
m1
:
ABx =
_

1
W
F
V

1
V
G
U
_
(x) =
_

1
W
(F G)
U
_
(x).
Korollar Seien V , W Basen von endlichdimensionalen Vektorr aumenV,W mit dim(V) =
dim(W). Dann gilt f ur einen Isomorphismus F L(V,W):
_
F
1

W ,V
= [F]
1
V ,W
.
BEWEIS: Aus Satz 5.14 folgt
_
F
1

W ,V
[F]
V ,W
=
_
F
1
F

V ,V
= [I]
V ,V
= I
dim(V)
,
wobei I : V V die Identit at ist. Damit ist
_
F
1

W ,V
inverse Matrix von [F]
V ,W
.
5.2.2 Koordinatentransformationen
Im Beispiel auf Seite 89 waren zwei Basen A, B f ur Polynome vom Grad h ochstens 3
gegeben und wir sind von der Basis A (in der die Darstellung einfach ist) zur Basis B
gewechselt. F ur die Bestimmung der neuen Koordinaten nach diesem Basiswechsel war die
L osung eines LGS notwendig. Dies wollen wir nun im Allgemeinen durchf uhren. Seien
A = (v
1
, . . . , v
n
), B= (w
1
, . . . , w
n
)
Basen eines Vektorraums V, mit den zugeh origen Koordinatensystemen
A
: K
n1
V,

B
: K
n1
V. Das dazugeh orige Diagramm:
K
n1
I
A,B

D
D
D
D
D
D
D
D
K
n1

B
z
z
z
z
z
z
z
z
V
F ur die Abbildung I
A,B
: K
n1
K
n1
von den Koordinaten in A zu den Koordinaten in
B gilt also
I
A,B
=
1
B

A
.
Also ist [I]
A,B
gerade die Matrixdarstellung der Identit atsabbildung I : V V, I(v) = v.
Diese Matrix wird als Transformationsmatrix oder Basis ubergangsmatrix bezeichnet.
Um [I]
A,B
K
nn
zu bestimmen, sammelt man die Koefzienten der Basisdarstellungen
v
j
= a
1 j
w
1
+a
2 j
w
2
+ +a
n j
w
n
wie in (5.9) in einer Matrix. Die Bestimmung der Koordinaten von v
j
erfordert im allge-
meinen die L osung eines linearen Gleichungssystems.
Im wichtigen Spezialfall V = K
n1
k onnen wir die Basiselemente von A und B in
Spalten von Matrizen
A =
_
v
1
, . . . , v
n
_
K
nn
, B =
_
w
1
, . . . , w
n
_
K
nn
94 Version 20. Juli 2011 Kapitel 5. Lineare Abbildungen
schreiben. Dann gilt Ax =
A
(x), Bx =
B
(x) und wir erhalten aus Satz 5.14 die Ma-
trixdarstellung
[I]
A,B
= B
1
A.
Wir kommen jetzt zum zentralen Resultat dieses Abschnitts, das beschreibt wie sich die
Darstellungsmatrizen bei einem Wechsel der Basen im Bild- und Urbildraum andern.
Satz 5.15 Seien V,W endlichdimensionale Vektorr aume, V , V

Basen von V sowie


W , W

Basen von W. Dann gilt f ur die Matrixdarstellungen von F L(V,W) in den je-
weiligen Basispaaren die folgende Beziehung:
[F]
V

,W
= [I]
W ,W
[F]
V ,W
[I]
1
V ,V

. (5.11)
BEWEIS: Wir betrachten das folgende Diagramm:
K
n1

D
D
D
D
D
D
D
D F
V ,W

I
V ,V

K
m1

W
.y
y
y
y
y
y
y
y
I
W ,W

V
F

W
K
n1

z
z
z
z
z
z
z
z F
V

,W

K
m1

E
E
E
E
E
E
E
E
Jedes der Teildiagramme ist kommutativ; also ist das gesamte Diagramm kommutativ. Ins-
besondere ergibt sich:
F
V

,W
= I
W ,W
F
V ,W
I
1
V ,V

indem man entsprechende Wege durch das Diagramm w ahlt. Anwendung von Satz 5.14
und den darauffolgenden Korollar ergibt (5.11).
Satz 5.11 zeigt, dass zwei Matrixdarstellungen einer linearen Abbildung immer aquiva-
lent zueinander sind, im Sinne der

Aquivalenz von Matrizen aus Abschnitt 3.3.
Korollar 5.16 Sei F L(V,W). Dann gibt es Basen V

, W

, so dass
[F]
V

,W
=
_
I
r
0
0 0
_
, (5.12)
wobei r = dimBild(V).
BEWEIS: Betrachte die Matrix [F]
V ,W
f ur beliebige Basen V = (v
1
, . . . , v
n
), W = (w
1
, . . . , w
m
)
von V bzw. W. Nach Satz 3.9 gibt es invertierbare Matrizen P K
mm
, Q K
nn
, so dass
_
I
r
0
0 0
_
= P[F]
V ,W
Q
1
. (5.13)
W ahle jetzt V

= (v

1
, . . . , v

n
) mit v

j
:=
V
_
Q
1
V
(v
j
)
_
, also gilt [I]
V ,V
= Q. Analog
kann W

mit [I]
W ,W
= P gew ahlt werden. Eingesetzt in (5.13) folgt aus Satz 5.11 die
Beziehung (5.12).
F ur einem Endomorphismus F L(V,V) w ahlt man im Bild- und Urbildraum die glei-
che Basis V . Bei einem Basiswechsel von V zu V

andert sich die Darstellungsmatrix


gem ass Satz 5.11 wie folgt:
[F]
V

,V
= [I]
V ,V
[F]
V ,V
[I]
1
V ,V

. (5.14)
Diese Transformation ist spezieller als eine

Aquivalenztransformation.
5.2. Koordinaten und Matrizen Version 20. Juli 2011 95
Denition 5.17 Zwei Matrizen A, B K
nn
heissen ahnlich [similar] zueinander wenn es
eine invertierbare Matrix P K
nn
gibt mit A = PBP
1
.
Wie

Aquivalenz ist auch

Ahnlichkeit von Matrizen eine

Aquivalenzrelation auf K
nn
. Al-
lerdings ist es bei

Ahnlichkeit wesentlich schwieriger einen m oglichst einfachsten

Aqui-
valenzklassenvertreter (also auch eine m oglichst einfache Darstellung eines Endomorphis-
mus) zu nden.
Beispiel 5.3: Wir setzen Beispiele 5.1 und 5.2 fort. Die Darstellung der Ableitung D L(V,V)
mit V = R
3
[t] bez uglich der Standardbasis A = (1, t, t
2
, t
3
) ist in (5.10) gegeben. F ur die Basis
B= (1, 1+t, 1+t +t
2
, 1+t +t
2
+t
3
) gilt
[I]
B,A
=
_
_
_
_
1 1 1 1
0 1 1 1
0 0 1 1
0 0 0 1
_
_
_
_
[I]
A,B
= [I]
1
B,A
=
_
_
_
_
1 1 0 0
0 1 1 0
0 0 1 1
0 0 0 1
_
_
_
_
.
Also ist die Darstellung von D bez uglich B die Matrix
[D]
B,B
= [I]
A,B
[D]
A,A
[I]
1
A,B
=
_
_
_
_
1 1 0 0
0 1 1 0
0 0 1 1
0 0 0 1
_
_
_
_
_
_
_
_
0 1 0 0
0 0 2 0
0 0 0 3
0 0 0 0
_
_
_
_
_
_
_
_
1 1 0 0
0 1 1 0
0 0 1 1
0 0 0 1
_
_
_
_
1
=
_
_
_
_
0 1 1 1
0 0 2 1
0 0 0 3
0 0 0 0
_
_
_
_
.
Eine Probe:
p = 1+t +t
2
+t
3

1
B
(p) =
_
_
_
_
0
0
0
1
_
_
_
_
[D]
B,B

1
B
(p) =
_
_
_
_
1
1
3
0
_
_
_
_
und damit

B
_
[D]
B,B

1
B
(p)
_
=1(1+t) +3(1+t +t
2
) = 1+2t +3t
2
= p

96 Version 20. Juli 2011 Kapitel 5. Lineare Abbildungen


Kapitel 6
Determinanten
Determinanten von Matrizen und linearen Abbildungen spielten in der historischen Ent-
wicklung der linearen Algebra eine wichtige Rolle. Vor der Entwicklung der modernen
an Matrizen orientierten Darstellung im 20. Jahrhundert, wurden Aussagen und Beweise
vorzugsweise in der Sprache von Determinanten ausgedr uckt. Heute ist dies zum Gl uck
anders
20
; Determinanten tragen aber weiterhin zum theoretischen Verst andnis bei, insbe-
sondere im n achsten Kapitel beim Nachweis der Existenz von Eigenwerten.
6.1 Denition
Wir erinnern daran, dass S
n
die Menge aller Permutationen von {1, 2, . . . , n}, also die Men-
ge aller bijektiven Abbildungen
: {1, 2, . . . , n} {1, 2, . . . , n}.
bezeichnet. Im folgenden wird das Vorzeichen einer Permutation eine wichtige Rolle spie-
len.
Denition 6.1 Sei S
n
mit n 2.
(i) Ein Paar (i, j) NN mit 1 i < j n heisst Fehlstand (auch: Inversion) von
wenn (i) >( j).
(ii) Sei k die Anzahl aller Fehlst ande von . Dann heisst sgn() := (1)
k
das Vorzei-
chen [sign] von .
F ur n = 1 gibt es nur eine Permutation, n amlich id S
1
, deren Vorzeichen als 1 deniert
wird. Auch f ur n > 1 hat id S
n
keine Fehlst ande und es gilt sgn(id) = 1.
Beispiel 6.1: Die Permutation
=
_
1 2 3 4
1 4 2 3
_
hat die Fehlst ande (2, 3), (2, 4); also gilt sgn() = (1)
2
= 1.
20
Wer sich einmal die M uhe macht und eine fr uhe Arbeit der linearen Algebra aus dem G ottinger Digitalisie-
rungszentrum (http://gdz.sub.uni-goettingen.de) herunterl adt und durchliest, wird tiefe Dankbar-
keit f ur die modernere Darstellung empnden.
97
98 Version 20. Juli 2011 Kapitel 6. Determinanten
Denition 6.2 Sei R kommutativer Ring mit Eins. Die Determinante [determinant ] einer
Matrix A R
nn
ist
det(A) :=

S
n
sgn()
n

i=1
a
i,(i)
. (6.1)
Zun achst (6.1) noch einmal in Worten: F ur eine feste Permutation wird in der i-ten Zeile
von A genau ein Eintrag entsprechend dem Wert der Permutation an der Stelle i ausgew ahlt.
Das Produkt der n ausgew ahlten Eintr age wird mit dem Vorzeichen der Permutation ver-
sehen und letztendlich werden diese Produkte f ur alle m oglichen Permutationen zusam-
menaddiert. Man beachte, dass es insgesamt n! Permutationen gibt; die Berechnung der
Determinante wird also sehr schnell un uberschaubar und f ur gr ossere n extrem aufw andig.
Wir werden in Abschnitt 6.4.1 eine M oglichkeit zur Berechnung kennenlernen, die wesent-
lich weniger aufw andig ist.
Bemerkung 6.3 Die Determinante ist ein Beispiel f ur eine Funktion, die linear in jedem
Eintrag von A ist.
21
Eine solche Funktion nennt man multilinear. Ein weiteres (nicht ganz
so wichtiges) Beispiel f ur eine multilineare Funktion auf nn-Matrizen ist die Permanen-
te:
perm(A) :=

S
n
n

i=1
a
i,(i)
.
Diese Denition unterscheidet sich scheinbar nur unwesentlich von Determinanten. Um-
so erstaunlicher ist es, dass es f ur Permanenten keinen efzienten Algorithmus gibt; die
Berechnung ist im allgemeinen NP-hart bez uglich n.
22
Determinanten spezieller Matrizen.
11-Matrizen. F ur eine 1x1-Matrix A = (a
11
) gilt per Denition: det(A) = a
11
.
22-Matrizen. F ur n = 2 gibt es zwei Permutationen

1
=
_
1 2
1 2
_
sgn(
1
) = 1,
1
=
_
1 2
2 1
_
sgn(
2
) =1.
Also gilt f ur die Determinante einer 22-Matrix:
det
_
a
11
a
12
a
21
a
22
_
= a
11
a
22
a
12
a
21
.
33-Matrizen. F ur n = 3 gibt es sechs Permutationen:

1
=
_
1 2 3
1 2 3
_
,
2
=
_
1 2 3
2 3 1
_
,
3
=
_
1 2 3
3 1 2
_
,

4
=
_
1 2 3
3 2 1
_
,
5
=
_
1 2 3
1 3 2
_
,
6
=
_
1 2 3
2 1 3
_
,
mit sgn(
1
) =sgn(
2
) =sgn(
3
) =1 und sgn(
4
) =sgn(
5
) =sgn(
6
) =1. Also
gilt f ur die Determinante einer 33-Matrix:
21
Linearit at ist hier im Sinne von Funktionen gemeint und nicht im Sinne von Abbildungen!
22
F ur Matrizen mit nichtnegativen Eintr agen gibt es zumindest einigermassen efziente approximative Al-
gorithmen; siehe [M. Jerrum, A. Sinclair und E. Vigoda. A polynomial-time approximation algorithm for the
permanent of a matrix with nonnegative entries. J. ACM 51 (2004), Nr. 4, 671697].
6.1. Denition Version 20. Juli 2011 99
det(A) = det
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
= a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
a
13
a
22
a
31
a
11
a
23
a
32
a
12
a
21
a
33
Diese sogenannte Regel von Sarrus l asst sich leichter mit dem folgenden Schema
merken:
+ + +

a
11
a
12
a
13
a
11
a
12
a
21
a
22
a
23
a
21
a
22
a
31
a
32
a
33
a
31
a
32
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Diagonalmatrizen. Bei einer Diagonalmatrix D = diag (d
11
, d
22
, . . . , d
nn
) gibt es nur eine
Permutation f ur die keine der Faktoren d
1,(1)
d
2,(2)
d
n,(n)
zwingend Null ist,
n amlich = id. Also gilt
det
_
diag (d
11
, d
22
, . . . , d
nn
)
_
= d
11
d
22
d
nn
.
Permutationsmatrizen. Betrachte S
n
mit der dazugeh origen Permutationsmatrix
P

=
_
_
_
e
T
(1)
.
.
.
e
T
(n)
_
_
_
Dann ist jeder Summand in (6.1) f ur = Null. Also gilt
det(P

) = sgn()
n

i=1
p
i,(i)
. .
=1
= sgn(). (6.2)
Matrizen mit Nullzeile. Hat die Matrix A R
nn
eine Nullzeile so ist in jedem Summan-
den von (6.1) mindestens ein Faktor Null und somit folgt det(A) = 0.
Umwichtige Eigenschaften von Determinanten nachweisen zu k onnen, ben otigen wir kom-
paktere Charakterisierungen des Vorzeichens.
Lemma 6.4 Sei S
n
. Dann gilt
sgn() =

1i<jn
(i) ( j)
i j
.
100 Version 20. Juli 2011 Kapitel 6. Determinanten
BEWEIS: F ur n = 1 gilt die Formel trivialerweise. Sei nun n > 1. Dann gilt die Beziehung

1i<jn
|( j) (i)| =

1i<jn
( j i). (6.3)
Streng formal sieht man dies wie folgt ein:

i<j
|( j) (i)| =
_

i<j
(i)<( j)
(( j) (i))
__

i<j
( j)<(i)
((i) ( j))
_
=
_

1
(

i)<
1
(

j)

i<

j
(

j

i)
__

1
(

j)<
1
(

i)

i<

j
(

j

i)
_
=

i<

j
(

j

i).
Hierbei wurde im letzten Schritt ausgenutzt, dass f ur jedes

j >

i entweder
1
(

i) <
1
(

j)
oder
1
(

j) <
1
(

i) gelten muss. Der entscheidende Punkt beim Nachweis von (6.3) ist,
dass sich die Faktoren auf der linken Seite beim Vertauschen von i und j nicht andern.
Bezeichnet nun k die Anzahl der Fehlst ande, so gilt

1i<jn
( j) (i)
|( j) (i)|
= (1)
k
= sgn()
und zusammen mit (6.3) folgt die Behauptung.
Satz 6.5 Seien
1
,
2
S
n
. Dann gilt sgn(
1

2
) = sgn(
1
)sgn(
2
).
BEWEIS: Anwendung von Lemma 6.4 ergibt:
sgn(
1

2
) =

1i<jn

1
(
2
(i))
1
(
2
( j))
i j
=
_

1i<jn

1
(
2
(i))
1
(
2
( j))

2
(i)
2
( j)
__

1i<jn

2
(i)
2
( j)
i j
_
=
_

1
2
(i)<
2
( j)n

1
(
2
(i))
1
(
2
( j))

2
(i)
2
( j)
_
sgn(
2
)
=
_

1i<jn

1
(i)
1
( j)
i j
_
sgn(
2
) = sgn(
1
)sgn(
2
).
Hierbei wurde im vorletzten Schritt eine Beziehung ausgenutzt, die sich analog wie 6.3
beweise l asst.
Verwendet man Satz 6.5 mit
1
= und
2
=
1
f ur ein S
n
, so folgt
sgn
_

1
_
= sgn().
Satz 6.5 abstrakter ausgedr uckt: sgn : S
n
{+1, 1} ist Gruppenhomomorphismus zwi-
schen den Gruppen (S
n
, ) und ({+1, 1}, ).
Wir erinnern an den Spezialfall der Transposition von zwei Elementen:
=
_
1 i 1 i i +1 j 1 j j +1 n
1 i 1 j i +1 j 1 i j +1 n
_
, 1 i < j n.
(6.4)
6.2. Eigenschaften Version 20. Juli 2011 101
Man sieht leicht (durch Abz ahlen), dass insgesamt 2( j i) 1 Fehlst ande hat, also gilt
sgn() =1. Jede Permutation l asst sich einfach Schritt f ur Schritt in eine Verkettung von
Transpositionen zerlegen, z.B.:
=
_
1 2 3 4
3 4 2 1
_
=
_
1 2 3 4
1 4 2 3
_

_
1 2 3 4
4 2 3 1
_
=
_
1 2 3 4
1 2 4 3
_

_
1 2 3 4
1 3 2 4
_

_
1 2 3 4
4 2 3 1
_
.
Man sieht leicht, dass weder die Zerlegung an sich noch deren L ange eindeutig sind. Wegen
Satz 6.5 gilt aber zumindest, dass sich eine Permutation immer entweder in eine gerade
Anzahl oder in eine ungerade Anzahl von Transpositionen zerlegen l asst.
Korollar 6.6 F ur S
n
gilt sgn() = +1 (sgn() =1) genau dann wenn sich in eine
gerade (ungerade) Anzahl von Transpositionen zerlegen l asst.
Aufgrund des Resultats von Korollar 6.6 nennt man eine Permutation mit sgn() = 1
gerade und ansonsten ungerade.
6.2 Eigenschaften
Lemma 6.7 Ist A R
nn
obere oder untere Dreiecksmatrix, so gilt
det(A) = a
11
a
22
. . . a
nn
.
BEWEIS: Sei zun achst A untere Dreiecksmatrix. Wir bestimmen alle Permutationen f ur
die das Produkt
n
i=1
a
i,(i)
nicht zwingend Null ist. Es muss (1) = 1 gelten, da in der
ersten Zeile von A nur das Diagonalelement verschieden von Null sein kann. Analog muss
(2) {1, 2} gelten, da aber bereits (1) = 1 gilt und bijektiv ist, folgt (2) = 2. Diese
Argumentation fortgesetzt ergibt (3) = 3, . . . , (n) = n. Also kann das Produkt nur f ur
= id verschieden von Null sein. Daraus folgt die Behauptung.
F ur eine obere Dreiecksmatrix geht man analog in umgedrehter Reihenfolge vor.
Lemma 6.8 Hat A R
nn
, n 2, zwei identische Zeilen, so gilt det(A) = 0.
BEWEIS: Sei A zun achst beliebig und betrachte

A = P
i j
A; in

A sind also die Zeilen i und j
von A vertauscht. Mit der in (6.4) denierten Transposition kann man dies elementweise
schreiben als a
i j
= a
(i), j
. Wir haben
det(

A) =

S
n
sgn()
n

i=1
a
i,(i)
=

S
n
sgn()
n

i=1
a
(i),(i)
k=(i)
=

S
n
sgn()
n

k=1
a
k,(
1
(k))
=
1
=

S
n
sgn( )
n

k=1
a
k,(k)
Satz 6.5
=

S
n
sgn()
n

k=1
a
k,(k)
=det(A).
Sind in A die Zeilen i und j gleich, so gilt

A = A, also det(A) = det(

A) =det(A). Daraus
folgt det(A) = 0.
102 Version 20. Juli 2011 Kapitel 6. Determinanten
Der folgende Satz beschreibt die Wirkung der in Abschnitt 3.1 kennengelernten Ele-
mentarmatrizen auf die Determinante einer Matrix.
Lemma 6.9 Sei A R
nn
und n 2.
(i) det(M
i
()A) = det(A) = det(M
i
()) det(A) f ur R, 1 i n;
(ii) det(G
i j
()A) = det(A) = det(G
i j
()) det(A) und
det(G
T
i j
()A) = det(A) = det(G
T
i j
()) det(A) f ur R, 1 i < j n;
(iii) det(P
i j
A) =det(A) = det(P
i j
) det(A) f ur 1 i < j n.
BEWEIS: Zu (i).
det(M
i
()A) =

S
n
sgn()
_
a
i,(i)
k=i
a
k,(k)
_
=

S
n
sgn()
n

i=1
a
i,(i)
= det(A).
Da M
i
() Diagonalmatrix ist, folgt det(M
i
()) = und damit die Beziehung det(A) =
det(M
i
()) det(A).
Zu (ii).
det(G
i j
()A) =

S
n
sgn()
_
_
a
j,( j)
+a
i,(i)
_

k=j
a
k,(k)
_
=

S
n
sgn()
n

k=1
a
k,(k)
+

S
n
sgn()
_
a
i,(i)
k=j
a
k,(k)
_
= det(A) +0.
Hierbei wurde im letzten Schritt ausgenutzt, dass die zweite Summe die Determinante der
Matrix A mit der j-ten Zeile durch die i-te Zeile ersetzt ist, also ist sie Determinante einer
Matrix mit zwei gleichen Zeilen und damit gem ass Lemma 6.8 Null. Da G
i j
() untere
Dreiecksmatrix mit Einsen auf der Diagonalen ist, folgt det(G
i j
()) = 1 und damit die
Beziehung det(A) = det(G
i j
()) det(A). F ur G
T
i j
() erfolgt der Nachweis analog.
Zu (iii). Die erste Beziehung, det(P
i j
A) = det(A) wird im Beweis von Lemma 6.8
gezeigt. Die zweite Beziehung folgt aus det(P
i j
) =sgn() =1 mit der in (6.4) denierten
Transposition .
Lemma 6.9 kompakt ausgedr uckt: Die Determinante des Produkts einer Elementarma-
trix mit einer beliebigen Matrix entspricht dem Produkt der Determinanten der beiden Fak-
toren. Der folgende wichtige Satz zeigt, dass diese Eigenschaft f ur das Produkt von belie-
bigen Matrizen gilt.
Satz 6.10 Sei K K orper und A, B K
nn
. Dann gilt det(AB) = det(A) det(B).
BEWEIS: Nach Satz 3.6 gibt es eine invertierbare Matrix Q = S
1
S
m
mit Elementarma-
trizen S
1
, . . . , S
m
, so dass

A = QA in Treppennormalform ist. Da die Inverse einer Element-
armatrix wieder Elementarmatrix ist, folgt aus der wiederholten Anwendung von Lem-
ma 6.9:
det(A) = det
_
S
1
m
S
1
1

A
_
= det(S
1
m
) det
_
S
1
m1
S
1
1

A
_
= = det(S
1
m
) det(S
1
1
)det(

A)
(6.5)
6.2. Eigenschaften Version 20. Juli 2011 103
sowie
det(AB) = det(S
1
m
) det(S
1
1
)det(

AB). (6.6)
Ist A nicht invertierbar, so enth alt

A und damit auch

AB eine Nullzeile; also folgt det(

A) =
det(

AB) =0 und, mit (6.5)(6.6), det(AB) =0 =det(A) =det(A) det(B). Ist A invertierbar,
so ist

A = I (siehe Satz 3.6) und aus (6.5)(6.6) folgt die Behauptung.
Satz 6.10 gilt auch f ur Matrizen uber einen kommutativen Ring mit Eins; der Beweis kann
dann aber nicht mit Hilfe der TNF durchgef uhrt werden.
Korollar 6.11 Sei A K
nn
. Dann gelten:
(i) A ist genau dann invertierbar wenn det(A) = 0;
(ii) det
_
A
1
_
= 1/det(A) f ur A invertierbar;
(iii) det
_
P
1
AP
_
= det(A) f ur jede invertierbare Matrix P K
nn
.
BEWEIS: Teil (i) folgt aus dem Beweis von Satz 6.10, insbesondere (6.5). Teil (ii) folgt
aus der Aussage von Satz 6.10 mit 1 = det(I) = det
_
AA
1
_
= det(A) det
_
A
1
_
. Teil (iii)
kann man nun einfach nachrechnen:
det
_
P
1
AP
_
= det
_
P
1
_
det(A) det(P) =
det(P)
det(P)
det(A) = det(A).
Bemerkung 6.12 Man beachte, dass sich die Aussage von Korollar 6.11 (i) nicht auf Ringe
verallgemeinern l asst. Zum Beispiel gilt
A =
_
1 1
1 1
_
Z
22
det(A) = 2 = 0,
aber A l asst sich nicht in Z
22
invertieren!
Korollar 6.11 erlaubt es, einem Endomorphismus F : V V auf einem endlichdimen-
sionalen Vektorraum V auf wohldenierte Weise eine Determinante zuzuordnen. F ur ir-
gendeine Basis V von V setzen wir
det(F) := det
_
[F]
V ,V
_
. (6.7)
Diese Denition ist nicht von der Wahl von V abh angig. Sei V

eine weitere Basis, so folgt


aus (5.14) und Korollar 6.11 (iii),
det
_
[F]
V

,V

_
= det
_
[I]
V ,V

_
det
_
[F]
V ,V
_
det
_
[I]
1
V ,V

_
= det
_
[F]
V ,V
_
.
Korollar 6.13 Seien A
11
K
n
1
n
1
, A
12
K
n
1
n
2
, A
22
K
n
2
n
2
. Dann gilt
det
_
A
11
A
12
0 A
22
_
= det(A
11
) det(A
22
).
BEWEIS:

Ubung.
Korollar 6.14 det
_
A
T
_
= det(A).
104 Version 20. Juli 2011 Kapitel 6. Determinanten
BEWEIS: Die Aussage ist f ur nicht invertierbare Matrizen trivialerweise erf ullt, siehe Ko-
rollar 6.11. Sei also A invertierbar. Nach Satz 3.6 l asst sich A als Produkt von Elementar-
matrizen schreiben: A = S
1
S
m
. Mit Satz 6.10 folgt
det(A
T
) = det
_
S
T
m
S
T
1
_
= det
_
S
T
m
_
det
_
S
T
1
_
= det(S
1
) det(S
m
) = det(S
1
S
m
) = det(A),
wobei wir ausgenutzt haben, dass die Aussage des Lemmas f ur alle Elementarmatrizen
erf ullt ist.
Der Beweis von Korollar 6.14 setzt voraus, dass die Eintr age von A aus einem K orper
stammen. Das Resultat l asst sich aber ohne weiteres auf einen kommutativen Ring mit
Eins verallgemeinern; der Nachweis ist etwas technischer und basiert auf der Denition
der Determinante.
Als unmittelbare Folgerung von Korollar 6.14 kombiniert mit Lemma 6.8 ergibt sich,
dass die Determinante einer Matrix mit zwei identischen Spalten immer Null ist.
6.3 Minoren und Laplace-Entwicklung
F ur eine Matrix A K
nn
mit n 2 nennt man die Matrix A(k, ) R
(n1)(n1)
, die durch
Streichen der k-ten Zeile und -ten Spalte aus A hervorgeht, Minor (umgangssprachlich:
Streichungsmatrix) von A. Ist zum Beispiel
A =
_
_
_
_
16 2 3 13
5 11 10 8
9 7 6 12
4 14 15 1
_
_
_
_
, (6.8)
so haben wir den Minor
A(2, 3) =
_
_
_
_
16 2 3 13
5 11 10 8
9 7 6 12
4 14 15 1
_
_
_
_
=
_
_
16 2 13
9 7 12
4 14 1
_
_
.
Denition 6.15 Sei A K
nn
mit n 2. Die Matrix adj(A) = B K
nn
mit den Eintr agen
b
i j
:= (1)
i+j
det
_
A( j, i)
_
, i, j = 1, . . . , n, (6.9)
heisst Adjunkte (auch: Adjungierte) [adjoint ] von A.
Bemerkung: Die umgekehrte Reihenfolge von i und j im Minor ist kein Schreibfehler.
Die Vorfaktoren (1)
i+j
in (6.9) kann man in eine Schachbrettmatrix schreiben:
_
_
_
_
_
+ +
+
+ +
.
.
.
.
.
.
.
.
.
.
.
.
_
_
_
_
_
.
F ur die Matrix A in (6.8) erh alt man (nach l angerer Rechnung oder mit MATLAB)
adj(A) =
_
_
_
_
136 408 408 136
408 1224 1224 408
408 1224 1224 408
136 408 408 136
_
_
_
_
.
6.3. Minoren und Laplace-Entwicklung Version 20. Juli 2011 105
Interessanterweise gilt adj(A)A = Aadj(A) = 0. Dies ist kein Zufall, wie der folgende zen-
trale Satz zeigt.
Satz 6.16 Sei R kommutativer Ring mit Eins und A R
nn
mit n 2. Dann gilt
adj(A)A = Aadj(A) = det(A) I
n
.
BEWEIS: Unterteile A =
_
a
1
, a
2
, . . . , a
n
_
in die Spalten a
1
, . . . , a
n
R
n1
. F ur 1 i n,
1 j n und R denieren wir die folgende Matrix
B(i, j, ) =
_
a
1
. . . a
j1
e
i
a
j+1
a
n
_
.
Man sieht leicht, dass man dann Permutationen bzw. nden kann (die aus jeweils i 1
bzw. j 1 Transpositionen bestehen), so dass
P

B(i, j, )P

=
_

0 A(i, j)
_
, det(P

) = (1)
i1
, det(P

) = (1)
j1
.
Nach Korollar 6.13 und Korollar 6.14 folgt also
det
_
B(i, j, )
_
= det
_
A(i, j)
_
det(P

)det(P

) =(1)
i+j
det
_
A(i, j)
_
.
Nach diesen Vorbetrachtungen wenden wir uns dem Eintrag ( j, k) von C = adj(A)A zu:
c
jk
=
n

i=1
(1)
i+j
det
_
A(i, j)
_
a
ik
=
n

i=1
det
_
B(i, j, a
ik
)
_
. (6.10)
Aufgrund der Linearit at der Determinante in den Matrixeintr agen folgt
c
jk
= det
_
a
1
. . . a
j1
a
k
a
j+1
a
n
_
.
F ur j = k enth alt die Matrix auf der rechten Seite zwei identische Spalten und damit ist
deren Determinante 0. F ur j = k ist die Matrix auf der rechten Seite gerade A; also c
j j
=
det(A). Damit gilt adj(A)A = det(A) I
n
. Die Beziehung Aadj(A) = det(A) I
n
kann man
analog zeigen oder einfacher mit Transponieren:
Aadj(A) =
_
adj(A)
T
A
T
_
T
=
_
adj(A
T
)A
T
_
T
=
_
det(A
T
) I
n
_
T
= det(A) I
n
,
wobei wir die aus Denition 6.15 leicht zu beweisende Tatsache ausgenutzt haben, dass die
Transponierte der Adjungierten gerade die Adjungierte der Transponierten ist.
Ist det(A) im Ring R invertierbar, so folgt aus Satz 6.16 dass A invertierbar ist und
A
1
=
_
det(A)
_
1
adj(A). (6.11)
Korollar 6.17 Sei R kommutativer Ring mit Eins. Eine Matrix A R
nn
ist genau dann
invertierbar, wenn det(A) invertierbar ist.
Als weitere Folgerung von Satz 6.16 erhalten wir die sogenannte Laplace-Entwicklung, mit
der sich die Berechnung der Determinante gut organisieren l asst, insbesondere wenn eine
Zeile oder Spalte von A viele Nullen enthalten sollte.
Korollar 6.18 Sei R kommutativer Ring mit Eins und A R
nn
mit n 2. Dann gelten die
folgenden Beziehungen.
106 Version 20. Juli 2011 Kapitel 6. Determinanten
(i) Laplace-Entwicklung nach der i-ten Zeile f ur 1 i n:
det(A) =
n

j=1
(1)
i+j
a
i j
det
_
A(i, j)
_
.
(ii) Laplace-Entwicklung nach der j-ten Spalte f ur ein 1 j n:
det(A) =
n

i=1
(1)
i+j
a
i j
det
_
A(i, j)
_
.
BEWEIS: Die beiden Entwicklungen folgen aus dem i-ten (bzw. j-ten) Diagonaleintrag
von Aadj(A) = det(A) I
n
(bzw. adj(A)A = det(A) I
n
).
Zum Abschluss dieser theoretischen Betrachtungen lernen wir noch eine (praktisch
nutzlose) Formel zur Berechnung der L osung eines LGS Ax = b kennen: Aus
x = A
1
b =
_
det(A)
_
1
adj(A)b
folgt f ur den i-ten Eintrag
x
i
=
det
_
a
1
. . . a
i1
b a
i+1
a
n
_
det(A)
, 1 i n. (6.12)
Diese explizite Darstellungsformel nennt man Cramersche Regel. Die Beziehung (6.12)
folgt leicht aus der Argumentation im Beweis von Satz 6.16, siehe insbesondere (6.10).
6.4 Praktische Aspekte
6.4.1 Berechnung
Der MATLAB-Befehl det berechnet die Determinante einer Matrix A K
nn
mit Hilfe der
LR-Zerlegung
PA = LR,
wobei L untere Dreiecksmatrix mit Einsen auf der Diagonalen und R obere Dreiecksmatrix
ist. Die Permutationsmatrix P setzt sich aus den bei der Konstruktion der LR-Zerlegung
verwendeten Transpositionen zusammen (siehe Beweis von Satz 3.16). Also gilt
det(A) =r
11
r
22
r
nn
,
wobei das Vorzeichen + oder gew ahlt wird, je nachdem ob die Anzahl der Transpo-
sitionen gerade oder ungerade ist. Diese Vorgehensweise ist wesentlich g unstiger als die
Determinante per Denition oder mit Hilfe von Laplace-Entwicklungen auszurechnen.
6.4.2 Determinanten und Invertierbarkeit
Aufgrund von Korollar 6.11 ist man versucht zu glauben, dass der Absolutbetrag der De-
terminante Aufschluss dar uber gibt wie gut eine Matrix invertierbar ist, etwa nach dem
Prinzip: Je kleiner/gr osser die Determinante im Betrag, desto schlechter/besser ist eine Ma-
trix invertierbar. Vor der Vermutung eines solchen Zusammenhangs ist ausdr ucklich zu
warnen! Tats achlich ndet man in der Dokumentation des MATLAB-Befehls det:
6.4. Praktische Aspekte Version 20. Juli 2011 107
DET Determinant.
DET(X) is the determinant of the square matrix X.
Use COND instead of DET to test for matrix singularity.
(COND steht f ur die Konditionszahl einer Matrix und wird in Lineare Algebra 2 bzw. Numerische
Mathematik behandelt.)
Betrachte zum Beispiel die Matrix T
n
=
1
2
I
n
. Diese ist offenbar sehr gut invertierbar,
T
1
= 2I
n
. Trotzdem wird die Determinante f ur grosse n sehr klein, z.B. det(T
100
) =
2
100
8 10
31
. Betrachte als weiteres Beispiel die obere Dreiecksmatrix
W
n
=
_
_
_
_
_
_
1 1 1
1
.
.
.
.
.
.
.
.
.
1
1
_
_
_
_
_
_
R
nn
.
Trotz det(W
n
) = 1 verh alt sich diese Matrix unter Invertierung alles andere als freundlich.
Der (1, n)-Eintrag von W
1
n
ist 2
n2
, also 3 10
29
f ur n = 100. Ver andert man die letzte
Zeile der Matrix W
n
leicht:

W
n
=
_
_
_
_
_
_
1 1 1
1
.
.
.
.
.
.
.
.
.
1
1
_
_
_
_
_
_
, =
1
2
n1
1
,
so ist

W
n
nicht invertierbar, obwohl z.B. f ur n = 100 die Eintr age in der letzten Zeile von

W
n
nur um 2 10
30
von den entsprechenden Eintr agen von W
n
abweichen!
6.4.3 Geometrische Interpretation
Zwischen Determinanten und Volumen (im R
2
, R
3
, R
4
, . . .) gibt es einen engen Zusam-
menhang. Allerdings erschliesst sich dieser mit den uns momentan zur Verf ugung ste-
henden Mitteln nur recht m uhsam . Zumindest im R
2
gelingt dies noch relativ leicht. Sei
A =
_
a b
c d
_
und betrachte das durch die Spalten von A aufgespannte Parallelogramm:
_
a
c
_
_
b
d
_
Der Fl acheninhalt des Parallelogramms (Produkt der L angen der Grundseite und der H ohe)
wird im folgenden mit
Area
__
a
c
_
,
_
b
d
__
108 Version 20. Juli 2011 Kapitel 6. Determinanten
bezeichnet. Im Spezialfall

A =
_
a

b
0

d
_
liegt dieses Parallelogramm auf der Koordina-
tenachse und wir erhalten
Area
__
a
0
_
,
_

d
__
=| a| |

d| =

det
_
a

b
0

d
_

=| det(

A)|. (6.13)
Nun l asst sich aber jeder Vektor
_
a
c
_
durch eine passende Rotation Q=
_
cos sin
sin cos
_
in die Koordinatenachse drehen: Q
_
a
c
_
=
_
a
0
_
. Der Fl acheninhalt des Parallelogramms
andert sich durch die Rotation nicht:
Area
__
a
c
_
,
_
b
d
__
= Area
__
a
0
_
,
_

d
__
,
wobei
_

d
_
= Q
_
b
d
_
. Zusammen mit (6.13) ergibt sich
Area
__
a
c
_
,
_
b
d
__
=| det(

A)| =| det(QA)| =| det(Q)| | det(A)| =| det(A)|, (6.14)
wobei wir ausgenutzt haben, dass det(Q) = cos
2
+sin
2
= 1.
Der Zusammenhang (6.14) l asst sich auf h ohere Dimensionen verallgemeinern:
Sei A R
dd
. Dann entspricht | det(A)| dem Volumen des durch die Spalten von A
aufgespannten Parallelepipeds.
Diese Tatsache wird klarer sobald wir die QR-Zerlegung einer Matrix kennengelernt haben.
Man kann (6.14) auch anderes intepretieren: Ein Quadrat mit Seitenl ange wird durch
_

0
_
,
_
0

_
aufgespannt und hat Fl acheninhalt
2
. Die Transformation dieses Quadrats durch
die von A =
_
a b
c d
_
beschriebene Abbildung ergibt gerade das durch
_
a
c
_
,
_
b
d
_
auf-
gespannte Parallelogrammmit demFl acheninhalt | det(A)|
2
. Der Betrag der Determinante,
| det(A)| beschreibt also wie sich der Fl acheninhalt andert unter Transformation mit A. Dies
gilt f ur beliebige Gebiete R
d
:

={Ax : x } Volumen(

) =| det(A)| Volumen().
Dies wird in der Analysis noch ausf uhrlicher behandelt.
Das Vorzeichen von det(A) gibt an, ob sich die Orientierung unter der Transformation
mit A andert. Dies wird in Abbildung 6.1 f ur die folgenden beiden Matrizen illustriert:
A
1
=
_
1 1/4
1 1/2
_
, A
2
=
_
1/4 1
1 1/2
_
, (6.15)
mit det(A
1
) = 3/4 und det(A
2
) =9/8.
6.4. Praktische Aspekte Version 20. Juli 2011 109
Abbildung 6.1. ETH-Logo (schwarz), transformiert mit A
1
(blau) und A
2
(rot) wie
in (6.15).
110 Version 20. Juli 2011 Kapitel 6. Determinanten
Kapitel 7
Eigenwerte und
Eigenvektoren
Ein Eigenwert [eigenvalue] einer Matrix A K
nn
uber einem K orper K ist ein Skalar
K, f ur den es einen von Null verschiedenen Spaltenvektor x K
n1
gibt, mit
Ax =x. (7.1)
Jeder Spaltenvektor x =0 der (7.1) erf ullt wird als (ein zu geh origer) Eigenvektor [eigen-
vector] bezeichnet. Zwischen Eigenwerten und Determinanten besteht ein fundamentaler
Zusammenhang, der sich aus Korollar 6.11 (i) ergibt:
Ax =x (I A)x = 0 I A nicht invertierbar det(I A) = 0.
Eigenwerte sind also Nullstellen der Funktion det(I A). Bevor wir zu weiteren
Eigenschaften von Eigenwerten kommen, werden wir uns dieser Funktion im folgenden
Abschnitt n aher zuwenden.
7.1 Das charakteristische Polynom
In diesem Abschnitt sei R stets kommutativer Ring mit Eins. Wir erinnern daran, dass R[t]
den Ring der Polynome (mit Polynomaddition und -multiplikation) in der Unbekannten t
bezeichnet. Dann betrachten wir die Matrix
tI
n
A =
_
_
_
_
_
_
t a
11
a
12
a
1n
a
21
t a
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1,n
a
n1
a
n,n1
t a
nn
_
_
_
_
_
_

_
R[t]
_
nn
.
Da R[t] Ring ist, ist die Determinante von tI A auch wieder in R[t].
Denition 7.1 Das charakteristische Polynom einer Matrix A R
nn
ist
p
A
:= det(tI A) R[t].
111
112 Version 20. Juli 2011 Kapitel 7. Eigenwerte und Eigenvektoren
F ur n = 1 ist das charakteristische Polynom von A = (a
11
) gerade p
A
= t a
11
. F ur
n = 2 ist das charakteristische Polynom
p
A
= det
_
a
11
a
12
a
21
a
22
_
=t
2
(a
11
+a
22
)t +(a
11
a
22
a
12
a
21
).
F ur allgemeines n gibt es keine einfachen Formeln f ur die Koefzienten des charakteristi-
schen Polynoms. Zumindest l asst sich uber die ersten beiden und den letzten Koefzienten
eine einfache Aussage treffen.
Lemma 7.2 Sei A R
nn
. Dann gilt: Das charakteristische Polynom p
A
hat Grad n und
ist von der Form
p
A
=
0
+
1
t + +
n1
t
n1
+t
n
,
mit

n1
=(a
11
+a
22
+ +a
nn
),
0
= (1)
n
det(A).
BEWEIS: Bezeichne

i j
=
_
1 f ur i = j,
0 sonst,
das Kronecker-Symbol. Dann gilt, per Denition der Determinante,
p
A
=

S
n
sgn()
n

i=1
_

i,(i)
t a
i,(i)
_
. (7.2)
Daraus folgt sofort

0
= p
A
(0) = (1)
n

S
n
sgn()
n

i=1
a
i,(i)
= (1)
n
det(A).
Desweiteren k onnen wir die Summe in (7.2) aufteilen:
p
A
=
n

i=1
(t a
ii
) +

Sn
=id
sgn()
n

i=1
_

i,(i)
t a
i,(i)
_
, (7.3)
wobei der erste Summand die Form
n

i=1
(t a
ii
) =t
n
(a
11
+ +a
nn
)t
n1
+Polynom vom Grad h ochstens n2
hat. Der zweite Summand in (7.3) ist ein Polynom vom Grad h ochstens n 2, da sich
h ochstens n2 Diagonaleintr age von tI A ausw ahlen lassen. Damit folgt die Behauptung.
Die Summe der Diagonaleintr age einer quadratischen Matrix A wird ubrigens als Spur
[trace] von A bezeichnet:
Spur(A) := a
11
+a
22
+ +a
nn
.
Ein Polynom mit f uhrendem Koefzienten 1 wird als monisches Polynom [monic polyno-
mial ] bezeichnet.
Das folgende Lemma beschreitet den umgedrehten Weg: zu jedem monischen Polynom
l asst sich eine Matrix nden, so dass dieses Polynom das charakteristische Polynom der
Matrix ist.
7.1. Das charakteristische Polynom Version 20. Juli 2011 113
Lemma 7.3 Betrachte ein beliebiges monisches Polynom p =
0
+
1
t + +
n1
t
n1
+
t
n
R[t]. Dann ist p charakteristisches Polynom der Matrix
A =
_
_
_
_
_
_
0
0
1
.
.
.
.
.
.
.
.
.
0
n2
1
n1
_
_
_
_
_
_
Die Matrix A heisst Begleitmatrix [companion matrix] von p.
BEWEIS:

Ubung.
Bemerkung 7.4 F ur n = 2, 3, 4 existieren explizite L osungsformeln zur Bestimmung der
Nullstellen eines Polynoms. In der Praxis setzt man diese L osungsformeln ublicherweise
nur f ur n = 2 ein, da die Auswertung der Formeln f ur n > 2 numerisch heikel ist. F ur n > 4
kann es nach Abel sowieso keine allgemeine L osungsformel mehr geben. Tats achlich wer-
den in der MATLAB-Funktion roots die Nullstellen eines Polynoms bestimmt, indem die
Eigenwerte der zu diesem Polynom geh origen Begleitmatrix ausgerechnet werden. Davon
kann man sich mittels type roots leicht uberzeugen. Zur Berechnung der Eigenwerte
wird der sogenannte QR-Algorithmus eingesetzt, der nicht im Rahmen dieser Vorlesung
behandelt werden kann.
In ein beliebiges Polynom p =
0
+
1
t +
2
t
2
+ +
n
t
n
R[t] kann man eine Matrix
M R
nn
einsetzen:
p(M) =
0
I
n
+
1
M+
2
M
2
+ +
n
M
n
.
Dabei sind die Potenzen M
j
f ur j = 1, 2, . . . so zu verstehen, dass M entsprechend oft mit
sich selbst multipliziert wird. Formal setzt man M
0
= I
n
.
Satz 7.5 (Cayley-Hamilton) Sei A R
nn
mit charakteristischem Polynom p
A
. Dann gilt
p
A
(A) = 0.
BEWEIS: Um gleich ein m ogliches Missverst andnis aus dem Weg zu r aumen, zitieren wir
aus [Higham, N. Functions of matrices. SIAM, 2008] (S. 7): It is incorrect to prove the
Cayley-Hamilton theorem by p
A
(A) = det(AI A) = 0. Das Problem an dieser Argumen-
tation ist, dass die beiden Ausdr ucke uberhaupt nicht zusammenpassen: links steht eine
Matrix p
A
(A) R
nn
aber rechts steht ein Skalar det(...) R!
F ur n = 1 ist der Satz aber offenbar richtig; sei also n 2. Um dem oben geschilderten
Problem aus dem Weg zu gehen, betrachten wir f ur unser fest vorgegebenes A R
nn
die
Menge
R[A] :={p(A) : p R[t]},
die also alle in A ausgewerteten Polynome enth alt. Es ist leicht einzusehen, dass R[A] einen
kommutativen Ring mit Eins bildet. Wir denieren nun eine Matrix uber diesem Ring:
A :=
_
_
_
_
_
Aa
11
I
n
a
21
I
n
a
n1
I
n
a
12
I
n
Aa
22
I
n
a
n2
I
n
.
.
.
.
.
.
.
.
.
a
1n
I
n
a
2n
I
n
Aa
nn
I
n
_
_
_
_
_

_
R[A])
nn
.
114 Version 20. Juli 2011 Kapitel 7. Eigenwerte und Eigenvektoren
Nach Denition (6.1) der Determinante uber den Ring R[A] folgt
det(A) =

S
n
sgn()
n

i=1
_

i,(i)
Aa
(i),i
I
n
_
= p
A
T(A) = p
A
(A),
wobei die im letzten Schritt verwendete Identit at der charakteristischen Polynome von A
und A
T
aus Korollar 6.14 folgt.
Aus der trivialen Identit at Ae
i
= a
1i
e
1
+a
2i
e
2
+ +a
ni
e
n
sieht man leicht
Ax = 0 mit x =
_
_
_
e
1
.
.
.
e
n
_
_
_.
An dieser Stelle muss man vorsichtig sein, was eigentlich mit Ax gemeint ist. Dabei wird
A (R[A])
nn
als n n-Blockmatrix in R
n
2
n
2
reinterpretiert, und Ax wird als normale
Matrix-Vektor-Multiplikation in R
n
2
verstanden. (Auch sollte man sehr vorsichtig sein und
nicht voreilig schlussfolgern, dass eine Matrix mit nichttrivialemKern immer Determinante
0 hat. Dies ist in dieser Allgemeinheit nur bei K orpern g ultig.) Wir wenden Satz 6.16 an:
_
_
_
det(A)
.
.
.
det(A)
_
_
_= adj(A)A
_
_
_
det(A)e
1
.
.
.
det(A)e
n
_
_
_= adj(A)Ax = 0.
In dieser Implikation wird das aus Satz 6.16 erhaltene und f ur Matrizen uber R[A] g ultige
Resultat reinterpretiert als Resultat f ur Blockmatrizen in R
n
2
n
2
. Die Beziehung adj(A)A
bleibt bei dieser Reinterpretation erhalten; dies folgt aus bekannten Eigenschaften der
Blockmatrix-Multiplikation. Mit der oben bewiesenen Beziehung folgt det(A) = 0, da je-
de Spalte dieser nn-Matrix Null ist. Daraus folgt die Behauptung: p
A
(A) = det(A) = 0.
Zum Beispiel ist f ur die Matrix A =
_
1 1
0 2
_
das charakteristische Polynom p
A
(t) =
(t 1)(t 2) und die Aussage von Satz 7.5 besagt
p
A
(A) = (AI
n
)(A2I
n
) =
_
0 1
0 1
__
1 1
0 0
_
=
_
0 0
0 0
_
.
F ur die Matrix A =
_
2 0
0 2
_
gilt nat urlich ebenfalls p
A
(A) = 0, aber hier h atte es ei-
gentlich auch ein Polynom q von kleinerem Grad, n amlich q(t) = t 2, getan. Ein Mi-
nimalpolynom von A ist ein Polynom q R[t] vom kleinsten Grad mit der Eigenschaft
q(A) = 0.
Die folgende Resultate sind typische Anwendungen des Satzes von Cayley-Hamilton.
Korollar 7.6 Sei A R
nn
.
(i) Jede Potenz A
k
mit k Nl asst sich als Linearkombination der Potenzen I, A, A
2
, . . . , A
n1
darstellen.
(ii) Ist A invertierbar, so l asst sich A
1
als Linearkombination der Potenzen I, A, A
2
, . . . , A
n1
darstellen.
7.2. Grundlegende Eigenschaften und Denitionen Version 20. Juli 2011 115
BEWEIS: Zu (i). Die Aussage ist offenbar f ur k = 0, 1, . . . , n 1 erf ullt. Der Fall k = n
folgt aus dem Satz von Cayley-Hamilton:
0 = p
A
(A) =
0
I +
1
A +
n1
A
n1
+A
n
A
n
=
0
I
1
A
n1
A
n1
.
Den Fall k > n beweist man analog per Induktion. Im Induktionsschritt verwendet man
0 = A
kn
p
A
(A).
Zu (ii). Wenn A invertierbar ist, so ist der Koefzient
0
= (1)
n
det(A) notwendiger-
weise invertierbar, siehe Korollar 6.17. Also folgt wie oben aus 0 = p
A
(A) die Beziehung
I =

0
A

n1

0
A
n1

0
A
n
= A
_

0
I

n1

0
A
n2

0
A
n1
_
und damit ist A
1
=

0
I

n1

0
A
n2

0
A
n1
.
7.2 Grundlegende Eigenschaften und Denitionen
In diesem und allen folgenden Abschnitten bezeichnet K stets einen K orper. Ist x K
n1
Eigenvektor zum Eigenwert einer Matrix A, so ist auch jedes skalares Vielfache x = 0
mit K Eigenvektor, da
Ax =x A(x) =(x).
Es macht also keinen Sinn von dem Eigenvektor zu einem Eigenwert zu sprechen; ein Ei-
genvektor ist h ochstens bis auf ein skalares Vielfaches eindeutig bestimmt, und selbst dies
ist nicht immer der Fall. Zum Beispiel sind alle Spaltenvektoren K
n1
Eigenvektoren zum
Eigenwert 1 der Einheitsmatrix I
n
. Diese

Uberlegungen motivieren die folgende Denition.
Denition 7.7 Sei K Eigenwert. Dann heisst
Eig

(A) =
_
x K
n1
: Ax =x
_
Eigenraum von A bez uglich .
Per Denition ist Eig

(A) \ {0} nicht leer; die Menge besteht aus allen Eigenvektoren zu
. Es ist leicht einzusehen, dass Eig

(A) ein Untervektorraum von K


n1
ist.
In allgemeinen K orpern kann man nicht ohne weiteres erwarten, dass eine Matrix Ei-
genwerte hat. Selbst eine reelle Matrix A R
nn
muss keine Eigenwerte haben.
Beispiel 7.1: Betrachte die Rotationsmatrix
A =
_
cos sin
sin cos
_
R
22
, [0, 2).
Die Anwendung von A auf einen Spaltenvektor x entspricht der Rotation dieses Vektors um den
Winkel im Uhrzeigersinn. Ist nicht 0 oder , so kann Ax nicht in der von x aufgespannten Gerade
span{x} liegen. Also ist geometrisch klar, dass A f ur {0, } keine Eigenwerte haben kann. Dies
kann man sich auch leicht algebraisch klar machen. Das charakteristische Polynom hat die Form
p
A
(t) = det(tI A) =t
2
2cost +1.
Ausser f ur {0, } gilt | cos| < 1 und p
A
hat zwei komplexe Nullstellen. Per Denition m ussen
aber die Eigenwerte von reellen Matrizen reell sein.
Fasst man dagegen A als komplexe Matrix auf, so hat A die beiden Eigenwerte cos i sin.

Beispiel 7.1 illustriert bereits, dass die Betrachtungen um einiges angenehmer werden
k onnen, wenn man sich bei Eigenwerten/Eigenvektoren auf komplexe Matrizen beschr ankt.
116 Version 20. Juli 2011 Kapitel 7. Eigenwerte und Eigenvektoren
Satz 7.8 (Fundamentalsatz der Algebra) Sei p C[t] ein Polynom vom Grad n 1.
Dann hat p eine Nullstelle.
BEWEIS: F ur diese Aussage existieren verschiedene Beweise, siehe die entsprechende
Seite auf Wikipedia. Eine elementare und elegante Variante des Beweises von dAlembert
ndet sich in [M. Aigner, G. M. Ziegler: Das BUCH der Beweise. 3. Auage, Springer-
Verlag, 2009].
F ur eine Matrix A C
nn
hat das charakteristische Polynom p
A
C[t], dessen Null-
stellen ja gerade die Eigenwerte sind, Grad n. Nach Satz 7.8 hat p
A
eine Nullstelle
1
C.
Mit Polynomdivision erhalten wir die Faktorisierung
p
A
(t) = (t
1
)p
1
(t),
wobei p
1
C[t] vom Grad n 1 ist. F ur n = 1 ist p
1
1. F ur n > 1 hat p
1
nach Satz
Satz 7.8 eine Nullstelle
2
C und wir erhalten die Faktorisierung
p
A
(t) = (t
1
)(t
2
)p
2
(t),
wobei p
2
C[t] vom Grad n 2 ist. Wiederholt man diese Vorgehensweise insgesamt n
Mal, so ergibt sich eine Zerlegung von p
A
in Linearfaktoren:
p
A
(t) = (t
1
)(t
2
). . . (t
n
). (7.4)
Also hat A insgesamt n Eigenwerte
1
, . . . ,
n
, wobei in dieser Liste Werte mehrfach auf-
treten d urfen.
Eine direkte Konsequenz aus (7.4) ist das folgende Resultat, das sich gut eignet um eine
Probe der berechneten Eigenwerte durchzuf uhren.
Lemma 7.9 Seien
1
, . . . ,
n
C die Eigenwerte von A C
nn
. Dann gelten
det(A) =
1

2

n
, Spur(A) =
1
+
2
+ +
n
.
BEWEIS:

Ubung.
Die oben beschriebene Abspaltung der zu einer Nullstelle geh orenden Linearfaktoren
l asst sich per Polynomdivision in jedem K orper durchf uhren.
Denition 7.10 Sei p K[t] mit Nullstelle t
0
K. Hat p eine Faktorisierung p(t) = (t
t
0
)

q(t) mit N, wobei t


0
keine Nullstelle von q K[t] ist, so heisst Vielfachheit von
t
0
.
Man kann sich leicht uberzeugen, dass die Vielfachheit der Nullstelle t
0
die Beziehungen
p(t
0
) = 0, p

(t
0
) = 0, . . . p
(1)
(t
0
) = 0, p
()
(t
0
) = 0,
erf ullt.
Denition 7.11 Sei K Eigenwert von A K
nn
.
1. Die Vielfachheit von als Nullstelle des charakteristischen Polynoms p
A
wird
algebraische Vielfachheit [algebraic multiplicity] von genannt. Wir schreiben
alg

(A).
2. Die Dimension des zu geh origen Eigenraums wird geometrische Vielfachheit
[geometric multiplicity] von genannt. Wir schreiben geo

(A) = dimEig

(A).
7.2. Grundlegende Eigenschaften und Denitionen Version 20. Juli 2011 117
Beispiel 7.2: Seien
A =
_
_
2 1 0
0 2 1
0 0 2
_
_
R
33
, B =
_
_
2 1 0
0 2 0
0 0 2
_
_
R
33
, C =
_
_
2 0 0
0 2 0
0 0 2
_
_
R
33
.
Dann gilt
alg
2
(A) = 3, geo
2
(A) = 1, alg
2
(B) = 3, geo
2
(B) = 2, alg
2
(C) = 3, geo
2
(C) = 3.

7.2.1

Ahnlichkeit und Endomorphismen
Zu einander ahnliche Matrizen haben die gleichen Eigenwerte.
Satz 7.12 Sei A K
nn
und B = P
1
AP mit einer invertierbaren Matrix P K
nn
. Dann
gelten die folgenden Aussagen:
(i) Die charakteristischen Polynome p
A
und p
B
sind identisch.
(ii) Ein Spaltenvektor x K
n1
ist Eigenvektor von A genau dann, wenn P
1
x Eigenvek-
tor von B ist.
BEWEIS: (i) folgt aus bekannten Eigenschaften der Determinante:
p
B
(t) = det(tI B) = det(tI P
1
AP) = det
_
P
1
(tI A)P
_
= det(tI A) = p
A
(t).
(ii) F ur einen Eigenvektor x gilt
Ax =x P
1
APP
1
. .
=I
x =P
1
x BP
1
x =P
1
x.
Wir betrachten nun einen Endomorphismus F : V V mit einem beliebigen (endlich-
oder unendlichdimensionalen) Vektorraum V uber einen K orper K. Dann ist K Eigen-
wert von F, wenn es einen von Null verschiedenen Vektor v V gibt mit
F(v) =v.
Wie gehabt, wird v als Eigenvektor bezeichnet und Eig

(F) = {v V : F(v) = v} als


Eigenraum. F ur endlichdimensionale Vektorr aume lassen sich die Eigenwerte und Eigen-
vektoren leicht aus einer Matrixdarstellung von F gewinnen.
Satz 7.13 Sei F L(V,V), wobei V ein endlichdimensionaler Vektorraum uber K ist. Sei B
eine Basis von V mit zugeh origem Koordinatensystem
B
. Ist K Eigenwert von F mit
Eigenvektor v V, so ist Eigenwert von [F]
B,B
mit Eigenvektor
1
B
(v). Ist umgekehrt
K Eigenwert von [F]
B,B
mit Eigenvektor x K
n1
, so ist Eigenwert von F mit
Eigenvektor
B
(x).
BEWEIS: Die Aussage ergibt sich mit x :=
1
B
(v) aus den

Aquivalenzen
F(v) =v

_
F
B
_
(x) =
B
(x)

1
B
F
B
_
(x) =x
[F]
B,B
x =x.
118 Version 20. Juli 2011 Kapitel 7. Eigenwerte und Eigenvektoren
Beispiel 7.3: Sei V = R
3
[t] und D L(V,V) mit D(p) = p

f ur alle p V. Aus Beispiel 5.2 ist


bereits die Matrixdarstellung von D bez uglich der Monombasis B={1, t, t
2
, t
3
} bekannt:
[D]
B,B
=
_
_
_
_
0 1 0 0
0 0 2 0
0 0 0 3
0 0 0 0
_
_
_
_
.
Diese Matrix hat nur den Eigenwert 0 mit Eigenvektor x = (1, 0, 0, 0)
T
und geometrischer Vielfach-
heit 1. Gem ass Satz 7.13 hat D also nur den Eigenwert 0 und jeder Eigenvektor ist eine von Null
verschiedene Konstante.
Im R uckblick passen Satz 7.12 und Satz 7.13 sehr gut zusammen: Da Satz 7.13 keine
Forderungen an die Basis stellt, d urfen sich die Eigenwerte bei einem Basiswechsel nicht
andern. Satz 7.12 best atigt diese Aussage, da ein Basiswechsel bei Endomorphismen eine

Ahnlichkeitstransformation der Darstellungsmatrix nach sich zieht.


Eigenwerte von Endomorphismen in unendlichdimensionalen Vektorr aumen werden
in der Funktionalanalysis, insbesondere in der Spektraltheorie, im Detail behandelt. Ein
(a)typisches Beispiel ist die Ableitung D L(V,V) mit D( f ) = f

auf dem Vektorraum


V =C

(0, 1) der unendlich oft differenzierbaren reellwertigen Funktionen auf dem Inter-
vall (0, 1). F ur diese ist jedes R Eigenwert mit Eigenvektor e
t
:
D(e
t
) =e
t
.
Nach diesem kurzen Ausug in die Welt der Endomorphismen werden wir uns im fol-
genden nur noch Eigenwerten und -vektoren von Matrizen widmen, was uns nach Satz 7.13
zumindest im endlichdimensionalen Fall gestattet sei.
7.3 Diagonalisierbarkeit
Wie bereits am Ende von Kapitel 5 angesprochen, ist es im Vergleich zur

Aquivalenz
bei

Ahnlichkeit wesentlich schwieriger, eine gegebene Matrix auf eine m oglichst einfa-
che Form zu bringen. Die Hoffnung ist, P
1
AP auf Diagonalgestalt oder zumindest auf
Dreiecksgestalt bringen zu k onnen. Dann lassen sich die Eigenwerte einfach ablesen.
Lemma 7.14 Sei A K
nn
obere oder untere Dreiecksmatrix. Dann sind die Eigenwerte
von A gerade die Diagonaleintr age a
11
, a
22
, . . . , a
nn
.
BEWEIS: Folgt direkt aus Lemma 6.7:
p
A
(t) = det(tI A) = (t a
11
)(t a
22
) (t a
nn
).
Es ist aber selbst f ur Matrizen uber C nicht immer m oglich, Diagonalgestalt zu errei-
chen. Sei zum Beispiel
A =
_
0 1
0 0
_
, P =
_
p
11
p
12
p
21
p
22
_
(7.5)
mit P invertierbar. Angenommen es g abe eine Diagonalmatrix D = diag (d
11
, d
22
) mit
P
1
AP = D, dann muss d
11
= d
22
= 0 gelten, da D die gleichen Eigenwerte wie A hat.
Dies f uhrt zum Widerspruch A = PDP
1
= 0.
7.3. Diagonalisierbarkeit Version 20. Juli 2011 119
Wir werden uns im folgenden eine einfache Charakterisierung f ur die Diagonalisier-
barkeit von Matrizen uber einen K orper K erarbeiten. Die Konstruktion beruht auf dem
folgenden Resultat.
Lemma 7.15 Angenommen AK
nn
habe n linear unabh angige Eigenvektoren x
1
, . . . , x
n

K
n1
zu den Eigenwerten
1
, . . . ,
n
K. Dann gilt
P
1
AP = := diag (
1
,
2
, . . . ,
n
), mit P =
_
x
1
, x
2
, . . . , x
n
_
.
BEWEIS: Es gilt Ax
i
= x
i
f ur i = 1, . . . , n. Diese Beziehungen k onnen nebeneinander
geschrieben werden:
A
_
x
1
, x
2
, . . . , x
n
_
=
_
x
1
, x
2
, . . . , x
n
_
diag (
1
,
2
, . . . ,
n
),
also AP = P. Da P K
nn
linear unabh angige Spalten hat, ist P invertierbar und die
Behauptung folgt.
Das Problem mit der Matrix A in Beispiel (7.5) ist, dass der Eigenwert 0 geometrische
Vielfachheit 1 hat, man hat also nur einen anstatt von wie in Lemma 7.15 gefordert
zwei linear unabh angigen Eigenvektoren zur Verf ugung. Dies w are nicht passiert, h atte A
zwei verschiedene Eigenwerte gehabt!
Lemma 7.16 Seien x
1
, . . . , x
m
K
n1
Eigenvektoren zu paarweise verschiedenen Eigen-
werten
1
, . . . ,
m
K von A K
nn
. Dann sind x
1
, . . . , x
m
linear unabh angig.
BEWEIS: Der Beweis erfolgt per Induktion uber m. F ur m = 1 folgt das Resultat aus
x
1
= 0. Sei nun m 2 und die Behauptung f ur m1 erf ullt. Wir betrachten eine Linear-
kombination
0 =
1
x
1
+ +
m1
x
m1
+
m
x
m
,
1
, . . . ,
m
K. (7.6)
Anwendung von A auf beide Seiten ergibt
0 =
1
Ax
1
+ +
m1
Ax
m1
+
m
Ax
m
=
1

1
x
1
+ +
m1

m1
x
m1
+
m

m
x
m
.
Addiert man das
m
-fache von (7.6), so ergibt sich
0 =
1
(
1

m
)x
1
+ +
m1
(
m1

m
)x
m1
.
Nach Induktionsannahme sind x
1
, . . . , x
m1
linear unabh angig und damit ist
i
(
i

m
) =0
f ur i = 1, . . . , m1. Da per Voraussetzung
i
=
m
, folgt

1
= =
m1
= 0.
Einsetzen in (7.6) und Ausnutzen von x
m
= 0 ergibt
m
= 0.
Kombination von Lemma 7.15 und Lemma 7.16 ergibt:
Korollar 7.17 Eine Matrix A K
nn
mit n paarweise verschiedenen Eigenwerten ist dia-
gonalisierbar.
Da ein Polynom nicht mehr als n Nullstellen (inklusive Vielfachheiten) hat, gibt es nur dann
n paarweise verschiedene Eigenwerte wenn alg

(A) = 1 f ur jeden Eigenwert gilt. Diese


Bedingung ist f ur Matrizen uber C zwar hinreichend aber zum Gl uck nicht notwendig. Ein
uberzeugendes Gegenbeispiel ist die Einheitsmatrix I
n
, die offenbar diagonalisierbar ist (da
bereits in Diagonalgestalt), aber n gleiche Eigenwerte besitzt! Um ein notwendiges und
hinreichendes Kriterium zu nden, ben otigen wir zun achst das folgende Hilfsresultat.
120 Version 20. Juli 2011 Kapitel 7. Eigenwerte und Eigenvektoren
Lemma 7.18 Sei K Eigenwert von A K
nn
. Dann gilt geo

(A) alg

(A).
BEWEIS: Sei m = geo

(A) und y
1
, . . . , y
m
K
n1
eine Basis f ur Eig

(A); insbesondere
gilt A
_
y
1
, . . . , y
m
_
=
_
y
1
, . . . , y
m
_
diag (, . . . , ). Nach dem Basiserg anzungssatz k onnen
wir Vektoren y
m+1
, . . . , y
n
nden, so dass Y =
_
y
1
, . . . , y
n
_
invertierbar ist. Wir erhalten
AY =Y
_
I
m
A
12
0 A
22
_
.
Aus Satz 7.12 folgt det(tI A) = (t )
m
det(tI A
22
), also ist alg

(A) m.
Satz 7.19 Sei A K
nn
. Dann sind die folgenden Aussagen aquivalent.
(i) A ist diagonalisierbar.
(ii) Das charakteristische Polynom p
A
l asst sich in Linearfaktoren zerlegen und
alg

(A) = geo

(A) f ur jeden Eigenwert von A.


(iii) K
n1
= Eig

1
(A) Eig

k
(A) f ur die paarweise verschiedenen Eigenwerte

1
, . . . ,
k
von A.
BEWEIS: (i) (ii). Sei P invertierbare Matrix so dass P
1
AP = D Diagonalmatrix. Es
ist leicht einzusehen, dass die Aussage von (ii) f ur D erf ullt ist. Damit gilt die Aussage auch
f ur A, da p
A
= p
D
nach Satz 7.12, sowie geo

(A) = geo

(D) aus Eig

(A) = P Eig

(D)
folgt.
(ii) (iii). Wir erinnern zun achst an den Begriff der direkten Summe aus Abschnitt 4.3,
insbesondere in Denition 4.34. Setze W := Eig

1
(A) + +Eig

k
(A). Nach Lemma 7.16
folgt, dass dies eine direkte Summe ist: W = Eig

1
(A) Eig

k
(A). Damit folgt
dimW =
k

i=1
geo

i
(A) =
k

i=1
alg

i
(A) = n,
wobei im letzten Schritt die Zerlegung des charakteristischen Polynoms in Linearfaktoren
ausgenutzt wurde. Aus W K
n1
folgt nun gem ass Lemma 4.20 die Beziehung W =K
n1
.
(iii) (i). Ist x
i1
, . . . , x
i,r
i
mit r
i
=geo

i
(A) Basis von Eig

i
(A), so ist gem ass Satz 4.35
B=
_
x
11
, . . . , x
1,r
1
, x
21
, . . . , x
2,r
2
, . . . , x
k1
, . . . , x
1,r
k
_
Basis von K
n1
. Da B nur aus Eigenvektoren besteht, folgt (i) direkt aus Lemma 7.15.
Korollar 7.20 Sei F L(V,V) mit einem endlichdimensionalen Vektorraum V uber K.
Dann sind die folgenden Aussagen aquivalent.
(i) Es gibt eine Basis B, so dass [F]
B,B
Diagonalmatrix ist.
(ii) V =Eig

1
(F) Eig

k
(F) f ur die paarweise verschiedenen Eigenwerte
1
, . . . ,
k
von F.
Diagonalisierbarkeit von Matrizen ist ein m achtiges Werkzeug, das wir noch oft gebrau-
chen werden. Als erste Anwendung eine Charakterisierung von kommutierenden Matrizen,
die eindr ucklich belegt, dass Kommutativit at eher eine Seltenheit und keinesfalls die Regel
ist.
7.3. Diagonalisierbarkeit Version 20. Juli 2011 121
Lemma 7.21 Seien A, B K
nn
diagonalisierbar. Dann gilt AB = BA genau dann, wenn
A und B simultan diagonalisierbar sind, d.h., es gibt eine invertierbare Matrix S, so dass
S
1
AS und S
1
BS Diagonalmatrizen sind.
BEWEIS: Seien S
1
AS =
A
und S
1
BS =
B
Diagonalmatrizen. Damit folgt
AB = S
A
S
1
S
B
S
1
= S
A

B
S
1
= S
B

A
S
1
= S
B
S
1
S
A
S
1
= BA,
da Diagonalmatrizen immer kommutieren.
Nehmen wir nun f ur die umgedrehte Richtung die Beziehung AB = BA an. Wir diago-
nalisieren A, so dass

S
1
A

S =
_
_
_

1
I
n
1
.
.
.

k
I
n
k
_
_
_=: ,
wobei
1
, . . . ,
k
die paarweise verschiedenen Eigenwerte von A sind. Aus AB = BA folgt
dann

B =

B mit

B =

S
1
B

S. Partitionieren wir

B =
_
B
i j
)
k
i, j=1
mit B
i j
K
n
i
n
j
, so erhal-
ten wir
_
_
_

1
B
11

1
B
1k
.
.
.
.
.
.

k
B
k1

k
B
kk
_
_
_=
_
_
_

1
B
11

k
B
1k
.
.
.
.
.
.

1
B
k1

k
B
kk
_
_
_.
Also folgt B
i j
= 0 f ur i = j und damit ist

B Blockdiagonalmatrix. Die Diagonalbl ocke dia-
gonalisieren wir auch noch: S
1
i
B
ii
S
i
=
i
f ur i = 1, . . . , k. Dann werden A und B simultan
durch die Matrix
S :=

S
_
_
_
S
1
.
.
.
S
k
_
_
_
diagonalisiert.
122 Version 20. Juli 2011 Kapitel 7. Eigenwerte und Eigenvektoren
7.4. Lineare Rekursionen und Matrixpotenzen Version 20. Juli 2011 123
7.4 Lineare Rekursionen und Matrixpotenzen
Legt man s
0
=1000 Franken an und betr agt der j ahrlich ausgesch uttete Zins 2%, so w achst
der angelegte Geldbetrag nach 1 Jahr auf s
1
= 1000+0.021000 = 1.021000 Franken,
nach 2 Jahren auf s
2
=1.02s
1
=1.02
2
1000 Franken, usw. Nach k Jahren haben wir also
s
k
= (1.02)
k
1000 Franken. Diese Formel ist eine explizite L osung der linearen Rekursion
s
k+1
= 1.02s
k
mit dem Startwert s
0
= 1000.
Eine weitere lineare Rekursion haben wir bereits in Abschnitt 1.5.2 (Matrix-Vektor
Multiplikation) kennengelernt:
f
0
= 1, f
1
= 1, f
k+2
= f
k+1
+ f
k
, k 0, (7.7)
welche die Fibonacci-Folge generiert. Auch hier w are es w unschenswert, eine explizite
Formel f ur f
k
angeben zu k onnen. Dazu ist es bei linearen Rekursionen hilfreich, diese
in Matrix-Vektor-Form zu bringen. Dies haben wir bereits f ur (7.7) gesehen und die Idee
l asst sich leicht verallgemeinern. Wir betrachten eine allgemeine lineare Rekursion n-ter
Ordnung:
f
k+n
=
n1
f
k+n1
+ +
1
f
k+1
+
0
f
k
(7.8)
mit Koefzienten
0
,
1
, . . . ,
n1
K f ur einen K orper K. Um (7.8) starten zu k onnen,
braucht es noch Anfangswerte (auch: Startwerte)
f
0
= s
0
K, f
1
= s
1
K, . . . , f
n1
= s
n1
K. (7.9)
Deniert man nun den Vektor
u
k
:=
_
_
_
_
_
f
k
f
k+1
.
.
.
f
k+n1
_
_
_
_
_
,
so sieht man leicht, dass (7.8)(7.9) aquivalent zu dem System
u
k+1
=
_
_
_
_
_
0 1
.
.
.
.
.
.
0 1

0

n2

n1
_
_
_
_
_
u
k
, u
0
=
_
_
_
_
_
s
0
s
1
.
.
.
s
n1
_
_
_
_
_
, (7.10)
sind. Abgesehen vom Vorzeichen der Koefzienten, entspricht die Systemmatrix in (7.10)
gerade der Transponierten der in Lemma 7.3 betrachteten Begleitmatrix! Das folgende
Lemma gibt noch weitere, zur Behandlung von (7.10) n utzliche Eigenschaften an.
Lemma 7.22 Sei A K
nn
eine Matrix wie in (7.10) mit Koefzienten
0
,
1
, . . . ,
n1

K. Dann gelten die folgenden Aussagen:


(i) A hat das charakteristische Polynom p
A
=t
n

n1
t
n1

1
t
0
.
(ii) Ist K Eigenwert von A, so ist x =
_
1, ,
2
, . . . ,
n1
_
T
ein dazugeh origer Ei-
genvektor.
(iii) A ist genau dann diagonalisierbar, wenn es n paarweise verschiedene Eigenwerte
hat.
124 Version 20. Juli 2011 Kapitel 7. Eigenwerte und Eigenvektoren
BEWEIS: (i) folgt sofort aus Lemma 7.3.
Zu (ii).
_
_
_
_
_
0 1
.
.
.
.
.
.
0 1

0

n2

n1
_
_
_
_
_
_
_
_
_
_
1

.
.
.

n1
_
_
_
_
_
=
_
_
_
_
_

.
.
.

n1

n
p
A
()
_
_
_
_
_
=
_
_
_
_
_
1
.
.
.

n2

n1
_
_
_
_
_
.
Zu (iii). Die eine Richtung, n paarweise verschiedene Eigenwerte A diagonali-
sierbar, ist klar. F ur die andere Richtung nehmen wir an, dass A diagonalisierbar sei. Man
sieht leicht, dass die letzten n 1 Spalten von tI A immer linear unabh angig sind. Also
gilt geo

(A) = dimKern(I A) = 1 und nach Satz 7.19 folgt alg

(A) = geo

(A) = 1.
Also sind die Eigenwerte von A paarweise verschieden.
Im Resultat von Lemma 7.22 treffen wir eine Bekannte wieder. Wenn A wie in (7.10)
paarweise verschiedene Eigenwerte
1
, . . . ,
n
K hat, so k onnen wir die dazugeh origen
Eigenvektoren in eine Matrix
P =
_
_
_
_
_
1 1 1

1

2

n
.
.
.
.
.
.
.
.
.

n1
1

n1
2

n1
n
_
_
_
_
_
(7.11)
schreiben. Da die Eigenvektoren von A linear unabh angig sind, ist diese Matrix invertier-
bar.
23
Dies wurde bereits (mit anderen Mitteln) in Aufgabe 2 von Serie 10 f ur die Transpo-
nierte von P gezeigt.
Wir wollen nun (7.10) betrachten ohne eine spezielle Form der Matrix anzunehmen.
Denition 7.23 Ein lineares homogenes System von Rekursionen (auch: Differenzen-
gleichungen) hat die Form
u
k+1
= Au
k
, u
0
= s, (7.12)
mit A K
nn
, u
k
K
n1
, und Anfangswerten s K
n1
.
F ur eine diagonalisierbare Matrix A ist es nun einfach, eine explizite Formel f ur die
durch (7.12) denierten Vektoren u
k
= A
k
s anzugeben. Sei dazu
A = PP
1
,
mit = diag
_

1
, . . . ,
n
_
und der invertierbaren Matrix P =
_
x
1
x
n
_
. Dann haben wir
A
k
=
_
PP
1
)
_
PP
1
)
_
PP
1
) = P
k
P
1
.
Setzen wir c := P
1
u
0
, so l asst sich die L osung von (7.12) also wie folgt schreiben:
u
k
= P
k
c =
_
x
1
x
n
_
_
_
_

k
1
.
.
.

k
n
_
_
_
_
_
_
c
1
.
.
.
c
n
_
_
_= c
1

k
1
x
1
+ +c
n

k
n
x
n
. (7.13)
23
Es ist auch gerade die Transformationsmatrix, die A diagonalisiert.
7.4. Lineare Rekursionen und Matrixpotenzen Version 20. Juli 2011 125
Es lohnt sich, diese Gleichung etwas n aher zu betrachten. Zun achst ist c der Koordinaten-
vektor des Startvektors in der Basis der in den Spalten von P enthaltenen Eigenvektoren.
Sollte der Anfangsvektor gerade ein Eigenvektor x
j
sein, so erh alt man die reine L osung

k
j
x
j
. Gem ass (7.13) ist u
k
eine Linearkombination von solchen reinen L osungen. Gibt es
einen Eigenwert, der betragsm assig gr osser als alle anderen Eigenwerte ist, so kann man
sich leicht vorstellen, dass f ur grosse k die zugeh orige reine L osung schnell dominieren
wird.
Beispiel 7.4: Wir betrachten das zu der Fibonnacci-Folge (7.7) geh orige System
u
k+1
= Au
k
, A =
_
0 1
1 1
_
, u
0
=
_
1
1
_
.
Die Eigenwerte von A ergeben sich aus
0 = det(I A) =
2
1
1
=
1+

5
2
,
2
=
1

5
2
,
und die Eigenvektormatrix nach (7.11),
P =
_
1 1

1

2
_
c = P
1
u
0
=
1

2
_
1
2

1
1
_
=
1

5
_

1

2
_
.
Also erhalten wir mit (7.13) die Beziehung
u
k
=

1

k
1
_
1

1
_

k
2
_
1

2
_
Betrachten wir nur die erste Komponente, so ergibt sich letztendlich
f
k
=
1

5
_

k+1
1

k+1
2
_
=
1

5
_
_
_
1+

5
2
_
k+1

_
1

5
2
_
k+1
_
_
.

Wir betrachten nun das asymptotische Verhalten der L osungen f ur grosse k n aher. Die-
ses wird wesentlich vom betragsgr ossten Eigenwert abh angen.
Denition 7.24 Der Spektralradius [spectral radius] (A) einer Matrix A C
nn
ist de-
niert als
(A) := max
_
|| : C ist ein Eigenwert von A
_
.
Sei A nun diagonalisierbar und die Eigenwerte
1
, . . . ,
n
so sortiert, dass
(A) =|
1
| = =|
m
| >|
m+1
| |
n
|. (7.14)
Dann folgt aus (7.13):
u
k
=(A)
k
_
c
1

k
1
(A)
k
x
1
+ +c
m

k
m
(A)
k
x
m
+c
m+1

k
m+1
(A)
k
x
m+1
+ +c
n

k
n
(A)
k
x
n
_
.
(7.15)
Dabei haben die Eintr age in den ersten m Summanden innerhalb der Klammer konstanten
Betrag und die Eintr age in den letzten nm Summanden konvergieren gegen 0 f ur k .
Also wird die Konvergenz von u
k
von (A) bestimmt.
Lemma 7.25 Sei A diagonalisierbar. Dann konvergiert die L osung u
k
von (7.12) f ur jeden
Startvektor u
0
genau dann gegen 0, wenn (A) < 1.
126 Version 20. Juli 2011 Kapitel 7. Eigenwerte und Eigenvektoren
II
III
IV
I
0 10 20 30
0
0.2
0.4
0.6
0.8
1
k
u
k


I
II
III
IV
Abbildung 7.1. Links: Maus in einem System von 4 K agen. Rechts: Entwicklung der
Aufenthaltswahrscheinlichkeiten der Maus.
Die Aussage des Lemmas ist auch f ur nichtdiagonalisierbare Matrizen g ultig; umdies nach-
zuweisen fehlen uns aber noch die n otigen Hilfsmittel. Im Fall (A) > 1 ist wegen (7.15)
klar, dass f ur die meisten Anfangsvektoren u
0
(bei denen nicht gerade c
1
= = c
m
= 0
gilt) die Eintr age von u
k
divergieren werden. F ur den Grenzfall, (A) = 1, kann unter ge-
wissen Voraussetzungen weiterhin Konvergenz vorliegen. Gilt insbesondere
1 =
1
= =
m
(7.16)
in (7.14), so folgt aus (7.15),
u
k
k
u

= c
1
x
1
+ +c
m
x
m
, (7.17)
zumindest f ur diagonalisierbare A. Diese Aussage bleibt f ur nichtdiagonalisierbare Matri-
zen A g ultig, aber nur unter der zus atzlichen Vorraussetzung alg
1
(A) = geo
1
(A). Ist diese
Voraussetzung nicht erf ullt, so wird u
k
im allgemeinen nicht beschr ankt bleiben. Einfach-
stes Beispiel ist
A =
_
1 1
0 1
_
A
k
=
_
1 k
0 1
_
.
7.4.1 Positive Matrizen
In vielen Anwendungen sind die Eintr age von Matrizen reell und nichtnegativ. Dies ist ins-
besondere der Fall, wenn die Eintr age

Ubergangswahrscheinlichkeiten darstellen. Ein nicht
ernst gemeintes Beispiel wird in Abbildung 7.1 links dargestellt. Zum Zeitpunkt k = 0 be-
ndet sich eine Maus in K ag I. Enth alt der Vektor u
k
R
41
die Aufenthaltswahrschein-
lichkeiten der Maus in den einzelnen K agen, so gilt also u
0
=
_
1, 0, 0, 0
_
T
. ZumZeitpunkt
k =1 werden alle rot dargestellten T uren ge offnet und die Maus rennt wahllos (also jeweils
mit Wahrscheinlichkeit 1/3) in einen der anderen K age. Sobald sich die Maus in einem
anderen K ag bendet, werden die T uren geschlossen und es gilt u
1
=
_
0, 1/3, 1/3, 1/3
_
T
.
Dieses Prozedure wird wiederholt und nach den Rechenregeln f ur bedingte Wahrschein-
lichkeiten, gilt u
2
= Au
1
=
1
9
_
4, 1, 3, 1
_
mit
A =
_
_
_
_
0 1/2 1/3 1/2
1/3 0 1/3 0
1/3 1/2 0 1/2
1/3 0 1/3 0
_
_
_
_
. (7.18)
7.4. Lineare Rekursionen und Matrixpotenzen Version 20. Juli 2011 127
Im allgemeinen gilt u
k
=Au
k1
=A
k
u
0
. Die Entwicklung der Eintr age von u
k
in Abh angig-
keit von k wird in Abbildung 7.1 rechts dargestellt. Wie unschwer zu erkennen ist, kon-
vergieren die Aufenthaltswahrscheinlichkeiten f ur k . Dies ist kein Zufall, die Eigen-
werte von A sind n amlich 1, 2/3, 1/3, 0 und damit konvergiert u
k
gem ass (7.17) gegen
einen Eigenvektor u

zum Eigenwert 1. Die Wahl des Vektors u

wird eindeutig durch die


zus atzlichen Bedingungen, dass die Eintr age nichtnegativ sind und ihre Summe 1 ergibt:
u

=
1
10
_
3, 2, 3, 2
_
T
.
Wir werden im folgenden sehen, dass die beobachteten Eigenschaften der Matrix A
in (7.18) sich verallgemeinern lassen. Dabei wollen wir uns zun achst auf den (einfacheren)
Fall einer Matrix mit reellen positiven Eintr agen beschr anken. Eine solche Matrix A nennen
wir positiv und schreiben A > 0. F ur zwei mn-Matrizen B,C schreiben wir B >C wenn
BC > 0 gilt.
Satz 7.26 (Perron) Sei A C
nn
positiv. Dann gelten die folgenden Aussagen f ur den
Spektralradius r =(A).
(i) r > 0;
(ii) r ist Eigenwert von A;
(iii) r ist der einzige Eigenwert von A mit Betrag r;
(iv) r ist einfacher Eigenwert von A, dass heisst alg
r
(A) = 1;
(v) es gibt einen zu r geh origen Eigenvektor x mit reellen, positiven Eintr agen;
(vi) A hat, abgesehen von positiven Vielfachen von x, keine weiteren Eigenvektoren mit
reellen, nichtnegativen Eintr agen.
BEWEIS: Zu (i). Beweis per Widerspruch: Sei r = 0. Dann hat A nur Eigenwerte 0, das
charakteristische Polynom ist also p
A
=t
n
. Nach dem Satz von Cayley-Hamilton gilt A
n
=
0; dies steht aber im Widerspruch dazu, dass A
n
positiv ist.
Im folgenden k onnen wir o.B.d.A. r = 1 annehmen, indem wir A einfach durch
1
(A)
A
ersetzen.
Zu (ii) und (v). Da der Spektralradius r = 1 ist, gibt es einen Eigenwert C mit
|| =1 und zugeh origem Eigenvektor y C
nn
. Im folgenden bezeichnet |C| f ur C C
mn
die Matrix mit den Eintr agen (|C|)
i j
:= |c
i j
|. Aus der Dreiecksungleichung f ur komplexe
Zahlen folgt:
|y| =|y| =|Ay| |A| |y| = A|y|. (7.19)
Die Aussagen von (ii) und (v) folgen (mit x =|y|) wenn wir Gleichheit zeigen k onnen. Mit
z := A|y| und b := z |y| folgt aus (7.19), dass b nichtnegative Eintr age hat. Nehmen wir
an, dass mindestens ein Eintrag von b verschieden von Null, also positiv ist. Dann folgt
Ab > 0. Da auch z = A|y| > 0, gibt es > 0 mit Ab > z. Einsetzen von b = z |y| und
Umstellen ergibt
Bz > z, mit B :=
1
1+
A.
Also gilt B
k
z >z f ur alle k. Wegen (B) =(A)/(1+) =1/(1+) <1 und Lemma 7.25
24
gilt aber B
k
0. Dies ist ein Widerspruch, also gilt Gleichheit in (7.19).
24
Der Nachweis der G ultigkeit von Lemma 7.25 f ur nichtdiagonalisierbare Matrizen steht noch aus. Im Mo-
ment soll dies einfach mal geglaubt werden.
128 Version 20. Juli 2011 Kapitel 7. Eigenwerte und Eigenvektoren
F ur (iii) bleibt zu zeigen, dass f ur einen Eigenwert auf dem Spektralradius tats achlich
= 1 und nicht nur || = 1 gilt. Wir haben

j=1
a
i j
y
j

=|y
i
| =
n

j=1

a
i j
y
j

. (7.20)
Die linke Seite folgt aus der Beziehung Ay = y und die rechte Seite aus der gerade be-
wiesenen Beziehung |y| = A|y|. Man sieht leicht ein, dass (7.20) nur gelten kann, wenn alle
Summanden das gleiche Vorzeichen haben. Es gibt also einen Vektor p = (1, p
2
, . . . , p
n
)
T
mit p > 0 und y = y
1
p. Aus x = Ax folgt f ur diesen Vektor
p = Ap =|Ap| =| p| = p = 1.
Zu (iv). Da (A
T
) =(A) = 1 gibt es w R
n1
mit w > 0 und A
T
w = w. Wir skalieren
w, so dass w
T
x = 1 f ur den oben konstruierten Eigenvektor x > 0 von A. Wir w ahlen nun
eine Matrix X

R
n(n1)
deren Spalten eine Basis von Kern(w
T
) bilden. Da w
T
x = 0 ist
x Kern(w

). Also ist die Matrix P = (x, X

) invertierbar und die Inverse hat die Form


P
1
=
_
w
T
W
T

_
f ur ein W

R
n(n1)
mit W
T

x = 0. Also gilt
P
1
AP =
_
w
T
Ax w
T
AX

W
T

Ax W
T

AX

_
=
_
w
T
x w
T
X

W
T

x W
T

AX

_
=
_
1 0
0 W
T

AX

_
.
Unter der Annahme alg
1
(A) >1 hat W
T

AX

einen Eigenwert 1 mit zugeh origem Eigenvek-


tor y
2
. Damit hat A den von x linear unabh angigen Eigenvektor x =P
1
_
1
y
2
_
. W ahle nun
i, so dass x
i
=0. Dann ist y =x
x
i
x
i
x nicht Null (da x, x linear unabh angig) und Eigenvektor
zum Eigenwert 1. Vom Beweis zu (ii) wissen wir, dass damit auch |y| ein Eigenvektor ist;
es gilt also |y| = A|y| > 0. Dies ist aber ein Widerspruch, da die i-te Komponente von y per
Konstruktion 0 ist. Damit folgt alg
1
(A) = 1.
Zu (vi). Wie im Beweis von (iv) sei w > 0 so dass w
T
A = w und w
T
x = 1. Ist x 0
Eigenvektor von A zu einem Eigenwert , dann folgt aus A x = x die Beziehung =
w
T
x = w
T
A x = w
T
x = 1. Nach (iv) ist aber geo
1
(A) = alg
1
(A) = 1; x muss also positives
Vielfaches von x sein.
Korollar 7.27 Sei A C
nn
positiv und spaltenstochastisch, dass heisst,
n
i=1
a
i j
= 1 f ur
j = 1, . . . , n. Dann ist (A) = 1 Eigenwert mit positivem Eigenvektor x und alg
1
(A) = 1.
BEWEIS: Sobald (A) = 1 gezeigt ist, folgt die Aussage aus Satz 7.26. Da A
T
e = e f ur
e = (1, . . . , 1)
T
, hat A
T
(und damit auch A) den Eigenwert 1. Sei nun C ein beliebiger
Eigenwert von A
T
mit Eigenvektor y. Sei j so dass y
j
= 0. Dann folgt aus der Dreiecksun-
gleichung f ur die j-te Zeile der Beziehung A
T
y =y, dass
|||y
j
| =

i=1
a
i j
y
i

i=1
a
i j
|y
i
| |y
j
|
und somit || < 1. Also ist (A) = 1.
In praktischen Anwendungen haben Matrizen oft sehr viele Nulleintr age und es ist da-
her fast nie realistisch zu verlangen, dass alle Eintr age positiv sind; so z.B. bei der Maus-
Matrix in (7.18). F ur eine nichtnegative Matrix, bei der alle Eintr age reell und nichtne-
gativ sind, gehen die meisten der in Satz 7.26 aufgef uhrten Eigenschaften verloren, wenn
7.4. Lineare Rekursionen und Matrixpotenzen Version 20. Juli 2011 129
man nicht weitere Forderungen an die Matrix stellt. Zum Beispiel hat die Matrix
A =
_
_
2 1 2
2 1 3
0 0 3
_
_
(7.21)
die Eigenwerte 0 und 3, mit alg
3
(A) = 2 und geo
3
(A) = 1. Jeder Eigenvektor zu 3 hat die
Form x = (, , 0)
T
; es gibt insbesondere keinen positiven Eigenvektor. Das Besondere an
dieser Matrix ist, dass sie in oberer Blockdreiecksform
_
A
11
A
12
0 A
22
_
, A
11
C
n
1
n
1
, A
22
C
n
2
n
2
,
ist. Hat eine Matrix A diese Form oder gibt es eine Permutationsmatrix P so dass P
T
AP
diese Form hat, dann heisst A reduzibel. Ansonsten heisst A irreduzibel.
25
Der Satz von
Perron-Frobenius sagt aus, dass f ur eine irreduzible nichtnegative Matrix A der Spektral-
radius r = (A) ein einfacher Eigenwert ist und dass es einen zugeh origen positiven Ei-
genvektor gibt. Eine wichtige Eigenschaft von Satz 7.26 ist aber immer noch nicht erf ullt,
n amlich dass r der einzige Eigenwert mit Betrag (A) ist. Z.B. ist
A =
_
_
0 0 1
2 0 0
0 4 0
_
_
irreduzibel und hat die Eigenwerte
1
=2,
2
=1+

3i,
3
=1

3i, mit |
1
| =|
2
| =
|
3
| = 2. Eine solche Situation kann ausgeschlossen werden indem man zus atzlich fordert,
dass A primitiv ist, dass heisst, es gibt eine k N mit A
k
> 0.
Bemerkung 7.28 In der urspr unglichen Idee von Google PageRank werden Seiten je h oher
bewertet umso ofter sich ein zuf alliger Surfer im Mittel auf diesen aufhalten w urde. Sei A
eine Link-Matrix wie in (1.4). Startet ein zuf alliger Surfer von Seite 1, dann stehen die
Aufenthaltswahrscheinlichkeiten nach einem Klick in dem Vektor A
T
e
1
, nach zwei Klicks in
_
A
T
_
2
e
1
, nach drei Klicks in
_
A
T
_
3
e
1
, usw. Damit der PageRank Sinn macht, sollten die-
se Aufenthaltswahrscheinlichkeiten gegen einen positiven Vektor x konvergieren. Dies l asst
sich garantieren wenn A
T
primitiv ist. Das ist aber unrealistisch; insbesondere m usste man
f ur Irreduzibilit at fordern, dass es im Internet keine Sackgassen gibt. In ihrer Arbeit The
Anatomy of a Large-Scale Hypertextual Web Search Engine schlugen S. Brin und L. Page
einen einfachen Ausweg vor: Die nn-Matrix A
T
wird durch
B =A
T
+(1)ee
T
, = 0.85, e =
1

n
_
_
_
1
.
.
.
1
_
_
_,
ersetzt. Die Matrix B ist auf jeden Fall positiv. Man kann diesen Trick so interpretieren, dass
der zuf allige Surfer mit Wahrscheinlichkeit 15% nicht klickt, sondern irgendeine beliebige
Seite aus dem Internet w ahlt.
25
Eine Matrix A ist genau dann irreduzibel, wenn der dazugeh orige gerichtete Graph nur eine starke Zusam-
menhangskomponente hat.
130 Version 20. Juli 2011 Kapitel 7. Eigenwerte und Eigenvektoren
7.5 Differentialgleichungen und Matrixexponential
In diesem Abschnitt wollen wir uns mit der L osung und Eigenschaften von speziellen Dif-
ferentialgleichungen besch aftigen.
Denition 7.29 Ein lineares System von gew ohnlichen Differentialgleichungen [linear
system of ordinary differential equations] hat die Form
u

(t) = Au(t) +b(t), (7.22)


mit einer Matrix A C
nn
und einer Inhomogenit at b(t) C
n1
. Verlangt man noch die
Anfangswertbedingung
u(t
0
) = u
0
(7.23)
zu einem Zeitpunkt t
0
mit vorgegebenem u
0
C
n1
, so ist (7.22)(7.23) eine Anfangs-
wertaufgabe [initial value problem].
In Denition 7.29 wird die Ableitung des Spaltenvektors u(t) elementweise verstanden:
u

(t) =

t
_
u
1
(t) u
2
(t) u
n
(t)
_
T
=
_
u

1
(t) u

2
(t) u

n
(t)
_
T
.
Man beachte, dass bei der Ableitung einer komplexwertigen Funktion u
i
: R C Real-
und Imagin arteil einfach separat abgeleitet werden.
Beispiel 7.5:
F ur den rechts dargestellten Federschwinger mit masseloser Feder bezeichne x
die vertikale Auslenkung der Masse relativ zur Ruhelage. Dann erf ullt x(t) die
Differentialgleichung
x

(t) =
2
x(t), x(0) = x
0
, x

(0) = v
0
, (7.24)
wobei x
0
die Anfangsauslenkung und v
0
die Anfangsgeschwindigkeit ist. Die
Konstante > 0 ergibt sich mit =
_
D/m aus der Masse m und der Federkon-
stanten D. F uhrt man den Vektor u(t) = (x(t), x

(t))
T
ein, so l asst sich (7.24) als
System erster Ordnung schreiben:
u

(t) =
_
0 1

2
0
_
u(t), u(0) =
_
x
0
v
0
_
. (7.25)

Das Vorgehen in Beispiel 7.5 l asst sich leicht verallgmeinern. Ist eine lineare gew ohn-
liche Differentialgleichung der Form
f
(n)
(t) =
n1
f
(n1)
(t) + +
1
f

(t) +
0
f (t) +g(t) (7.26)
mit Anfangswerten
f (t
0
) = s
0
, f

(t
0
) = s
1
, . . . , f
(n1)
(t
0
) = s
n1
(7.27)
gegeben, so l asst sich dies in ein System der Form (7.22) durch Einf uhrung des Vektors
u(t) =
_
f (t), f

(t), . . . , f
(n1)
(t)
_
T
C
n1
umwandeln. Die Gleichungen (7.26)(7.27)
7.5. Differentialgleichungen und Matrixexponential Version 20. Juli 2011 131
zusammen mit u
i+1
(t) = u

i
(t) f ur i = 1, . . . , n1 ergeben
u

(t) =
_
_
_
_
_
0 1
.
.
.
.
.
.
0 1

0

n2

n1
_
_
_
_
_
u(t) +
_
_
_
_
_
0
.
.
.
0
g(t)
_
_
_
_
_
, u(t
0
) =
_
_
_
_
_
s
0
s
1
.
.
.
s
n1
_
_
_
_
_
. (7.28)
Die Systemmatrix A ist identisch mit der Systemmatrix in (7.10), von der wir bereits in
Lemma 7.22 einige Eigenschaften kennengelernt haben.
Wir betrachten jetzt den allgemeinen Fall (7.22) n aher.
Satz 7.30 Seien die Eintr age von b(t) C
n1
stetig auf dem Intervall [t
0
, T] f ur ein T >t
0
.
Dann besitzt die Anfangswertaufgabe (7.22)(7.23) linearer gew ohnlicher Differentialglei-
chungen eine eindeutige L osung u(t) auf dem Intervall [t
0
, T].
BEWEIS: Diese Aussage folgt aus demwesentlich allgemeineren Satz von Picard-Lindel of,
den Sie im Verlaufe des Studiums noch kennenlernen werden.
F ur eine diagonalisierbare Matrix A l asst sich die L osung der homogenen Anfangswert-
aufgabe
u

(t) = Au(t), u(t


0
) = u
0
, (7.29)
leicht angeben. Sei dazu
P
1
AP = = diag(
1
, . . . ,
n
), P =
_
x
1
x
n
_
.
Mit u(t) := P
1
u(t) und u
0
= P
1
u
0
ist (7.29) aquivalent zu dem reduzierten System
u

(t) = u(t), u(t


0
) = u
0
=:
_
c
1
, . . . , c
n
_
T
.
Dieses zerf allt aber in n lineare gew ohnliche Differentialgleichungen
u
j
(t) =
j
u
j
(t), u
j
(t
0
) = c
j
, j = 1, . . . , n,
deren L osung durch u
j
(t) = c
j
e

j
(tt
0
)
gegeben ist. Also hat die L osung von (7.29) die
Form
u(t) = P u(t) = P
_
_
_
c
1
e

1
(tt
0
)
.
.
.
c
n
e

n
(tt
0
)
_
_
_= c
1
e

1
(tt
0
)
x
1
+ +c
n
e

n
(tt
0
)
x
n
.
Die L osung l asst sich damit als eine durch den Anfangsvektor bestimmte Linearkombina-
tion von harmonischen L osungen e

j
(tt
0
)
x
j
schreiben.
Beispiel 7.6: F ur den in Beispiel 7.5 betrachteten Federschwinger hat die Systemmatrix A =
_
0 1

2
0
_
die folgenden Eigenwerte und Eigenvektoren:

1
= i, x
1
=
_
1
i
_
,
2
=i, x
1
=
_
1
i
_
.
Also hat die L osung von (7.25) die Form
u(t) = c
1
e
it
_
1
i
_
+c
2
e
it
_
1
i
_
.
Insbesondere gilt f ur die erste Komponente (vertikale Auslenkung der Feder)
x(t) = c
1
e
it
+c
2
e
it
= (c
1
c
2
)i sin(t) +(c
1
+c
2
)cos(t).
Durch Einsetzen sieht man leicht c
1
+c
2
= x
0
sowie c
1
c
2
= v
0
/(i). Also ist x(t) = x
0
cos(t) +
v
0
/ sin(t) die L osung von (7.24).
132 Version 20. Juli 2011 Kapitel 7. Eigenwerte und Eigenvektoren
7.5.1 Das Matrixexponential
Im Fall eines linearen homogenen Systems von Differenzengleichungen besitzt die L osung
eine einfache Darstellung mittels Matrixpotenzen. Wir werden jetzt eine ahnliche Darstel-
lung f ur Differentialgleichungen entwickeln.
Denition 7.31 Sei A C
nn
. Dann ist das Exponential der Matrix A die Matrix
e
A
:= I
n
+A+
1
2
A
2
+
1
3!
A
3
+
1
4!
A
4
+ =

k=0
1
k!
A
k
. (7.30)
Damit diese Denition Sinn macht, muss noch sichergestellt werden, dass die Reihe
in (7.30) tats achlich konvergiert.
Lemma 7.32 Jeder Eintrag der in (7.30) denierten Matrixreihe konvergiert absolut.
BEWEIS: Setze := max
i j
|a
i j
| und sei c
(k)
i j
der Eintrag (i, j) von A
k
. Dann gilt |c
(k)
i j
|
n
k1

k
f ur k 1. Dies l asst sich leicht per Induktion zeigen. ImInduktionsschritt verwendet
man
|c
(k+1)
i j
| =

=1
c
(k)
i
a
j

=1

c
(k)
i

a
j

=1
n
k1

k
= n
k

k+1
.
Wenn also c
i j
den Eintrag (i, j) der in (7.30) formal denierten Matrixreihe f ur e
A
bezeich-
net, so folgt
|c
i j
| 1+

k=1
1
k!
|c
(k)
i j
| 1+

k=1
n
k1

k
k!
<

k=0
n
k

k
k!
= e
n
.
Also konvergiert der Eintrag (i, j) absolut. (Bemerkung: Mit den im 2. Semester eingef uhr-
ten Matrixnormen l asst sich dieser Beweis k urzer und eleganter formulieren.)
Das folgende Lemma sammelt verschiedene Eigenschaften des Matrixexponentials.
Lemma 7.33 Sei A C
nn
.
(i) Ist A = diag
_
a
11
, . . . , a
nn
_
, so gilt e
A
= diag
_
e
a
11
, . . . , e
a
nn
_
;
(ii) e
(A
T
)
=
_
e
A
_
T
und e
(A
H
)
=
_
e
A
_
H
.
(iii) Die Eintr age von e
tA
sind nach t differenzierbar und es gilt

t
e
tA
= Ae
tA
.
(iv) Gilt AB = BA f ur eine Matrix B C
nn
, so folgt e
A+B
= e
A
e
B
.
(v) e
A
ist invertierbar und es gilt
_
e
A
_
1
= e
A
.
(vi) e
P
1
AP
= P
1
e
A
P f ur jede invertierbare Matrix P C
nn
.
(vii) det(e
A
) = e
Spur(A)
.
BEWEIS: (i) und (ii) folgen sofort aus der Denition des Matrixexponentials.
Zu (iii). Per Denition folgt

t
e
tA
=

t
_

k=0
t
k
k!
A
k
_
=

k=1
t
k1
(k 1)!
A
k
=

k=0
t
k
k!
A
k+1
= Ae
tA
.
7.5. Differentialgleichungen und Matrixexponential Version 20. Juli 2011 133
Zu (iv) und (v).

Ahnlich wie in (iii) pr uft man mit Hilfe von AB = BA leicht die Bezie-
hung

t
e
tA+B
= Ae
tA+B
nach. Nun folgern wir mit der Produktregel, die auch f ur Ableitun-
gen von matrixwertigen Funktionen gilt:

t
_
e
tA
e
tA+B
_
=
_

t
e
tA
_
e
tA+B
+e
tA
_

t
e
tA+B
_
=Ae
tA
e
tA+B
+e
tA
Ae
tA+B
=Ae
tA
e
tA+B
+Ae
tA
e
tA+B
= 0,
wobei wir im vorletzten Schritt ausgenutzt haben, dass A und e
tA
kommutieren. Also gibt
es eine von t unabh angige Matrix C mit e
tA
e
tA+B
=C. Einsetzen von t = 0 ergibt C = e
B
.
Setzt man t = 1 und B = 0, so folgt aus e
A
e
A
= I die Aussage von (v). Die Aussage von
(iv) folgt wiederum aus t = 1, aber jetzt mit allgemeinem B:
e
A
e
A+B
= e
B
e
A+B
=
_
e
A
_
1
e
B
= e
A
e
B
.
(Bemerkung: Sind A, B diagonalisierbar, so l asst sich (iv) wesentlich einfacher mit Lem-
ma 7.21 schliessen.)
(vi) folgt per Denition aus der bereits bewiesenen Beziehung
_
P
1
AP
_
k
= P
1
A
k
P.
(vii) ist

Ubung.
Aus Lemma 7.33 (i) und (vi) ergibt sich f ur diagonalisierbare Matrizen die folgende
M oglichkeit zur Berechnung:
A = Pdiag (
1
, . . . ,
n
)P
1
e
A
= Pdiag (e

1
, . . . , e

n
)P
1
. (7.31)
Es sollte an dieser Stelle aber darauf hingewiesen werden, dass dieser Weg bei numeri-
schen Berechnungen (ausser f ur symmetrische Matrizen) vermieden wird, da er zu unn otig
ungenauen Ergebnissen f uhren kann. Die MATLAB-Funktion expm berechnet das Matrix-
exponential mit dem sogenannten Scaling-und-Squaring-Algorithmus kombiniert mit einer
rationalen Approximation.
Bemerkung 7.34 Ohne Kommutativit at ist die Aussage von Lemma 7.33 (iv) nicht richtig.
W ahlt man zum Beispiel A =
_
1 0
0 0
_
, B =
_
0 1
0 0
_
, so gilt
e
A
=
_
e
1
0
0 1
_
, e
B
= I +B+0 =
_
1 1
0 1
_
e
A
e
B
=
_
e
1
e
1
0 1
_
.
Mittels (7.31) erh alt man aber e
A+B
=
_
e
1
e
1
1
0 1
_
.
Korollar 7.35 Die L osung der homogenen Anfangswertaufgabe u

(t) = Au(t), u(t


0
) = u
0
,
ist eindeutig und durch u(t) = e
(tt
0
)A
u
0
gegeben.
BEWEIS: Mit Hilfe von Lemma 7.33 (iii) folgt
u

(t) =

t
e
(tt
0
)A
u
0
= Ae
(tt
0
)A
u
0
= Au(t).
Ausserdem gilt u(t
0
) = e
0
u
0
= u
0
. Die Eindeutigkeit folgt aus Satz 7.30.
Um den allgemeinen Fall,
u

(t) = Au(t) +b(t), (7.32)


zu l osen, verwenden wir Variation der Konstanten. Von Korollar 7.35 wissen wir, dass
sich jede L osung des homogenen Systems u

(t) = Au(t) in der Form u(t) = e


tA
c mit einem
134 Version 20. Juli 2011 Kapitel 7. Eigenwerte und Eigenvektoren
konstanten Vektor c C
n1
schreiben l asst. Wir lassen jetzt die in c enthaltenen Konstanten
zeitabh angig werden und setzen u
p
(t) = e
tA
c(t) in (7.32) ein:
Ae
tA
c(t)
. .
=u
p
(t)
+e
tA
c

(t) = Au
p
(t) +b(t) c

(t) = e
tA
b(t).
Eine m ogliche Stammfunktion von e
tA
b(t) ist
c(t) =
_
t
t
0
e
(s)A
b(s) ds u
p
(t) =
_
t
t
0
e
(ts)A
b(s) ds.
Wie bei linearen Gleichungssytemen ergibt sich die L osungsmenge (7.32) aus der Summe
aller homogenen L osungen mit der partikul aren L osung u
p
:
u(t) = u
h
(t) +u
p
(t) = e
tA
c +
_
t
t
0
e
(ts)A
b(s) ds,
wobei c C
n1
beliebig sein kann. W ahlt man c =e
t
0
A
u
0
so ergibt sich u(t
0
) =u
0
; mit die-
ser Wahl l ost u(t) also gerade die eingangs denierte Anfangswertaufgabe (7.26)(7.27).
Kapitel 8
Die Jordan-Normalform
Satz 7.19 gab notwendige und hinreichende Bedingungen f ur die Diagonalisierbarkeit von
Matrizen unter

Ahnlichkeitstransformation an. Es bleibt noch die spannende Frage: Wie
weit kann eine Matrix reduziert werden wenn diese Bedingungen nicht erf ullt sind? Die
Konstruktion wird ahnlich wie im Satz 7.19 auf einer Zerlegung des Vektorraums K
n1
in Teilr aume basieren. Allerdings liefern im allgemeinen Fall die Eigenr aume nicht mehr
gen ugend Informationen f ur die Konstruktion einer solchen Zerlegung. Sie werden durch
das Konzept der Hauptr aume ersetzt.
Denition 8.1 Sei K Eigenwert einer Matrix AK
nn
mit algebraischer Vielfachheit
r = alg

(A). Dann heisst


Hau

(A) := Kern(I A)
r
Hauptraum [generalized eigenspace] von A zum Eigenwert .
Wir werden imFolgenden eine invertierbare Matrix P, deren Spalten Basen von Hauptr aum-
en bilden, in zwei Schritten so konstruieren, dass P
1
AP so einfach wie m oglich wird.
1. In Abschnitt 8.1 werden wir zeigen, dass P
1
AP mit irgendeiner Wahl der Hauptraum-
basen bereits eine Blockdiagonalmatrix ist.
2. In Abschnitt 8.2 werden wir zeigen, dass eine sehr geschickte Wahl der Hauptraum-
basen besonders einfache Diagonalbl ocke in der Blockdiagonalmatrix nach sich zieht.
8.1 Die Hauptraumzerlegung
Zun achst einige Vorbetrachtungen zu nilpotenten Matrizen.
Denition 8.2 Eine Matrix N R
nn
heisst nilpotent wenn es ein d N gibt mit N
d
= 0.
Das kleinstm ogliche d mit N
d
= 0 und N
d1
= 0 heisst Nilpotenzindex von N.
Der Prototyp einer nilpotenten Matrix ist eine Matrix der Form
J
3
(0) =
_
_
0 1 0
0 0 1
0 0 0
_
_
J
2
3
(0) =
_
_
0 0 1
0 0 0
0 0 0
_
_
, J
3
3
(0) =
_
_
0 0 0
0 0 0
0 0 0
_
_
.
135
136 Version 20. Juli 2011 Kapitel 8. Die Jordan-Normalform
Diese Matrix hat also Nilpotenzindex 3. Im allgemeinen hat die Matrix
J
n
(0) =
_
_
_
_
_
_
0 1
0
.
.
.
.
.
.
1
0
_
_
_
_
_
_
R
nn
den Nilpotenzindex n.
Lemma 8.3 Sei A K
nn
. Dann sind die folgenden Aussagen aquivalent.
(i) A ist nilpotent.
(ii) A hat nur den Eigenwert 0 mit alg
0
(A) = n.
(iii) p
A
=t
n
.
(iv) A
n
= 0.
BEWEIS: (i) (ii). Da A nilpotent, gibt es ein d N mit A
d
= 0. Wir wollen jetzt voraus-
setzen, dass K ein Unterk orper von C ist.
26
Dann l asst sich p
A
in Linearfaktoren zerlegen:
p
A
= (t
1
)(t
2
) (t
n
),
1
, . . . ,
n
C.
W are ein
i
= 0, so gibt es einen Eigenvektor x C
n1
mit Ax =
i
x. Daraus ergibt sich
aber der Widerspruch 0 = A
d
x =
d
i
x = 0. Also folgt
1
= =
n
= 0 und damit (ii).
(ii) (iii). Offensichtlich.
(iii) (iv). Aus dem Satz von Cayley-Hamilton folgt 0 = p
A
(A) = A
n
.
(iv) (i). Offensichtlich.
Der folgende Satz enth alt das wichtigste Resultat aus diesem Abschnitt.
Satz 8.4 Sei A K
nn
und zerfalle das charakteristische Polynom p
A
in Linearfaktoren:
p
A
= (t
1
)
r
1
(t
2
)
r
2
. . . (t
k
)
r
k
(8.1)
mit paarweise verschiedenen Eigenwerten
1
, . . . ,
k
K. Dann gelten die folgenden Aus-
sagen f ur die entsprechenden Hauptr aume V
i
= Hau

i
(A):
(i) AV
i
V
i
und dimV
i
= r
i
f ur i = 1, . . . , k;
(ii) K
n1
=V
1
V
2
V
k
.
(iii) Es gibt eine invertierbare Matrix P K
nn
mit
P
1
AP =
_
_
_

1
I
r
1
N
1
.
.
.

k
I
r
k
N
k
_
_
_, (8.2)
mit nilpotenten Matrizen N
i
K
r
i
r
i
, i = 1, . . . , k.
26
Ansonsten muss man anstatt von C den algebraischen Abschluss von K betrachten, aber soweit wollen wir
uns nicht in die Algebra vorwagen.
8.1. Die Hauptraumzerlegung Version 20. Juli 2011 137
F ur den Beweis von Satz 8.4 betrachten wir zun achst nur einen festen Eigenwert K
mit geometrischer Vielfachheit m und die Potenzen der (singul aren) Matrix
B :=I A.
Die folgenden Inklusionen sind leicht einzusehen:
{0} KernB KernB
2
KernB

,
K
n1
BildB BildB
2
BildB

,
(8.3)
f ur ein beliebiges N. Die obere Kette kann nicht endlos mit echten Inklusionen fortge-
setzt werden; sei also
d = min
_
: KernB

= KernB
+1
_
.
Dann gilt nicht nur f ur i = 1 sondern f ur jedes i N die Beziehung
KernB
d+i
= KernB
d
, (8.4)
da 0 = B
d+i
x = B
d+1
(B
i1
x) = B
d
(B
i1
x) = B
d+i1
x = = B
d
x.
Lemma 8.5 (Fitting) Sei B K
nn
und d =min
_
: KernB

=KernB
+1
_
, r =alg
0
(B).
Dann gelten die folgenden Eigenschaften f ur U = KernB
d
und W = BildB
d
:
(i) BU U, BW =W.
(ii) K
n1
=U W mit dimU = r, dimW = nr.
(iii) Es gibt eine invertierbare Matrix P mit
P
1
BP =
_
N 0
0

B
_
, N
d
= 0,

B K
(nr)(nr)
invertierbar.
BEWEIS: Zu (i). Die Beziehung BU U folgt direkt aus der Denition von U. Betrachte
nun BW = BBildB
d
= BildB
d+1
. Da
dimBildB
d+1
= ndimKernB
d+1
= ndimKernB
d
= dimBildB
d
sowie BildB
d+1
BildB
d
, folgt BildB
d+1
= BildB
d
, also BW =W.
Zu (ii) und (iii). Sei x U W. Dann ist B
d
x = 0 sowie x = B
d
y f ur ein y K
n1
. Also
gilt B
2d
y = 0. Wegen (8.4) folgt daraus aber 0 = B
d
y = x. Auf der anderen Seite gilt wegen
der Dimensionsformel f ur Abbildungen die Beziehung dimU+dimW =n. Kombiniert mit
U W ={0} ergibt dies K
n1
=U W.
Setze nun r := dimU. W ahlt man P =
_
P
U
, P
W
_
mit P
U
K
n r
und P
W
K
n(n r)
, so dass
die Spalten von P
U
eine Basis von U und die Spalten von P
W
eine Basis von W bilden, so
folgt wegen (i) dass es Matrizen N K
r r
und

B K
(n r)(n r)
gibt mit
BP
U
= P
U
N, BP
W
= P
W

B BP = P
_
N 0
0

B
_
.
Aus BW = W folgt Rang(P
W

B) = Rang(P
W
), also muss

B invertierbar sein. Ausserdem
folgt aus wiederholter Anwendung von BP
U
= P
U
N die Beziehung B
d
P
U
= P
U
N
d
. Da aber
B
d
P
U
= 0 und P
U
vollen Spaltenrang hat, muss N
d
= 0 gelten. Dies kann aber nur sein,
138 Version 20. Juli 2011 Kapitel 8. Die Jordan-Normalform
wenn alle r Eigenwerte von N Null sind, siehe Lemma 8.3. Da

B invertierbar ist und somit
keine weiteren Nulleigenwerte haben kann, gilt also r = alg
0
B = alg
0
N = r.
BEWEIS VON SATZ 8.4: Wir werden zun achst (iii) zusammen mit der zus atzlichen Aus-
sage, dass r
i
= dimV
i
gilt, zeigen. Der Beweis erfolgt per Induktion uber k, der Anzahl der
paarweise verschiedenen Eigenwerte. F ur k = 1 ist nichts zu zeigen, da dann r
1
= n und
V
1
= Kern(
1
I A)
n
= Kern0
nn
= K
n1
gilt. Wir k onnen einfach P = I
n
setzen.
Wir uberpr ufen nun die Aussage f ur ein allgemeines k 2 unter der Annahme, dass die
Aussage f ur k1 erf ullt ist. Gem ass Lemma 8.5 gibt es eine invertierbare Matrix P
1
K
nn
mit
P
1
1
AP
1
=
1
I P
1
1
(
1
I A)P
1
=
1
I
_
N
1
0
0

B
_
=
_

1
I N
1
0
0

A
_
,
wobei

A :=
1
I

B und N
1
K
r
1
r
1
nilpotent mit r
1
= dimV
1
. Ausserdem gilt
p
A
= det(tI A) = det
_
tI (
1
I N
1
)
_
p

A
= (t
1
)
r
1
p

A
,
wobei wir ausgenutzt haben, dass jeder Nulleigenwert von N
1
durch
1
I N
1
nach
1
verschoben wird. Abgleich mit (8.1) ergibt
p

A
= (t
2
)
r
2
. . . (t
k
)
r
k
.
Also hat

A nur k 1 paarweise verschiedene Eigenwerte und wir erhalten aus der Indukti-
onsvoraussetzung

P
1

A

P =
_
_
_

1
I
r
2
N
2
.
.
.

k
I
r
k
N
k
_
_
_
f ur eine invertierbare Matrix

P, sowie
dimV
i
= dimKern(
i
I A)
r
i
= dimKern(
i
I

A)
r
i
= r
i
.
Die Aussage von (iii) folgt nun f ur k indem man einfach P = P
1
_
I
r
1
0
0

P
_
setzt.
Die Aussagen von (i) und (ii) folgen nun direkt aus (iii). Wir unterteilen dazu die Trans-
formationsmatrix P =
_
P
1
, . . . , P
r
_
mit P
i
K
nr
i
. Dann l asst sich (8.2) umschreiben in
AP
i
= P
i
(
i
I N
i
).
Daraus folgt einerseits Aspan(P
i
) span(P
i
) und andererseits
(
i
I A)P
i
= P
i
N
i
(A
i
I)
r
i
P
i
= P
i
N
r
i
i
= 0,
wobei wir Lemma 8.3 (iv) ausgenutzt haben. Also gilt span(P
i
) Hau

i
(A) =V
i
. Verwen-
det man jetzt noch die oben gezeigte Tatsache dimV
i
= r
i
, so folgt span(P
i
) = V
i
. Also
bilden die Spalten von P
i
eine Basis von V
i
. Damit folgt K
n1
=V
1
V
k
aus Satz 4.35,
da alle Spalten von P zusammen eine Basis von K
n1
bilden.
8.2. Wahl der Hauptraumbasen Version 20. Juli 2011 139
8.2 Wahl der Hauptraumbasen
Durch eine geschickte Wahl der Basen von Hau

i
(A) gilt es nun, die Bl ocke N
i
in (8.2) so
einfach wie m oglich zu gestalten. Im folgenden bezeichnet
J
m
() =
_
_
_
_
_
_
1

.
.
.
.
.
.
1

_
_
_
_
_
_
K
mm
einen sogenannten Jordan-Block der Gr osse m zu K. Ausserdem schreiben wir
diag
_
C
1
, . . . ,C
k
_
:=
_
_
_
C
1
.
.
.
C
k
_
_
_
f ur quadratische Matrizen C
1
, . . . ,C
k
.
Satz 8.6 Sei K Eigenwert von A K
nn
mit r = alg

(A). Dann gibt es eine Matrix


P K
nr
, so dass Rang(P) = r und
AP = PJ
A
(), (8.5)
mit der k k-Matrix
J
A
() := diag
_
J
d
(), . . . , J
d
()
. .
s
d
Mal
, J
d1
(), . . . , J
d1
()
. .
s
d1
Mal
, . . . , J
1
(), . . . , J
1
()
. .
s
1
Mal
_
K
rr
,
(8.6)
wobei d = min{ : Kern(AI)

= Kern(AI)
+1
} und s
1
, s
2
, . . . , s
d
N.
BEWEIS: Durch Subtraktion von P auf beiden Seiten von (8.5) k onnen wir imFolgenden
o.B.d.A. = 0 annehmen. Mit U

:= KernA

ergibt sich die folgende Kette von Untervek-


torr aumen:
{0} =U
0
U
1
U
2
U
d
= Hau
0
(A),
wobei alle Inklusionen echt sind. Man kann sich das so vorstellen, dass mit steigendem
Level immer mehr Informationen zu U

hinzugef ugt werden. Wir werden jetzt Schritt


f ur Schritt U
d
so zerlegen, dass die in jedem Level hinzugef ugten Informationen sichtbar
werden. Die folgenden beiden Eigenschaften werden dabei zentral sein:
AU

U
1
f ur = 1, . . . , d.
Dies ist leicht zu sehen: Ist x AU

, also x =Ay mit A

y =0, so folgt A
1
x =A

y =0.
Aus W U

= {0} f ur irgendein = 1, . . . , d und einen Unterraum W von U


d
, folgt
W U
1
={0}.
Dies folgt sofort aus der Tatsache U
1
U

.
Nach Satz 4.33 k onnen wir nun U
d1
zu U
d
erg anzen, d.h., es gibt einen Untervektorraum
W
d
U
d
mit
U
d
=U
d1
W
d
. (8.7)
Im n achsten Schritt zerlegen wir U
d1
. Dazu bemerken wir zun achst AW
d
AU
d
AU
d1
und AW
d
U
d2
={0}. Also gibt es eine Zerlegung
U
d1
=U
d2
W
d1
, AW
d
W
d1
. (8.8)
140 Version 20. Juli 2011 Kapitel 8. Die Jordan-Normalform
Kombiniert man (8.7) und (8.8), so erh alt man die Zerlegung
U
d
=U
d2
W
d1
W
d
.
Wiederholtes Anwenden dieser Prozedur f uhrt schlussendlich auf eine Zerlegung
U
d
=W
1
W
d1
W
d
, AW

W
1
, = 2, . . . , d,
mit W
1
=U
1
. Wir werden von W
d
beginnend spezielle Basen von W

so konstruieren, dass
die Beziehung AW

W
1
respektiert wird. Dabei ist die folgende Eigenschaft entschei-
dend.
Sind x
1
, . . . , x
m
W

linear unabh angig, so sind auch Ax


1
, . . . , Ax
m
linear unabh angig.
Eigentlich folgt diese Tatsache sofort aus Lemma 5.4 (iv); der Einfachheit halber
beweisen wir es aber noch einmal zu Fuss. Sei
_
Ax
1
, . . . , Ax
m
_
y = 0 mit y K
m1
.
Also haben wir A y =0 mit y =
_
x
1
, . . . , x
m
_
y W

. Da aber W

Kern(A) =W

U
1
=
{0} aus W

={0} folgt, muss y = 0 gelten.


Eine Basis von W
1
kann also konstruiert werden, indem man die Basiselemente von W

mit A multipliziert und dann allenfalls noch weitere Elemente gem ass demBasiserg anzungs-
satz hinzuf ugt. Es ergibt sich das folgende Schema:
x
(d)
1
. . . x
(d)
s
d
Ax
(d)
1
. . . Ax
(d)
s
d
x
(d1)
1
. . . x
(d1)
s
d1
.
.
.
.
.
.
.
.
.
.
.
.
A
d1
x
(d)
1
. . . A
d1
x
(d)
s
d
A
d2
x
(d1)
1
. . . A
d2
x
(d1)
s
d1
. . . x
(1)
1
. . . x
(1)
s
1
(8.9)
Dabei ist die erste Zeile eine Basis von W
d
, die zweite Zeile eine Basis von W
d1
, usw., die
letzte Zeile ist eine Basis von W
1
= U
1
= Kern(A). Man sortiert diese gesamte Basis von
U
d
in eine Matrix P K
nr
, indem man durch dieses Schema von unten nach oben und von
links nach rechts geht. Also
P =
_
A
d1
x
(d)
1
A
d2
x
(d)
1
Ax
(d)
1
x
(d)
1

_
und es ergibt sich
AP =
_
0 A
d1
x
(d)
1
A
2
x
(d)
1
Ax
(d)
1

_
= P
_
J
d
(0) 0
0
.
.
.
_
.
Beispiel 8.1: Zur Illustration der Konstruktion im Beweis von Satz 8.6 betrachten wir die Matrix
A =
_
_
3 4 3
1 0 1
1 2 3
_
_
R
33
.
Dann hat A das charakteristische Polynom p
A
= (t 2)
3
. F ur B = A2I gilt nun
B =
_
_
1 4 3
1 2 1
1 2 1
_
_
, B
2
=
_
_
0 2 2
0 2 2
0 2 2
_
_
, B
3
=
_
_
0 0 0
0 0 0
0 0 0
_
_
.
8.3. Endlich: Die Jordan-Normalform Version 20. Juli 2011 141
Insbesondere gilt dimKernB = 1, dimKernB
2
= 2, dimKernB
3
= 3. Eine Basis f ur U
2
=KernB
2
ist
durch die Vektoren
_
1 0 0
_
T
,
_
0 1 1
_
T
gegeben. Um also U
2
zu U
3
=R
31
zu erg anzen, U
3
=U
2
W
3
, kann als Basis f ur W
3
der Vektor
x
(1)
1
=
_
0 0 1
_
T
gew ahlt werden. Wir berechnen
Bx
(1)
1
=
_
3 1 1
_
T
, B
2
x
(1)
1
=
_
2 2 2
_
T
.
Also ist
P =
_
_
2 3 0
2 1 0
2 1 1
_
_
P
1
=
1
4
_
_
1 3 0
2 2 0
0 4 4
_
_
.
Die Probe ergibt tats achlich
P
1
AP =
_
_
2 1 0
0 2 1
0 0 2
_
_
.

8.3 Endlich: Die Jordan-Normalform


Satz 8.7 Sei A K
nn
und zerfalle das charakteristische Polynom p
A
in Linearfaktoren:
p
A
= (t
1
)
r
1
(t
2
)
r
2
. . . (t
k
)
r
k
mit paarweise verschiedenen Eigenwerten
1
, . . . ,
k
K. Dann gibt es eine Matrix P so
dass
P
1
AP = diag
_
J
A
(
1
), J
A
(
2
), . . . , J
A
(
k
)
_
, (8.10)
wobei jeder Diagonalblock J
A
(
i
) K
r
i
r
i
sich aus Jordanbl ocken zum Eigenwert
i
zu-
sammensetzt, siehe (8.6).
BEWEIS: Nach all den Vorbereitungen ist der Beweis ganz einfach. F ur jeden Eigenwert

i
berechnet man gem ass Satz 8.6 eine Basis P
i
von Hau

i
(A), so dass AP
i
=P
i
J
A
(
i
). Nach
Satz 8.4 ist P =
_
P
1
, . . . , P
k
_
K
nn
invertierbar.
Die Anzahl und Gr osse der Jordanbl ocke zu einem Eigenwert in der Jordan-Normal-
form (8.10) sind eindeutig bestimmt. Der Beweis ist nicht schwierig, aber technisch und
soll hier nicht angegeben werden. Von der Jordan-Normalform lassen sich vielerlei be-
kannte und neue Zusammenh ange einfach ablesen.
Die geometrische Vielfachheit eines Eigenwerts ist die Anzahl aller zu geh origen
Jordan-Bl ocke.
Die algebraische Vielfachheit eines Eigenwerts ist die Summe der Gr ossen aller
zu geh origen Jordan-Bl ocke.
Die geometrischen and algebraischen Vielfachheiten eines Eigenwerts sind genau
dann identisch, wenn all zu geh origen Jordan-Bl ocke 1x1-Matrizen sind.
27
27
Dies best atigt eindrucksvoll die in Satz 7.19 angegebene Bedingung zur Diagonalisierbarkeit einer Matrix.
142 Version 20. Juli 2011 Kapitel 8. Die Jordan-Normalform
Zwei Matrizen A und B sind genau dann ahnlich, wenn sowohl die Eigenwerte als
auch die Anzahl und Gr ossen der zu jedem Eigenwerten geh origen Jordan-Bl ocke
ubereinstimmen.
A und A
T
sind ahnlich. (Beweis:

Ubung.)
Korollar 8.8 Sei F L(V,V) f ur einen endlichdimensionalen VektorraumV uber K. Zerf allt
das charakteristische Polynom p
F
= det(t idF) in Linearfaktoren:
p
A
= (t
1
)
r
1
(t
2
)
r
2
. . . (t
k
)
r
k
mit paarweise verschiedenen Eigenwerten
1
, . . . ,
k
K, dann gibt es eine Basis B mit
_
F

B,B
= diag
_
J
F
(
1
), J
F
(
2
), . . . , J
F
(
k
)
_
,
wobei jeder Diagonalblock J
F
(
i
) K
r
i
r
i
sich aus Jordanbl ocken zum Eigenwert
i
zu-
sammensetzt.
8.4 Weitere Folgerungen
In diesem Abschnitt werden wir sehen, dass wir mit der Jordan-Normalform Matrixpo-
tenzen und Matrixexponentiale gewissermassen vollst andig in der Hand haben und ihr
asymptotisches Verhalten vollst andig charakterisieren k onnen.
8.4.1 Matrixpotenzen
Wir betrachten zun achst einen Jordan-Block:
J
m
() =I +J
m
(0) =
_
_
_
_
_

.
.
.

_
_
_
_
_
+
_
_
_
_
_
_
0 1
0
.
.
.
.
.
.
1
0
_
_
_
_
_
_
.
Zur Bestimmung der k-ten Potenz J
m
()
k
werden wir die Kommutativit at der beiden Ma-
trizen I und J
m
(0) ausnutzen, um den binomischen Lehrsatz anzuwenden.
Lemma 8.9 Sei (R, +, ) Ring und x, y R mit x y = y x. Dann gilt
(x +y)
k
=
k

i=0
_
k
i
_
x
i
y
ki
, k = 1, 2, . . . ,
mit den Binomialkoefzienten
_
m
n
_
:=
_
m!
n!(mn)!
, f ur m n,
0, sonst,
f ur m, n N{0}.
8.4. Weitere Folgerungen Version 20. Juli 2011 143
BEWEIS: Der Fall k = 1 ist klar. F ur k 2 verwenden wir Induktion; wir nehmen an die
Aussage sei f ur k erf ullt und uberpr ufen den Fall k +1:
(x +y)
k+1
= (x +y)
k
(x +y) =
_
k

i=0
_
k
i
_
x
i
y
ki
_
(x +y),
=
k

i=0
_
k
i
_
x
i+1
y
ki
+
k

i=0
_
k
i
_
x
i
y
k+1i
=
k+1

i=1
_
k
i 1
_
x
i
y
k+1i
+
k+1

i=0
_
k
i
_
x
i
y
k+1i
=
k+1

i=0
_
k +1
i
_
x
i
y
k+1i
,
wobei wir im letzten Schritt die leicht zu beweisende Tatsache
_
k
i1
_
+
_
k
i
_
=
_
k+1
i
_
ausge-
nutzt haben.
Lemma angewandt auf den Ring der nn-Matrizen uber K zeigt
J
m
()
k
= (I +J
m
(0))
k
=
k

i=0
_
k
i
_

ki
J
m
(0)
i
=
m1

i=0
_
k
i
_

ki
J
m
(0)
i
,
wobei wir ausgenutzt haben, dass J
m
(0)
m
=0 und
_
k
i
_
=0 f ur i >k. Mit J
m
(0)
i
=
_
0 I
mi
0 0
_
,
ergibt sich also
J
m
()
k
=
_
_
_
_
_
_
_
_
_

k
_
k
1
_

k1
_
k
2
_

k2

_
k
m1
_

km+1
0
k
_
k
1
_

k1
.
.
.
.
.
.
0 0
.
.
.
.
.
.
_
k
2
_

k2
.
.
.
.
.
.
.
.
.
_
k
1
_

k1
0 0 0
k
_
_
_
_
_
_
_
_
_
. (8.11)
Ist A K
nn
und die Voraussetzung von Satz 8.7 erf ullt, dann folgt aus der Jordan-
Normalform
P
1
AP = diag
_
J
A
(
1
), J
A
(
2
), . . . , J
A
(
k
)
_
,
die Beziehung
A
k
= Pdiag
_
J
A
(
1
)
k
, J
A
(
2
)
k
, . . . , J
A
(
k
)
k
_
P
1
,
wobei jedes J
A
(
i
)
k
Potenzen von Jordanbl ocken zum Eigenwert
i
enth alt. Wegen (8.11)
gilt: J
m
(
i
)
k
k
0 genau dann, wenn |
i
| < 1, da in diesem Fall |
i
|
k
f ur k schneller
gegen 0 strebt als
_
k
i
_
w achst. Ist |
i
| = 1, dann konvergiert J
m
(
i
)
k
nur wenn
i
= 1 und
m=1, also J
m
(
i
)
k
=1 f ur alle k. Aus diesen Beobachtungen ergibt sich der folgende Satz.
Satz 8.10 Sei A C
nn
.
(i) A
k
k
0 genau dann, wenn (A) < 1.
(ii) F ur (A) = 1 gilt A
k
k
A

f ur eine Matrix A

C
nn
genau dann, wenn gilt: Ist
Eigenwert von A mit || = 1, so ist = 1 und geo

(A) = alg

(A).
Analog bleiben die Eintr age von A
k
genau dann beschr ankt, wenn f ur jeden Eigenwert
von A entweder || < 1 oder || = 1 mit geo

(A) = alg

(A) gilt.
144 Version 20. Juli 2011 Kapitel 8. Die Jordan-Normalform
8.4.2 Matrixexponential
Um f ur beliebige t R das Matrixexponential e
tA
einer festen Matrix A C
nn
ausrechnen
zu k onnen, bedienen wir uns der in Lemma 7.33 gezeigten Eigenschaften. Da I und J
m
(0)
kommutieren, gilt insbesondere f ur einen Jordanblock:
e
tJ
m
()
= e
t(I+J
m
(0))
= e
tI
e
tJ
m
(0)
.
Da J
m
(0) nilpotent ist, bricht f ur den zweiten Faktor die Exponentialreihe nach endlich
vielen Gliedern ab und wir erhalten
e
tJ
m
(0))
= I
m
+tJ
m
(0) +
t
2
2!
J
m
(0)
2
+ +
t
m1
(m1)!
J
m
(0)
m1
.
Damit folgt
e
tJ
m
()
=
_
_
_
_
_
_
_
_
_
_
e
t t
1!
e
t t
2
2!
e
t

t
m1
(m1)!
e
t
0 e
t t
1!
e
t
.
.
.
.
.
.
0 0
.
.
.
.
.
.
t
2
2!
e
t
.
.
.
.
.
.
.
.
.
t
1!
e
t
0 0 0 e
t
_
_
_
_
_
_
_
_
_
_
. (8.12)
Insgesamt ergibt sich also f ur eine Matrix A C
nn
mit Jordan-Normalform
P
1
AP = diag
_
J
A
(
1
), J
A
(
2
), . . . , J
A
(
k
)
_
,
dass
e
tA
= Pdiag
_
e
tJ
A
(
1
)
, e
tJ
A
(
2
)
, . . . , e
tJ
A
(
k
)
_
P
1
,
wobei jedes e
tJ
A
(
i
)
Matrixexponentiale von Jordanbl ocken zumEigenwert
i
der Form(8.12)
enth alt.
Aus der Eulerschen Formel
e
t
= e
tRe()+itIm()
= e
tRe()
_
cos(t Im()) +i sin(t Im())
_
,
folgt: e
t
t
0 genau dann, wenn Re() < 0. F ur Re() 0 konvergiert e
t)
nicht, es sei
denn = 0.
Wegen (8.12) gilt: e
tJ
m
(
i
)
t
0 genau dann, wenn Re(
i
) <0, da in diesem Fall e
tRe(
i
)
f ur t schneller gegen 0 strebt als jede Potenz von
i
w achst. Ist Re(
i
) = 0, dann
konvergiert e
tJ
m
(
i
)
nur wenn
i
= 0 und m = 1. Aus diesen Beobachtungen ergibt sich der
abschliessende Satz.
Satz 8.11 Sei A C
nn
.
(i) e
tA
t
0 genau dann, wenn Re() < 0 f ur jeden Eigenwert von A.
(ii) e
tA
t
A

f ur eine Matrix A

C
nn
genau dann, wenn entweder Re() < 0 oder
= 0 mit geo

(A) = alg

(A) f ur jeden Eigenwert von A gilt.


Analog bleiben die Eintr age von e
tA
f ur t genau dann beschr ankt, wenn f ur jeden
Eigenwert von A entweder Re() < 0 oder Re() = 0 mit geo

(A) = alg

(A) gilt.
8.4. Weitere Folgerungen Version 20. Juli 2011 145
146 Version 20. Juli 2011 Kapitel 8. Die Jordan-Normalform
Inhaltsverzeichnis
0 Lineare Gleichungssysteme 1
1 Matrizenrechnung 7
1.1 Grundlegende Denitionen . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Einige spezielle Matrixtypen . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Beispiele f ur Matrizen in Anwendungen . . . . . . . . . . . . . . . . . . . 11
1.4.1 Bilder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2 Graphen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Das Rechnen mit Matrizen und Vektoren . . . . . . . . . . . . . . . . . . . 14
1.5.1 Elementare Operationen . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.2 Multiplikation einer Matrix mit einem Vektor . . . . . . . . . . . . . 15
1.5.3 Multiplikation von Matrizen . . . . . . . . . . . . . . . . . . . . . . 17
1.5.4 Eigenschaften der Matrixoperationen . . . . . . . . . . . . . . . . . . 20
1.6 Die Transponierte einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . 23
1.7 Symmetrische Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.8 Die Inverse einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.9 Untermatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2 Algebraische Strukturen 29
2.1 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.1 Beispiele von Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.1.2 Untergruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.1.3 Gruppenhomomorphismen . . . . . . . . . . . . . . . . . . . . . . . 35
2.2 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3 K orper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.4 Matrizen uber Ringen und K orpern . . . . . . . . . . . . . . . . . . . . . . 41
2.5 Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.5.1 Matrizen uber komplexen Zahlen . . . . . . . . . . . . . . . . . . . . 44
2.6 Restklassenringe und -k orper . . . . . . . . . . . . . . . . . . . . . . . . . 45
3 Die Treppennormalform 51
3.1 Elementarmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2 Konstruktion der Treppennormalform . . . . . . . . . . . . . . . . . . . . . 54
3.3

Aquivalenz von Matrizen und Rang einer Matrix . . . . . . . . . . . . . . . 58
3.4 Anwendung auf lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . 60
3.5 Die LR-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
147
148 Version 20. Juli 2011 Inhaltsverzeichnis
4 Vektorr aume 67
4.1 Denitionen und Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2 Lineare Unabh angigkeit, Basen und Dimension . . . . . . . . . . . . . . . 72
4.2.1 Der unendlichdimensionale Fall . . . . . . . . . . . . . . . . . . . . 77
4.3 Summen von Unterr aumen . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5 Lineare Abbildungen 83
5.1 Denitionen und Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.1 Die Dimensionsformel . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.1.2 Verkettung von linearen Abbildungen . . . . . . . . . . . . . . . . . 88
5.2 Koordinaten und Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.2.1 Matrixdarstellung von linearen Abbildungen . . . . . . . . . . . . . . 91
5.2.2 Koordinatentransformationen . . . . . . . . . . . . . . . . . . . . . . 93
6 Determinanten 97
6.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.2 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.3 Minoren und Laplace-Entwicklung . . . . . . . . . . . . . . . . . . . . . . 104
6.4 Praktische Aspekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.4.1 Berechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.4.2 Determinanten und Invertierbarkeit . . . . . . . . . . . . . . . . . . . 106
6.4.3 Geometrische Interpretation . . . . . . . . . . . . . . . . . . . . . . . 107
7 Eigenwerte und Eigenvektoren 111
7.1 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . 111
7.2 Grundlegende Eigenschaften und Denitionen . . . . . . . . . . . . . . . . 115
7.2.1

Ahnlichkeit und Endomorphismen . . . . . . . . . . . . . . . . . . . 117
7.3 Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
7.4 Lineare Rekursionen und Matrixpotenzen . . . . . . . . . . . . . . . . . . . 123
7.4.1 Positive Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
7.5 Differentialgleichungen und Matrixexponential . . . . . . . . . . . . . . . . 130
7.5.1 Das Matrixexponential . . . . . . . . . . . . . . . . . . . . . . . . . 132
8 Die Jordan-Normalform 135
8.1 Die Hauptraumzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
8.2 Wahl der Hauptraumbasen . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
8.3 Endlich: Die Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . 141
8.4 Weitere Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
8.4.1 Matrixpotenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
8.4.2 Matrixexponential . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

You might also like