Professional Documents
Culture Documents
Lennart Elsen
WS07/FS08
D-ITET
Inhaltsverzeichnis
1 Vektoren 3
1.1 Vektorraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.5 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.6 Teilräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Matrizen 3
2.1 Einheitsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Transponierte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Matrizenmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.4 Inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3 Abbildungen 5
1
2
3.3 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.6 Koordinatenvektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.7 Koordinatentransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4 Verfahren 7
4.2 Orthonomalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4.4 QR-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
5 Determinanten 8
6 Eigenwerte 9
6.1 Eigenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
6.2 Eigenvektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
6.3 Anfangswertproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Lennart Elsen, WS07/FS08 Lineare Algebra – Zusammenfassung 3
Die Länge eines Vektors ist gegeben durch: Ein Teilraum des Rn hat folgende Eigenschaften (T
q ist Teilraum):
|~v | = v12 + v22 + · · · + vn2
• T 6= 0. Der Teilraum ist eine nichtleere Menge
Die Menge der Vektoren, die sich aus den Vektoren 2 Matrizen
~v1 , ~v2 , · · · , ~vn kombinieren lassen.
Eine Matrix ist gegeben durch m Zeilen und n Spal-
ten:
1.3 Lineare Abhängigkeit a11 a12 · · · a1n
a21 a22 · · · a2n
.. .. .. ..
Wenn das Gleichungssystem . . . .
λ1~v1 + λ2~v2 + · · · + λn~vn = ~0 am1 am2 · · · amn
Eine n × n Matrix heißt quadratisch.
als alleinige Lösung λ1 = λ2 = · · · = λn = ~0 hat,
heißen ~v1 , ~v2 , · · · , ~vn linear unabhängig. RECHENREGELN:
(A + B) + C = A + (B + C)
1.4 Erzeugendensystem (des Rn ) λ(µA) = (λµ)A
λ(A + B) = λA + λB
Gilt span(~v1 , ~v2 , · · · , ~vn ) = Rn dann spannen die Vek-
toren ~v1 , ~v2 , · · · , ~vn den Rn auf.
Eine Matrix heißt symmetrisch wenn AT = A und Damit A invertierbar ist muss det(A) 6= 0 gelten.
antisymmetrisch wenn −AT = A.
Die Inverse einer 2 × 2 Matrix kann man wie folgt
Die adjungierte Matrix ist gegeben durch A∗ := AT berechnen:
bzw. [a∗i,j ] = [ai,j ]
1 d −b
A−1 =
det(A) − c a
2.3 Matrizenmultiplikation
a11 a12 ··· a1n b11 b12 ··· b1p AT · A = I n A ∈ Rn,m
a21 a22 ··· a2n b21 b22 ··· b2p
.. .. .. .. · .. .. .. ..
. . . . . . . . Bei orthogonalen Matrizen ist das Skalarprodukt
am1 am2 ··· amn bn1 bn2 ··· bnp
zweier Spaltenvektoren stets null.
c11 = a11 b11 + a12 b21 + · · · + a1n bn1
c12 = a11 b12 + a12 b22 + · · · + a1n bn2 EIGENSCHAFTEN:
..
. AT = A−1
c1m = a11 b1p + a12 b2p + · · · + a1n bnp
allgemein
A(BC) = (AB)C
Die resultierenden Elemente der Ergebnismatrix C
A(B + C) = AB + AC
sind jeweils Skalarprodukte der Zeilenvektoren von A
mit den Spaltenvektoren von B. A(λB) = λAB
Daraus folgt die wesentliche Vorgabe für die Matri- (AB)T = B T AT
zenmultiplikation: die inneren Dimensionen der Ma- (AB)−1 = B −1 A−1
trizen müssen übereinstimmen. In der obigen Abbil-
AIn = A
dung ist es m × n · n × p.
Im A = A
T −1
Die Matrizenmultiplikation ist also nicht kommuta- (A ) = (A−1 )T
tiv.
Lennart Elsen, WS07/FS08 Lineare Algebra – Zusammenfassung 5
• dim(V )=
ˆ Anzahl Basisvektoren
3.2 Kern, Bild
• dim(V ) = n führt zu folgenden Folgerungen:
Der Kern ist die Menge aller Vektoren im Km , die – mehr als n Vektoren sind linear unabhängig
durch L auf den Nullvektor abgebildet werden:
– weniger als n Vektoren sind nicht erzeugend
Kern(L) := { ~x ∈ K | L~x = ~0 }
m
– n Vektoren sind linear unabhängig wenn sie
erzeugend sind
Das Bild ist die Menge aller Vektoren, die ein Urbild
• dim(V ) = dim(Kern(V ))+ dim(Bild(V ))
unter L haben:
Bild(L) := { L~x ∈ Km | ~x ∈ Kn }
3.4 Basis des Kerns
Einer Matrixabbildung:
Die Spaltenvektoren {~a1 , ~a2 , · · · , ~a3 } Um die basis des Kerns zu bestimmen muss man fol-
gende Schritte unternehmen:
Bild(L) := span {~a1 , ~a2 , · · · , ~a3 }.
BEISPIEL: Kern und Bild 1. Den Kern mit Parametern bestimmen (λ, µ, · · · )
Normal-Zeilen-Stufen-Form!
Eine Abbildung L sei gegeben
2. 1-ten Parameter = 1 setzen, Rest = 0.
x x
y 7→ a 1 0 y = ax + y
b 0 0 bx 3. 2-ten Parameter = 1 setzen, Rest = 0.
z z ..
.
usw.
1
1 ∈ Kern(A) → a+1 0
=
b 0 Merke: Die Anzahl Nicht-Kopfvariablen ist
1
äquivalent zur Anzahl Basisvektoren.
a = −1 b=0
1 ax + y 1
∈ Bild(A) → = 3.5 Basis des Bildes
1 bx 1
1−y 1
a= b= 1. Matrix auf Zeilen-Stufen-Form bringen.
x x
2. Alle Spalten der ursprünglichen Matrix A, wel-
Man löst das Gleichungssystem mit dem Gauss- che in ZSF eine Kopfvariable enthalten bilden die
Algorithmus. Dann drückt man Kopfvariablen durch Basis
Lennart Elsen, WS07/FS08 Lineare Algebra – Zusammenfassung 6
~l3
Um die Inverse zu bilden muss man das Lineare Glei- w
~3 =
chunssystem (A | In ) lösen. Den linken Teil muss man ||~l3 ||
zur Inverse umformen:
a b c 1 0 0 Diese Schritte sind zur Bestimmung einer Ortho-
(A | I3 ) = d e f 0 1 0 nomalbasis im R3 für die k-te Dimension kann man
g h i 0 0 1 das Lot ~lk allgemein ausdrücken
4.2 Orthonomalität
4.4 QR-Zerlegung
Zwei Vektoren ~a und ~b sind orthonomal wenn sie so-
wohl orthogonal zueinander sowie auch normiert sind: Um eine Matrix A = (~a1 , ~a2 , ~a3 ) zu diagonalisieren
D E D E braucht man die QR-Zerlegung. Zunächst muss man
~a, ~b = ~b, ~a = 0 orthogonal überprüfen ob die Spaltenvektoren von A linear un-
D E abhängig sind.
h~a, ~ai = ~b, ~b = 1 normiert
Die Q-Matrix erhält man, indem man das Gram-
Schmidt-Verfahren mit den Spaltenvektoren
4.3 Orthonomalbasis, Gram-Schmidt- durchführt:
Verfahren Q := (w
~ 1, w
~ 2, w
~ 3)
n o
INPUT: Vektorraum mit V mit Basis ~b1 , · · · , ~bn . Die R-Matrix hat die diagonalisierte Form:
r11 r12 r13
OUTPUT: Orthonomalbasis von V : {w
~ 1, · · · , w
~ 1 }.
R := 0 r22 r23
0 0 r33
Gram-Schmidt-Verfahren
1. Den ersten Basisvektor normieren: Die Elemente von R kann man über folgendes LGS
ermitteln:
~b1
w
~1 = ~a1 = r11 · w
~1
||~b1 ||
~a2 = r12 · w
~ 1 + r22 · w
~2
~a3 = r13 · w
~ 1 + r23 · w
~ 2 + r33 · w
~3
2. Das Lot von ~b2 auf die Gerade von w ~ 1 bilden:
D E
~l2 = ~b2 − ~b2 , w
~1 w~1
4.5 Methode der kleinsten Quadrate
3. Das Lot ~l2 normieren:
Wenn man eine Funktion f (t) = at + b konstruieren
~l2 möchte, die im quadratischen Mittel einem gegebenen
w
~2 = Output-Vektor am nächsten kommt, so benutzt man
||~l2 || die Methode der kleinsten Quadrate.
Lennart Elsen, WS07/FS08 Lineare Algebra – Zusammenfassung 8
Das bedeutet für die Funktion f (x): 5.2 Eigenschaften von n-reihigen De-
terminanten
1 1
2 1
~y = 1. Der Wert einer Determinante ändert sich nicht
3 1 · ~v = A · ~v
4 1 wenn Zeilen und Spalten vertauscht werden.
5 1
2. Bei vertauschen zweier Zeilen (oder Spalten)
ändert eine Determinante ihr Vorzeichen.
Der Fehler ||~y − A · ~v || soll möglichst klein werden.
Dies erreicht man über folgende Operation 3. Werden die Elemente einer beliebigen Zeile (oder
Spalte) mit einem reelen Skalar λ multipliziert,
AT A · ~v = AT A · ~y
so multipliziert sich die Determinante mit λ:
π π 2 1 1
= π · π2
5 Determinanten 2π 4π 2 2 4
5.1 Spezielle Determinanten 4. Eine Determinante wird mit einem reelen Ska-
lar λ multiplizier, indem man die Elemente einer
Bei einer 2 × 2 Matrix lässt sich die Determinante beliebigen Zeile (oder Spalte) mit λ multipliziert.
einfach berechnen:
5. Besitzen die Elemente einer Zeile (oder Spalte)
a b einen gemeinsamen Faktor λ, so darf dieser vor
det(A) = = ad − bc
c d die Determinante gezogen werden (siehe oben).
det(A) = ±1
r=n
Genau eine Lösung
r<n
Rg(A) = Rg(A|!c) = r
5.3 Berechnung der Determinante von Unendlich viele
Lösungen mit
n × n Matrizen n − r Parametern
Für n×n Matrizen mit n > 3 gilt die Regel von Sarrus
nicht mehr. Man greift nun zu einem Berechnungsal-
gorithmus bei dem man die Determinante der Matrix 6 Eigenwerte
durch Unterdeterminanten ausdrückt. Dabei gilt für
das algebraische Komplement:
Die Eigenwerte sind Lösungen der charakteristischen
Aik = (−1)i+k Dik Dik : Unterdeterminante Gleichung
chp(λ) = det(A − λ In ) = 0
Die Unterdeterminante ist die Determinante der Ma-
trix A bei der die i-te Zeile und k-te Spalte gestrichen wobei chp(A) das charakteristische Polynom von A
wurden. Für det(A) gilt schließlich: beschreibt. Dessen Nullstellen bestimmen die Eigen-
werte λ1 , λ2 , · · · , λn .
X
det(A) = aik Aik EIGENSCHAFTEN:
i,k=1
Pn
• Spur(A) = i=1 λi
BEISPIEL: Determinantenberechnung Qn
• det(A) = i=1 λi
1 3 0 • λi 6= λj ; i 6= j ⇒ Eigenvektor ist linear un-
Gegeben ist die Matrix A = 2 2 4. Man be- abhängig
5 0 4
rechne ihre Determinante.
Ist eine Matrix M symmetrisch und λ ihr zugehöriger
Zunächst vereinfacht man A mit dem Gauss- Eigenwert so gilt:
Algorithmus: kM k2 = sup {|λ| | λ Eigenwert von M }
E −2·E1 kM k22 = sup |µ| µ Eigenwert von M M T (4)
1 3 0 2 1 3 0
A = 2 2 4 = 0 −4 4
5 0 4 0
E3 −5·E1
−15 0
6.1 Eigenraum
Jetzt entwickelt man nach Zeile 1: Der zu den Eigenwerten zugehörige Eigenraum wird
durch
det(A) = 1 · (−4 · 4 − (−15) · 4)
x
−0 · (3 · 4 − (−15) · 0) + 0 · (3 · 4)
Vλ = ~x = y ∈ C3 A~x = λ~x
= 44
z
Lennart Elsen, WS07/FS08 Lineare Algebra – Zusammenfassung 10
beschrieben.
6.2 Eigenvektor
(A − λ In )~x = 0
6.3 Anfangswertproblem
d~y
(•) = A · ~y (•) A ∈ Kn,m
dt
mit dem Anfangswert ~y (t0 ) := ~y0 t0 ∈ R, ~y0 ∈ Kn .
Die Lösung der Differentialgleichung ist dann gegeben
durch
mit A = SDS −1 .