You are on page 1of 113

Lineaire Algebra

16 december 2005

Inhoudsopgave
1 Inleiding 5

2 Punten, vectoren, inprodukt, lijnen, en vlakken 6


2.1 Rekenregels in de IR2 en de IR3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Lengte van vectoren in de IR2 en de IR3 . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3 Cosinusregel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4 Inproduct . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.5 Eigenschappen inproduct . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.6 Parametervoorstelling en vergelijking van een lijn in de IR2 . . . . . . . . . . . . . 8
2.7 Van parametervoorstelling naar een vergelijking en andersom, in de IR2 . . . . . . 8
2.8 Lijnen in de IR3 , parametervoorstelling en vergelijkingen . . . . . . . . . . . . . . 9
2.9 Vlakken in de IR3 , parametervoorstelling en vergelijking . . . . . . . . . . . . . . . 9
2.10 Van parametervoorstelling naar vergelijking in de IR3 . . . . . . . . . . . . . . . . 10
2.11 Van vergelijking naar parametervoorstelling in de IR3 . . . . . . . . . . . . . . . . 10
2.12 Twee vlakken, die elkaar snijden in de IR3 . . . . . . . . . . . . . . . . . . . . . . 11
2.13 Lijn in IR3 is te beschrijven met 2 vergelijkingen . . . . . . . . . . . . . . . . . . . 11

3 Stelsels lineaire vergelijkingen 12


3.1 Lineaire vergelijkingen, voorbeelden . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2 Niet-lineaire vergelijkingen, voorbeelden . . . . . . . . . . . . . . . . . . . . . . . 12
3.3 Stelsels lineaire vergelijkingen, vragen betreffende het oplossen? . . . . . . . . . . 13
3.4 Oplosmethode: Gauss eliminatie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.5 Vegen van een matrix, voorbeeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.6 Vegen van een stelsel lineaire vergelijkingen, methode van Gauss, voorbeeld . . . . 14
3.7 Vegen van een stelsel lineaire vergelijkingen, methode van Gauss-Jordan, voorbeeld 15
3.8 Rij gereduceerde trapvorm, eenvoudig voorbeeld . . . . . . . . . . . . . . . . . . . 15
3.9 Vormen van rijgereduceerde trapvormen, eenvoudige . . . . . . . . . . . . . . . . . 16
3.10 Reguliere en singuliere stelsels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.11 Voorbeelden van stelsels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.12 Trapvormen, vrije en basis-variabelen . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.13 Matrixnotatie van stelsels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.14 Controle van mogelijke oplossingen . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4 Matrices en matrixbewerkingen 22
4.1 Matrixvermenigvuldiging . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2 Optelling van matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.3 Vermenigvuldigen met een constante (scalar) . . . . . . . . . . . . . . . . . . . . . 24
4.4 Transponeren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.5 Bijzondere matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.5.1 Vierkante matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.5.2 Eenheidsmatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.5.3 Nulmatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.5.4 Diagonaalmatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.5.5 Bovendriehoeksmatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.5.6 Onderdriehoeksmatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.5.7 Symmetrische matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.5.8 Anti-symmetrische matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.6 Eigenschappen van matrixbewerkingen . . . . . . . . . . . . . . . . . . . . . . . . 27
4.6.1 Vermenigvuldigen van matrices . . . . . . . . . . . . . . . . . . . . . . . . 27
4.6.2 Optellen van matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.6.3 Optellen en vermenigvuldigen . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.6.4 Transponeren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.7 Nuttige matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.7.1 Elementaire matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.7.2 Permutatiematrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

5 Inverse van een matrix 29


5.1 Inverteerbare matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.2 Inverse matrix, eigenschappen en stellingen . . . . . . . . . . . . . . . . . . . . . . 29
5.3 Berekenen van de inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

6 Stelsels lineaire vergelijkingen, vervolg 31


6.1 Structuur van een oplossing (stelsel lin.vgl.) . . . . . . . . . . . . . . . . . . . . . 31
6.2 Eigenschappen A en Ax=b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.3 Stellingen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

7 Determinanten 34
7.1 Eigenschappen van de determinant van een matrix . . . . . . . . . . . . . . . . . . 35
7.1.1 Betekenis van eigenschap 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
7.2 Afgeleide eigenschappen van een determinant: . . . . . . . . . . . . . . . . . . . . 35
7.2.1 Uitleg eigenschap 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.2.2 Uitleg eigenschap 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.2.3 Gebruik van eigenschap 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.3 Ontwikkelen naar rijen of kolommen . . . . . . . . . . . . . . . . . . . . . . . . . 37
7.4 Berekening van de determinant
het ontwikkelen van een determinant . . . . . . . . . . . . . . . . . . . . . . . . . 39
8 Vectorruimten 41
8.1 Lineaire ruimte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
8.2 Eigenschappen lineaire vectorruimte . . . . . . . . . . . . . . . . . . . . . . . . . . 41
8.3 Lineaire deelruimte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
8.4 Lineaire combinatie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
8.5 Opspansel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
8.6 Nulruimte van de matrix A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
8.7 Kolommenruimte van de matrix A . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
8.8 Lineaire onafankelijkheid of afhankelijkheid van vectoren . . . . . . . . . . . . . . 43
8.9 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
8.10 Dimensie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
8.11 Voorbeeld: lineair afhankelijk, opspansel, dimensie, rang . . . . . . . . . . . . . . 44
8.12 Dimensiestelling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
8.13 Structuur van een oplossing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
8.14 Wanneer is een stelsel oplosbaar? . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

9 Inprodukt en loodrecht 50

10 Kleinste kwadraten methode, normaalvergelijking, regressie 51


10.1 Voorbeeld van metingen en verondersteld verband . . . . . . . . . . . . . . . . . . 51
10.2 Normaalvergelijking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
10.3 Kleinste-kwadratenmethode toegepast op voorbeeld . . . . . . . . . . . . . . . . . 53
10.4 De matrices A en AT A, bestaat de inverse van AT A? . . . . . . . . . . . . . . . . 53
10.5 Voorbeelden regressie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
10.5.1 Enkelvoudige regressie, Voorbeeld 1 . . . . . . . . . . . . . . . . . . . . . . 54
10.5.2 Meervoudige regressie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
10.5.3 Enkelvoudige regressie, Voorbeeld 2 . . . . . . . . . . . . . . . . . . . . . 55
10.5.4 Enkelvoudige regressie, Voorbeeld 3 . . . . . . . . . . . . . . . . . . . . . . 56

11 Projecteren 57
11.1 Projectie op een lijn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
11.2 Projectie op een vlak . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
11.3 Projectiematrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

12 Orthogonaal, orthonormaal, Gram-Schmidt, orthoplement 58


12.1 Orthogonaal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
12.2 Orthonormaal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
12.3 Gram-Schmidt proces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
12.3.1 Het orthogonaliseren, voorbeeld 1 . . . . . . . . . . . . . . . . . . . . . . . 59
12.3.2 Het orthogonaliseren, voorbeeld 2 . . . . . . . . . . . . . . . . . . . . . . . 59
12.4 Orthogonale deelruimten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
12.5 Orthoplement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
12.6 Eigenschappen van het orthoplement . . . . . . . . . . . . . . . . . . . . . . . . . 61
13 Basis-transformaties 61
13.1 Vectoren t.o.v. verschillende bases . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
13.2 Basis-overgang, voorbeeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
13.3 Basis-overgang met behulp van matrices, voorbeeld . . . . . . . . . . . . . . . . . 64
13.4 Basistransformaties, algemeen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

14 Eigenwaarden en eigenvectoren, diagonliseerbare matrix 66


14.1 Inleidend voorbeeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
14.2 Definitie van eigenwaarde en eigenvector . . . . . . . . . . . . . . . . . . . . . . . 66
14.3 Berekening eigenwaarden en eigenvectoren . . . . . . . . . . . . . . . . . . . . . . 67
14.4 Eigenwaarden en eigenvectoren, voorbeeld . . . . . . . . . . . . . . . . . . . . . . 67
14.5 Eigenwaarden versus spoor en determinant van een matrix . . . . . . . . . . . . . 70
14.6 Het aantal eigenwaarden en de dimensie van de eigenruimte? Voorbeeld . . . . . . 71
14.6.1 Voorbeeld 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
14.6.2 Voorbeeld 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
14.7 Meetkundige en algebraı̈sche multipliciteit . . . . . . . . . . . . . . . . . . . . . . 72
14.8 Stellingen, betreffende eigenwaarden en eigenvectoren . . . . . . . . . . . . . . . . 73
14.9 Diagonaliseerbaar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
14.10Eigenwaarde-decompositie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
14.11Eigenwaarde-decompositie, voorbeelden . . . . . . . . . . . . . . . . . . . . . . . . 75
14.11.1 Voorbeeld 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
14.11.2 Voorbeeld 2, decompositie is niet uniek . . . . . . . . . . . . . . . . . . . . 75
14.12Eigenschappen van eigenwaarden en eigenvectoren . . . . . . . . . . . . . . . . . . 76

15 Symmetrische en orthogonale matrices 77


15.1 Orthogonale matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
15.2 Reële symmetrische matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

16 Complexe eigenwaarden en vectoren, voorbeeld 78

17 Differentiaalvergelijkingen 79
17.1 Homogeen stelsel differentiaalvergelijkingen . . . . . . . . . . . . . . . . . . . . . . 79
17.2 Differentiaalvergelijking, voorbeeld 1 . . . . . . . . . . . . . . . . . . . . . . . . . 79
17.3 Differentiaalvergelijking, voorbeeld 2 . . . . . . . . . . . . . . . . . . . . . . . . . 81
17.4 Exponentiële functie voor matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 82
17.5 E-macht van een matrix, voorbeeld (wordt steeds gebruikt!) . . . . . . . . . . . . 83
17.6 Oplossen van stelsel diff.vgl., met beginvoorwaarde . . . . . . . . . . . . . . . . . 83
17.7 Inhomogeen stelsel differentiaalvergelijkingen . . . . . . . . . . . . . . . . . . . . . 84
17.8 Oplosmethoden stelsels differentiaalvergelijkingen, voorbeelden . . . . . . . . . . . 85
17.9 Algemene formule oplossing stelsel differentiaalvergelijkingen . . . . . . . . . . . . 87

18 Stelsel differentiaalvergelijkingen met complexe eigenwaarden 88


18.1 Voorbeeld en theorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
18.2 Gewone differentiaalvergelijking omzetten naar een stelsel van differentiaalvergelij-
kingen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
18.3 Harmonische oscillator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
18.3.1 Ongedempte trilling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
18.3.2 Onderkritisch gedempte trilling . . . . . . . . . . . . . . . . . . . . . . . . 92
18.3.3 Kritisch gedempte trilling . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
18.3.4 Bovenkritisch gedempte trilling . . . . . . . . . . . . . . . . . . . . . . . . 93

19 Lineaire afbeeldingen 93
19.1 Inleiding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
19.2 Definitie van een lineaire afbeelding . . . . . . . . . . . . . . . . . . . . . . . . . . 94
19.3 Beeldruimte en nulruimte van een lineaire afbeelding . . . . . . . . . . . . . . . . 94
19.4 Injectief en surjectief . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
19.5 Beelden van de basisvectoren leggen de lineaire afbeelding vast . . . . . . . . . . . 96
19.5.1 Voorbeelden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
19.6 Lineaire afbeeldingen tov. verschillende bases . . . . . . . . . . . . . . . . . . . . 98
19.6.1 Voorbeeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
19.7 Lineaire afbeeldingen en basistransformaties . . . . . . . . . . . . . . . . . . . . . 100
19.7.1 Voorbeeld (vervolg van de spiegeling) . . . . . . . . . . . . . . . . . . . . . 101
19.8 Symmetrische afbeeldingen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
19.9 Uitgebreid voorbeeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

20 Lineaire afbeelding omzetten naar een matrix 102


20.1 Introductie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
20.2 De ruimte P2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
20.3 Bases van de ruimte P2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
20.4 Coördinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
20.5 Differentieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
20.6 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
20.7 Coördinatentransformatie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
20.8 Matrices omzetten naar andere bases . . . . . . . . . . . . . . . . . . . . . . . . . 108

1 Inleiding
De bedoeling is dat studenten eerst kennis nemen van de theorie, daarna oefenen. Het liefst met
de hand. Daarna kan voor bepaalde handelingen, bijvoorbeeld Matlab worden gebruikt. Maar
met de hand oefenen geeft het meeste zicht op wat je doet. Lukt het niet, gebruik dan pas deze
informatiebron.

Het idee, voor het schrijven van dit document, is afkomstig van René van Hassel.
Het materiaal is ter beschikking is gesteld door Jan-Cees van der Meer.
Ik (René van Hassel) heb hier en daar het materiaal van Jan-Cees aamgepast, onder andere
verwijzingen naar boeken eruit gehaald, dit om een boek onafhankelijk docment te verkrijgen. Op
die manier is de keuze van een boek vrij, en bij nieuwe edities van boeken, moet niet het hele
document de revisie in!
Commentaar verneem ik graag, staan er fouten in, dan verneem ik dit ook graag.
Mijn dank gaat uit naar Jan-Cees, voor het beschikbaar stellen van zijn materiaal.
Op- en aanmerkingen graag doorgeven aan mij (René van Hassel)
email: r.r.v.hassel@tue.nl

2 Punten, vectoren, inprodukt, lijnen, en vlakken


Er zijn punten en vectoren. Punten hebben geen richting of grootte. Een vector heeft een richting
en een lengte! Een vector begint in de oorsprong en eindigt bij een punt.
Vaak, wordt door
 eenrij of een kolom onderscheid gemaakt tussen punten en vectoren, dus (x1 , x2 )
x2
is een punt en is een vector. De voorbeelden zijn uit de IR2 , de verzameling van punten
y2
en vectoren met 2 coördinaten, welke een reële waarde mogen hebben.

2.1 Rekenregels in de IR2 en de IR3


Optellen van vectoren in de IR2 :
   
x1 x2
x= , y=
y1 y2
     
x1 x2 x1 + x2
x+y = + =
y1 y2 y1 + y2
Scalaire vermenigvuldiging:
   
x1 cx1
cx = c =
y1 cy1

Optellen van vectoren in de IR3 .


   
x1 x2
x =  y1  , y =  y2 
z1 z2
     
x1 x2 x1 + x2
x + y =  y1  +  y2  =  y1 + y2 
z1 z2 z1 + z2
Scalaire vermenigvuldiging:
   
x1 cx1
cx = c  y1  =  cy1 
z1 cz1
2.2 Lengte van vectoren in de IR2 en de IR3
 
x1
Lengte evan de vector x = is
x2
q
kxk = x21 + x22


x1
Lengte van de vector x =  x2  is
x3
q
kxk = x21 + x22 + x23

Afstand tussen twee punten (x1 , x2 ) en (y1 , y2 ) in IR2 is


p
kx − yk = (x1 − y1 )2 + (x2 − y2 )2
Afstand tussen twee punten (x1 , x2 , x3 ) en (y1 , y2 , y3 ) in IR3 is
p
kx − yk = (x1 − y1 )2 + (x2 − y2 )2 + (x3 − y3 )2

2.3 Cosinusregel
Cosinusregel:
ku − vk2 = kuk2 + kvk2 − 2kukkvk cos(θ)
Uitwerken geeft
kuk2 + kvk2 − ku − vk2
cos(θ) =
2kukkvk
(u + u2 + u23 ) + (v12 + v22 + v32 )
2 2
= 1
2kukkvk
(u1 − v1 ) + (u2 − v2 )2 + (u3 − v3 )2
2

2kukkvk
u 1 v 1 + u2 v 2 + u3 v 3
=
kukkvk

2.4 Inproduct
Definitie:
 Het  inproduct
 vanvectoren
u1 v1
u =  u2  en v =  v2  is
u3 v3
u · v = (u, v) = u1 v1 + u2 v2 + u3 v3
Merk op: u · u = kuk2
u · v = kukkvk cos(θ)
2.5 Eigenschappen inproduct
Eigenschappen inproduct:

(u, u) ≥ 0 en (u, u) = 0 ⇔ u = 0,
(u, v) = (v, u),
(u + v, w) = (u, w) + (v, w),
(cu, v) = c(u, v) = (u, cv).
Twee vectoren maken een hoek van 900
(staan loodrecht op elkaar)
(zijn orthogonaal )
als

(u, v) = 0

2.6 Parametervoorstelling en vergelijking van een lijn in de IR2


Lijnen in IR2

Parametervoorstelling (of vectorvoorstelling (2D)) :


Gegeven steunvector a en richtingsvector b. De lijn bestaat uit alle vectoren (punten) die te
schrijven zijn als

a + λb , λ ∈ IR
     
a1 b1 a1 + λb1
+λ =
a2 b2 a2 + λb2
Vergelijking:
Gegeven m en n. De lijn bestaat uit alle punten (x, y) die voldoen aan de vergelijking

y = mx + n

of, gegeven a, b en c

ax + by = c

2.7 Van parametervoorstelling naar een vergelijking en andersom, in


de IR2
Lijnen in IR2
Van parametervoorstelling naar vergelijking:
Gegeven is de lijn `
   
1 2

1 3
Dus voor een punt (x, y) op deze lijn geldt
(
x = 1 + 2λ ⇒ λ = 12 x − 21 ,
y = 1 + 3λ .

Invullen in de tweede vergelijking geeft


(
λ = 21 x − 21 ,
y = − 12 + 32 x ⇒ 3x − 2y = 1 .

Van vergelijking naar parametervoorstelling:


Gegeven is de lijn ` met vergelijking 3x − 2y = 1.
Stel x = λ. Dan volgt
(
x=λ,
y = − 21 + 32 λ .

Dus
     
x 0 1
= +λ
y − 12 3
2

2.8 Lijnen in de IR3 , parametervoorstelling en vergelijkingen


Lijnen in IR3

Parametervoorstelling:
Gegeven steunvector a en richtingsvector b. De lijn bestaat uit alle vectoren (punten) die te
schrijven zijn als

a + λb , λ ∈ IR
     
a1 b1 a1 + λb1
 a2  + λ  b2  =  a2 + λb2 
a3 b3 a3 + λb3
Vergelijking:
Een lijn kan beschreven worden als de snijlijn van twee vlakken.

2.9 Vlakken in de IR3 , parametervoorstelling en vergelijking


Vlakken in IR3

Parametervoorstelling:
Gegeven steunvector a en richtingsvectoren
b en c. Het vlak bestaat uit alle vectoren (punten) die te schrijven zijn als

a + λb + µc , λ, µ ∈ IR
       
a1 b1 c1 a1 + λb1 + µc1
 a2  + λ  b2  + µ  c2  =  a2 + λb2 + µc2 
a3 b3 c3 a3 + λb3 + µc3
Vergelijking:
Gegeven a, b, c en d. Het vlak bestaat uit alle punten (x, y, z) die voldoen aan de vergelijking

ax + by + cz = d

In termen van in-product: Het vlak met steunvector d, loodrecht op a bestaat uit alle vectoren x
die voldoen aan

(a, x) = (a, d)

a is een normaalvector van het vlak.

2.10 Van parametervoorstelling naar vergelijking in de IR3


Van parametervoorstelling naar vergelijking (SHL):
Het vlak V in IR3 wordt gegeven door de parametervoorstelling
     
2 1 2
 1  + λ  −1  + µ  −1  .
−2 0 −1
 
x1
Voor een vector x =  x2  op dit vlak moet gelden
x3

x1 = 2 + λ + 2µ ,

x2 = 1 − λ − µ ,

x3 = −2 − µ ⇒ µ = −2 − x3 .


x1 = 2 + λ − 4 − 2x3 ⇒ λ = x1 + 2x3 + 2 ,

x2 = 1 − λ + 2 + x3 ,

µ = −2 − x3 .


λ = x1 + 2x3 + 2 ,

x2 = 1 − x1 − 2x3 + 2 + x3 ⇒ x1 + x2 + x3 = 1 ,

µ = −2 − x3 .

2.11 Van vergelijking naar parametervoorstelling in de IR3


Van vergelijking naar parametervoorstelling (SHL):
Het vlak V wordt gegeven door de vergelijking

x1 + x2 + x3 = 1 .
Stel bijvoorbeeld x1 = λ en x2 = µ, dan is x3 = 1 − λ − µ, zodat volgt
   
x1 λ
x =  x2  =  µ =
x3 1−λ−µ
     
0 1 0
=  0  + λ 0  + µ 1  .
1 −1 −1

2.12 Twee vlakken, die elkaar snijden in de IR3


Lijn in IR3 is snijlijn van twee vlakken
Van parametervoorstelling naar vergelijkingen:
De lijn wordt gegeven door
     
x1 0 1
 x2  =  1  + λ  −1  .
x3 4 −3

Dus

x1 = λ ,

x2 = 1 − λ ,

x3 = 4 − 3λ .

Dit geeft

x1 = λ ,

x2 = 1 − x1 ,

x3 = 4 − 3x1 .

De lijn wordt dus gegeven door de twee vergelijkingen

x1 + x2 = 1 en 3x1 + x3 = 4 .

2.13 Lijn in IR3 is te beschrijven met 2 vergelijkingen


Lijn in IR3 is snijlijn van twee vlakken
Van vergelijkingen naar parametervoorstelling:
De lijn wordt gegeven door

4x1 + x2 + x3 = 5 en x1 − 2x2 + x3 = 2 .

Dus
(
x1 − 2x2 + x3 = 2 ⇒ x1 = 2 + 2x2 − x3 ,
4x1 + x2 + x3 = 5 .
Invullen in tweede vergelijking geeft
(
x1 = 2 + 2x2 − x3
8 + 8x2 − 4x3 + x2 + x3 = 5 ⇒ 9x2 = −3 + 3x3 .

Kies nu x3 = λ, dan
   4 1   4   1 
x1 3
− 3λ 3
−3
1 1 1  1 
x=  x2  =  −3 + 3λ  =  −3 +λ 
3
.
x3 λ 0 1

3 Stelsels lineaire vergelijkingen


Met behulp van voorbeelden worden allerlei oplosmethoden gepresenteerd.

3.1 Lineaire vergelijkingen, voorbeelden


Voorbeelden van stelsels lineaire vergelijkingen:


7x − 3y = 3
a.
2x + 3y = 8


 x − 3y + 2z = −9
b. x + 4y − z = 0
2x + y + 5z = 12


 2x − y = 6
c. −x + 2y − z = −9
− y + 2z = 12


8x1 + 6x2 + 7x3 + x4 = 14
d.
x1 − 2x2 − 4x3 + 5x4 = 8

3.2 Niet-lineaire vergelijkingen, voorbeelden


Voorbeelden van niet-lineaire vergelijkingen:

3x2 + 7y = 2
a.
4x − 2y = 3


sin(x) + y = 3
b.
x + 3y = 7


xy − z = 3
c.
x + z = 8


 x + y + z = cos(x)
d. x − y + 3z = 7
x + 4y = 3

3.3 Stelsels lineaire vergelijkingen, vragen betreffende het oplossen?


Enkele vragen die we kunnen stellen m.b.t.
stelsels lineaire vergelijkingen:
• Welke algoritmen zijn er om deze stelsels op te lossen?
• Welk algoritme leidt het snelst naar de oplossing?
• Hoe betrouwbaar zijn deze algoritmen?
• Zijn er altijd oplossingen?
• Als er een oplossing is, is er dan precies één, of zijn er meer oplossingen?

3.4 Oplosmethode: Gauss eliminatie


Gauss eliminatie
Voorbeeld 1.

 x1 + 2x2 − x3 = −3
3x1 + 7x2 + 2x3 = 1
4x1 − 2x2 + x3 = −2

x1 = −2x2 + x3 − 3
−6x2 + 3x3 − 9 + 7x2 + 2x3 = 1
−8x2 + 4x3 − 12 − 2x2 + x3 = −2

 x1 + 2x2 − x3 = −3
x2 + 5x3 = 10
−10x2 + 5x3 = 10

x2 = −5x3 + 10
50x3 − 100 + 5x3 = 10

 x1 + 2x2 − x3 = −3
x2 + 5x3 = 10
55x3 = 110

Terugsubstitutie geeft:
x3 = 2 , x2 = 0 , x1 = −1

3.5 Vegen van een matrix, voorbeeld


 
1 2 −1 −3
 3 7 2 1 
4 −2 1 −2

tel -3 maal de eerste rij bij de tweede rij op.


tel -4 maal de eerste rij bij de derde rij op.
(’vegen’ in de eerste kolom)

 
1 2 −1 −3
 0 1 5 10 
0 −10 5 10

tel 10 maal de tweede rij op bij de derde rij.


(’vegen’ in de tweede kolom)

 
1 2 −1 −3
 0 1 5 10 
0 0 55 110

3.6 Vegen van een stelsel lineaire vergelijkingen, methode van Gauss,
voorbeeld
Een voorbeeld van de METHODE VAN GAUSS (1777-1855).

 x1 + 2x2 − x3 = −3
3x1 + 7x2 + 2x3 = 1
4x1 − 2x2 + x3 = −2

 
1 2 −1 −3
 3 7 2 1 →
4 −2 1 −2
 
1 2 −1 −3
 0 1 5 10  →
0 −10 5 10
 
1 2 −1 −3
 0 1 5 10 
0 0 55 110
Terugsubstitutie:
x3 = 2
x2 = 0
x1 = −1

3.7 Vegen van een stelsel lineaire vergelijkingen, methode van Gauss-
Jordan, voorbeeld
Een
 voorbeeld van deMETHODE VAN GAUSS-JORDAN.
1 2 −1 −3
 3 7 2 1 →
4 −2 1 −2
 
1 2 −1 −3
 0 1 5 10  →
0 −10 5 10
 
1 0 −11 −23
 0 1 5 10  →
0 0 55 110
 
1 0 −11 −23
 0 1 5 10  →
0 0 1 2
 
1 0 0 −1
 0 1 0 0 
0 0 1 2

Oftewel niet alleen naar beneden vegen, maar ook naar boven, voor zover dat gaat.

3.8 Rij gereduceerde trapvorm, eenvoudig voorbeeld



 2x1 − x2 = 6
−x1 + 2x2 − x3 = −9
−x2 + 2x3 = 12

Omschrijven in matrix-vorm.
Uitgebreide coëfficienten matrix.
 
2 −1 0 6
 −1 2 −1 −9 
0 −1 2 12

Gauss-eliminatie:
 
2 −1 0 6
 0 3 −1 −6 
2
4
0 0 3
8

Terug in vergelijkingen herschreven:



 2x1 − x2 = 6
3
x
2 2
− x3 = −6
4
x = 8

3 3

Dit is de bovendriehoeks-vorm of trapvorm.


Na de Gauss-Jordan-eliminatie:
 
1 0 0 3
 0 1 0 0 
0 0 1 6

Dit wordt de rijgereduceerde trapvorm genoemd, wel een heel eenvoudige vorm.
Terug naar de vergelijkingen geeft:

 x1 = 3
x2 = 0
x3 = 6

3.9 Vormen van rijgereduceerde trapvormen, eenvoudige


Voorbeeld
 1:
x1 + 2x2 = 3
2x1 − x2 = 1
 
1 0 2
0 1 1
Voorbeeld 2:

x1 + 2x2 = 3
x1 + 2x2 = 1
 
1 2 3
0 0 −2

De onderste vergelijking in Voorbeeld 2, verkregen na het vegen, noemt men een valse vergelijking.

Voorbeeld 3:

x1 + 2x2 = 3
−2x1 − 4x2 = −6
 
1 2 3
0 0 0

3.10 Reguliere en singuliere stelsels


Regulier of niet singulier stelsel
 
1 2 3 2
a.  2 4 5 1  →
 −1 2 7 27   
1 2 3 2 1 2 3 2
→  0 0 −1 −3  →  0 4 10 29 
0 4 10 29 0 0 −1 −3
Verwissel voor de laatste stap de 2e en 3e rij.

Strijdig stelsel
 
1 2 3 2
b.  2 4 5 1 →
 −1 −2 7 27   
1 2 3 2 1 2 3 2
→  0 0 −1 −3  →  0 0 −1 −3 
0 0 10 29 0 0 0 −1
Correspondeert met een strijdig stelsel (geen oplossingen). De laatste vergelijking wordt ook wel
een valse vergelijking genoemd.

Singulier stelsel
 
1 2 3 2
c.  2 4 5 1 →
 −1 −2 7 28   
1 2 3 2 1 2 3 2
→  0 0 −1 −3  →  0 0 −1 −3 
0 0 10 30 0 0 0 0
Het corresponderende stelsel heeft oneindig veel oplossingen.

Samengevat:
voorbeeld a. : regulier of niet-singulier
voorbeeld b. : singulier, overbepaald
voorbeeld c. : singulier, onderbepaald

3.11 Voorbeelden van stelsels


Lineaire vergelijking oplossen:


 2x1 + 3x2 − x3 = 4
−2x1 + 4x2 + 4x3 = −1


 4x1 + 13x2 + 2x3 = 9
2x1 + 3x2 = 2

 
2 3 −1 4
 −2 4 4 −1 
 →
 4 13 2 9 
2 3 0 2
   
2 3 −1 4 2 3 −1 4
0 7 3 3   0 7 3 3 
 → →
0 7 4 1   0 0 1 −2 
0 0 1 −2 0 0 1 −2
 
2 3 −1 4
0 7 3 3 
 
0 0 1 −2 
0 0 0 0
1 oplossing, een niet-singulier stelsel.

Een inhomogene vergelijking:


 
2 3 −1 4
0 7 3 3 
 
0 0 0 0 
0 0 0 0

oneindig veel oplossingen,


een onderbepaald stelsel

Een homogene vergelijking:


 
2 3 −1 0
0 7 3 0
 
0 0 0 0

0 0 0 0

oneindig veel oplossingen,


onderbepaald stelsel (homogeen)

Een inhomogene vergelijking:


 
2 8 −1 7 5
 0 0 2 8 −4 

0 0 0 0 8
geen oplossingen, overbepaald stelsel

Een inhomogene vergelijking:

 
2 8 −1 7 5
 0 0 2 8 −4 

0 0 0 0 0
oneindig veel oplossingen,
onderbepaald stelsel
Een homogene vergelijking:

 
2 8 −1 7 0
0 0 2 8 0

0 0 0 0 0
oneindig veel oplossingen,
onderbepaald stelsel

3.12 Trapvormen, vrije en basis-variabelen


Een 5 × 9 coëfficiëntenmatrix kan na vegen de volgende trapvorm opleveren:
(De eerste rij van deze matrix is een hulp bij het bepalen van de aard van de
variabelen. De opeenvolgende rijen doorlopen van links naar rechts. De variabele,
behorende bij het eerste getal ongelijk aan nul in een rij, wordt een basisvariabele
genoemd. Iedere rij van de matrix in trapvorm doorlopen en de variabelen, die
niet als basisvariabele worden aangemerkt, zijn vrij te kiezen, en worden vrije
variabelen genoemd.)


x6 x7 x8 x9 − − −
 
x1 x2 x3 x4 x5
 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ 7 7 0 
 
 0 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ 8 8 0 
 
 0 0 0 0
 ∗ ∗ ∗ ∗ ∗ 2 2 0 

 0 0 0 0 0 0 ∗ ∗ ∗ 5 5 0 
0 0 0 0 0 0 0 0 0 8 0 0
Een overbepaald en twee onderpaalde stelsels.

Vrije variabelen: x9 , x8 , x6 , x4 , x3 (aantal:5)


Basisvariabelen: x7 , x5 , x2 , x1 (aantal:4)

Soortgelijke probleem:

Een 9 × 5 matrix kan na vegen de volgende trapvorm opleveren:


 
∗ ∗ ∗ ∗ ∗
7 8

 0 ∗ ∗ ∗ ∗
8 8 


 0 0 0 ∗ ∗
2 2 

 0 0 0 0 ∗ 5 5

 
0 0 0 0 0 0 0
 
 
0 0 0 0 0 0 0
 
 
0 0 0 0 0 0 1
 
 
 
 0 0 0 0 0 0 0 

0 0 0 0 0 0 0

Een onderbepaald en overbepaald stelsel .


Vrije variabelen: x3 (aantal:1)

Basisvariabelen: x5 , x4 , x2 , x1 (aantal:4)

3.13 Matrixnotatie van stelsels


Matrixnotatie van stelsels


 x1 + 2x2 − x3 = −3
3x + 7x2 + 2x3 = 1
 1
4x1 − 2x2 + x3 = −2

Noteren als:
Ax = b
     
1 2 −1 x1 −3
A =  3 7 2  x =  x2  b =  1 
4 −2 1 x3 −2
    
1 2 −1 x1 −3
 3 7 2   x2  =  1 
4 −2 1 x3 −2
A is de coëfficiëntenmatrix van het stelsel.
x, b zijn kolomvectoren.

3.14 Controle van mogelijke oplossingen


Is x1 = 1, x2 = 2, x3 = 4 een oplossing? Vul in bij de vergelijkingen!

 1·1 + 2·2 − 1·4 = 1
3·1 + 7·2 + 2 · 4 = 25
4·1 − 2·2 + 1·4 = 4

    
1 2 −1 1 1
 3 7 2   2  =  25 
4 −2 1 4 4

Is x1 = −1, x2 = 0, x3 = 2 een oplossing? Vul in!



 1 · −1 + 2 · 0 − 1 · 2 = −3
3 · −1 + 7 · 0 + 2·2 = 1
4 · −1 − 2 · 0 + 1 · 2 = −2

    
1 2 −1 −1 −3
 3 7 2  0  =  1 
4 −2 1 2 −2

Beide
 vermenigvuldigingen
 samen:
 
1 2 −1 1 −1 1 −3
3 7 2   2 0  =  25 1 
4 −2 1 4 2 4 −2

Vermenigvuldigen? Zie de paragrafen over matrices, met name het vermenigvul-


digen van matrices.

4 Matrices en matrixbewerkingen
Matrices
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A = (aij ) = 
 
.. .. .. .. 
 . . . . 
am1 am2 . . . amn

• A is een m × n matrix, m rijen en n kolommen.


• De getallen aij (1 ≤ i ≤ m, 1 ≤ j ≤ n) heten de elementen van de matrix.
• i is de rij-index, j is de kolom-index.
• Vaak wordt de notatie A = [aij ] gebruikt.

4.1 Matrixvermenigvuldiging
Produkt van een m × n matrix A = (aij ) en een n × p matrix B = (bjk ).
 

.. .. .. . . . b1k . . .

. . .  ... b ... 
2k
 ai1 ai2 . . . ain   =
  
..
.. .. ..  . 
. . .
. . . bnk . . .
..
 
.
 . . . cik . . . 
 
..
.

n
X
cik = aij bjk = ai1 b1k + ai2 b2k + · · · + ain bnk
j=1

4.2 Optelling van matrices


     
1 3 2 3 3 6
 2 4 + 1 2=3 6 
1 5 5 7 6 12
     
1 3 2 3 −1 0
 2 4 − 1 2 = 1 2 
1 5 5 7 −4 −2

A = (aij ) en B = (bij ) twee m × n matrices.


De som van A en B is de matrix met elementen aij + bij (1 ≤ i ≤ m, 1 ≤ j ≤ n).
   
a11 . . . a1n b11 . . . b1n
 ... .
..  +  ... ..  =
.
am1 . . . amn bm1 . . . bmn
 
a11 + b11 . . . a1n + b1n
.. ..
 . . 
am1 + bm1 . . . amn + bmn

4.3 Vermenigvuldigen met een constante (scalar)


(scalair veelvoud)

     
1 3 1 3 2 6
2 2 4  =  2 4 2 =  4 8 
1 5 1 5 2 10

A = (aij ) een m × n matrix en λ ∈ IR.


Het scalair veelvoud van A met λ is de m × n matrix met elementen λaij
(1 ≤ i ≤ m, 1 ≤ j ≤ n).
   
a11 . . . a1n λa11 . . . λa1n
λ  ... ..  =  ..
. .
.. 
.
am1 . . . amn λam1 . . . λamn

4.4 Transponeren
 T
1 3  
2 4 = 1 2 1
3 4 5
1 5
A = (aij ) een m × n matrix.
De getransponeerde AT van A is de n × m matrix (bij ) (1 ≤ i ≤ n, 1 ≤ j ≤ m)
met bij = aji .
 T  
a11 . . . a1n a11 . . . am1
AT =  ... ..  = 
.
..
.
.. 
.
am1 . . . amn a1n . . . amn

4.5 Bijzondere matrices


4.5.1 Vierkante matrices

Een matrix is vierkant als de matrix evenveel rijen als kolommen heeft.

4.5.2 Eenheidsmatrices

Een eenheidsmatrix is een vierkante matrix I = (δij ) met δij = 1 als i = j en


δij = 0 als i 6= j.
De 4 × 4 eenheidsmatrix ziet er dus als volgt uit:
 
1 0 0 0
0 1 0 0
 
0 0 1 0
0 0 0 1

4.5.3 Nulmatrices

Een nulmatrix is een matrix O waarvan alle matrixelementen gelijk aan nul zijn.
De 3 × 4 nulmatrix ziet er dus als volgt uit:
 
0 0 0 0
0 0 0 0
0 0 0 0

4.5.4 Diagonaalmatrices

Een diagonaalmatrix is een vierkante matrix A = (aij ) met aij = 0 als i 6= j,


m.a.w. alle elementen die niet op de diagonaal staan zijn nul.
Een voorbeeld van een 3 × 3 diagonaalmatrix is:
 
2 0 0
0 0 0
0 0 1

4.5.5 Bovendriehoeksmatrices

Een bovendriehoeksmatrix is een matrix A = (aij ) met aij = 0 als i > j,


m.a.w. alle elementen die onder de diagonaal staan zijn nul.
Een voorbeeld van een 4 × 5 bovendriehoeksmatrix is:
 
1 3 7 −3 4
 0 2 −1 4 5 
 
0 0 2 3 0
0 0 0 9 1

4.5.6 Onderdriehoeksmatrices

Een onderdriehoeksmatrix is een matrix A = (aij ) met aij = 0 als i < j,


m.a.w. alle elementen die boven de diagonaal staan zijn nul.
Een voorbeeld van een 4 × 4 onderdriehoeksmatrix is:
 
2 0 0 0
2 3 0 0 
 
3 4 0 0 
9 2 1 −1

4.5.7 Symmetrische matrices

Een symmetrische matrix is een (vierkante) matrix A = (aij ) met A = AT ,


m.a.w. aij = aji , m.a.w. de i-de rij is gelijk aan de i-de kolom.
Een voorbeeld van een 4 × 4 symmetrische matrix is:
 
2 4 6 2
 4 0 −1 0 
 
 6 −1 3 7 
2 0 7 2
4.5.8 Anti-symmetrische matrices

Ook wel Scheef-symmetrisch (skewsymmetric)


Een anti-symmetrische matrix is een (vierkante) matrix A = (aij ) met A =
−AT , m.a.w. aij = −aji .
Een voorbeeld van een 4 × 4 anti-symmetrische matrix is:
 
0 4 −6 2
 −4 0 −1 0 
 
 6 1 0 7
−2 0 −7 0

4.6 Eigenschappen van matrixbewerkingen


4.6.1 Vermenigvuldigen van matrices

• I.h.a. AB 6= BA. (niet commutatief)


• (AB)C = A(BC). (associatief)
• AO = O, OA = O
• AI = A, IA = A
• A(λB) = (λA)B = λ(AB) ( λ is een scalar!)

4.6.2 Optellen van matrices

• A + B = B + A (commutatief)
• (A + B) + C = A + (B + C) (associatief)

4.6.3 Optellen en vermenigvuldigen

• A(B + C) = AB + AC en (B + C)D = BD + CD ( distributiviteit)


4.6.4 Transponeren

• (AT )T = A
• (A + B)T = AT + B T
• (λA)T = λAT ( λ is een scalar!)
• (AB)T = B T AT ( Pas op: volgorde draait om!)

4.7 Nuttige matrices


De volgende matrices zijn nuttig bij het vegen van stelsels lineaire vergelijkingen.

4.7.1 Elementaire matrices

Handig bij het vegen van rijen in matrices.


    
1 0 0 a1 a1
 −3 1 0   a2  =  a2 − 3a1 
0 0 1 a3 a3
    
1 0 0 a1 a1
 3 1 0   a2  =  a2 + 3a1 
0 0 1 a3 a3
     
1 0 0 1 0 0 a1 a1
 3 1 0   −3 1 0   a2  =  a2 
0 0 1 0 0 1 a3 a3
  
1 0 0 1 0 0
 3 1 0   −3 1 0=
0 0 1 0 0 1
  
1 0 0 1 0 0
=  −3 1 0  3 1 0  = I
0 0 1 0 0 1
4.7.2 Permutatiematrices
    
0 0 1 a1 a3
Handig bij het verwisselen van rijen in matrices.  1 0 0   a2  =  a1 
0 1 0 a3 a2
    
0 1 0 a1 a2
 0 0 1   a2  =  a3 
1 0 0 a3 a1
     
0 1 0 0 0 1 a1 a1
 0 0 1   1 0 0   a2  =  a2 
1 0 0 0 1 0 a3 a3
  
0 1 0 0 0 1
 0 0 1  1 0 0=
1 0 0 0 1 0
  
0 0 1 0 1 0
=1 0 0  0 0 1  = I
0 1 0 1 0 0
Voor een permutatiematrix P geldt:
P P T = P T P = I ofwel P −1 = P T

5 Inverse van een matrix


5.1 Inverteerbare matrix
Een matrix A is inverteerbaar, als er een matrix B bestaat zó dat
AB = BA = I.
We noemen B de inverse van A. We noteren de inverse van A als A−1 .
Dus A−1 A = AA−1 = I.

5.2 Inverse matrix, eigenschappen en stellingen


1. Als de inverse van een matrix bestaat is hij uniek.
2. Als A inverteerbaar is dan is ook A−1 inverteerbaar en (A−1 )−1 = A.

3. Als de n × n matrices A en B inverteerbaar zijn, dan is de matrix AB inver-


teerbaar en (AB)−1 = B −1 A−1 . ( Pas op: volgorde draait om!)

4. Als een matrix A inverteerbaar is, dan is ook AT inverteerbaar en


(AT )−1 = (A−1 )T .

5.3 Berekenen van de inverse

We zoeken een matrix X zo dat AX = I.


voorbeeld
AX = I :
    
1 2 −1 x11 x12 x13 1 0 0
 3 7 2   x21 x22 x23  =  0 1 0 
4 −2 1 x31 x32 x33 0 0 1
Simultaan oplossen met Gauss-Jordan-eliminatie geeft:
 
1 2 −1 1 0 0
(A|I) =  3 7 2 0 1 0 
4 −2 1 0 0 1
 
1 2 −1 1 0 0
→ 0 1 5 −3 1 0 
0 −10 5 −4 0 1
 
1 0 −11 7 −2 0
→  0 1 5 −3 1 0  →
0 0 55 −34 10 1
11 0 11 
1 0 0 55 55

(I|A−1 ) =  0 1 0 55 5 5 5 

55 − 55 
0 0 1 34 10 1
− 55 55 55
6 Stelsels lineaire vergelijkingen, vervolg
6.1 Structuur van een oplossing (stelsel lin.vgl.)


 x1 +3x2 + 2x3 + 3x4 −x5 = 4
x1 +3x2 + 3x3 + 5x4 +x5 = 11


 −x1 −3x2 − x3 − x4 +x5 = 1
x1 +3x2 + 4x3 + 7x4 +x5 = 16(17)

 
1 3 2 3 −1 4
 1 3 3 5 1 11 
 →
 −1 −3 −1 −1 1 1 
1 3 4 7 1 16 (17)
 
1 3 2 3 −1 4
0 0 1 2 2 7 
 →
0 0 1 2 0 5 
0 0 2 4 2 12 (13)
 
1 3 0 −1 −5 −10
0 0 1 2 2 7 
 →
0 0 0 0 −2 −2 
0 0 0 0 −2 −2 (−1)
 
1 3 0 −1 0 −5

 0 0 1 2 0 5 

 0 0 0 0 1 1 
0 0 0 0 0 0 (−1)
 
1 3 0 −1 0 −5

 0 0 1 2 0 5  
 0 0 0 0 1 1 
0 0 0 0 0 0

x5 = 1 (basisvariabele),
x4 vrije variabele,
x3 = −2x4 + 5 (basisvariabele),
x2 vrije variabele,
x1 = −3x2 + x4 − 5 (basisvariabele),
algemene
 oplossing:
−5
 
−3
  
1
 0   1   0 
     
x=  5  + x2 
  0 
 + x 4
 −2 .

 0   0   1 
1 0 0
algemene
 oplossing homogene
 vergelijking:
−3
 
1
 1   0 
   
x = x2  0  + x4  −2  .
   
 0   1 
0 0


 x1 +2x2 + −3x4 +x5 =2
x1 +2x2 + x3 −3x4 +x5 +2x6 = 3

x +2x2 − −3x4 +2x5 +x6 = 4
 1


3x1 +6x2 + x3 −9x4 +4x5 +3x6 = 9
 
1 2 0 −3 1 0 2
1
 2 1 −3 1 2 3→
1 2 0 −3 2 1 4
3 6 1 −9 4 3 9
rijequivalent met:
 
1 2 0 −3 0 −1 0
0 0 1 0 0 2 1
 →
0 0 0 0 1 1 2
0 0 0 0 0 0 0

 x1 +2x2 −3x4 −x6 =0
x3 +2x6 =1
x5 +x6 =2


 x1 +2x2 −3x4 −x6 =0
x3 +2x6 =1
x5 +x6 =2

x6 = r (vrije variabele),
x5 = 2 − r (basisvariabele),
x4 = s (vrije variabele),
x3 = 1 − 2r (basisvariabele),
x2 = t (vrije variabele),
x1 = r + 3s − 2t (basisvariabele),

algemene oplossing:
−2
       
0 3 1
0  1  0  0 
       
 + s   + r  −2
1  0  0  
x= 0
 + t
 0  1  0
.

       
2  0  0  −1 
0 0 0 1
algemene
 oplossing homogene vergelijking:
−2
   
3 1
 1  0  0 
     
 0  0  −2 
x = t
 0  + s 1  + r 0 .
    
     
 0  0  −1 
0 0 1
Opmerkingen:

Als er in een stelsel vergelijkingen (na vegen) meer onbekenden zijn dan vergelij-
kingen dan kan er nooit precies één oplossing zijn (Overbepaald of onderbepaald).

Als er in een homogeen stelsel vergelijkingen (na vegen) meer onbekenden zijn
dan vergelijkingen, dan zijn er andere oplossingen dan de triviale oplossing x = 0.

De oplossing bestaat uit een particulier deel en de oplossing van de homogene


vergelijking. Invullen van het particuliere deel in de vergelijkingen geeft de in-
homogene term. De oplossing is dus altijd van de vorm: particuliere oplossing
plus de oplossing van de homogene vergelijking. De oplossing (de niet-nul op-
lossing!)van de homogene vergelijking geeft, mits deze bestaat, de oneindig veel
oplossingen van een oplosbaar stelsel lineaire vergelijkingen.
6.2 Eigenschappen A en Ax=b
• Een stelsel vergelijkingen Ax = b heet
niet-singulier (of regulier) als het stelsel precies één oplossing heeft.
• Een stelsel vergelijkingen Ax = b heet singulier als het stelsel geen of meerdere
oplossingen heeft.
• Een matrix A heet niet-singulier (of regulier, of inverteerbaar) als er een
matrix B bestaat zo dat AB = BA = I.
• Een matrix A heet singulier als A niet inverteerbaar is.

6.3 Stellingen
• Als een matrix A regulier is dan is A vierkant.
• Een n × n matrix A is inverteerbaar (regulier) dan en slechts dan als A
rij-equivalent is met In (de n × n eenheidsmatrix).
• A een vierkante matrix:
Een stelsel Ax = b is regulier dan en slechts dan als de matrix A regulier is.
• A niet vierkant:
Als A niet vierkant en dus singulier is, kan het stelsel Ax = b regulier of
singulier zijn.

7 Determinanten
Transponeer de rijen van een matrix en zie deze als de ribben van parallellopipe-
dum. Zie de determinant als het volume van dit parallellopidedum. Ga na wat
er met dit volume gebeurt als er 1 ribbe met een getal wordt vermenigvuldigd,
of dat alle ribben met een getal worden vermenigvuldigd. Wat gebeurt er in de
3 dimensionale ruimte als de 3 ribben in één en hetzelfde vlak liggen (Volume =
0). De oorzaak van min-tekens, bij bepaalde operaties, ligt hem in het feit dat de
oriëntatie van de ribben, ten opzichte van elkaar, verandert.
In dit stuk tekst bouwt men een determinant van de grond af aan op, aan de hand
van definiërde eigenschappen. Het belangrijkste resultaat is dat een determinant
kan worden ontwikkeld in onder-determinanten.
Verder is van belang dat men in een determinant kan vegen, de waarde van de
determinant blijft gelijk, deze wordt niet veranderd.
Een determinant kan dus positief, negatief of nul zijn.
Het volume, waar hierboven over wordt gesproken, is gelijk aan de absolute waarde
van de determinant. ( Volume is altijd iets groter of gelijk aan nul.)

7.1 Eigenschappen van de determinant van een matrix


Definiërende eigenschappen:
1. De determinant hangt lineair af van de eerste rij van de matrix.
2. De determinant verandert van teken als twee rijen van de matrix worden
verwisseld.
3. De determinant van de eenheidsmatrix is 1.

7.1.1 Betekenis van eigenschap 1

a + a0 b + b 0

= (a + a0 )d − (b + b0 )c


c d
0 0
− bc + a d0 − b0 c
= ad
a b a b
= +
c d c d


ta tb
= tad − tbc
c d
= t(ad − bc)

a b
= t
c d

7.2 Afgeleide eigenschappen van een determinant:


4. Als twee rijen van de matrix gelijk zijn is de determinant gelijk aan nul.
(volgt uit 2.)
5. De determinant verandert niet als een veelvoud van een rij wordt afgetrokken
van een andere rij.
(volgt uit 1. en 4.)
6. Als de matrix A een nulrij bevat, geldt det(A)=0.
(volgt uit 1.)
7.2.1 Uitleg eigenschap 4

a1 a2 a3 a1 a2 a3

a1 a2 a3 = − a1 a2 a3

b1 b2 b3 b1 b2 b3


a1 a2 a3

Dus a1 a2 a3 = 0
b1 b2 b3

7.2.2 Uitleg eigenschap 5


 
a1 a2 a3
 b1 b2 b3  →
c1 c2 c3
 
a1 a2 a3
→  b1 + ta1 b2 + ta2 b3 + ta3 
c1 c2 c3



a1 a2 a3

b1 + ta1 b2 + ta2 b3 + ta3 =

c1 c2 c3

a1 a2 a3 a1 a2 a3

= b1 b2 b3 + t a1 a2 a3
c1 c2 c3 c1 c2 c3

a1 a2 a3

= b1 b2 b3
c1 c2 c3

7.2.3 Gebruik van eigenschap 5



3 6 9 1 2 3 1 2 3

1 3 2 = 3 1 3 2 = 3 0 1 −1 =

−1 4 7 −1 4 7 0 6 10

1 0 5 1 0 5

= 3 0 1 −1 = 48 0 1 −1 =

0 0 16 0 0 1

1 0 0

= 48 0 1 0 = 48

0 0 1

7. Als A een onder- of bovendriehoeksmatrix is, is de determinant van A het


product van de diagonaalelementen. (volgt uit 1., 5. en 3.)
8. det(A)=0 dan en slechts dan als A singulier is.
(volgt uit 5. en 2.)
9. det(AB)=det(A)·det(B).
(volgt uit 8., 7. en 5.)
10. det(AT )=det(A).
(volgt uit 9., 7., 2. en 3.)

7.3 Ontwikkelen naar rijen of kolommen



1 0 0

Een matrix met een eenvoudige rij: 0 α β
0 γ δ

Als α 6= 0 dan onstaat door vegen:


1 0 0

0 α β = 1 · α · (δ − γβα) =


0 0 δ − γβ α


α β
= αδ − γβ =
γ δ
Als α 6= 0 dan verwisselen
2e en 3e rij:
1 0 0 1 0 0

0 0 β = − 0 γ δ

0 γ δ 0 0 β

0 β
= −γβ =
γ δ
Dus
altijd geldt:
1 0 0
α β
0 α β =
γ δ
0 γ δ

a b c

Nu eem matrix met een volle rij: d e f

g h i

Schrijf de eerste rij als:


(a b c) = (a 0 0) + (0 b 0) + (0 0 c)

Op grond van eigenschap 1:



a b c

d e f =

g h i

a 0 0 0 b 0 0 0 c

= d e f + d e f

+ d e f

=

g h i g h i g h i

1 0 0 0 1 0 0 0 1

= a d e f + b d e f + c d e f =

g h i g h i g h i
Vegen geeft nu:

1 0 0 0 1 0 0 0 1

= a 0 e f + b d 0 f + c d e 0 =

0 h i g 0 i g h 0

Verwisselen kolommen:

1 0 0 1 0 0 1 0 0

= a 0 e f − b 0 d f + c 0 d e =
0 h i 0 g i 0 g h

e f d f d e
= a − b
g i + c g h =

h i
a(ei − hf ) − b(di − gf ) + c(dh − ge)

a b c d

e f g h
Nu een 4x4 determinant, op dezelfde wijze aangepakt: =
i j k l

m n o p

f g h b c d

a j k l − e j k l +

n o p n o p

b c d b c d

+i f g h − m f g h

n o p j k l

7.4 Berekening van de determinant


het ontwikkelen van een determinant
Voor een n × n matrix A geldt:
det(A)=ai1 Ai1 + ai2 Ai2 + · · · + ain Ain ,
met Aij = (−1)i+j det(Mij ).
Aij noemen we de cofactor van aij en Mij is de matrix die onstaat uit A door in
A de i-de rij en de j-de kolom weg te laten.
De det(Mij ) wordt wel een onderdeterminant genoemd.

Voorbeeld

1 2 3

5 4 7 =

3 5 6

Ontwikkelen naar 1e kolom:



4 7 2 3 2 3
1 − 5
5 6 + 3 4 7 = 10

5 6

Ontwikkelen naar 3e rij:



2 3
− 5 1 3 + 6 1 2

3 = 10
4 7 5 7 5 4

Voorbeeld

1 0 2 4

7 0 3 1
= (ontw. naar 2e kolom)
5 4 1 8

2 0 3 1

1 2 4

= −4 7 3 1 = (vegen in 1e kolom)

2 3 1

1 2 4

= −4 0 −11 −27 = (ontw. naar 1e kolom)
0 −1 −7

−11 −27
= −4 = −200
−1 −7

Voorbeeld

12 4 1 −8

−12 2 −1 2
= (tel 1e rij op bij 2e)

2 −7 0 −1

0 1 0 2


12 4 1 −8
0 6 0 −6
= = (ontw. naar 3e kolom)
2 −7 0 −1
0 1 0 2

0 6 −6

= 2 −7 −1 = (ontw. naar 1e kolom)
0 1 2

6 −6
= −2 = −2(12 + 6) = −36
1 2

8 Vectorruimten
Het liefst werken wij in ruimten, die zich wat handelingen betreft, hetzelfde voor-
doen als de gewone getallen, waarmee wij altijd werken. Ik bedoel het gewone
optellen van getallen, en een getal vermenigvuldigen met een getal. Delen door
een getal is een speciale handeling, die hier niet onder wordt verstaan!
Elementen uit een vectorruimte worden vectoren genoemd. Bij de alledaagse ge-
tallen, waarmee wij werken, zijn de vectoren dus die getallen.
Verder heb je een unieke nul-vector in die ruimte. (Bij de gewone getallen, het
getal 0) En 1 maal een vector is de vector zelf, 1 is hierbij het getal 1.
Pas dus op bij het lezen: de 0 is een vector en de 1 is een getal!

8.1 Lineaire ruimte


Een reële vectorruimte (lineaire ruimte) is een verzameling ”vectoren” waarop
een optelling van vectoren en vermenigvuldiging met reële getallen is gedefinieerd
die voldoen aan de volgende regels:
• x+y =y+x
• x + (y + z) = (x + y) + z
• Er is een unieke ”nulvector” zo dat x + 0 = x voor alle x.
• Voor iedere vector x is er een unieke vector −x zo dat x + −x = 0.
• 1x = x
• (λ1 λ2 )x = λ1 (λ2 x)
• λ(x + y) = λx + λy
• (λ1 + λ2 )x = λ1 x + λ2 x

8.2 Eigenschappen lineaire vectorruimte


Als V een vectorruimte is, dan is:
• 0x = 0, voor iedere x in V .
• c0 = 0, voor iedere scalar c.
• Als cx = 0, dan is c = 0 of x = 0.
• (−1)x = −x voor iedere x in V .

8.3 Lineaire deelruimte


Een (lineaire) deelruimte W van een reëele vectorruimte V is een niet-lege deel-
verzameling W van V zó dat W met de bewerkingen uit V zelf een vectorruimte is.

Het volgende moet dus worden nagegaan:

Is W een niet-lege deelverzameling van V zó dat:


(i) Als x ∈ W en y ∈ W dan is x + y ∈ W .
(ii) Als x ∈ W en λ ∈ IR dan is λx ∈ W .
dan is W een (lineaire) deelruimte van de reële vectorruimte V .

8.4 Lineaire combinatie


Een vector x in een vectorruimte V heet een lineaire combinatie van de vectoren
v 1 , v 2 , . . . , v n in V als x geschreven kan worden als

x = c1 v 1 + c2 v 2 + · · · + cn v n

met c1 , · · · , cn ∈ IR.

8.5 Opspansel
Als S = {v 1 , v 2 , . . . , v n } een verzameling vectoren is in en vectorruimte V , dan
is de verzameling W van alle vectoren die geschreven kunnen worden als lineaire
combinatie van de vectoren in S een deelruimte van V .
We zeggen W wordt opgespannen door S (door de vectoren v 1 , v 2 , . . . , v n ), en
schrijven
W =span(S),
W =< v 1 , v 2 , . . . , v n >.
W =span{v 1 , v 2 , . . . , v n }.
8.6 Nulruimte van de matrix A
De nulruimte van een m × n matrix A is de verzameling van alle vectoren x
waarvoor Ax = 0.
Notatie: N (A).

Stelling:
De nulruimte van een m × n matrix is een deelruimte van IRn .

8.7 Kolommenruimte van de matrix A


De kolommenruimte van een m × n matrix A is de verzameling van alle vectoren
b die te schrijven zijn als een combinatie van de kolommen van A.
Notatie: R(A).

Stelling:
De kolommenruimte van een m × n matrix is een deelruimte van IRm .

8.8 Lineaire onafankelijkheid of afhankelijkheid van vectoren


De vectoren v 1 , v 2 , . . . , v n zijn lineair onafhankelijk als het stelsel vergelijkingen
x1 v 1 + x2 v 2 + · · · + xn v n = 0
alléén de oplossing
x1 = x2 = · · · = xn = 0 heeft.
Anders noemen we de vectoren
lineair afhankelijk.

Dit betekent:
• De vectoren v 1 , v 2 , . . . , v n zijn afhankelijk dan en slechts dan als één van de
vectoren v i is te schrijven als een lineaire combinatie van de andere vectoren.

• De kolommen van A zijn onafhankelijk dan en slechts dan als


N (A) = {0}.
8.9 Basis
Een basis voor een lineaire (deel)ruimte V is een verzameling vectoren uit V die
(i) onafhankelijk zijn, én
(ii) V opspannen.
Dit betekent:
• Als een basis voor V gegeven is dan is iedere vector in V maar op precies één
manier te schrijven als lineaire combinatie van deze basisvectoren.

• Een basis voor V is niet uniek, maar iedere basis voor V bestaat wel uit
evenveel vectoren.

8.10 Dimensie
Het aantal vectoren in een basis voor V noemen we de dimensie van V .
Notatie: dim(V ).

Dit betekent:
• De dimensie geeft het maximale aantal onafhankelijke vectoren dat je in V
kunt kiezen. M.a.w., als dim(V )=n, dan is iedere verzameling van m vecto-
ren, m > n, afhankelijk.

• Als dim(V )=n dan bevat iedere verzameling die V opspant tenminste n vec-
toren. Dus een basis is een minimale opspannende verzameling.

8.11 Voorbeeld: lineair afhankelijk, opspansel, dimensie, rang


Beschouw de lineaire deelruimte S:
S=
         
1 3 2 3 −1
 1   3   3   5   1 
<
 −1  ,  −3
  ,
  −1  ,  −1
  ,
  1 >

1 3 4 7 1

Onafhankelijkheid onderzoeken:
       
0 1 3 2
0
  = x1  1  + x2  3  + x3  3 
    
+
0  −1   −3   −1 
0 1 3 4
   
3 −1
 5
 + x5  1 
  
x4 
 −1   1 
7 1
Dit
 is equivalent met het stelsel:

 x1 +3x2 + 2x3 + 3x4 −x5 = 0
x1 +3x2 + 3x3 + 5x4 +x5 = 0


 −x1 −3x2 − x3 − x4 +x5 = 0
x1 +3x2 + 4x3 + 7x4 +x5 = 0

Vegen van de coëfficiëntenmatrix A:


 
1 3 2 3 −1
 1 3 3 5 1 
A=  −1 −3 −1 −1 1  →

1 3 4 7 1
 
1 3 0 −1 0
0 0 1 2 0
 
0 0 0 0 1
0 0 0 0 0
De oplossing:
x5 = 0 (basisvariabele),
x4 vrije variabele,
x3 = −2x4 (basisvariabele),
x2 vrije variabele,
x1 = −3x2 + x4 (basisvariabele),

De algemene
 oplossing
 homogene vergelijking:
−3
 
1
 1   0 
   
x = x2  0  + x4  −2  .
   
 0   1 
0 0
Resultaat:
Schrap
 uit A de kolommen
 die corresponderen met de vrije variabelen:
1 2 −1
 1 3 1 
à =  →
 −1 −1 1 
1 4 1
 
1 0 0
0 1 0
 
0 0 1
0 0 0

De kolommen die corresponderen met de basisvariabelen zijn onafhankelijk en


vormen een basis voor S.
Merk op dat
 S = R(A),
 de kolommenruimte van A
−3

1
 1   0 
   
N (A) =< 
 0  ,  −2  >
  
 0   1 
0 0

Deze vectoren zijn onafhankelijk en vormen een basis voor N (A).

dim(N (A)) = aantal vrije


variabelen = 2.
dim(R(A)) = aantal basisvariabelen =
kolommenrang = 3.
Andere aanpak:
Beschouw de
 vectoren in S en
 zet ze als rijen in een matrix
1 1 −1 1
 3 3 −3 3 
  vegen
B = AT =  2 3 −1 4  →

 3 5 −1 7 
−1 1 1 1
 
1 0 0 1

 0 1 0 1 


 0 0 1 1 

 0 0 0 0 
0 0 0 0
Stelling:
Als B en C twee rij-equivalente m × n matrices zijn, dan zijn de rijenruimten van
B en C gelijk

Gevolg:
dim(rijenruimte(B))=rijenrang=3.

Stelling:
Voor iedere m × n matrix A geldt
kolommenrang(A) = rijenrang(A) = rang(A)

8.12 Dimensiestelling
Voor een m × n matrix A geldt:
dim(R(A)) + dim(N (A)) = n.
Er geldt:

• dim( R(A) ) = rang(A) = r .

• dim( N (A) ) = n − r .
Tabel met voorbeelden:

A dim R(A) dim N (A)


 
∗ ∗ ∗
0 ∗ ∗ 2 1
0 0 0
 
∗ ∗ ∗ ∗
0 ∗ ∗ ∗ 2 2
0 0 0 0
 
∗ ∗ ∗
0 ∗ ∗

0 0 0
 2 1
0 0 0
 
∗ ∗ ∗
0 ∗ ∗

0 0 ∗
 3 0
0 0 0

∗ ∗ ∗ ∗ ∗ ∗


 0 0 ∗ ∗ ∗ ∗ 


 0 0 0 ∗ ∗ ∗ 
 4 2
 0 0 0 0 0 ∗ 
0 0 0 0 0 0

8.13 Structuur van een oplossing


Stelsel:


 x1 +3x2 + 2x3 + 3x4 −x5 = 4
x1 +3x2 + 3x3 + 5x4 +x5 = 11


 −x1 −3x2 − x3 − x4 +x5 = 1
x1 +3x2 + 4x3 + 7x4 +x5 = 16

 
1 3 2 3 −1 4
 1 3 3 5 1 11 
 −1 −3 −1 −1 1 1  →
 

1 3 4 7 1 16
 
1 3 0 −1 0 −5
0 0 1 2 0 5 
 
0 0 0 0 1 1 
0 0 0 0 0 0
Oftewel:
x5 = 1 (basisvariabele),
x4 vrije variabele,
x3 = −2x4 + 5 (basisvariabele),
x2 vrije variabele,
x1 = −3x2 + x4 − 5 (basisvariabele),

De algemene
 oplossing:
−5

−3
  
1
 0   1   0 
     
x=  5  + x2  0
 
 + x4 
  −2  De algemene oplossing van Ax = b is

 0   0   1 
1 0 0
van de vorm

x = xp + xh

met xp particuliere oplossing (dwz een willekeurige oplossing van het inhomogene
stelsel) en xh ∈ N (A).

8.14 Wanneer is een stelsel oplosbaar?


Vraag: Wanneer heeft het stelsel Ax = b voor zekere gegeven b een oplossing.

Antwoord: Dan en slechts dan als


rang(A)=rang([A|b]),
d.w.z. dan en slechts dan als b ∈ R(A).

Vraag: Wanneer is er voor elke b minstens één oplossing van het stelsel Ax = b.

Antwoord: Als dim(R(A)) = m.


(D.w.z. m ≤ n).
Vraag: Wanneer is er voor elke b
hoogstens één oplossing van het stelsel Ax = b.

Antwoord: Als dim(R(A)) = n.


(D.w.z. m ≥ n).

Gevolg: Er is voor elke b precies één oplossing van het stelsel Ax = b als
dim(R(A)) = n = m, d.w.z. A regulier.
A een n × n-matrix.

De volgende uitspraken zijn equivalent:


(i) A is een reguliere matrix.
(ii) Ax = b heeft voor elke b ∈ IRn precies één oplossing.
(iii) A heeft een inverse.
(iv) N (A) = {0}
(v) De kolommen van A zijn onafhankelijk.
(vi) dim(N (A)) = 0.
(vii) R(A) = IRn .
(viii) rang(A) = dim(R(A)) = n
(ix) De rijen van A zijn onafhankelijk.
(x) det(A) 6= 0.
Ax = b met A een m × n matrix.

n=m m<n m>n


één oplossing * *
oneindig veel opl. * * *
geen oplossingen * * *

9 Inprodukt en loodrecht
• lengte van een vector x = (x1 x2 . . . xn )T :

kxk = (x21 + x22 + · · · + x2n )
merk op:
kxk2 = x21 + x22 + · · · + x2n = xT x
• in-produkt (of: inwendig produkt) van twee vectoren (BK blz. 223)
x en y:
 
y1
T
 y2 
x y = (x1 x2 . . . xn ) 
 
.. 
 . 
yn
= x1 y1 + x2 y2 + · · · + xn yn
= x·y

• Definitie van het inprodukt x · y = kxk kyk cos θ, 0 ≤ θ ≤ π, met θ de hoek


tussen de twee vectoren x en y

x·y
• cos θ = kxk kyk , 0 ≤ θ ≤ π.

• Twee vectoren x en y zijn onderling loodrecht (orthogonaal), notatie x ⊥ y,


als xT y = 0.

• Een vector x staat loodrecht op een deelruimte V met basis {b1 , b2 , . . . , bn }


als xT bi = 0, voor i = 1, . . . , n.

10 Kleinste kwadraten methode, normaalvergelijking, re-


gressie
10.1 Voorbeeld van metingen en verondersteld verband
Metingen:
kracht F uitwijking u
0 10
2 16
4 17
6 23
8 27

Verondersteld verband: α + βF = u.

Invullen metingen:


 α + β · 0 = 10
 α + β · 2 = 16


α + β · 4 = 17 ofwel
α + β · 6 = 23




α + β · 8 = 27

   
1 0 10
 1 2     16 
 1 4  α =  17 
   
1 6 β
   
 23 
1 8 27
De vraag is om een α en een β uit te rekenen.
De verschilvector tussen de vector aan de linkerkant en de vector aan de rechter-
kant van de vergelijking, moet zo klein mogelijk zijn.

10.2 Normaalvergelijking
De vergelijking:
Ax̄ = b,
de lengte van de vector Ax̄ − b moet zo klein mogelijk zijn, oftewel

(b − Ax̄) ⊥ R(A) ,
AT (b − Ax̄) = 0
dit geeft de normaalvergelijking:
AT Ax̄ = AT b .
De gezochte kleinste-kwadratenoplossing x̄ is de oplossing van de normaalverge-
lijking.

kb − Ax̄k minimaal

dus
   
b1 x̄1
kb − Ax̄k2 = k  ...  − A  ..  k2 =
.
bn x̄n
= (b1 − a11 x̄1 − · · · − a1n x̄n )2 + . . .
+(bn − an1 x̄1 − · · · − ann x̄n )2 .
minimaal

10.3 Kleinste-kwadratenmethode toegepast op voorbeeld


   
1 0 10
1 2  16 
   
 1 4  x =  17  .
   
1 6  23 
1 8 27
De normaalvergelijking is
    
5 20 ᾱ 93
= .
20 120 β̄ 454
Dus de kleinste-kwadratenoplossing is:
ᾱ = 10.4 en β̄ = 2.05.
De gevonden rechte 10.4 + 2.05F = u is de best passende rechte lijn.

10.4 De matrices A en AT A, bestaat de inverse van AT A?


A een m × n-matrix.
Dan AT A een n × n-matrix.

rang(A) = rang(AT A)

Dus als rang(A) = n dan is rang(AT A) = n dus AT A is inverteerbaar.


10.5 Voorbeelden regressie
10.5.1 Enkelvoudige regressie, Voorbeeld 1

Polynoom-regressie
instelwaarde t meetwaarde m
2 1.1
4 2.9
6 4.2
8 6.7
10 10.4

Model: m = α + βt + γt2 Op te lossen Ax = b:


   
1 2 4 1.1
 1 4 16   2.9 
   
 1 6 36  x =  4.2 
   
 1 8 64   6.7 
1 10 100 10.4
 
5 30 220
AT A =  30 220 1800 
220 1800 15664
 
25.3
AT b =  196.6 
1670.8
Normaalvergelijking AT Ax̄ = AT b:
    
5 30 220 x¯1 25.3
 30 220 1800   x¯2  =  196.6 
220 1800 15664 x¯3 1670.8
geeft:
 
0.8400
x̄ =  0.0486 
0.0893
10.5.2 Meervoudige regressie

instelwaarde instelwaarde meetwaarde


t1 t2 m
1 0 9.7
1 10 49.0
2 0 14.1
2 10 53.1
3 0 15.8
3 10 64.1
Model: m = α + βt1 + γt2 .
Invullen data:
   
1 1 0 9.7
 1 1 10     49.0 
1 2 0  α
   
  β  =  14.1
 
  ofwel
 1 2 10   53.1 
  γ  
1 3 0   15.8 
1 3 10 64.1
Ax = b.

Normaalvergelijking AT Ax̄ = AT b:
    
6 12 30 ᾱ 205.8
 12 28 60   β̄  =  432.8 
30 60 300 γ̄ 166.2
oplossing: ᾱ = 2.6, β̄ = 5.3, γ̄ = 4.22.

10.5.3 Enkelvoudige regressie, Voorbeeld 2

tijdstip t verval v
0 34
1 7
2 1.2
3 0.3
4 0.001
Model: v = c1 e−λt + c2 e−µt , λ = 1, µ = 2.
Invullen data:
   
1 1 34
e −1 −2
 −2 e−4 7
   
 c1  
e e  =  1.2  ofwel
  c2  
−3
e e−6   0.3 
e−4 e−8 0.001
Ax = b.

Normaalvergelijking AT Ax̄ = AT b:
    
1.1565 1.0524 c¯1 36.7525
=
1.0524 1.0187 c¯2 34.9701
oplossing: c¯1 = 9.0188, c¯2 = 25.0120.

10.5.4 Enkelvoudige regressie, Voorbeeld 3

tijdstip t verval v
0 111.1
1 10.7
2 1.3
3 0.1
4 0.01
Model: v = ce−λt ,
ofwel ln v = ln c − λt = c∗ − λt
Invullen data:
   
1 0 ln 111.1
 1 −1   ∗   ln 10.7 
 1 −2  c
   
  λ =  ln 1.3

 ofwel

 1 −3   ln 0.1 
1 −4 ln 0.01

Ax = b. Normaalvergelijking AT Ax̄ = AT b:

c¯∗
    
5 −10 0.4353
=
−10 30 λ̄ 22.4335

oplossing: c¯∗ = 4.7479, λ̄ = 2.3304.


Dus c̄ = ec¯ = 115.3375.

11 Projecteren
11.1 Projectie op een lijn
lijn: < a >.
projectie van b op < a > is p = λa.
Er moet gelden:
(b − λa) ⊥ a,
ofwel
(a , (b − λa)) = 0.
Dus
λ(a , a) = (a , b),
ofwel
(a , b) (a , b)
λ = (a , a) en p= (a , a) a.

11.2 Projectie op een vlak


vlak V met basis {a1 , a2 }.
projectie van b op V =< a1 , a2 >
is p = λ1 a1 + λ2 a2 = Ax̄.
Er moet gelden:
(b − λ1 a1 − λ2 a2 ) ⊥ a1
en
(b − λ1 a1 − λ2 a2 ) ⊥ a2 ,
ofwel

λ1 (a1 , a1 ) − λ2 (a1 , a2 ) = (a1 , b)
,
λ1 (a2 , a1 ) − λ2 (a2 , a2 ) = (a2 , b)

d.w.z. AT Ax̄ = AT b.

11.3 Projectiematrix
Uit AT Ax̄ = AT b volgt
x̄ = (AT A)−1 AT b.
(A heeft rang n dus AT A heeft rang n en is dus inverteerbaar)
Er volgt
p = Ax̄ = A(AT A)−1 AT b.
De matrix P = A(AT A)−1 AT is de projectiematrix voor de projectie
op V = R(A).

Voor iedere projectiematrix geldt:


P 2 = P en P T = P .

12 Orthogonaal, orthonormaal, Gram-Schmidt, orthople-


ment
12.1 Orthogonaal
Een stel vectoren is orthogonaal indien de vectoren onderling loodrecht op elkaar
staan, d.w.z.
{v 1 , . . . , v n } orthogonaal als v i ⊥ v j ,
i 6= j , i = 1, . . . , n , j = 1, . . . , n.

12.2 Orthonormaal
Een stel vectoren is orthonormaal indien de vectoren onderling loodrecht op elkaar
staan en lengte 1 hebben, d.w.z. {v 1 , . . . , v n } orthonormaal als
(i) v i ⊥ v j , i 6= j , i = 1, . . . , n ,
j = 1, . . . , n
(ii) k v i k= 1 , i = 1, . . . , n.
In woorden: de vectoren zijn orthogonaal én hebben lengte 1.

12.3 Gram-Schmidt proces


Je hebt een aantal vectoren en je wilt, voor/van het opspansel van deze vectoren,
een orthonormale basis maken. Een basis waarvan de basisvectoren loodrecht
op elkaar staan én lengte 1 hebben. ( Eventueel is een orthogonale basis al
voldoende, dat wil zeggen dat de vectoren alleen maar loodrecht op elkaar staan.)
Bij Gram-Schnidt wordt ook altijd genormeerd, dat wil zeggen de vectoren krijgen
lengte 1, een genormeerde basis. Normeren ( op lengte 1) is niet moeilijk, deel
de vector door zijn eigen lengte. Probleem is het vinden van onderling loodrechte
vectoren, die nog steeds dezelfde ruimte opspannen!

12.3.1 Het orthogonaliseren, voorbeeld 1


   
1 1
a1 =  2  , a2 =  3 
2 1
 
1
a1 1
q 1 = ka k = 3 2 
1
2
Merk op dat a1 = (q 1 , a1 )q 1 .
De projectie van a2 op < q 1 > is (q 1 , a2 )q 1 .

a02 = a2 − (q 1 , a2 )q 1
     
1 1 0
1
=  3 −3·  2 = 1 
3
1 2 −1
 
0
0
Dus q 2 = kaa20 k = √12  1  Merk op dat
2
−1
a2 = (q 2 , a2 )q 2 + (q 1 , a2 )q 1 .
Dus < a1 , a2 >=< q 1 , q 2 >.
De vectoren q 1 en q 2 vormen de basisvectoren van de orthonormale basis.

12.3.2 Het orthogonaliseren, voorbeeld 2


     
1 1 2
a1 =  0  , a2 =  0  , a3 =  1 
1 0 0
 
1
a1 1
q 1 = ka k = √2  0 
1
1
Merk op dat a1 = (q 1 , a1 )q 1 .
a02 = a2 − (q 1 , a2 )q 1
     1 
1 1 2
1
=  0 −  0 = 0 
2
0 1 − 21
 
1
0
Dus q 2 = kaa20 k = √12  0 
2
−1
Merk op dat
a2 = (q 2 , a2 )q 2 + (q 1 , a2 )q 1 .

a03 = a3 − (q 1 , a3 )q 1 − (q 2 , a3 )q 2
     
2 1 1
2 1 2 1
=  1 − √ · √  0 − √ · √  0 
0 2 2 1 2 2 −1
 
0
=  1
0
 
0
a03
Dus q 3 = ka0 k = 1 

3
0
Merk op dat
a3 = (q 3 , a3 )q 3 + (q 2 , a3 )q 2 + (q 1 , a3 )q 1 .
Merk op:
< a1 >=< q 1 >,
< a1 , a2 >=< q 1 , q 2 >,
< a1 , a2 , a3 >=< q 1 , q 2 , q 3 >.
De vectoren q 1 , q 2 en q 3 vormen de basisvectoren van de orthonormale basis.
12.4 Orthogonale deelruimten
Twee deelruimten V en W zijn orthogonaal
(ten opzichte van elkaar) als iedere vector uit V loodrecht staat op iedere vector
uit W .
Notatie: V ⊥ W .

12.5 Orthoplement
De verzameling van alle vectoren die loodrecht staan op een deelruimte V noemen
we het orthogonaal complement (of orthoplement) van V .
Notatie: V ⊥ .

12.6 Eigenschappen van het orthoplement


Het orthoplement van een deelruimte U ⊂ IRn heeft de volgende eigenschappen:

(i) dim(U ) + dim(U ⊥ ) = n.


(ii) (U ⊥ )⊥ = U .
(iii) U ∩ U ⊥ = {0}.

13 Basis-transformaties
Wij leven niet allemaal ten opzichte van dezelfde basis, kijk alleen al maar naar de
lengtematen, de centimeters en de inches. Kijk eens naar het geld, de dollars en
de euros. Ook is het leuk om eens te kijken naar de maten waarmee garens worden
aangeduid. Je hebt er binnen de korste keren, zoal een 15 stuks, waaronder de
NeL en de Nm. De NeL heeft te maken specifiek met linnen, de Nm houdt in dat
er wordt gerekend in het numeriek stelsel.
En je hebt maten, die merken van de garens, er zelf op na houden. Sommigen
doen: hoeveel kilometer draad kan er worden gemaakt uit bijvoorbeeld 1 kilo
katoen (zijde, linnen, ...). Anderen hebben weer niet kilo maar ounces! En je
kunt natuurlijk ook afvragen, hoeveel kilo katoen (zijde, linnen, ...) heb ik nodig
om 100 kilometer draad te maken. Of geen kilometers maar miles, etc. Heel
eerlijk gezegd, is het een puinhoop in die wereld. Helemaal als je bedenkt dat de
lengte ook nog afhangt van de twijning, dat wil zeggen, de mate waarmee draden
in elkaar worden gedraaid, sommigen zijn erg los, anderen juist erg strak en dit
beinvloedt de lengte aanzienlijk. Probeer maar eens uit met een tweetal draadjes.
Er nooit vermeld, bij welke luchtvochtigheid de katoen, linnen of zijde is gemeten
of wat de vochtigheid van de vezels opzich was of is. Zodoende is het gewicht
maar een relatief iets.
Maar hier houden wij ons niet bezig met garens, maar met vectorruimten. Krijgen
wij coördinaten ten opichte van een bepaalde basis, dan willen wij die om kunnen
zetten naar coördinaten van een andere basis.
Net zo als de euros in de gulden en andersom? De factor 2.20371 staat gegrift in
mijn geheugen, maar die andere? Net berekend, ngeveer 0.4538, geheugensteun(?)
2x4=8 en 5+3=8.

13.1 Vectoren t.o.v. verschillende bases


Stel B = {b1 , b2 , . . . , bn } is een basis voor een n-dimensionale vectorruimte V .

x ∈ V is te schrijven als

x = β1 b1 + β2 b2 + · · · + βn bn

De getallen β1 t/m βn heten de coördinaten van x t.o.v. de basis B.


 
β1
β 
 2 
xB =  .. 
 . 
βn

heet de coördinatenvector van x t.o.v. de basis B.

Opmerking: Om vectoren op deze manier eenduidig vast te leggen t.o.v. B moeten


we volgorde van de basisvectoren in B steeds hetzelfde kiezen. We spreken van
een geordende basis.

13.2 Basis-overgang, voorbeeld


De standaard-basis:
e1
e2
De nieuwe basis uitgedrukt in de standaard-basis:

b1 = e1 + e2
b2 = −e1 + e2
Een vector met coördinaten ten opzichte van de standaard-basis:
x = −e1 + 5e2
Dit alles omgeschreven in vectoren:

 
1
e1 :
0 E
 
0
e2 :
1 E
 
1
b1 = e1 + e2 :
1 E
 
−1
b2 = −e1 + e2 :
1 E
 
−1
x = −e1 + 5e2 :
5 E

De standaard-basis uitgedrukt in de basisvectoren b1 en b1 :


1
!
2
e1 = 21 b1 − 12 b2 :
− 12 B
1
!
2
e2 = 21 b1 + 12 b2 :
1
2 B

De coördinaten van de basisvectoren b1 en b1 ten opzichte van zichzelf:


 
1
b1 :
0 B
 
0
b2 :
1 B

Bereken x ten opzichte van de basis B:

x = −1e1 + 5e2 = −1( 12 b1 − 21 b2 ) + 5( 12 b1 + 12 b2 )


Dit geeft:

       
2 1 −1 −1
x = 2b1 + 3b2 : =2 +3 =
3 B
1 E
1 E
5 E

De coördinaten van x ten opzichte van de bases B en E.

13.3 Basis-overgang met behulp van matrices, voorbeeld


1 1
  !
−1 2 2
xE = → PB←E = →
5 −1 1 2 2

 
2
→ xB = PB←E · xE =
3

!
1 −1
 
2
xB = → P̃E←B = →
3 1 1

 
−1
→ xE = P̃E←B · xB =
5
PB←E = (e1,B , e2,B ) overgang van E naarB
P̃E←B = (b1,E , b2,E ) overgang van B naarE
−1
PB←E = P̃E←B

13.4 Basistransformaties, algemeen


Twee bases: S en T .
Hoe verkrijg je de overgangsmatrices:

PS←T en PT ←S ?

De matrix PS←T werkt op vectoren met coördinaten ten opzichte van de T -basis
en geeft van die vector de coördinaten ten opzichte van de S-basis.

xS = PS←T xT

Bereken de matrix PS←T op de volgende manier, zet S en T naast elkaar, in dit


geval S links van T en ga vegen totdat aan de linkerkant de eenheidsmatrix is
verkregen, aan de rechterkant staat de gevraagde matrix:

(S|T ) → (I|PS←T )

De matrix PT ←S werkt op vectoren met coördinaten ten opzichte van de S-basis


en geeft van die vector de coördinaten ten opzichte van de T -basis.

xT = PT ←S xS

Bereken de matrix PT ←S op de volgende manier, zet T en S naast elkaar, in dit


geval T links van S en ga vegen totdat aan de linkerkant de eenheidsmatrix is
verkregen, aan de rechterkant staat de gevraagde matrix:

(T |S) → (I|PT ←S )
14 Eigenwaarden en eigenvectoren, diagonliseerbare ma-
trix
Matrices hebben vectoren, die na vermenigvuldiging met deze matrix, als resultaat
een veelvoud zijn van zichzelf. Ze worden op zichzelf afgebeeld. De factor is de
desbetreffende eigenwaarde behorende bij die vector.

14.1 Inleidend voorbeeld


 
−2 5 5
A =  −3 6 5 
3 −3 −2
       
1 −2 1 23
A  0  =  −3  A  2  =  24 
0 3 3 −9

     
1 3 1
A 1 = 3 =3 1
    
0 0 0
     
0 0 0
A  −1  =  −1  = 1  −1 
1 1 1
     
−1 2 −1
A  −1  =  2  = −2  −1 
1 −2 1
De matrix A vermenigvuldigd met één van de laatste drie vectoren, geeft als
resultaat steeds een veelvoud van de desbetreffende vector.

14.2 Definitie van eigenwaarde en eigenvector


Als λ een getal is en x 6= 0 een vector zo dat Ax = λx, dan heet λ een eigenwaarde
van A en x een eigenvector van A.
Belangrijk: x 6= 0.
14.3 Berekening eigenwaarden en eigenvectoren
Ax = λx

ofwel

Ax − λx = 0

ofwel

(A − λI)x = 0 (of (λI − A)x = 0)


Zoek nu getallen λ zo dat deze vergelijking oplossingen x 6= 0 heeft.
M.a.w. zoek getallen λ zo dat deze vergelijking singulier is,
ofwel zoek getallen λ zo dat
det(A − λI) = 0.

Hebben we zo’n λ gevonden, zeg λ = λ0 , dan vinden we de bij λ0 horende eigen-


vector(en) door het oplossen van
(A − λ0 I)x = 0.

14.4 Eigenwaarden en eigenvectoren, voorbeeld


 
−2 5 5
A =  −3 6 5 
3 −3 −2
 
−2 − λ 5 5
A − λI =  −3 6−λ 5 
3 −3 −2 − λ

−2 − λ 5 5

det(A − λI) = −3
6−λ 5 =

3 −3 −2 − λ

(bijv. ontwikkelen naar 1e kolom)



6−λ 5 5 5 5 5
= (−2 − λ) + 3 +3
6−λ 5 =

−3 −2 − λ −3 −2 − λ
= (−2 − λ)(λ2 − 4λ + 3) + 3(−5λ + 5) +3(5λ − 5) =

= −λ3 + 2λ2 + 5λ − 6

We noemen dit het karakteristiek polynoom van A..


We moeten nu oplossen:

−λ3 + 2λ2 + 5λ − 6 = 0

We noemen dit de
karakteristieke vergelijking van A.
Deze vergelijking kunnen we ook schrijven als:

−(λ − 1)(λ − 3)(λ + 2) = 0

λ=1

 
−3 5 5
A − 1 · I =  −3 5 5 
3 −3 −3

Dus los op:


    
−3 5 5 x1 0
 −3 5 5   x2  =  0 
3 −3 −3 x3 0

Vegen levert op:


    
−3 5 5 x1 0
 0 0 0   x2  = 0

0 2 2 x3 0

Dus x3 vrij, x2 = −x3 en x1 = 0.


 
0
N (A − 1 · I) =<  −1  >
1
Alle vectoren in N (A−1·I), behalve de nulvector, zijn eigenvector bij eigenwaarde
1. We noteren dit als:
 
0
E1 =<  −1  >
1

We noemen E1 de eigenruimte bij


de eigenwaarde 1.

λ=3

 
−5 5 5
A − 3 · I =  −3 3 5 
3 −3 −5

Dus los op:


    
−5 5 5 x1 0
 −3 3 5   x2  =  0 
3 −3 −5 x3 0

Vegen levert op:


    
−1 1 1 x1 0
 0 0 1   x2  = 0

0 0 0 x3 0

Dus
 
1
N (A − 3I) = E3 =<  1  >
0
Op dezelfde manier vinden we
 
−1
N (A + 2I) = E−2 =<  −1  >
1

Procedure

1. Bepaal de eigenwaarden door het oplossen van de karakteristieke vergelijking.


2. Bepaal vervolgens voor iedere gevonden eigenwaarde de bijbehorende eigen-
ruimte.

14.5 Eigenwaarden versus spoor en determinant van een matrix


Handig om te weten! Je kunt er bijvoorbeeld delen van berekeningen mee contro-
leren.
(En heb je eigenwaarden, dan heb je determinant!)

 
a b
A=
c d
 
a−λ b
A − λI =
c d−λ

det(A − λI) = (a − λ)(d − λ) − bc


= λ2 − (a + d)λ + (ad − bc)
= λ2 − Tr(A)λ + det(A)
Tr(A) is het spoor van A (Engels: trace), d.w.z de som van de diagonaalelementen.

Voor een 3 × 3 matrix:

−λ3 + Tr(A)λ2 + · · · λ + det(A)


Stelling

Het karakteristiek polynoom van een n × n matrix A is


(−1)n λn + (−1)n−1 Tr(A)λn−1 + · · · + det(A)
• det(A) is gelijk aan het product van de n (mogelijk complexe) eigenwaarden.
• Tr(A) is gelijk aan de som van de n (mogelijk complexe) eigenwaarden.

14.6 Het aantal eigenwaarden en de dimensie van de eigenruimte?


Voorbeeld
14.6.1 Voorbeeld 1
 
0 −2 1
A =  1 3 −1 
0 0 1

−λ −2 1

det(A − λI) = 1 3 − λ −1 =

0 0 1−λ

−λ −2
= (1 − λ) =
1 3−λ

= (1 − λ)(λ2 − 3λ + 2) =

= (1 − λ)(λ − 1)(λ − 2) = −(1 − λ)2 (λ − 2)

Dus eigenwaarden λ = 1(2×), λ = 2.

    
−1 −2 1 x1 0
E1  0 0 0   x2  =  0 
0 0 0 x3 0

  
−2 1
E1 =<  1  ,  0  >
0 1
Na berekening:
 
1
E2 =<  −1  >
0

14.6.2 Voorbeeld 2
 
1 5 3
A=0 1 1
0 0 2

1−λ 5 3

det(A − λI) = 0 1−λ 1 =

0 0 2−λ

= (1 − λ)2 (2 − λ)

E1
      
0 5 3 x1 0 1
 0 0 1   x2  =  0  , E1 =<  0  >
0 0 0 x3 0 0

E2

8
E2 =<  1  >
1

14.7 Meetkundige en algebraı̈sche multipliciteit


Als λi een eigenwaarde is van de matrix A dan noemen we het aantal malen dat
de factor (λ − λi ) voorkomt in de ontbinding van het karakteristieke polynoom
van A de algebraı̈sche multipliciteit van λi .

Als λi een eigenwaarde is van de matrix A dan noemen we dim(Eλi ) de


geometrische (meetkundige) multipliciteit van λi .
Opmerkingen:

De geometrische multipliciteit van λi is gelijk aan het aantal onafhankelijke eigen-


vectoren dat je bij λi kunt vinden.

Als A een n × n matrix is dan geldt voor iedere eigenwaarde λi :


1 ≤ alg.mult.λi ≤ n ,
1 ≤ geom.mult.λi ≤ alg.mult.λi .

14.8 Stellingen, betreffende eigenwaarden en eigenvectoren


• Een matrix A is singulier dan en slechts dan als λ = 0 een eigenwaarde van
A is. Er geldt E0 = N (A − 0 · I) = N (A).
• Eigenvectoren bij verschillende eigenwaarden zijn onafhankelijk.

14.9 Diagonaliseerbaar
Geprobeerd kan worden om bij berekeningen, zo weinig mogelijk getallen van een
matrix te moeten onthouden. Je wilt berekeningen doen, met zo weinig mogelijk
getallen. Je kunt proberen, de matrix op diagonaalgedaante te brengen. Mis-
schien dat dit lukt ten opzichte van een basis van eigenvectoren? Maar heb je
genoeg eigenvectoren?

Definitie:

Een n × n matrix A heet diagonaliseerbaar als er n onafhankelijke eigenvectoren


bij A gevonden kunnen worden.

Stelling:

Een n×n matrix A is diagonaliseerbaar dan en slechts dan als voor elke eigenwaar-
de λi van A geldt dat de algebraı̈sche multipliciteit gelijk is aan de geometrische
multipliciteit.
Als een n × n matrix A n verschillende eigenwaarden heeft dan is A diagonaliseer-
baar.

14.10 Eigenwaarde-decompositie
A n × n matrix
n onafhankelijk eigenvectoren s1 , . . . , sn
 
| | |
S =  s 1 s2 . . . s n  (S −1 bestaat)
| | |
 
| | |
AS = A  s1 s2 . . . sn  =
| | |
 
| | |
=  λ 1 s 1 λ2 s2 . . . λ n s n 
| | |
 
  λ1 0 · · · 0
| | |  0 λ ··· 0 
2
= s1 s2 . . . sn  .. ..  = SD
 
  ..
 . . .
| | |

0 0 · · · λn

Dus AS = SD ofwel S −1 AS = D.

Let op: Hier hebben wij de matrix op diagonaalgedaante gebracht!

Dit kunnen we ook schrijven als

A = SDS −1 .

Dit laatste noemen we de eigenwaarde-decompositie van A.


14.11 Eigenwaarde-decompositie, voorbeelden
14.11.1 Voorbeeld 1
 
−2 5 5
A =  −3 6 5 
3 −3 −2
 
0 1 −1
S =  −1 1 −1 
1 0 1
 
1 0 0
S −1 AS =  0 3 0 
0 0 −2

Opmerkingen:
De keuze van S is niet uniek. Bijv. de volgorde van de eigenvectoren kan anders
worden gekozen, de lengte van de eigenvectoren kan anders worden gekozen.

14.11.2 Voorbeeld 2, decompositie is niet uniek


 
−11 24
A=
−8 17

eigenwaarden: λ = 1, λ
 = 5.

2
eigenruimten: E1 =< >,
1
 
3
E5 =< >
2

Mogelijke eigenwaarde decomposities:


   −1
2 3 1 0 2 3
A=
1 2 0 5 1 2
   −1
3 2 5 0 3 2
A=
2 1 0 1 2 1
   −1
6 4 5 0 6 4
A=
4 2 0 1 4 2

14.12 Eigenschappen van eigenwaarden en eigenvectoren


Wat algemene eigenschappen van eigenwaarden en eigenvectoren.

• λ eigenwaarde van A met eigenvector x, B = A + 7I.

Bx = (A + 7I)x = Ax + 7x
= λx + 7x = (λ + 7)x

Dus (λ + 7) eigenwaarde van B bij eigenvector x.


• Algemeen: Als λ een eigenwaarde van A is met eigenvector x dan is αλ + β
een eigenwaarde van B = αA + βI met eigenvector x.
• λ eigenwaarde van A met eigenvector x.

A2 x = A(Ax) = A(λx) = λAx = λ2 x

Dus λ2 eigenwaarde van A2 met eigenvector x.


• Algemeen: Als λ een eigenwaarde van A is met eigenvector x dan is λn een
eigenwaarde van An met eigenvector x.
• A inverteerbaar, λ eigenwaarde van A met eigenvector x.

Ax = λx

ofwel

x = A−1 (λx) = λA−1 x

Er volgt
1
A−1 x = x,
λ
dus 1
λ eigenwaarde van A−1 met eigenvector x.
15 Symmetrische en orthogonale matrices
Er wordt vaak gewerkt met symmetrische en orhtogonale matrices. Deze matrices
hebben bepaalde eigenschappen, die hier en daar goed van pas kunnen komen. Van
symmtrische matrices kun je gelijk het een en ander zeggen over de eigenwaarden
en eigenvectoren, verder is er eigenlijk geen berekening nodig om de inverse van
een orthogonale matrix uit te rekenen. Verder komen de orthogonale matrices
goed van pas bij de symmetrische matrices.

15.1 Orthogonale matrices


Een orthogonale matrix is een vierkante matrix met orthonormale kolommen,
d.w.z. een matrix Q waarvoor geldt

QT Q = QQT = I .

d.w.z. QT = Q−1 .
Voor alle zekerheid: orthonormale matrices bestaan niet.

15.2 Reële symmetrische matrices


• Alle oplossingen van de karakteristieke vergelijking van een reële symmetri-
sche matrix zijn reëel.
• Eigenvectoren bij een (reële) symmetrische matrix zijn reëel.
• Eigenvectoren bij verschillende eigenwaarden zijn orthogonaal.
• Een symmetrische matrix is diagonaliseerbaar.
• Een reële symmetrische matrix heeft een eigenwaardedecompositie QDQT .
• Een symmetrische matrix is positief definiet dan en slechts dan als alle ei-
genwaarden positief zijn.
16 Complexe eigenwaarden en vectoren, voorbeeld
 
0 0 1
C =  −1 0 0  .
0 1 0
C heeft karakteristiek polynoom:
det(A − λI) = −λ3 − 1 =
= −(λ + 1)(λ2 − λ + 1) .
Oplossingen karakteristieke vergelijking:
1 1√ 1 1√
λ = −1, λ = + 3i, λ= − 3i.
2 2 2 2
λ = −1 : N (A + I)
   
1 0 1 1 0 1
dus :  −1 1 0  ∼  0 1 1 
0 1 1 0 0 0
T
eigenruimte√ E−1 =< (1, 1, −1)√ >.
λ = 12 + 12 3 i : N (A − ( 12 + 12 3 i)I)

dus: √
 1 1√ 1 0 − 12 + 21 3 i
 

−2 − 2 3 i 0√ 1  √ 
 −1 − 12 − 12 3 i 0√  ∼  0 1 −1 − 1 3 i 
 2 2 
1 1
0 1 −2 − 2 3 i
0 0 0
’eigenruimte’: √ √
E 1 + 1 √3i =< ( 21 − 12 3i, 12 + 12 3i, 1)T >.
2 2 √ √
λ = 12 − 12 3 i : N (A − ( 12 − 12 3 i)I)

dus: √
 1 1√ 1 0 − 21 − 12 3 i
 

−2 + 2 3 i 0√ 1  √ 
1 1  ∼  0 1 −1 + 1 3 i 
 −1 −2 + 2 3 i 0√  2 2 
0 1 − 12 + 21 3 i
0 0 0
’eigenruimte’: √ √
E 1 − 1 √3i =< ( 21 + 1
2 3i, 1
2 − 1
2 3i, 1)T >.
2 2
17 Differentiaalvergelijkingen
17.1 Homogeen stelsel differentiaalvergelijkingen

ẋ1 = 5x1 − 2x2


ẋ2 = 7x1 − 4x2

dx1
(t) = 5xt (t) − 2x2 (t)
dt
dx2
(t) = 7xt (t) − 4x2 (t)
dt
Homogeen stelsel gewone lineaire
differentiaalvergelijkingen met constante
coëfficiënten (autonoom).

ẋ = Ax

x en ẋ interpreteren als vectoren


ten opzichte van de
geordende standaardbasis E,
d.w.z. als xE en ẋE

ẋE = AxE

Andere coördinaatkeuze

xE = P xS en ẋE = P ẋS .

De vergelijking in de nieuwe coördinaten wordt

P ẋS = AP xS ofwel ẋS = P −1 AP xS .

17.2 Differentiaalvergelijking, voorbeeld 1


 
5 −2
A= .
7 −4

Er geldt:
karakteristiek polynoom: λ2 − λ − 6
eigenwaarden:


2
λ = −2 met E−2 =< >
7
 
1
λ = 3 met E3 =< >
1
 
2 1
Overgangsmatrix P =
7 1
 
−2 0
P −1 AP =
0 3
xE = P x S
Dus
x1,E = 2x1,S + x2,S
x2,E = 7x1,S + x2,S
Geeft
ẋ1,E = 2ẋ1,S + ẋ2,S
ẋ2,E = 7ẋ1,S + ẋ2,S
Dus
ẋE = P ẋS
P ẋS = AP xS ofwel ẋS = P −1 AP xS = ΛxS
Stelsel ẋS = ΛxS :

ẋ1,S = −2x1,S
ẋ2,S = 3x2,S
Oplossing:

x1,S (t) = c1 e−2t c1 e−2t


  
of : xS (t) =
x2,S (t) = c2 e3t c2 e3t
Terug naar standaardbasis:
xE (t) = P xS (t), d.w.z.
c1 e−2t
  
2 1
xE (t) =
7 1 c2 e3t
   
−2t 2 3t 1
= c1 e + c2 e .
7 1
algemene oplossing:

x(t) = c1 eλ1 t s1 + c2 eλ2 t s2

Iedere oplossing is een lineaire combinatie van


 
(1) −2t 2
x (t) = e
7
en
 
(2) 3t 1
x (t) = e
1

We noemen het stel vectorwaardige functies x(1) (t) en x(2) (t) een fundamentaal-
systeem voor het stelsel differentiaalvergelijkingen.

17.3 Differentiaalvergelijking, voorbeeld 2


 
1 0 0
ẋ = Ax met A =  0 3 −2 
0 −2 3
eigenwaarden: λ1 = λ2 = 1 en λ3 = 5.
eigenruimten:
     
1 0 0
E1 =<  0  ,  1  > , E5 =<  1  >
0 1 −1
Fundamentaalsysteem:
     
1 0 0
et  0  , et  1  , e5t  1 
0 1 −1
Algemene
 oplossing:    
1 0 0
c1 et  0  + c2 et  1  + c3 e5t  1  ,
0 1 −1
c1 , c2 , c3 ∈ IR
Beginwaardeprobleem Oplossing met x(t0 ) = x0 .

Voorbeeld x1 (0) = 0 en x2 (0) = 5


Invullen:
     
0 2 1
= c1 e−2·0 + c2 e3·0
5 7 1
   
2 1
= c1 + c2 .
7 1
Er volgt c1 = 1 en c2 = −2.
Oplossing beginwaardeprobleem:
   
2 1
x(t) = e−2t − 2e3t .
7 1

17.4 Exponentiële functie voor matrices


De exponentiële functie voor matrices

x2 x3
ex = 1 + x + 2! + 3! + ··· .

eλ1 t
 
0
 ... =
0 eλn t
 P∞ k 
(λ1 t)
k=0 k! 0
=
 ... =

P∞ k
(λn t)
0 k=0 k!
P∞ k
(Λt)
= k=0 k! = eΛt


At
X (At)k
e = .
k!
k=0
Stelling:
Zij A een diagonaliseerbare matrix met A = P ΛP −1 . Dan is eAt = P eΛt P −1 .
At −1 P Λ2 P −1 t2
e = I + P ΛP t+ +
2!
P Λ3 P −1 t3
+ + ···
3!
(Λt)2 (Λt)3
= P (I + Λ + + + · · · )P −1
2! 3!
Λt −1
= Pe P

17.5 E-macht van een matrix, voorbeeld (wordt steeds gebruikt!)


 
5 −2
A= .
7 −4
   
−1 −2 0 2 1
P AP = met P = .
0 3 7 1
   −2t  −1
2 1 e 0 2 1
eAt = =
7 1 0 e3t 7 1
−2t 3t −2t 3t
 
−2e + 7e 2e − 2e
= 15 .
−7e−2t + 7e3t 7e−2t − 2e3t

17.6 Oplossen van stelsel diff.vgl., met beginvoorwaarde


Oplossing stelsel

ẋ = Ax

is

x(t) = eAt c

Beginwaarde probleem met x(t0 ) = x0 :

x(t0 ) = eAt0 c ofwel c = e−At0 x(t0 )

Oplossing beginwaarde probleem:

x(t) = eA(t−t0 ) x0
17.7 Inhomogeen stelsel differentiaalvergelijkingen
Inhomogene stelsels
ẋ(t) = Ax(t) + f (t) .

ẋ1 (t) = a11 x1 (t) + a12 x2 (t) + f1 (t)
.
ẋ2 (t) = a21 x1 (t) + a22 x2 (t) + f2 (t)

Voorbeeld
   
5 −2 f1 (t)
ẋ = x+ .
7 −4 f2 (t)
Scheiding van variabelen door het diagonaliseren van A (overgaan op een andere
basis) geeft
P ẋS = AP xS + f ,
ofwel
ẋS = P −1 AP xS + P −1 f .
   1 1
 
−2 0 −5 5 f1 (t)
ẋ = x+ 7 2 .
0 3 5 − 5 f2 (t)
ofwel
1 1
ẋ1 (t) = −2x1 (t) − f1 (t) + f2 (t)
5 5
7 2
ẋ2 (t) = 3x2 (t) + f1 (t) − f2 (t)
5 5
Oplossen met de methode van variatie van constante:
Z t
−2t 1 1
x1 (t) = c1 e + e−2t+2s (− f1 (s) + f2 (s)) ds
5 5
Z t0
7 2
x2 (t) = c2 e3t + e3t−3s ( f1 (s) − f2 (s)) ds
0 5 5

In termen van de oorspronkelijke coördinaten (t.o.v. de oorspronkelijke basis)


 
x1
xE = P x S = P
x2
e−2t+2s (− 15 f1 (s) + 15 f2 (s))
!
 −2t
 Z t
c1 e
=P + P ds
c2 e3t 0 e3t−3s ( 57 f1 (s) − 25 f2 (s))

   
2 1
= c1 e−2t + c2 e3t +
7 1

e−2t+2s (− 25 f1 (s) + 52 f2 (s)) + e3t−3s ( 75 f1 (s) − 52 f2 (s))


!
Z t
+ ds
−2t+2s
0 e (− 57 f1 (s) + 7
5 f2 (s)) + e3t−3s ( 75 f1 (s) − 2
5 f2 (s))

   
2 1
= c1 e−2t + c2 e3t +
7 1

t
e−2t+2s
Z    
0 f1 (s)
+ P 3t−3s P −1 ds
0 0 e f2 (s)

17.8 Oplosmethoden stelsels differentiaalvergelijkingen, voorbeelden


   
5 −2 1
ẋ = x+ e4t .
7 −4 −1
Methode 1
   
2 1
x = c1 e−2t + c2 e3t +
7 1
Z t  −2t+2s   
e 0 1
+ P 3t−3s P −1 e4s ds
0 0 e −1
Berekenen integraal
Z t  −2t+2s   
e 0 −1 1
P 3t−3s P e4s ds =
0 0 e −1
Z t   −2t+2s  1 1
 
2 1 e 0 −5 1
= 3t−3s 7
5
2 e4s ds
0 7 1 0 e 5 −5 −1
Z t 
1 −4e−2t+6s + 9e3t+s

= −2t+6s 3t+s ds
0 5 −7e + 9e
     
1 5 1 2 9 1
= e4t + e−2t − e3t .
3 4 15 7 5 1
Dus
     
2 −2t 1 3t 1 5
x = c1 e + c2 e + e4t .
7 1 3 4
Methode 2. De inhomogene term wordt tot oplossing gemaakt van een homogeen
stelsel.

ẋ = Ax + eαt · v .

Kies een extra variabele x3 (t) = eαt die met de (speciale) inhomogene term eαt
overeenstemt. In het volgende voorbeeld is α = 4.

 ẋ1 = 5x1 − 2x2 + x3
ẋ2 = 7x1 − 4x2 − x3
ẋ3 = 4x3

dus
 
5 −2 1
ẋ = à x met à =  7 −4 −1  .
0 0 4

λ = −2 met E−2 =< (2, 7, 0)T >


λ = 3 met E3 =< (1, 1, 0)T >
λ = 4 met E4 =< (5, 4, 3)T >

Algemene oplossing:
       
x1 (t) 2 1 5
−2t 3t 4t
 x2 (t)  = c1 e  7  + c2 e  1  + c3 e  4  .
x3 (t) 0 0 3
x3 (t) = 3c3 e4t en x3 (t) = e4t dus c3 = 13 .

       
x1 (t) −2t 2 3 1 1 5
= c1 e + c2 e + e4t .
x2 (t) 7 1 3 4
Methode 3.

x(t) = xh (t) + xp (t)

met xh (t) de algemene oplossing van ẋ = Ax


xp (t) een particuliere oplossing van ẋ = Ax + eαt · v .

   
−2t 2 3t 1
xh (t) = c1 e + c2 e .
7 1
Een particuliere oplossing volgt uit een geschikte probeeroplossing, bijvoorbeeld:

xp = e4t w met ẋp = 4e4t w .

Invullen geeft

4e4t w = e4t · Aw + e4t v ⇔ (A − 4I) w = −v .

5
   
1 3
Als v = volgt w = 4
−1 3
Dus

5
     
2 1
x(t) = c1 e−2t + c2 e3 + e4t 3
4
7 1 3

17.9 Algemene formule oplossing stelsel differentiaalvergelijkingen


Inhomogeen stelsel differentiaalvergelijkingen

ẋ(t) = Ax(t) + f (t) .


is de algemene oplossing

Z t
At
x=e c+ eA(t−s) f (s)ds , c ∈ IRn .
0

Bij beginwaarde x(t0 ) = x0 volgt dat de constante vector c gelijk is aan

Z t0
−At0 −At0
c=e x0 − e eA(t0 −s) f (s)ds .
0

18 Stelsel differentiaalvergelijkingen met complexe eigen-


waarden
18.1 Voorbeeld en theorie
 
1 −5
ẋ = Ax met A =
1 −3
Oplossingen karakteristieke vergelijking zijn:
λ1 = −1 + i en λ2 = λ1

Az = λ1 z en Az = λ1 z met
 
2+i
z= .
1

Beschouw de basis S = {u, v} met


   
2 1
u = Re(z) = , v = Im(z) = .
1 0
Dan is

Az = A(u + iv) = Au + iAv

en

λz = Re(λ)u − Im(λ)v + iIm(λ)u + iRe(λ)v .


Door het aan elkaar gelijkstellen van de reële en imaginaire delen van Az en λz
volgt

Au = Re(λ)u − Im(λ)v

en

Av = Im(λ)u + Re(λ)v .

Zij P de overgangsmatrix van S naarE, d.w.z. de matrix met u en v als kolommen,


dan is
 
Re(λ 1 ) Im(λ 1 )
P −1 AP = .
−Im(λ1 ) Re(λ1 )
Ook
Re(eλ1 t ) Im(eλ1 t )
 
P −1 eAt P = .
−Im(eλ1 t ) Re(eλ1 t )
De algemene oplossing is

x(t) = eAt c
−1 
Re(eλ1 t ) Im(eλ1 t )
   
2 1 2 1 c1
= λ1 t λ1 t
1 0 −Im(e ) Re(e ) 1 0 c2
  −t
e cos(t) e−t sin(t)
   
2 1 d1
=
1 0 −e−t sin(t) e−t cos(t) d2
    
−t 2 1
= d1 e cos(t) − sin(t)
1 0
    
−t 2 1
+d2 e sin(t) + cos(t)
1 0
met d1 , d2 ∈ IR .
 
1 −5
ẋ = Ax met A=
1 −3
Oplossingen karakteristieke vergelijking zijn:
λ1 = −1 + i en λ2 = λ1
Az = λ1 z en Az = λ1 z met
 
2+i
z= .
1
We gaan te werk als bij reële eigenwaarden en eigenvectoren.
Algemene complexe oplossing:

 
2 + i
x(t) = c1 e(−1+i)t +
1
 
2 − i
+c2 e(−1−i)t met c1 , c2 ∈ C
| .
1
Deze oplossing is rëeel als c2 = c1 .
De algemene reële oplossing is nu:

 
2 + i
x(t) = d1 Re(e(−1+i)t )+
1
 
2 + i
+d2 Im(e(−1+i)t )
1
    
−t 2 1
= d1 e cos(t) − sin(t) +
1 0
    
−t 2 1
+d2 e sin(t) + cos(t)
1 0
met d1 , d2 ∈ IR .

18.2 Gewone differentiaalvergelijking omzetten naar een stelsel van


differentiaalvergelijkingen
y 000 − 4y 00 + y 0 + 6y = 0
Kies x1 = y, x2 = y 0 , x3 = y 00 .
Hiermee wordt het stelsel differentiaalvergelijkingen;

 ẋ1 = y 0 =

x2
00
ẋ = y = x3
 2 000
ẋ3 = y = −6x1 −x2 +4x4
Dus ẋ = Ax met
 
0 1 0
A= 0 0 1
−6 −1 4
Voor A geldt:
karakteristiek polynoom =
−λ3 + 4λ2 − λ − 6
eigenwaarden:
λ = −1 met E−1 =< (1, −1, 1)T >
λ = 2 met E2 =< (1, 2, 4)T >
λ = 3 met E3 =< (1, 3, 9)T >
De algemene oplossing wordt dan:
     
1 1 1
−t  2t 3t
x(t) = c1 e −1  + c2 e  2  + c3 e  3 
1 4 9
Voor de oorspronkelijke differentiaalvergelijking is alleen x1 (t) van belang:

y = x1 (t) = c1 e−t + c2 e2t + c3 e3t .

18.3 Harmonische oscillator


ẍ + 2k ẋ + ω02 x = 0 .
K = veerconstante.
m = massa.
ω0 = hoekfrequentie (ook wel eigenfrequentie), ω02 = K/m > 0.
2k = vertragingscoëfficiënt, k ≥ 0.

y1 = x en y2 = ẋ geeft ẏ = Ay met
 
0 1
A= .
−ω02 −2k

karakteristieke vergelijking:
p λ2 + 2kλ + ω02 .
eigenwaarden: −k ± k 2 − ω02 .
18.3.1 Ongedempte trilling

k = 0 < ω0
De eigenwaarden: λ1 = iω0 en λ2 = −iω0 .
De reële algemene oplossing is

x(t) = c1 cos(ω0 t) + c2 sin(ω0 t) .

Dit kunnen we ook schrijven als

A0 cos(ω0 t + α) .

Harmonische trilling met amplitude A0 , (hoek)frequentie ω0 , beginfase α en tril-


lingstijd T = 2π/ω0 .

18.3.2 Onderkritisch gedempte trilling

0 < k < ω0
eigenwaarden:p p
λ1 = −k + i ω02 − k 2 , λ2 = −k − i ω02 − k 2 .
De reële algemene oplossing is
q
−kt
x(t) = c1 e cos(t ω02 − k 2 )
q
−kt
+c2 e sin(t ω02 − k 2 )
q
−kt
= A0 e cos(t ω02 − k 2 + α) .
Trilling. Amplitude afhankelijk van t: A0 e−kt .
Voor toenemende t wordt de amplitude steeds kleiner. De trilling dempt uit.
Voor alle oplossingen geldt

lim x(t) = 0 .
t→∞

De nuloplosssing is dus een stabiele stationaire oplossing.

18.3.3 Kritisch gedempte trilling

0 < k = ω0
eigenwaarden: λ1 = −k, λ2 = −k.
De matrix A is niet diagonaliseerbaar.
De reële algemene oplossing is

x(t) = c1 e−kt + c2 te−kt ,

c1 = x(0) , c2 = kx(0) + ẋ(0) .


Merk op dat voor alle oplossingen geldt

lim x(t) = 0 .
t→∞

De nuloplosssing is dus een stabiele stationaire oplossing.

18.3.4 Bovenkritisch gedempte trilling

0 < ω0 < k < 0


eigenwaarden:
p p
λ1 = −k + k − ω0 , λ2 = −k − k 2 − ω02 . De reële algemene oplossing is
2 2

x(t) = c1 eλ1 t + c2 eλ2 t .

Merk op dat voor alle oplossingen geldt

lim x(t) = 0 .
t→∞

De nuloplosssing is dus een stabiele stationaire oplossing.

19 Lineaire afbeeldingen
19.1 Inleiding
De lineaire afbeeldingen kunnen worden gezien als functies, maar wel functies met
speciale eigenschappen.

Een functie uit de Calculus:


getal −→ Functie −→ getal

x −→ functievoorschrift −→ y = f (x)
Een lineaire afbeelding uit de Lineaire Algebra:
vector −→ Afbeelding −→ vector

x −→ voorschrift L −→ y = L(x)

Het voorschrift L willen wij omzetten in een matrixvermenigvuldiging. Dit is


mogelijk als het voorschrift L aan zekere eigenschappen voldoet.

19.2 Definitie van een lineaire afbeelding

Definitie:
Een afbeelding L : IRn → IRm heet een lineaire afbeelding als
(i) L(x + y) = L(x) + L(y)
(ii) L(c · x) = c · L(x)
voor elke x, y ∈ IRn en elke c ∈ IR.

Voorbeeld:
Het voorschrift L is een matrixvermenigvuldiging, de matrix A is een m×n matrix.
Beschouw L(x) = Ax.
De matrixvermenigvulding voldoet aan beide eigenschappen van de definitie en is
dus een lineaire afbeelding, in dit geval van de IRn naar de IRm .

19.3 Beeldruimte en nulruimte van een lineaire afbeelding


Beschouw L : IRn → IRm .

De beeldruimte van L is

R(L) = {y ∈ IRm |y = L(x), x ∈ IRn }

M.a.w. alle vectoren die als beeldvector van een vector x ∈ IRn kunnen optreden.
De nulruimte van L is

N (L) = {x ∈ IRn |L(x) = 0}

M.a.w. alle vectoren in IRn die door L op de nulvector worden afgebeeld.

Stelling:
De beeldruimte is een deelruimte van IRm .
De nulruimte is een deelruimte van IRn .

De rang van L is dim(R(L)).

Als L(x) = Ax dan is R(L) = R(A) en N (L) = N (A).

Stelling: (dimensiestelling)
L : V → W een lineaire afbeelding.

dim(ker(L)) + dim(R(L)) = dim(V )

19.4 Injectief en surjectief


Definities:
Een lineaire afbeelding L : V → W is injectief ( of één - één)(Engels: one-to-
one) als iedere twee verschillende vectoren uit het domein V onder L verschil-
lende beeldvectoren hebben, d.w.z. als voor alle x1 , x2 ∈ V uit x1 6= x2 volgt dat
L(x1 ) 6= L(x2 ).

Een lineaire afbeelding L : V → W is surjectief (of ’op ’)(Engels: onto) als


R(L) = W , m.a.w. als er voor iedere vector w ∈ W een vector v ∈ V is zodat
L(v) = w. Stelling:
Een lineaire afbeelding L : V → W is injectief dan en slechts dan als N (L) = 0.
Gevolgen:

Zij L : V → W een lineaire afbeelding met dim(V ) = dim(W ).


(a) Als L injectief is dan is L ook surjectief.
(b) Als L surjectief is dan is L ook injectief.

19.5 Beelden van de basisvectoren leggen de lineaire afbeelding vast


De beelden van de basisvectoren leggen een afbeelding volledig vast.

L:V →W
S = {x1 , · · · , xn } een basis van V .
L(x1 ) = z 1 , · · · , L(xn ) = z n .
Beschouw y = y1 x1 + · · · + yn xn .
L(y) = L(y1 x1 + · · · + yn xn )
= y1 L(x1 ) + · · · + yn L(xn )
= y1 z 1 + · · · yn z n

L:V →W
S = {x1 , · · · , xn } een basis van V .
T = {y 1 , · · · , y m } een basis van W .
L(x1 ) = z 1 , · · · , L(xn ) = z n .
Beschouw v = v1 x1 + · · · + vn xn .
(L(v))T = (L(v1 x1 + · · · + vn xn ))T
= v1 (L(x1 ))T + · · · + vn (L(xn ))T
= v1 z 1,T + · · · vn z n,T
  
| | | v1
=  z 1,T z 2,T · · · z n,T   ... 
| | | vn S
De afbeeldingsmatrix A van L t.o.v. de basis S op domein en de basis T op bereik
is
 
| | |
A =  (L(x1 ))T (L(x2 ))T · · · (L(xn ))T 
| | |

19.5.1 Voorbeelden

Voorbeeld 1: L : IR3 → IR2 gedefinieerd door


 
x  
x + y
L y  =
y−z
z

S = {x1 , x2 x3 } is de standaardbasis op IR3 .


T = {y 1 , y 2 } is de standaardbasis op IR2 .

   
1 1
L(x1 ) = , L(x2 ) = ,
0 1
 
0
L(x3 ) =
1
   
1 1
Dus L(x1 )T = , L(x2 )T = ,
0 1
 
0
L(x3 )T =
1
Dus
 
1 1 0
A=
0 1−1

Voorbeeld 2:

L : IR3 → IR2 gedefinieerd door


 
x  
x + y
L y  =
y−z
z
3
S = {x1 , x2 x3 } is basis
 opIR .  
1 0 1
x1 =  0  , x 2 =  1  , x 1 =  1 
1 1 1
2
T = {y 1 , y 2 } is basis op IR .
   
1 −1
y1 = , y2 =
2 1
     
1 1 −1
L(x1 ) = = a1 + a2
−1 2 1
     
1 1 −1
L(x2 ) = = b1 + b2
0 2 1
     
2 1 −1
L(x3 ) = = c1 + c2
0 2 1

 2 × 2 stelsels
Drie oplossen
 met dezelfde coëfficiëntenmatrix
1 −1 1 1 2

2 1 −1 0 0

Vegen geeft:
1 2 !
1 0 0
3

3
2 4
0 1 −1 −
3

3

Dus
1 2
!
0 3 3
A=
−1 − 23 − 43

19.6 Lineaire afbeeldingen tov. verschillende bases


De lineaire afbeelding L heeft matrix A
t.o.v. basis S op domein en basis T op bereik.
Zij PS←T de overgangsmatrix van T naar S, d.w.z. v S = PS←T v T .
(L(v))T = A v S
= APS←T y T
= B yT
Hierin is nu B de afbeeldingsmatrix van L t.o.v. de basis T op domein en bereik.

19.6.1 Voorbeeld

Spiegeling in het vlak x1 + 2x2 + 3x3 = 0.


Bepaal de matrix A van deze lineaire afbeelding t.o.v. de standaardbasis op do-
mein en bereik.
De beelden van de standaardbasisvectoren zijn niet eenvoudig te bepalen!
Kies een andere basis S in IR3 waarvan de beelden eenvoudig te bepalen zijn.

     
−2 −3 1
x1 =  1  , x 2 =  0  , x 3 =  2 
0 1 3

x1 en x2 vormen
 een  basis van het vlak,x3 staat
 loodrecht op het 
vlak. 
−2 −3 −1
L(x1 ) = x1 =  1  , L(x2 ) = x2 =  0  , L(x3 ) = −x3 =  −2 
0 1 −3
 matrix B vanL t.o.v. S op domein en de standaardbasis E op bereik is
Dus de
−2 −3 −1
B =  1 0 −2 
0 1 −3
De overgangsmatrix van S  naar E is 
−2 −3 1
P̃E←S = (x1,E x2,E x3,E ) =  1 0 2 
0 1 3
dus de overgangsmatrix PS←E vanE naar S
1 5 3

−7 7 −7
−1
 3 3

5 
PS←E = P̃E←S = −
 14 − 7 14 
1 1 3
14 7 14
 
6 −2 −3
en A = BPS←E = 17  −2 3 −6 
−3 −6 −2

19.7 Lineaire afbeeldingen en basistransformaties


L : IRn → IRn

{x1 , · · · , xn } een basis S in IRn .


Beschouw S op domein en bereik.
L(x1 ) = z 1 , · · · , L(xn ) = z n . Beschouw y = y1 x1 + · · · + yn xn .

(L(y))S = (L(y1 x1 + · · · + yn xn ))S

= y1 (L(x1 ))S + · · · + yn (L(xn ))S

= y1 z 1,S + · · · + yn z n,S
  
| | | y1
=  z 1,x z 2,S · · · z n,S   ... 
| | | yn S
 
| | |
A =  z 1,S z 2,S · · · z n,S 
| | |
 
| | |
=  (L(x1 ))S (L(x2 ))S · · · (L(xn ))S 
| | |
L heeft matrix A t.o.v. basis S op domein en bereik.
(L(y))S = Ay S
−1
Zij PS←T de overgangsmatrix van basis T naar basis S, P̃T ←S = PS←T is dan de
overgangsmatrix van S naar T
−1
(L(y))T = PS←T (L(y))S
−1
= PS←T A yS
−1
= PS←T APS←T y T
ofwel, de matrix B van L t.o.v. de basis T op domein en bereik is
−1
B = PS←T APS←T

19.7.1 Voorbeeld (vervolg van de spiegeling)


 
−2
L(x1 ) = x1 =  1  ,
0
 
−3
L(x2 ) = x2 =  0  ,
1
 
−1
L(x3 ) = −x3 =  −2 
−3
Matrix
A  {x1 , x2 , x3 } op domein en bereik
t.o.v. basis
1 0 0
A=0 1 0
0 0 −1

matrix B t.o.v. standaardbasis op domein en bereik


−1 −1
B = PS←E APS←T = P̃E←S AP̃E←S
B=
− 71 5 3
 
   −
−2 −3 1 1 0 0  7 7

 1 0 2   0 1 0   − 3 −3 5 
 14 7 14 
0 1 3 0 0 −1 1 1 3
  14 7 14
6 −2 −3
= 17  −2 3 −6 
−3 −6 −2

19.8 Symmetrische afbeeldingen


Definitie:
Een lineaire afbeelding L : IRn → IRn heet symmetrisch als de afbeeldingsmatrix A
ten opzichte van een orthonormale geordende basis S = (s1 , s2 , ..., sn ) symmetrisch
is.
Alternatief:

Een lineaire afbeelding L : IRn → IRn heet symmetrisch als voor alle x, y ∈ IRn
geldt (L(x), y) = (x, L(y)).

19.9 Uitgebreid voorbeeld


Een lineaire afbeelding omzetten in een matrix. Dat wil zeggen, aan elemen-
ten van een ruimte coördinaten toekennen en ten opzichte van de gekozen bases,
de beelden van de gekozen basisvectoren bepalen. En dan zijn er verschillende
martices mogelijk van dezelfde lineaire afbeelding.

20 Lineaire afbeelding omzetten naar een matrix


20.1 Introductie
Het omzetten van een lineaire afbeelding naar een matrix. Wij zullen dit doen aan
de hand van een uitgewerkt voorbeeld. Dit voorbeeld betreft het differentieren
van polynomen van ten hoogste graad 2.
Voor dat wij het voorbeeld behandelen, een aantal wezenlijke punten, die heel
goed in gedachten, dienen te worden gehouden.

• Er moet een bases zijn gekozen, zodat je objecten coördinaten kunt geven. (
Geen basis dan geen coördinaten.)
• In de kolommen van een matrix staan de beelden van de eenheidsvectoren.
Denk wel aan het voorafgaande punt. Een matrix werkt op een vector, met
coördinaten ten opzichte van een vooraf gekozen basis, de beelden zijn weer
vectoren, gegeven ten opzichte van een zekere basis. Deze bases kunnen
verschillend zijn!
• De afbeelding, welke wij willen omzetten in een matrix, dient lineair te zijn,
dus

A(x + y) = A(x) + A(y) (1)


A(αx) = αx (2)
20.2 De ruimte P2
Eerst de definitie en dan wat voorbeelden.

Definitie 1 P2 = {a + b t + c t2 | a, b, c ∈ R} In normaal nederlands, de ruimte


van alle polynomen van de graad kleiner of gelijk aan 2. De coëfficient c mag dus
best nul zijn!

Hierbij wat voorbeelden.

Voorbeeld 1
1. p(t) = 1 + t + t2
2. p(t) = 1 − t2
3. p(t) = 2 t
4. p(t) = 4

20.3 Bases van de ruimte P2 .


Met een basis van een ruimte, moet elk element in die ruimte zijn te beschrijven.
En verder behoren de basisvectoren lineair onafhankelijk te zijn, dus geen van de
basisvectoren behoort een lineaire combinatie van de anderen te zijn. In de ruimte
P2 , heb je steeds 3 getallen nodig om een polynoom te beschrijven, de a, b en c.
Dat wil zeggen dat de ruimte P2 drie dimensionaal is. Dus een basis behoort altijd
uit drie elementen te bestaan.
Hierbij wat voorbeelden van bases en wat geen basis kan zijn van de ruimte P2 .
Voorbeeld 2
1. {1, t, t2 } de gemakkelijkste basis, wordt ook wel de standaardbasis genoemd of
elementaire basis, vandaar e = {1, t, t2 }. Anders opgeschreven P2 = [1, t, t2 ], de
ruimte P2 wordt opgespannen door de polynomen {1, t, t2 }
2. {1−t2 , 1+t2 , t2 } dit is geen basis, immers het polynoom p(t) = t kan niet worden
beschreven als een lineaire combinatie van de gegeven drie polynomen. Indien de
onafhankelijkheid was nagegaan, was er een oplossing ongelijk aan de nuloplossing
gevonden, bijvoorbeeld t2 = − 12 (1 − t2 ) + 21 (1 + t2 ). Het laatste polynoom is dus
lineair afhankelijk van de eerste twee!
3. {1 − t, 1 + t, t2 }, dit is ook een basis, immers alle polynomen zijn van de graad
kleiner of gelijk aan twee, en de polynomen zijn lineair onafhankelijk. Immers uit
a (1 − t) + b (1 + t) + c t2 = 0 volgt c t2 + (b − a) t + (a + b) = 0, dus c = 0,
b − a = 0 en a + b = 0. Een nulpolynoom is een polynoom, waar alle coëfficienten
nul van zijn. Dit geeft drie vergelijkingen met drie onbekenden en dit oplossend
geeft a = 0, b = 0, c = 0. Dit is de enige oplossing van dit homogene stelsel.
4. Ga zelf na dat f = {1 − t, t + t2 , t2 } een basis is! Deze basis wordt gebruikt in
het vervolg van het verhaal.

20.4 Coördinaten
Nu hebben wij bases, en met deze bases kunnen wij nu coördinaten toekennen aan
een polynoom uit P2 . Het zijn de coëfficienten, die voor de basisvectoren dienen
te staan om een bepaald element te beschrijven.
Laten wij als polynoom p(t) = 1 + 2 t − 3 t2 nemen, en hiervan de coördinaten
gaan bepalen ten opzichte van de bases uit het vorige voorbeeld.

Voorbeeld 3
1. P2 = [1, t, t2 ], dit is gemakkelijk, Ce (p(t)) = (1, 2, −3), de coördinaten van p ten
opzichte van de basis e, ( dit wordt bedoeld met Ce ), zijn dus (1, 2, −3), immers
p(t) = 1 ∗ 1 + 2 ∗ t − 3 ∗ t2 .
Oftewel: Ce (p(t)) = (1, 2, −3).
2. P2 = [1 − t, 1 + t, t2 ], noem {1 − t, 1 + t, t2 } = g, de coördinaten van het polynoom
bepalen gaat als volgt. Er moet gelden a ∗ (1 − t) + b ∗ (1 + t) + c ∗ t2 = 1 + 2 t − 3 t2 ,
dus (c + 3) ∗ t2 + (−a + b − 2) ∗ t + (a + b) ∗ 1 = 0. Dit geeft drie vergelijkingen met
drie onbekenden, c = −3, −a + b = 2, a + b = 1, omdat de polynomen 1, t, t2 lineair
onafhankelijk zijn. Dit stelsel oplossend geeft Cg (p(t)) = (− 12 , 32 , −3). Controleer
het, immers − 12 ∗ (1 − t) + 23 ∗ (1 + t) − 3 ∗ t2 = p(t).
Oftewel: Cg (p(t)) = (− 12 , 32 , −3).
3. P2 = [1 − t, t + t2 , t2 ] bereken de coëficienten en controleer ze.
Antwoord: Cf (p(t)) = (1, 3, −6).

20.5 Differentieren
In dit voorbeeld nemen wij het differentieren als lineaire afbeelding. Nemen wij
de ruimte V als de ruimte van alle differentieerbare functies, en W de ruimte van
alle mogelijk functies, dan is het differentieren D, een lineaire afbeelding.
Immers f, g ∈ V , dan geldt f + g ∈ V , omdat V een lineaire vectorruimte is en
geldt D((f + g)(t)) = dtd (f + g)(t) = dtd f (t) + dtd g(t) = D((f )(t)) + D((g)(t)) én
D(α ∗ f )(t)) = dtd (α ∗ f )(t) = α ∗ dtd f (t) = α ∗ D(f )(t)).
De ruimte P2 is een lineaire deelruimte van V en W , zodat D een lineare afbeelding
is van P2 naar P2 , en D(a + b t + c t2 ) = b + 2 c t.

20.6 Matrices
Een heel eenvoudige matrix van het differentieren krijgen wij door te kijken naar
de matrix van P2 met basis e, naar P2 met basis e. Zoals al een keer eerder gezegd:
In de kolommen van een matrix staan .........
Dus wij moeten de beelden van de basisvectoren bepalen en dan de coördinaten
bepalen van deze beelden ten opzichte van een bepaalde basis, in dit geval e.
• D(1) = 0 geeft als coördinaten tov. e: (0,0,0)
• D(t) = 1 geeft als coördinaten tov. e: (1,0,0)
• D(t2 ) = 2 t geeft als coördinaten tov. e: (0,2,0)
De coördinaten worden in kolommen gezet, precies op de volgorde waarop wij
ze hebben berekend en dit geeft als matrix e M (D)e , de rechter index geeft aan
tov. welke basis de coördinaten van de vector zijn bepaald, waarmee de matrix
wordt wermenigvuldigd en de linker index geeft aan tov welke basis de coördinaten
gegeven zijn van het produkt van de matrix en de vector. In dit geval
 
0 1 0
e M (D)e =
0 0 2
0 0 0
Controleer het weer!
       
a 0 1 0 a b
e M (D)e
 b  =  0 0 2   b  =  2c 
c e 0 0 0 e c e 0 e

En dit gaat weer goed! Immers D(a + b t + c t2 ) = b + 2 c t.


Maar als wij nu het beeld tov. de f basis zouden bepalen, hoe ziet de matrix
er dan uit? Wij moeten dus nu de coördinaten gaan bepalen van de beelden
van de eenheidsvectoren van de basis e, ten opzichte van de basis f . Voor de
eerste kolom, stellen wij ons dus de vraag: Wat zijn de coördinaten van het
nul-polynoom tov. de basis f . Het antwoord is natuurlijk Cf (D(1)) = (0, 0, 0).
Volgende vraag: Cf (D(t))? Hierbij komen wij dan op het volgende probleem:
D(t) = 1 = a ∗ (1 − t) + b ∗ (t + t2 ) + c ∗ t2 . De a, b en c zijn dan de coördinaten
van de tweede kolom van de matrix, die wij zoeken. Los het probleem op, op een
manier zoals boven al een aantal keren is gedaan. Ga na: Cf (D(t)) = (1, 1, −1).
Bepaal zo ook de derde kolom: Cf (D(t2 )) = (0, 2, −2). Als matrix krijgen wij nu:
 
0 1 0
f M (D)e =
0 1 2 
0 −1 −2

Ook hier is het weer leuk om een controle uit te voeren! D(a+b t+c t2 ) = b +2 c t =
b ∗ (1 − t) + (b + 2c) ∗ (t + t2 ) + (−b − 2c) ∗ t2 en met de matrixvermenigvuldiging
verkrijgen wij:
       
a 0 1 0 a b
f M (D)e
b =  0 1 2   b  =  b + 2c 
c e f
0 −1 −2 e c e −b − 2c f

Dus een polynoom tov. de basis e erin en het antwoord wordt gegeven tov. de
basis f .
Met dit voorbeeld hebben wij het volgende plaatje verkregen:
D
P2 −→ P2
Ce y y Cf
 
f M (D)e
R3 −→ R3

20.7 Coördinatentransformatie
Nu hebben wij al een aantal keren coördinaten zitten omrekenen van de ene basis
naar een andere basis. Coördinaten toekennen aan polynomen is een lineaire
afbeelding, dus opzoek naar de matrices van dergelijke afbeeldingen! Gevraagd
de coördinatentransformatie van de basis e naar de basis f . Oftewel wij zijn
opzoek naar een matrix, en deze matrix heeft als eigenschap, dat als wij deze
vermenigvuldigen met een vector met coördinaten tov. de basis e, wij een vector
krijgen met coodinaten tov. de basis f .
Nu weer hetzelfde liedje: In de kolommen van een matrix ........
Dus wij moeten van de basis vectoren van de basis e, de coördinaten bepalen
tov de basis f , deze geven de kolommen van de gezochte matrix. Alleen de
eerste basisvector wordt op een moeilijke manier gedaan, daarna een gemakkelijker
methode. Dus de eerste basis vector van de basis e geeft 1 = a ∗ (1 − t) + b ∗
(t + t2 ) + c ∗ t2 , reken na dat (a, b, c) = (1, 1, −1). Doe op eenzelfde manier de
andere basisvectoren van de basis e, de antwoorden weer in kolommen zetten en
een matrix hiervan makend geeft
 
1 0 0
f Be =
 1 1 0
−1 −1 1
( Maak van de vergelijkingen, die je verkrijgt eens een uitgebreide coeeficienten-
matrix, op de eerste rij, de vergelijking behorende bij het polynoom 1, dan op de
tweede rij de vergelijking behorende bij het polynoom t, etc.) Deze matrix geeft
dus de coordinatentransformatie van de basis e naar f . Zie ook steeds de indices
bij de matrices, rechts er iets in tov. de basis e, en links komt er iets uit tov. de
basis f .
Het uitrekenen van deze basis transformatie kan ook op een iets gemakkelijker
manier en wel door matrices te vegen. Het te vegen stelsel maak je als volgt: links
de matrix bestaande uit de basisvectoren van f en rechts de basisvectoren van e,
deze natuurlijk wel met coordinaten tov eenzelfde basis, oftewel
 
1 0 0 1 0 0
 −1 1 0 0 1 0 

0 1 1 0 0 1
Veeg het stelsel nu zodanig dat aan de linkerkant de eenheidsmatrix wordt ver-
kregen, geeft als resultaat:
 
1 0 0 1 0 0
 0 1 0 1 1 0 

0 0 1 −1 −1 1
En zoals je ziet staat rechts de gevraagde matrix f Be . Je lost in één keer de
volgende problemen op:
           
1 0 0 1 0 0
a ∗ −1 + b ∗ 1 + c ∗ 0 = 0 en 1 en 0
0 1 1 0 0 1
Vergelijk dit alles met de uitgebreide coefficietenmatrix, die je zoeven hebt ge-
maakt!
Een controle? Waarom niet,
     
1 0 0 1 1
 1 1 0  2  = 3 
f
−1 −1 1 e −3 e −6 f

hiermee dus het polynoom p(t) = 1 + 2t − 3t2 omgezet naar de coordinaten tov.
de basis f !
Overigens de coordinatentransformatie e Bf is, in dit probleen, dus gemakkelijk
te verkrijgen. Eenmaal de bases netjes naast elkaar opgeschreven, zie je aan de
linkerkant een eenheidsmatrix staan, en er hoeft dus niet te worden geveegd. Een
andere mogelijkheid is

e Bf = (f Be )−1

dat wil dus zeggen de inverse matrix uitrekenen van de matrix, die wij al hadden,
ga dit na!

20.8 Matrices omzetten naar andere bases


Met de coordinatentransformatie uit de vorige paragraph hadden wij dus ook
gemakkelijk de de matrix f M (D)e kunnen bereken, immers

f M (D)e = f Bee M (D)e ,

reken dit na!


Krijgen wij nu polynomen tov. de bases f en moeten wij deze differentieren en de
antwoorden ook weer in coordinaten geven ten opzichte van de basis f , dan is het
handigst om de volgende matrix uit te rekenen f M (D)f . In coordinatentransfor-
maties uitgeschreven:

f M (D)f = f Bee M (D)ee Bf = (f Be )−1 e M (D)ee Bf

oftewel
   
1 0 0 0 1 0 1 0 0
f M (D)f =
 1 1 0 0 0 2 −1 1 0 .
−1 −1 1 0 0 0 0 1 1
Reken na dat
 
−1 1 0
f M (D)f =
−1 2 2 
1 −3 −2

En controleer de hele zaak weer voor het polynoom p(t) = 1 ∗ 1 + 2 ∗ t − 3 ∗ t2 ,


dat wij in dit hele verhaal hebben gebruikt:

Cf (p(t)) = (1, 3, −6)

differentieren tov. de basis f moet dus opleveren:


    
−1 1 0 1 2
f M (D)f Cf (p(t)) =
−1 2 2   3  = −4
1 −3 −2 −6 4

en het polynoom met de coordinaten (2, −4, 4) tov. de basis f is

D(p(t)) = 2 ∗ (1 − t) + (−4) ∗ (t + t2 ) + 4 ∗ t2 = 2 − 6t.

Dit gaat dus goed.


Index
afbeelding, linear, 94 diagonaalgedaante, 74
afstand, 7 diagonaliseerbaar, 73
algebraı̈sche multipliciteit, 72 differentiaalvergelijking, beginwaarde-
probleem, 81
basis, 44
differentiaalvergelijking, stelsel van, 79
basis, coordinaten, 62
dimensie, 44
basis, genormeerde, 58
dimensiestelling, 47
basis, geordende, 62
basis, orthonormaal, 58 e-macht van matrices, 82
basis. orthogonaal, 58 eigenruimte, 69
basistransformatie, 65 eigenschappen: inproduct, 8
berekenen, inverse matrix, 30 eigenschappen: inverse matrix, 29
bovendriehoeksvorm, 16 eigenschappen: permutatiematrix, 29
eigenvector, 66, 67
coëfficiëntenmatrix, 22
eigenvectoren, complex, 78
coördinaten, 62
eigenwaarde, 66, 67
complexe eigenvectoren, 78
eigenwaarde-decompositie, 74
complexe eigenwaarden, 78
eigenwaarden, complex, 78
cosinusregel, 7
fundamentaalsysteem, 81
decompositie, eigenwaarde-, 74
deelruimten, orthogonaal, 61 Gauss eliminatie, 13
determinant, berekenen van een , 39 Gauss-eliminatie, 16
determinant, bovendriehoeksmatrix, 37 Gauss-Jordan-eliminatie, 16
determinant, cofactor, 39 geometrische multipliciteit, 73
determinant, gelijke rijen, 35
harmonische oscillator, 91
determinant, getransponeerde matrix,
homogeen stelsel differentiaalvergelij-
37
kingen, 79
determinant, onderdetermminanten, 39
determinant, onderdriehoeksmatrix, 37 index, kolom, 23
determinant, produkt van matrices, 37 index, rij-, 23
determinant, singuliere matrix, 37 inhomogeen stelsel differentiaalverge-
determinant, vegen met rijen, 35 lijkingen, 84
determinant, verwisselen van rijen, 35 inproduct, 7
determinant, volume, 35 inprodukt, 7, 51
karakteristiek polynoom, 68 matrix, diagonaliseerbaar, 73
karakteristieke vergelijking, 68 matrix, e-macht, 82
kkw, normaalvergelijking, 52 matrix, eenheids-, 25
kleinste-kwadraten, methode van de matrix, elementaire, 28
(kkw), 52 matrix, elementen, 23
kolommenruimte matrix, 43 matrix, inverse, 29
kolomvectoren, 22 matrix, kolommenrang, 46
matrix, kolommenruimte, 43
lengte, 7
matrix, niet-singulier, 34
lineair afhankelijk, 43
matrix, nulmatrix, 25
lineair onafhankelijk, 43
matrix, nulruimte, 43
lineaire afbeelding, 94
matrix, onderdriehoeks-, 26
lineaire afbeelding, beeldruimte, 94
matrix, optellen, 24
lineaire afbeelding, definitie, 94
matrix, orthogonaal, 77
lineaire afbeelding, dimensiestelling, 95
matrix, overgangs-, 65
lineaire afbeelding, injectief, 95
matrix, permutatie-, 29
lineaire afbeelding, matrix van een, 96
matrix, projectie-, 58
lineaire afbeelding, nulruimte, 95
matrix, rang, 47
lineaire afbeelding, surjectief, 95
matrix, regulier, 34
lineaire afbeelding, symmetrisch, 101
matrix, rijenrang, 47
lineaire afbeelding, verschillende ba-
matrix, scalair veelvoud, 24
ses, 99
matrix, scheefsymmetrisch, 27
lineaire combinatie, 42
matrix, singulier, 34
lineaire ruimte, 41
matrix, spoor van een, 70
lineaire vergelijkingen, voorbeelden, 12
matrix, symmetrisch, 26, 77
loodrecht, 8, 51
matrix, transponeren, 24
matrices, eigenschappen: optellen, 27 matrix, vegen, 14
matrices, eigenschappen: transpone- matrix, vierkant, 25
ren, 28 meetkundige multipliciteit, 73
matrices, eigenschappen: vermenigvul- methode van Gauss, 14
digen, 27 methode van Gauss-Jordan, 15
matrix, 23 multipliciteit, algebraı̈sche, 72
matrix, anti-symmetrisch, 27 multipliciteit, geometrisch, 73
matrix, bovendriehoeks-, 26 multipliciteit, meetkunidg, 73
matrix, diagonaal-, 26
niet-lineaire vergelijkingen, voorbeel-
matrix, diagonaalgedaante, 74
den, 12
normaalvector van een vlak, 10 projectie, op vlak, 57
normaalvergelijking, 52 punt, 6
normeren, 58
regressie, enkelvoudig, 54
nulruimte matrix, 43
regressie, meervoudig, 55
oplosmethode (stelsel dv’s), algemene richtingsvector (2D), 8
formule, 88 richtingsvectoren (3D), 9
oplosmethode (stelsel dv’s), complexe rijgereduceerde trapvorm, eenvoudig,
oplossing, 90 15, 16
oplosmethode (stelsel dv’s), probeer- rijgereduceerde trapvorm, eenvoudige
oplossing, 87 vormen van, 16
oplosmethode (stelsel dv’s), reële op- ruimte, eigen-, 69
lossing, 90 ruimte, lineaire, 41
oplosmethode (stelsel dv’s), scheiden ruimte, lineaire deel-, 42
van variabelen, 84 ruimte, vector-, 41
oplosmethode (stelsel dv’s), variatie van
scheiden van variabelen, 84
constante, 84
spoor van een matrix, 70
oplosmethode, Gauss eliminatie, 13
stelsel vgl., niet-singulier, 34
oplossing, homogene deel, 33
stelsel vgl., regulier, 34
oplossing, particulier deel, 33
stelsel vgl., singulier, 34
oplossing, triviale, 33
stelsel, matrixnotatie, 21
opspansel, 42
stelsel, niet-singulier, 17
orthogonaal, 8, 58
stelsel, onderbepaald, 17
orthogonaal complement, 61
stelsel, oplosbaar??, 49
orthogonaal, deelruimten, 61
stelsel, overbepaald, 17
orthogonale matrix, 77
stelsel, regulier, 17
orthonormaal, 58
stelsel, singulier, 17
orthoplement, 61
stelsel, strijdig, 17
orthoplement van deelruimte, 61
steunvector (2D), 8
overgangsmatrix, 65
stunvector (3D), 9
parametervoorstelling (2D), 8 symmetrische matrix, 77
parametervoorstelling lijn (3D), 9
terugsubstitueren, 14
parametervoorstelling vlak (3D), 9
trace, 70
polynoom, karakteristiek, 68
trapvorm, 16, 20
projectie, matrix, 58
trilling, bovenkritisch gedempt, 93
projectie, op lijn, 57
trilling, kritisch gedempt, 92
trilling, onderkritisch gedempt, 92
trilling, ongedempt, 92
uitgebreide coëfficienten matrix, 16
valse vergelijking, 17
variabelen, basis-, 20
variabelen, vrije, 20
variatie van constante, 84
vector, 6
vector, coördinaat-, 62
vector, eigen-, 66, 67
vectoren, normeren, 58
vectoren, orthogonaal, 58
vectoren, orthonormaal, 58
vectorruimte, 41
vectorvoorstelling, 8
vegen, Gauss-Jordan, stelsel lineaire
vergelijkingen, 14
vegen, matrix, 14
vegen, simultaan (inverse), 30
vegen, stelsel lineaire vergelijkingen,
15
vergelijking (2D), 8
vergelijking vlak (3D), 10
vergelijking, karakteristieke, 68
vergelijkingen van een lijn (3D), 9

You might also like