You are on page 1of 175

Inhoudsopgave

College 1, Introductie
1.1 Vectoren in R2 en R3 . . . . . .
1.2 De ruimte Rn . . . . . . . . . . .
1.3 Lineaire vergelijkingen . . . . .
1.4 Introductie tot het oplossen van

.
.
.
.

1
1
5
7
9

College 2, Stelsels lineaire vergelijkingen I


2.1 Het vegen van een lineair stelsels . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Echelonvormen van matrices, pivotposities . . . . . . . . . . . . . . . . . . . . . . .
2.3 Het oplossen van stelsels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13
13
15
19

College 3, Stelsels lineaire vergelijkingen II


3.1 Stelsels met een of meerdere parameters . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Vectorvergelijking, matrixvergelijking Ax = b en homogene vergelijkingen . . . . .
3.3 De unitaire ruimte Cn en complexe lineaire stelsels . . . . . . . . . . . . . . . . . .

25
25
27
29

College 4, Lineaire opspanning en lineaire onafhankelijkheid


4.1 Lineaire opspanning en het opspannen van Rn . . . . . . . . . . . . . . . . . . . . .

33
33

College 5, Afhankelijkheid stelsels vectoren


5.1 Afhankelijkheidsrelaties tussen vectoren, afhankelijkheid en onafhankelijkheid . . .
5.2 Matrix Operaties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

39
39
43

College 6, Matrix Algebra


6.1 Product van matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Vegen en het matrixproduct, elementaire matrices. . . . . . . . . . . . . . . . . . .

47
47
51

College 7, Inverteerbare matrices


7.1 De inverse matrix . . . . . . . . . . . . . .
7.2 Inverteerbaarheid via elementaire matrices
7.3 Procedure om A1 te vinden . . . . . . .
7.4 Karakterisering inverteerbare matrices . .

.
.
.
.

53
53
56
56
58

College 8, Determinanten
8.1 Introductie tot Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Berekening van Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

61
61
63

College 9, Determinanten (vervolg) en deelruimten


9.1 Berekenen Determinanten via vegen . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2 Algebrasche eigenschappen van Determinanten . . . . . . . . . . . . . . . . . . . .
9.3 Aanvullende eigenschappen van Determinanten . . . . . . . . . . . . . . . . . . . .

69
69
70
72

. . . . .
. . . . .
. . . . .
stelsels

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

ii

INHOUDSOPGAVE

9.4

Lineaire deelruimten van Rn

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

77

College 10, Deelruimten(vervolg)


10.1 Basis van een deelruimten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.2 Deelruimten geassocieerd met een matrix . . . . . . . . . . . . . . . . . . . . . . .

81
81
84

College 11, Rang en eigenwaarde van een matrix


11.1 De rang van een matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.2 Eigenwaarden, Eigenvectoren en Eigenruimten . . . . . . . . . . . . . . . . . . . .

89
89
91

College 12, De karakteristieke vergelijking


12.1 De karakteristieke vergelijking van een matrix . . . . . . . . . . . . . . . . . . . . .

95
95

College 13, Gelijkvormigheid en diagonaliseerbaarheid.


99
13.1 Gelijkvormigheid van matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
13.2 Diagonaliseerbaarheid van matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
13.3 Toepassingen van diagonalisering. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
College 14, Orthogonaliteit in Rn .
109
14.1 Het Standaard Inwendig Product in Rn . . . . . . . . . . . . . . . . . . . . . . . . 109
14.2 Orthogonale verzamelingen en orthogonale bases . . . . . . . . . . . . . . . . . . . 112
College 15, Orthogonale matrices en orthogonaal
15.1 Orthogonale matrices . . . . . . . . . . . . . . .
15.2 Het Orthogonaal Complement . . . . . . . . . .
15.3 De orthogonale decompositiestelling . . . . . .

complement.
115
. . . . . . . . . . . . . . . . . . . . 115
. . . . . . . . . . . . . . . . . . . . 117
. . . . . . . . . . . . . . . . . . . . 120

College 16, Projectie matrices, het GramSchmidt proces.


123
16.1 Projectiematrices en spiegelingsmatrices . . . . . . . . . . . . . . . . . . . . . . . . 123
16.2 Het Gram-Schmidt Proces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
College 17, Kleinste kwadraten benadering.
17.1 Karakterisering van de orthogonale projectie . . . . . . . . . . . . . . . . . . . . .
17.2 De Kleinste Kwadraat Oplossing van een Stelsel Ax = b . . . . . . . . . . . . . . .
17.3 Een alternatieve formule voor de projectiematrix . . . . . . . . . . . . . . . . . . .
Opgaven ter Lehring ende Vermaeck

129
129
130
133
135

College 1, Introductie
1.1

Vectoren in R2 en R3

In dit dictaat gaan wij ervan uit dat de lezer vertrouwd is met het (euclidische) vlak. We kunnen
in dit vlak een assenstelsel kiezen, we spreken van een x-as en een y-as. We weten hoe met behulp
van dit assenstelsel de punten coordinaten krijgen. Punten in het vlak (en de ruimte) worden
aangegeven met een hoofdletter, het punt P , en een punt P krijgt de coordinaten (x, y) (zie de
schets). We zeggen zelfs: P = (x, y).
z
z-as

P = (x, y, z)

P = (x, y)

y
x

x-as
Op dezelfde manier kunnen we de ruimte coordinatiseren. Door drie onderling loodrechte assen te
kiezen, de x-as, y-as en de z-as, krijgt ieder punt P in de ruimte coordinaten van de vorm (x, y, z).
In de schets komt de positieve x-as het papier uit, naar ons toe. Ook hier zeggen we: P = (x, y, z).
In de keuze welke as de x-as, respectievelijk de y-as en de z-as wordt, is men vrij. Wel zullen we de
volgende eis stellen aan een assenstelsel: de keuze van de positieve x-as, positieve y-as en positieve
z-as zal rechtshandig zijn. D.w.z. als, vanuit de oorsprong, de duim van de rechterhand in de
richting van de positieve x-as is, de wijsvinger van de rechterhand in de richting van de positieve
y-as is, dan MOET de middelvinger van de rechterhand in de richting van de positieve z-as gaan.
(De noodzaak van deze eis is wellicht niet duidelijk. Maar bepaalde formules die we kennen, zoals
de formule van het uitwendig product in R3 , zijn alleen correct in een rechtshandig stelsel.)

A1 B1 = A2 B2 =

= A3 B3 !

B
A

v = AB

A1

B1
A2

B2
B3

A3

Onze aandacht gaat niet uit naar punten maar naar vectoren van de vorm a = AB, d.w.z. de
pijl met A als beginpunt en B als eindpunt. Vectoren met dezelfde lengte en richting in de ruimte
worden gedentificeerd. Bijvoorbeeld, als A1 = (1, 0), A2 = (1, 1), A3 = (0, 1), B1 = (2, 1),
1

y-as

College 1, Introductie

B2 = (2, 2) en B3 = (1, 2) dan geldt: A1 B1 = A2 B2 = A3 B3 . Inderdaad, deze vectoren hebben


dezelfde lengte en richting! Omdat kennelijk de vectoren vrij in het vlak of de in ruimte mogen
bewegen (evenwijdig aan zichzelf) zonder hun identiteit te verliezen, heten dit ook wel vrije
vectoren. We kunnen ook eisen dat vectoren in de oorsprong O moeten beginnen, dus zoals de

vector: OP . Vectoren in deze vorm worden ook wel positie-vectoren of gebonden vectoren genoemd.
In deze situatie wordt de vector geheel bepaald door het eindpunt P . In het vlak spreken we af

dat de gebonden vector OP corresponderend



 met het eindpunt P = (x1 , x2 ) genoteerd wordt met
x1
.
de kolom: (of ook, kolomvector)
x2

Evenzo, in de ruimte wordt de gebonden vector


OP
corresponderende met een gegeven punt
x1
P = (x1 , x2 , x3 ) genoteerd met de kolomvector x2 .
x3

Afspraak: Punten worden genoteren met hoofdletters P . Vectoren worden genoteerd met `of een

kleine letter, zoals a (respectievelijk a of


a ) `of als P Q `of als een kolomvector.
We definieren:

Definitie: De verzameling van alle kolomvectoren in het vlak wordt aangeduid met R2 . Dus
in verzamelingen-notatie:




x1
R2 = x =
: x1 , x2 R .
x2
Evenzo wordt de verzameling van alle kolomvectoren in de ruimte aangeduid met R3 . Dus in
verzamelingen-notatie:

x1

R3 = x = x2 : x1 , x2 , x3 R .

x3

De getallen x1 , x2 , x3 worden de kentallen van de vector x genoemd. Zowel op R2 als op R2 definieren we twee basis operaties. De zogeheten vectoriele optelling en de scalaire vermenigvuldiging.
Meetkundig wordt de optelling, zowel in R2 als in R3 , als volgt gedefinieerd. Als gebonden vectoren
wordt u + v verkregen via de welbekende parallellogram-constructie.
w
u+v
v

u+v+w

v
u

Voor vrije vectoren is de zogeheten kop-staart-constructie ook mogelijk. Deze is met name handig
als er meerdere vectoren moeten worden opgeteld.
Meetkundig is de definitie van de scalaire vermenigvuldiging ook welbekend. Als c R (c heet een

1.1. Vectoren in R2 en R3

scalar) en als u een vector in R2 is (of in R3 ), dan is de vector cu gelijk aan:



als c 0 die vector in de zelfde richting als u, maar c maal zo lang
cu =
als c 0 die vector in tegenstelde richting als u, maar c maal zo lang
De algebrasche definitie van de vectoriele optelling en de scalaire vermenigvuldiging is veel eenvoudiger te formuleren. Op R3 luidt deze:

x1
y1
x1 + y1
x1
cx1
x2 + y2 = x2 + y2 en c x2 = cx2 .
x3
y3
x3 + y3
x3
cx3
Natuurlijk moet nog wel worden nagegaan dat deze algebrasche definitie inderdaad overeenstemt
met de meetkundige definitie. Dit zullen we achterwege laten.
 
0
Tenslotte voeren we het symbool 0 in, de nulvector. In R2 wordt dit 0 =
en in R3
0

0
0 = 0 . Merk op dat zowel in R2 als in R3 geldt:
0
x + 0 = 0 + x = x,

voor alle vectoren x.

Als laatste voeren we het symbool x in, de zogeheten tegengestelde van x, via:
x = (1)x
De vector x heeft de eigenschap:
x + (x) = (x) + x = 0,
Merk op dat

voor alle vectoren x.

AB = BA.

STELLING 1.1. Als A = (a1 , a2 , a3 ) en (b1 , b2 , b3 ) punten zijn in R3 , dan geldt:

b a1
1
AB = b2 a2 .
b 3 a3


Bewijs: Omdat OA + AB = OB geldt:

b
a
b a1
1 1 1
AB = OB OA = b2 a2 = b2 a2 .
b 3 a3
b3
a3
We zijn ook vertrouwd met het begrip: lengte van
een vectoren we kennen de notatie kxk voor
x1
de lengte. We kennen ook de formule: als x = x2 dan
x3
q
kxk = x21 + x22 + x23

College 1, Introductie

In het college Analyse zijn we ook het zogeheten (standaard) inwendigproduct x y op R2 (en ook
op R3 ) tegengekomen .

x1
y1
Herinner: in R3 : als x = x2 en y = y2 dan
x3
y3
x y = x1 y1 + x2 y2 + x3 y3 R.
Het inwendigproduct van vectoren is dus een scalar en geen vector.
Het is te hopen dat de volgende stelling iedereen bekend is:

STELLING 1.2. Als x en y vectoren in R3 , dan geldt:


x y = kxk kyk cos(),
waar de hoek tussen de vectoren x en y is.

Er volgt:

STELLING 1.3. Twee vectoren x en y in R3 zijn loodrecht (orthogonaal) als en slechts als
x y = 0.

Tenslotte horen wij bekend te zijn met de loodrechte projectie van een vector x op een vector u;
deze zullen we noteren met:
proju (x).
Het is duidelijk dat proju (x) een scalair veelvoud
zal zijn van u. We stellen daarom:
proju (x) = u

x u

en het zal dat scalaire veelvoud zijn van u zo dat


u

x u u.
Hieruit is te bepalen. Inderdaad:
u x u u (x u) = 0 u x u u = 0
en dus
ux
=
uu

STELLING 1.4. Laat x en u vectoren in R3 (of R2 ) zijn. De orthogonale projectie van


x op u is gelijk aan de vector:
u x
proju (x) =
u.
uu

1.2. De ruimte Rn .

De vector x proju (x) heet: de component van x loodrecht op u. We gaan op dit moment hier
niet verder op in. We zullen dit alles opnieuw tegenkomen in de ruimte Rn . Maar dan moet die
ruimte eerst gentroduceerd worden.

1.2

De ruimte Rn .

De ruimtes R2 en R3 zijn op een voor de hand liggende manier te generaliseren tot een object/ruimte Rn , via:

x Rn als en slechts als x een kolom is met n geordende kentallen uit R.

Dus als x Rn dan is x van de vorm:

x=

x1
x2
..
.
xn

Dit zullen we weer vectoren noemen.


De vector x Rn is ons bekend als al zijn n kentallen x1 , . . . , xn ons bekend zijn. We zullen ons
van het object (de ruimte) Rn geen voorstelling maken, althans, niet voor n > 3.
Op de ruimte Rn leggen we een zogeheten lineaire structuur, dat wil zeggen een structuur waarop
een optelling en een scalaire vermenigvuldiging is gedefinieerd. Dit doen we op de volgende voor
de hand liggende manier:

x1

Definitie: Als x = ... en y =


xn

y1
.. vectoren in Rn zijn en R, dan:
.
yn

x1 + yn
x1

.
..
x+y =
en x = ..
.
xn + yn
xn

x1
0

Verder definieren we nog de vector x via x = ... en ... wordt weer de nulvector
xn
0
genoemd.
We verkrijgen de volgende rekenregels voor de lineaire structuur op Rn .

College 1, Introductie

STELLING 1.5. Laat u, v en w vectoren in Rn zijn en c, d scalairen in R. Dan:


1. u + v = v + u

(de commutatieve wet)

2. u + (v + w) = (u + v) + w

(de associatieve wet)

3. u + 0 = u
4. u + (u) = 0
5. c(u + v) = cu + cv

(de eerste distributieve wet)

6. (c + d)u = cu + du

(de tweede distributieve wet)

7. c(du) = (cd)u

(een soort associatieve wet)

8. 1u = u

Tenslotte definieren we nog den standaard


e1 , . .
. , en van Rn via:

eenheidsvectoren

1
0
0
0
1
0



e1 = . , e2 = . , en en = . .
..
..
..
0
0
1

x1
n
x2
X

xi ei .
Merk op dat geldt: x = . x = x1 e1 + x2 e2 + . . . + xn en =
..
i=1

xn
Rn , met zijn lineaire structuur, is het object dat in de lineaire algebra bestudeerd wordt. Later
zullen we ook nog de structuur van het standaard inwendig product op Rn bestuderen, maar eerst
beperken we ons tot de lineaire structuur.

Definitie: Als v1 , v2 , . . . , vp gegeven vectoren in Rn zijn en c1 , c2 , . . . , cp scalairen in R dan


heet de vector
b = c1 v1 + c2 v2 + + cp vp
een lineaire combinatie van de vectoren v1 , v2 , . . . , vp (met gewichten c1 , c2 , . . . , cp ).

Voorbeeld 1.6. De

1
van de vectoren 2
3

1
3
2
vector b = 4 2 2 2 = 4 is kennelijk een lineaire combinatie
3
1
10

3
en 2 (met gewichten 4 en 2).
1

Voorbeeld 1.7. Vraag.

2
Is de vector v = 2 een lineaire combinatie van de vectoren
1

1.3. Lineaire vergelijkingen

1
2
5
0 , 3 , 4 ?
1
1
0
Antwoord: Kennelijk moeten we nagaan of er c1 , c2 en c3 bestaan zodat

1
2
5
2
c1 0 + c2 3 + c3 4 = 2 .
1
1
0
1
Bestaan de c1 , c2 , c3 niet, dan is v geen lineaire combinatie van de gegeven vectoren. Schrijven we
bovenstaande vergelijking per kental uit, dan levert dit kennelijk de volgende drie vergelijkingen
met drie onbekenden.

c1 + 2c2 + 5c3 = 2
3c2 4c3 = 2

c1 + c2 = 1
Zulke stelsels, m lineaire vergelijkingen met n onbekenden blijken steeds weer op te duiken in de
lineaire algebra. Ons eerste doel is een methode te vinden om zulke stelsels op te lossen.
Op dit moment zullen we slechts zeggen: ga maar na dat c1 = 3, c2 = 2 en c1 = 1 een oplossing is.
We kunnen concluderen dat de vector v inderdaad een lineaire combinatie is van de drie gegeven
vectoren.
Om tot het oplossen van stelsels te komen introduceren we eerst de noodzakelijke terminologie.

1.3

Lineaire vergelijkingen

We beginnen met een paar opmerkingen over matrices.

Definitie: Een m n matrix is een rechthoek van getallen (de kentallen van A genoemd),
en wel een rechthoek met m rijen en n kolommen.

We leggen de volgende nummering van de

a1,1
..
.

A=
ai,1
.
..
am,1

kentallen van de m n matrix A vast.

a1,j a1,n
..
..
.
.

ai,j ai,n

..
..
.
.
am,j am,n

Merk op:
1. De ide rij van de matrix A is de rij:

2. De j de

ai,1

ai,j

a1,j
..
.

kolom van de matrix A is de kolom:


ai,j
.
..
am,j


ai,n .

College 1, Introductie

3. Het kental ai,j van A zit in de ide rij en de j de kolom van de matrix A.
4. De kolommen van de matrix A heten ai (i = 1 n), en dit zijn vectoren in Rm . We schrijven
A = [ a1 . . . an ].
5. Algemeen, als (b1 , , bk ) een stelsel vectoren in Rn is, dan heet [ b1 bk ] de aan dit stelsel
toegevoegde kolommatrix. (Dit is een n k matrix.)






1
3
1
Voorbeeld 1.8. Als a1 =
, a2 =
en a3 =
dan is de aan het stelsel (a1 , a2 , a3 )
2
1
2
toegevoegde kolommatrix:


1
3
1
A = [ a1 a2 a3 ] =
.
2 1 2
We stappen over naar de vergelijkingen.
Herinner dat de algemene vergelijking van een lijn in R2 van de volgende vorm is:
ax + by = d.
Evenzo is de algemene vergelijking van een vlak in R3 van de vorm
ax + by + cz = d.
Vergelijkingen van deze vorm heten lineaire vergelijkingen.

Definitie: Een lineaire vergelijking in de onbekende variabelen x1 , . . . , xn is een vergeli jking van de vorm
a1 x1 + a2 x2 + + an xn = b
waarbij de co
efficienten a1 , a2 , . . . , an gegeven constanten zijn, evenals de constante term
b.
Een oplossing van deze vergelijking is een vector in x Rn wiens kentallen x1 , . . . , xn voldoen
aan de vergelijking.

De vergelijkingen
4x1 + 5x2 4 = 2x3

en x2 =

5x1 + sin(2)x3

zijn lineair, omdat ze als zodanig kunnen worden gerangschikt. Echter, de vergelijkingen

x2 = 5 x1 + sin(2)x3 of x2 = 5x1 + 2 sin(x3 )

1
zijn dat niet. Een oplossing van de vergelijking 4x1 + 5x2 4 = 2x3 is de vector x = 2 R3 ,
5
maar R3 bevat natuurlijk nog veel meer oplossingen van deze vergelijking. Enige voorzichtigheid
is soms wel nodig. Men kan de vergelijking 4x1 + 5x2 4 = 2x3 ook als een lineaire vergelijking in
x1 , x2 , x3 , x4 zien via 4x1 + 5x2 2x3 + 0x4 = 4. Dan zit een oplossing x van deze vergelijking in
R4 !

1.4. Introductie tot het oplossen van stelsels

Een stelsel lineaire vergelijkingen in de onbekende variabelen x1 , . . . , xn is een mtal lineaire


vergelijkingen in de variabelen x1 , . . . , xn . Dit is te schrijven als:

a1,1 x1 + a1,2 x2 + + a1,n xn = b1

a2,1 x1 + a2,2 x2 + . . . + a2,n xn = b2


..
..
..
..

.
.
.
.

am,1 x1 + am,2 x2 + . . . + am,n xn = bm

De getallen ai,j heten de co


efficienten van het stelsel, deze worden verzameld in de co
efficienten
matrix A = [ai,j ]i=1..m,j=1..n van dit stelsel. Voegen we de bi ook toe aan deze matrix, dan spreken
we van de aangevulde matrix [A|b] van dit stelsel. Dus:

a1,1 a1,n
a1,1 a1,n b1

.. en [A|b] = ..
..
..
A = ...
.
.
.
.
am,1

am,n

am,1

am,n

bm

Merk op dat de aangevulde matrix het hele stelsel bepaald. Als A een m n matrix en b Rm ,
dan spreken we van het stelsel [A|b].
Een oplossing van dit stelsel is een vector in x Rn wiens kentallen x1 , . . . , xn voldoen aan al
de m vergelijkingen.
De oplossing van dit stelsel (of ook: de algemene oplossing van dit stelsel) is de verzameling
van alle vectoren in x Rn met x een oplossing van dit stelsel.
Ons doel is een effectieve methode (procedure) te vinden om de oplossing van een stelsel te bepalen.
Het stelsel heet consistent als er oplossingen zijn. Zo niet, dan heet het stelsel inconsistent (of
strijdig).
Twee (wellicht flauwe) voorbeelden van inconsistente stelsels zijn:


2x1 + x2 = 2
2x1 4x2 = 5
of
2x1 + x2 = 3
0x1 + 0x2 = 1

1.4

Introductie tot het oplossen van stelsels

We concentreren ons nu op drie vergelijkingen met drie onbekenden.


Voorbeeld 1.9. Beschouw het volgende stelsel van 3 vergelijkingen met drie onbekenden.
Merk op dat iedere vergelijking

x1 x2 x3 = 6
een vlak in de ruimte represen3x1 4x2 + 2x3 = 17
teert. Er zijn drie vlakken en we

2x1 x2 + x3 = 9
zijn op zoek
naar de gemeenschappelijke punten (vectoren) van deze drie vlakken. Echter, hoe deze te vinden?
Zijn er stelsels die eenvoudig zijn op te lossen? Ja, en een type stelsels springt er uit, namelijk
stelsels die in driehoeksvorm staan.
Voorbeeld 1.10. Het volgende stelsel in driehoeksvorm is wel eenvoudig op de lossen.
Want uit de derde vergelijking
volgt x3 = 1. Substitueren we
dit in de tweede vergelijking, dan

volgt x2 = 1. Substitueren
we

1
x2 , x3 in de eerste vergelijking dan krijgen we x1 = 1. Dus x = 1 is de unieke oplossing van
1
dit stelsel. Deze oplosmethode heet wel terug substitutie.

x1

2x2
2x2

+ 3x3
+ 4x3
2x3

= 6
= 6
= 2

10

College 1, Introductie

De algemene strategie voor het oplossen van een stelsel van drie vergelijkingen met drie onbekenden is nu simpel te bevatten. We transformeren het oude stelsel in een nieuw stelsel van drie
vergelijkingen met drie onbekenden in driehoeksvorm. Dit doen we door de zogeheten elementaire
rijbewerkingen op zo een stelsel los te laten. We bekijken dit eerst voor Voorbeeld 1.9 en dan
zullen we definities etc. geven. Deze rijbewerkingen kunnen we loslaten `of op een stelsel `of op de
aangevulde matrix.

Voorbeeld 1.11. We transformeren het stelsel uit voorbeeld 1.9 naar driehoeksvorm.

Stelsel:

x1
3x1

2x1

x2
4x2
x2

x3
+ 2x3
+ x3

= 6
= 17
= 9

Trek drie maal de eerste


vergelijking af van de tweede
vergelijking:

x1 x2 x3 =
x2 x3 =

2x1 x2 + x3 =

Trek drie maal de eerste rij af


van de tweede rij:
6
1
9

Trek twee maal de eerste


vergelijking af van de derde
vergelijking:

6
x1 x2 x3 =
x2 x3 = 1

x2 x3 = 3
Tel tweede vergelijking

x1 x2
x2

op bij de derde:
x3
x3
2x3

=
=
=

Aangevulde matrix:

1 1 1 6
3 4
2 17
2 1
1
9

6
1
4

1 1 1
6
0 1 1 1
2 1
1
9
Trek twee maal de eerste rij af
van de derde rij:

1 1 1
6
0 1 1 1
0
1 1 3
Tel tweede rij op bij de derde:

1 1 1
6
0 1 1 1
0
0 2 4

Het stelsel is op driehoeksvorm gebracht, en het zal een ieder duidelijk zijn dat een oplossing van
het eerste stelsel ook een oplossing is van het tweede stelsel. Maar omdat alle stappen
omkeerbaar zijn geldt ook
omgekeerde. De twee stelsels heten equivalent en via terug
het
3
substitutie zien we dat x = 1 de unieke oplossing is.
2

We merken tenslotte op dat de volgende drie bewerkingen zijn gebruikte. Bij het toepassen van
deze bewerkingen op een stelsel gaan geen oplossingen verloren, en komen er ook geen nieuwe
oplossingen te voorschijn.

1.4. Introductie tot het oplossen van stelsels

11

Definitie: De volgende operaties heten de elementaire rijbewerkingen.


1. (Verwisseling) Het verwisselen van twee rijen,
2. (Schaling) Een rij met constante c 6= 0 vermenigvuldigen,
3. (Substitutie) Een veelvoud van een rij bij een andere rij optellen.
Als stelsel [ A|b ] tot een stelsel [ A |b ] wordt omgebouwd via elementaire rijbewerkingen, dan
zeggen we dat stelsel [ A|b ] naar stelsel [ A |b ] wordt geveegd.

College 2, Stelsels lineaire


vergelijkingen I
2.1

Het vegen van een lineair stelsels

We herinneren ons van het vorige college dat een lineair stelsel, zeg m vergelijkingen met n onbekenden, geschreven wordt als aangevulde matrix [A|b]. Hierbij staat A voor de coefficientenmatrix,
b Rm staat voor de vector waarin de constante termen staan

1 1 1
1 6
x1 x2 x3 + x4 = 6
2 1 17 .
3x1 4x2 + 2x3 x4 = 17 noteren we als 3 4
Voorbeeld:

2x1 x2 + x3
= 9
2 1
1
0 9
Definitie: Twee stelsels [ A|b ] en [ A |b ] heten equivalent als deze stelsels dezelfde oplossingsverzameling hebben.

Herinner het veegproces bij een stelsel. We introduceren nu ook vegen van matrices.

Definitie: De volgende operaties op een stelsel of op een matrix heten de elementaire


rijbewerkingen.
1. (Verwisseling) Het verwisselen van twee rijen,
2. (Schaling) Een rij met constante c 6= 0 vermenigvuldigen,
3. (Substitutie) Een veelvoud van een rij bij een andere rij optellen.
Als stelsel [ A|b ] (respectievelijk matrix A) tot een stelsel [ A |b ] (respectievelijk: tot een
matrix A ) wordt omgebouwd via elementaire rijbewerkingen, dan zeggen we dat stelsel [ A|b ]
naar stelsel [ A |b ] (resp. matrix A naar matrix A ) wordt geveegd. De stelsel [ A|b ] en
[ A |b ] (resp. de matrices A en A ) heten dan rijequivalent en we noteren dit met [ A|b ]
[ A |b ] (resp. A A ).

13

14

College 2, Stelsels lineaire vergelijkingen I

Afspraak: als we vegen dan zetten we bij iedere stap de veegstappen.


Voorbeeld 2.1.

1 2 1
2 2 0
0 1 1

1 0 1
0 1
1
0 0 4

4
2
0 +
0

4
0
8
1/4

1 4
1 2
2 8 0 1
1 0

0 6

1 0 1
4
1
0 +
0 1
0 0
1 2
1
1 2
0 6
0 1

+
4

0 2
8

1 0

0 1
1
0 0

1
1
2

6
+

0
2
0
2
1 2

STELLING 2.2. Als het stelsel [A|b] naar het stelsel [ A |b ] kan worden geveegd dan kan
het stelsel [ A |b ] naar het stelsel [A|b] worden teruggeveegd.

Bewijs: Om dit in te zien is het voldoende in te zien dat de elementaire rijbewerkingen omkeerbaar
zijn. Voor verwisseling en scaling is dit duidelijk. Voor substitutie wellicht iets minder.

3
1 1 1 2
1 1 1 2
3 3
2 16 + 0
0
5 10
2 1
1 9
2 1
1 9
Omgekeerd:

1 1
0
0
2 1

1 2
3
1
5 10 + 3
1 9
2

1 1 2
3
2 16
1
1 9

Inderdaad, als [ A |b ] uit [A|b] is ontstaan door c ide rij op te tellen bij de j de rij, dan kan [A|b]
uit [ A |b ] verkregen worden door in [ A |b ] c ide rij op te tellen bij de j de rij. Tenslotte, als er
meerdere veegstappen nodig waren kunnen we teruglopen door alle veegstappen om te keren.

1 0 0
2
2 uit Voorbeeld 2.1 kan worden teruggeveegd, stap voor
Inderdaad, de matrix 0 1 0
0 0 1 2

1 2 1 4
stap, naar de oorspronkelijke matrix 2 2 0 0 , op de volgende manier:
0 1 1 0

+
+
1 0 0
2

1 0 1
4
1 0 1 4

0 1 0
2 +
1
0
1 0 2 6
0 1
0 1
0 0 1 2
1 1
0 0
1 2
4
0 0 4 8
+

1 2 1 4
1 2 1 4
2
1 2 1 4
0 1 1 0 0 6 2 8 +
2 2 0 0 .
0 6 2 8

0 1 1 0
0 1 1 0

STELLING 2.3. Beschouw het stelsel [A|b]. Als deze met behulp van elementaire rijbewerkingen tot een stelsel [A |b ] geveegd wordt dan hebben deze twee stelsels dezelfde oplossing.

2.2. Echelonvormen van matrices, pivotposities

15

Bewijs: Het is eenvoudig na te gaan dat na iedere veegstap, verwisseling, scaling of vervanging,
een oplossing van het oorspronkelijke stelsel ook een oplossing is van het geveegde stelsel. Omdat
veegstappen omkeerbaar zijn, geldt ook het omgekeerde. Als dit zo is na een veegstap dan geldt
hetzelfde na k veegstappen.
Bovenstaande stelling zegt dat stelsels waarvan de aangevulde matrices rijequivalent zijn, ook
equivalent zijn.
Om een stelsel op te lossen willen we dit stelsel vegen naar een simpelstelsel, wat makkelijk is
op te lossen. Alleen, wat is een simpel stelsel?

2.2

Echelonvormen van matrices, pivotposities

De definitie van een matrix in echelonvorm is een generalisatie van de driehoeksvorm bij een 3 3
matrix. Het is makkelijker te zien
dan te zeggenwat echelonvorm is.
1 2 2
Duidelijk is dat de matrix D = 0 3 1 een matrix in driehoeksvorm is. De volgende
0 0 5
matrices zijn matrices in echelonvorm.

1 2 2 5
1 3
5 4 1
0 1 2 0
0 2 1 1
0 0 1 0

, A3 = 0 0 0 1
A1 =
0 0 0 5 , A2 = 0 0
0 1
2
0 0 0 0
0 0 0 0
0 0
0 0
0
In de matrices A1 , A2 en A3 is ook een soort driehoek te zien. Om de juiste definitie te presenteren
hebben we het volgende begrip nodig.

Definitie: De pivot (as of spil) van een rij is het eerste element in die rij ongelijk aan 0.

Definitie: Een matrix A heet een matrix in echelonvorm als:


1. Eventuele nulrijen staan onder de niet-nulrijen.
2. De pivot van een rij staat strikt rechts van de pivot van een hogere rij.

Met deze definitie is het inderdaad duidelijk dat A1 , A2 , A3 matrices in echelonvorm zijn. Als we
pivotS aangeven met en een willekeurige element (dus nul of niet nul) met , dan zien we in de
structuur van deze matrices inderdaad een driehoeksstuctuur verschijnen.



0 0
0
0 0

A1 =
0 0 0 , A2 = 0 0 0 , A3 = 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0 0
Merk op dat bij een matrix in echelonvorm onder de pivots nullen staan. (Waarom eigenlijk?)

16

College 2, Stelsels lineaire vergelijkingen I

Definitie: Een matrix A heet een matrix in gereduceerde echelonvorm als:


1. A een matrix in echelonvorm in,
2. Alle pivots gelijk zijn aan 1,
3. Ook boven de pivots nullen staan.

1 2 1 4
We merken op dat in Voorbeeld 2.1 de matrix 2 2 0 0 is geveegd naar de matrix in gere0 1 1 0

1 0 0
2
2 . Bij dit veegproces is al eerder een matrix in echelonvorm
duceerde echelonvorm 0 1 0
0 0 1 2
bereikt. Dit alles is geen toeval, zoals de volgende stelling laat zien.

STELLING 2.4. Iedere matrix A is rijequivalent met (te vegen naar) een matrix C in
echelonvorm. Echter, die echelonvorm C is niet uniek. Bovendien geldt dat A rijequivalent is
met een matrix D in gereduceerde echelonvorm. De gereduceerde echelonvorm D van A is wel
uniek.

We zullen deze stelling niet bewijzen, maar aan de hand van een voorbeeld demonstreren. In dit
voorbeeld is ook de procedure te vinden hoe A naar een matrix in echelonvorm te vegen. Bestudeer
deze procedure grondig. Bekijk ook de conclusies die uit de gereduceerde echelonvorm te trekken
zijn. De stelling heeft het volgende interessante gevolg.

GEVOLG 2.5. Laat A en B twee m n matrices zijn. De matrices A en B zijn rijequivalent


als en slechts als A en B dezelfde gereduceerde echelon vorm hebben.

Vegen naar echelonvorm.


Voorbeeld 2.6. Gebruik elementaire rijbewerkingen om de volgende matrix A naar een echelon
vorm te vegen.

0 0
3 6
6
4 5
0 3 7
8 5
8
9

A=
0 3 9 12 9
6
15
0 1 2
2 1 1 14
De procedure.
1. Bepaal de eerste niet 0 kolom. In dit geval de tweede kolom.
2. Zorg ervoor dat het eerste kental van deze kolom ongelijk 0 wordt, en wel door rijverwisseling. In dit geval verwisselen we rij 1 en 4.

2.2. Echelonvormen van matrices, pivotposities

3. Maak nu

0 1
0 3

0 3
0 0

17

door Vervanging alle kentallen in kolom twee onder de pivot gelijk aan nul.

2
2 1 1 14
3 3
0 1 2
2 1 1 14

7
8 5
8
9

|
0
0
1
2 2 11
51
+

0 0 3
9 12 9
6
15
+
6 6
9
57
3 6
6
4 5
0 0
3 6
6
4 5

Met de eerste rij mag niet meer geveegd worden ( anders worden de nullen onder de pivot van de
eerste rij ongelijk aan nul)! We gaan nu de pivot van de tweede rij zoeken en daaronder alles nul
maken.
4. Bepaal de eerste niet 0 kolom in de laatste matrix zonder de eerste rij. In dit geval de derde
kolom.
5. Er is nu geen rijverwisseling nodig om het tweede kental van deze kolom ongelijk nul te
maken.
6. Maak

0
0

0
0

nu door Vervanging alle kentallen in kolom drie

1 2
2 1 1 14

0 1
2 2 11
51
3 3

0 3
6 6
9
57
+ |
0
3 6
6
4 5
+

onder de pivot gelijk aan nul.


0
0
0
0

1
0
0
0

2
1
0
0

2 1 1 14
2 2
11
51

0
0 24 96
0
0
37 148

Vanaf nu geldt dat we niet meer met rij 1 en 2 kunnen vegen, dat zou de nullen onder de pivots
verpesten.
7. Het lijkt niet onverstandig eerst de laatste twee rijen te

0 1 2 2 1 1 14
0 0 1 2 2

11
51

0 0

0 0
0 24 96 1/24
0 0
0 0
0
37 148
1/37

schalen.
0
0
0
0

1
0
0
0

2
1
0
0

2 1 1 14
2 2 11
51

0
0
1
4
0
0
1
4

8. Bepaal de eerste niet 0 kolom in de laatste matrix zonder de eerste twee rijen. In dit geval
de zesde kolom.
9. Maak nu

0
0

0
0

door Vervanging alle kentallen in kolom zes onder de

1 2 2 1 1 14
0 1 2
0 0 1
0 1 2 2 11
51

0 0
0
0 0
0
1
4 1
0
0
0 0
0
1
4
+
0 0
0

pivot gelijk aan nul.

2 1 1 14
2 2 11
51

0
0
1
4
0
0
0
0

Aangezien de laatste rij alleen uit nullen bestaat is een echelonvorm van A hiermee gevonden, maar
de gereduceerde echelonvorm is nog niet gevonden.

Vegen naar gereduceerde echelonvorm.


Voorbeeld 2.7. Er zijn twee methodes om naar gereduceerde echelonvorm te vegen.
Methode 1.
Stap 1. Veeg eerst de matrix naar echelon vorm. Bij de matrix A uit Voorbeeld 2.6 is dit gebeurd.

0 0
3 6
6
4 5
0 1 2 2 1 1 14
0 3 7

8 5
8
9
51
0 0 1 2 2 11

A=
0 3 9 12 9

6
15
0 0
0 0
0
1
4
0 1 2
2 1 1 14
0 0
0 0
0
0
0
Stap 2.

18

College 2, Stelsels lineaire vergelijkingen I

10. Maak m.b.v. scaling alle pivots gelijk aan 1.

0
0

0
0

1 2
0 1
0
0
0
0

2 1 1 14
0 1
0 0
2 2 11
51

0 0
0
0
1
4
0
0
0
0
0 0

2
2 1 1 14
1 2
2 11 51

0
0
0
1
4
0
0
0
0
0

11. Ga nu van rechts naar links ook boven de pivots nul maken via vervanging.

0
0

0
0

1 2
2 1 1
0
1 2
2 11
0
0
0
0
1
0
0
0
0
0

0 1 2
2 1
0 0
1
2
2

0 0
0
0
0
0 0
0
0
0

14
+

51
+
|

4
11 1
0
+

0 10

0
0
0 7
2

0
1
4
0
0
0

0
0
0
0

1 2
0
1
0
0
0
0

1
0
0
0

0 2
1 2
0
0
0
0

2 1 0 10
2
2 0 7

0
0 1
4
0
0 0
0

3 0 24
2 0 7

0 1
4
0 0
0

12. De gerduceerde echelonvorm van A is gevonden.


Er wordt wel gezegd dat Methode 1 behelst: veeg A van links naar rechts naar echelonvorm
en van rechts naar links naar gereduceerde echelonvorm.
Methode 2.
(Methode 2 heeft mijn voorkeur.)
Veeg de matrix rechtstreeks naar gereduceerde echelonvorm, dus zonder eerst naar echelonvorm te
vegen. Dit wordt bereikt door pivots meteen naar 1 te schalen en bij vervanging niet alleen onder
de pivots nullen te maken, maar ook er boven.
Volgen we deze procedure bij matrix A dan krijgen we (na eerst rij 1 en rij 4 verwisseld te hebben):

0 1 2
2 1 1 14
3 3
0 1 2
2 1 1 14
0 3 7
0 0 1
8 5
8
9
+
|
2 2 11
51

0 3 9 12 9

6
15
+
0 0 3
6 6
9
57
0 0
3 6
6
4 5
0 0
3 6
6
4 5
Vervolgens: schalen we en vegen de we met de volgende pivot de

0 1 2
2 1 1 14

0
0 0
2 3 3 0
1
2
2
11
51

0 0 3
6 6
9
57
+
| 0
0 0
3 6
6
4 5
+
0

kolom nul.
1
0
0
0

0
1
0
0

2
2
0
0

3 23 116
2 11 51

0 24 96
0
37
148

Vervolgens: scailen we en vegen we met de volgende pivot de kolom nul.

0
0

0
0

1
0
0
0

0 2
1 2
0
0
0
0

3 23 116
+

2 11 51
|
+

0
1
4
23 11 37
0
37
148
+

0
0

0
0

1
0
0
0

0 2 3
1 2 2
0
0 0
0
0 0

0 24
0 7

1
4
0
0

De gereduceerde echelonvorm is gevonden.


Het veegproces is een proces dat steeds weer terug komt. Dus leer je zelf snel en effectief vegen.
We hebben al gezegd dat een matrix A naar meerdere echelonvormen, zeg C1 , C2 , kan worden
geveegd. Toch zullen die echelonvormen iets gemeenschappelijk hebben. Zonder bewijs delen we
mede dat de echelonvormen C1 , C2 hun pivots op de zelfde positie in de matrix hebben.

2.3. Het oplossen van stelsels

19

Definitie: Laat A een matrix zijn. De pivotposities van A zijn de posities (in de matrix
A) waar in echelonvorm de pivots staan.
De kolommen van A waar de pivotposities in staan heten de pivot kolommen van A.

In Voorbeeld
2.6 hebben we de matrix Anaar

echelonvorm geveegd.

0 1 2 2 1 1 14
0 0
3 6
6
4 5
0 3 7

8 5
8
9
51
0 0 1 2 2 11
= C.
A=
0 3 9 12 9

6
15
0 0
0 0
0
1
4
0 1 2
2 1 1 14
0 0
0 0
0
0
0
Dit impliceert dat de volgende posities de pivot posities van A zijn. (Deze worden weer aangegeven
met een of met een omcirkeld kental.)

0
3 6
6
4 5
0 3

8 5
8
9

0 3 9 12 9

15
0 1 2
2 1 1 14
en de kolommen 2, 3 en 6 zijn de pivotkolommen van A. U ziet dus dat de pivotposities van A
absoluut niet overeenkomen met de pivots van de rijen van A (maar wel met die van C).

2.3

Het oplossen van stelsels

Echelonvormen zijn handig vanwege de volgende stelling.

STELLING 2.8. Beschouw een stelsel met onbekenden x1 , . . . , xn en aangevulde matrix


[A | b]. Als de coefficientenmatrix A in echelonvorm staat dan geldt: het stelsel is inconsistent als en slechts als de vergelijking
0x1 + 0x2 + + 0xn = b 6= 0
aanwezig is.

Bewijs: Iedereen ziet in dat als de vergelijking 0x1 + 0x2 + + 0xn = b 6= 0 aanwezig is, dat dan
het stelsel inconsistent is. Dat het omgekeerde ook waar is, is het makkelijkste in te zien aan de
hand van een voorbeeld.
Voorbeeld 2.9. Beschouw het volgende stelsel in de onbekenden x1 , . . . , x6 met de aangevulde
matrix.

1 1 2 1
1 1 5
x1 x2 + 2x3 x4 + x5 x6 = 5
x3 + x4 x5 x6 = 2 met 0
0 1
1 1 1 2

x4 + x5 + x6 = 4
0
0 0
1
1
1 4

Het zal iedereen duidelijk zijn dat de coefficientenmatrix in echelonvorm staat en dat de vergelijking
0x1 + 0x2 + + 0x6 = b 6= 0 niet aanwezig is. Hoe kunnen we een oplossing verzinnen? Weer via
terug substitutie! In de laatste vergelijking kunnen we x5 , x6 vrij kiezen en dan x4 oplossen. Dit

20

College 2, Stelsels lineaire vergelijkingen I

stoppen we in vergelijking 2, en lossen x3 op. Dit stoppen we in vergelijking 1, kiezen x2 vrij en


lossen x1 op! Bijvoorbeeld: kies x6 , x5 beide gelijk aan 1. Dit geeft x4 = 2 en
daarna
x3= 2. Kies
3
x1
0
x2

2
x3

x2 = 0 en dat geeft x1 = 3. Een oplossing is gevonden, en wel: x =


= 2 . Er zijn
x4

x5
1
1
x6
andere oplossingen te vinden door voor x6 , x5 en x2 andere vrije waarden te kiezen.
Kortom, bij een stelsel met de coefficientenmatrix A in echelonvorm zien we in een oog opslag of
het stelsel consistent is, of niet.
Daarom is het een gebruikelijke aanpak om een gegeven stelsel [A | b] eerst naar een equivalent
stelsel [A | b ] te vegen met de coefficientenmatrix A in echelonvorm. Via stelling 2.8 zien we in
een oog opslag of het geveegde stelsel (en daarmee het oorspronkelijke stelsel) consistent is. Als
het consistent is dan pas vegen we door naar een stelsel in gereduceerde echelonvorm.
In de aanpak die wij in dit dictaat voorstaan zal meteen naar een equivalent stelsel geveegd worden
met de coefficientenmatrix A in gereduceerde echelonvorm.
Methode tot oplossen stelsel
1. Schrijf de aangevulde matrix [ A | b ] van het stelsel op.
2. Veeg het stelsel naar een equivalent stelsel met de coefficientenmatrix in (gereduceerde) echelonvorm.
3. Als in het nieuwe stelsel de vergelijking
0x1 + 0x2 + + 0xn = b 6= 0
verschijnt, dan is het oorspronkelijke stelsel inconsistent, en zijn we klaar.
Zo niet, dan
4. Zo nodig: veeg stelsel door naar een equivalent stelsel met de coefficientenmatrix in gereduceerde echelonvorm.
5. Variabelen xi die in de pivotkolommen staan heten gebonden variabelen.
Variabelen xj die niet in de pivotkolommen staan heten vrije variabelen.
6. Schrijf het nieuwe stelsel op.
7. Los de gebonden variabelen op in de vrije variabelen.
8. Geef een parametrisering van de oplossing (de zogeheten vector parameter vorm van het
antwoord).
Wat precies met de twee laatste stappen bedoeld wordt is te zien in de volgende drie voorbeelden.
Bestudeer deze goed.
Voorbeeld 2.10. We bepalen de oplossing van het stelsel uit Voorbeeld 2.9. We vegen de aangevulde matrix eerst naar gereduceerde echelonvorm.

1 1 2 1
1 1 5
x1 x2 + 2x3 x4 + x5 x6 = 5
x3 + x4 x5 x6 = 2 met 0
0 1
1 1 1 2

x4 + x5 + x6 = 4
0
0 0
1
1
1 4

1 1 2 1
1 1 5
+
+
0

0 1
1 1 1 2

|
0
0 0
1
1
1 4
1 1

2.3. Het oplossen van stelsels

21

0
2
0
9
+
0 2 2 2 2
1
1
1
4

0
6
4 13
x1 x2 + 6x5 + 4x6 = 13
0 2 2 2 geeft
x3 2x5 2x6 = 2

1
1
1
4
x4 + x5 + x6 = 4

1 1 2
0
0 1
0
0 0

1
0
0

1 0
0 1
0 0

Kennelijk zijn de x2 , x5 , x6 de vrije variabelen en x1 , x3 , x4 de gebonden variabelen. Het antwoord


wordt:




4x6
x1
13 + x2 6x5 4x6
13
x2
6x5

x2


0
x2
0


0 x2

x3

2x
2
+
2x
+
2x
2
0
2x
5
6
5
6

x=
=
=
+
+
+

x
x
4

x
4
0
x
5
6
5
6



x5
0
x5 0 0
x5
x6
x6
0
0
0
x6

13
0
2
4
0
0

+ x2

1
1
0
0
0
0

+ x5

6
0
2
1
1
0

+ x6

4
0
2
1
0
1

De oplossing is, in de taal van hoofdstuk 1, kennelijk een object in R6 met een steunvector en drie
richtingsvectoren. Kennelijk heeft het stelsel oneindig veel oplossingen.
Voorbeeld 2.11. Beschouw het volgende stelsel met zijn aangevulde matrix.

x1 + 2x2 + x3 4x4 + 2x5 = 10


1 2 1 4 2 10

2 4 3
2x1 + 4x2 + 3x3 + 5x4 + 4x5 = 5
5 4 5

en

x
+
2x
+
2x
+
5x
+
6x
=
9
1
2
2
5 6
9

1
2
3
4
5

3x1 + 6x2 + 4x3 + x4 + 6x5 = 5


3 6 4
1 6
5

We vegen de aangevulde
matrix:

1 2 1 4 2 10
2 1 3
2 4 3

5 4 5
|
|

1 2 2

5 6
9
+
|
3 6 4
1 6
5
+

1 2 1 4 2
10
+
0 0 1 13 0 25 1 1

0 0 1

9 4 1 +
|
0 0 1 13 0 25
+

1 2 0 17 2
35
1 2 0 17
2
35
+
+
0 0 1

13 0 25
13
0 25
|
0 0 1

0 0 0 4 4
24 14 0 0 0
1 1 6 13 17
0 0 0
0 0
0
0 0 0
0
0
0
Dit levert de volgende aangevulde matrix en het volgende stelsel op.

1 2 0 0 15 67
x1 + 2x2 15x5 = 67

0 0 1 0
13
53
x3 + 13x5 = 53

en
0 0 0 1 1 6
x4 x5 = 6

0 0 0 0
0
0
0=0

22

College 2, Stelsels lineaire vergelijkingen I

Kennelijk is het stelsel consistent, x1 , x3 , x4 zijn de gebonden variabelen en x2 , x5 zijn de vrije


variabelen. Kennelijk: x1 = 67 15x5 2x2 , x3 = 53 13x5 en x4 = 6 + x5 .
Voor de oplossing van het stelsel wordt dit:


x1
67 + 15x5 2x2
67
x2

x
0
2

x
53

13x
53
x=
=
=
5
3

x4
6 + x5 6
x5
x5
0

en dus:

x=

67
0
53
6
0

+ x2

2
1
0
0
0

+ x5

2x2
x2
0
0
0

15
0
13
1
1

15x5
0
13x5
x5
x5

= s + x2 r1 + x5 r2

d.w.z. de oplossing van het stelsel een object in R5 met steunvector en twee richtingsvectoren.
Kennelijk heeft dit stelsel oneindig veel oplossingen.

Voorbeeld 2.12. Beschouw het volgende stelsel met zijn aangevulde matrix.

x1 + x2 + x3 4x4 = 1
2x1 + 4x2 + 3x3 5x4 = 4
x1 + 2x2 + 2x3 + 5x4 = 10

3x1 + 6x2 5x3 2x4 = 2

1
2
en
1
3

1
4
2
6

1 4 1
3 5
4

2
5 10
5 2
2

We vegen de aangevulde

matrix:
2 1 3
1 1
1 4 1
2 4

3 5
4
+
|
|

1 2
2
5 10
+
|
3 6 5 2
2
+

+
1 1
1 4 1

0 2

1
3
6
+
|

0 1
1
9 11 2 1 3
0 3 8 10
5
+

1 0
0 13 12
1 0 0 13 12
0 0 1 15 16 0 1 1

9
11
+

0 1

1
9
11
0 0 1
15
16
1 11
0 0 11 17 28
0 0 11
17
28
+

1 0 0 13 12
1 0 0 0 1
0 1 0
0 1 0 0 1
6
5

0 0 1
15
16 0 0 1 0 1
0 0 0 148 148
0 0 0 1 1

1
1

is de unieke oplossing.
We zien, het stelsel is consistent en x =
1
1

2.3. Het oplossen van stelsels

23

STELLING 2.13. Beschouw het stelsel lineaire vergelijkingen [ A | b ]. Dan geldt:


1. of het stelsel is inconsistent,
2. of het stelsel is consistent.
Als het stelsel consistent is dan:
(a) of het stelsel heeft een unieke oplossing,
(b) of het stelsel heeft oneindig veel oplossingen.

Bewijs: De situaties (a) en (b) komen in het consistente geval overeen met het geval: wel of geen
vrije variabelen.

College 3, Stelsels lineaire


vergelijkingen II
3.1

Stelsels met
e
en of meerdere parameters

Als men inderdaad een stel stelsel heeft opgelost, dan is men hopelijk tot de conclusie gekomen
dat dit wel te doen. Er staat een vaste procedure voor, en als men die procedure volgt dan lukt
het wel.
We gaan een stap in moeilijkheidsgraad omhoog door nu stelsels met een parameter erin te bekijken.
We zullen volstaan met het bestuderen van twee voorbeelden van zulke stelsels.
Voorbeeld 3.1. Beschouw het volgende stelsel vergelijkingen in de onbekenden x1 , x2 en x3 met
parameter k R:

x3 =
1
x1 + x2 +
x1 + 2x2 +
kx3 =
2

2x1 + 4x2 + 2kx3 = 1 + k

Vraag.
(1) Schrijf de aangevulde matrix van dit stelsel op en veeg het stelsel naar een stelsel in echelonvorm.
(2) Voor welke k heeft dit stelsel oneindig veel oplossingen?
(3) Geef de oplossing van het stelsel als k = 5.
Antwoord.
(1)Vegen
van dit stelsel naar
echelonvorm geeft bijvoorbeeld:

1 1
1 1
1 1
1
1
0 1 k1 1
(Ga zelf maar na).
1 2 k 2
2 4 2k 1 + k
0 0
0
k5
(2) Aan de echelonvorm zien we dat het stelsel alleen consistent is als k = 5. En dan zijn er ook
oneindig veel oplossingen.
Dus antwoord
isk = 5.

1 1 1 1
1 0 3 0
(3) k = 5 levert stelsel 0 1 4 1 0 1 4 1
0 0 0 0
0 0 0 0

x1
3x3
0
3
En dus: x = x2 = 1 4x3 = 1 + x3 4 .
x3
x3
0
1
Voorbeeld 3.2. Gegeven zijn de volgende matrix en vector:


1 a
a
1
A = 3 a2 a en b = b
3 a2
3
0

(a, b R).

Vraag.
(1) Geef alle waarden van a en b waarvoor het stelsel [A|b] consistent is.
25

26

College 3, Stelsels lineaire vergelijkingen II

(2) Geef alle waarden van a en b waarvoor het stelsel [A|b] een unieke oplossing heeft.
(3) Geef alle waarden van a en b waarvoor het stelsel [A|b] oneindig veel oplossingen heeft.
Antwoord Veeg het stelsel naar een equivalent stelsel met coefficientenmatrix in echelonvorm.

1 a
a 1
3 3
1
a
a
1
3 a2 a b +
|
2a b + 3 1
0 a2 + 3a
2
3 a
3 0
+
0 a2 + 3a 3a + 3
3
+

1
a
a
1
2a 3 + b .
0 a2 + 3a
0
0 3+a
b
Pas op. Dit lijkt misschien echelonvorm voor alle a, echter dat is onjuist. Vul a = 0 maar eens in.
De probleem gevallen bekijken we apart!
We concluderen dat als a2 + 3a 6= 0 en a + 3 6= 0, d.w.z. a 6= 0, 3, het geveegde stelsel in
echelonvorm is en consistent is (ongeacht de waarde van b). (Bovendien is er dan geen vrije
variabele, dus dan is er een unieke oplossing.)
Bekijk nu het geval a2 + 3a = 0, dus a = 0 of a = 3. In deze gevallen moeten we nog doorvegen
naar de echelonvorm!
Het geval a = 0 levert de echelonvorm:

1 0 0
1 0 0
1
1
0 0 0 3+b 0 0 3
b
b
0 0 3
0 0 0 3+b
en deze is alleen consistent als b = 3. Dan zijn er oneindig veel oplossingen.
Invullen van a = 3 levert de echelonvorm

1 3 3
1
0
0 6 3 + b
b
0
0
0
en dit stelsel is alleen consistent als b = 0. Ook dan zijn er oneindig veel oplossingen. Kortom:
(1) Het stelsel is consistent als en slechts als a 6= 0, 3 (ongeacht b) of als (a = 0 en b = 3) of als
(a = 3 en b = 0).
(2) Het stelsel heeft een unieke oplossing als a 6= 0, 3 (ongeacht b).
(3) Het stelsel heeft oneindig veel oplossingen als (a = 0 en b = 3) of als (a = 3 en b = 0).
Opmerking. Maak niet de fout om bij een stelsel van het volgende type:


a 1 1 2
1 0 1 0
de volgende veegstap te maken.


a
1

1 1
0 1

2
0

1/a
+

Dit werkt alleen als a 6= 0, en het geval a = 0 moet men dan apart bekijken. Handiger is de
vergelijken te verwisselen en te vegen via:


1 0 1 0
a
a 1 1 2
+

3.2. Vectorvergelijking, matrixvergelijking Ax = b en homogene vergelijkingen

3.2

27

Vectorvergelijking, matrixvergelijking Ax = b en homogene vergelijkingen

We introduceren een korte schrijfwijze van een lineair stelsel.

Definitie: Als a1 , . . . , an vectoren in Rm zijn, dan noemen we de uitdrukking


c1 a1 + c2 a2 + + cn an
een lineaire combinatie van de vectoren a1 , . . . , an (met gewichten c1 , . . . , cn ).
Bovendien noteren we deze uitdrukking als het zogeheten matrix-vector product Ax:

x1

x1 a1 + x2 a2 + + xn an = [ a1 . . . an ] ... = Ax
xn

Tenslotte: een vergelijking van het type:


x1 a1 + x2 a2 + + xn an = b
heet een vectorvergelijking.

1
1

Voorbeeld 3.3. Laat A =


1
0

1
1

=
1
0

2
3
1

2 3
en x = 2 dan: Ax =
1
1
3
1
0

2
3
1
1

2 3
2 = 1 1 2

1
1
1
3
1
0
0

De vergelijking

1
1

x1
1 + x2
0

2
3
6

2
+ 3 3 = 14 .

1
1
2
1
0
2


2
3
6
3 14
2
+ x3

1 =
1
2
1
0
2

x1
1
is een voorbeeld van een vectorvergelijking en hierboven staat dat x = x2 = 2 een
x3
3
oplossing van deze vectorvergelijking is.
Rekenregels matrixvectorproduct
Als A een m n matrix en x, y Rn en c R, dan geldt:
1. A(x + y) = Ax + Ay,
2. A(cx) = c(Ax).

28

College 3, Stelsels lineaire vergelijkingen II

Bewijs: Rechtstreeks invullen.

STELLING 3.4. Laat A = [ a1 . . . an ] een m n matrix zijn met kolommen ai Rm . Als


b Rm , dan geldt:
De oplossingsverzameling van het lineaire stelsel met aangevulde matrix
[ a1 . . . an | b ]
is hetzelfde als de verzameling van alle x Rn die voldoen aan de vectorvergelijking:
x1 a1 + x2 a2 + + xn an = b
en dit is weer gelijk aan de oplossingsverzameling van de matrixvergelijking:
Ax = b.

Bewijs: Als we schrijven [ai ]j = ai,j en [b]j = bj (voor j = 1 . . . m) dan wordt het lineaire stelsel
met aangevulde matrix [ a1 . . . an | b ] het stelsel:

a1,1 x1

a2,1 x1
..

am,1 x1

+
+

a1,2 x2
a2,2 x2
..
.

+
+

...

+
+

a1,n xn
a2,n xn
..
.

am,2 x2

...

+ am,n xn

=
=

b1
b2
..
.

= bm

wat te herschrijven is als

x1

a1,1
a2,1
..
.
am,1

+ x2

a1,2
a2,2
..
.
am,2

a1,n
...
a2,n

.
.
.

+ .. + xn ..
.

.
...
am,n

b1
b2
..
.
bm

Dus inderdaad, dit wordt de vectorvergelijking x1 a1 + x2 a2 + + xn an = b wat herschreven kan


worden als Ax = b. De rest is duidelijk.
Opmerking: Vanaf nu zullen we spreken van een lineaire vergelijking Ax = b.
Een systeem lineaire vergelijkingen heet homogeen als het van de vorm is:
Ax = 0.
(Hier is A een mn matrix en 0 Rm .) Een homogene vergelijking is consistent, want x = 0 Rn
is een overduidelijke oplossing van dit stelsel, de zogeheten trivale oplossing. Eventuele andere
oplossingen worden niettriviale oplossingen genoemd.
Merk op: het homogene lineaire stelsel Ax = 0 heeft een niet triviale oplossing als en slechts als
er een vrije variabele is.
Tenslotte:

3.3. De unitaire ruimte Cn en complexe lineaire stelsels

29

STELLING 3.5. Stel dat Ax = b een consistent lineair stelsel is, zeg met particuliere
oplossing x0 . Als vh de oplossing is van het bijbehorende homogene stelsel Ax = 0, dan
geldt:
x = x0 + vh
is de algemene oplossing van het stelsel Ax = b.

Bewijs: In de eerste plaats: x = x0 + vh bestaat uit oplossingen van het stelsel Ax = b, want

Ax = A(x0 + vh ) = Ax0 + Avh = b + 0 = b.

Bovendien bestaat dit uit alle oplossingen van het stelsel Ax = b, want als x1 een oplossing is van
Ax = b, dan is x1 x0 een oplossing is van het bijbehorende homogene stelsel Ax = 0.
Inderdaad, A(x1 x0 ) = Ax1 Ax0 = b b = 0.
Als x1 x0 = vh1 , dan x = x0 + vh1 x0 + vh .

3.3

De unitaire ruimte Cn en complexe lineaire stelsels

Net als Rn uit alle reele n 1 matrices bestaat, zalCn bestaan


uit alle complexe n 1 matrices.

z1

C n heet de unitaire ruimte en we schrijven z = ... Cn .


zn

Ook op Cn definieren we een optelling en een scalaire vermenigvuldiging (een lineaire structuur)
via: als: z, w Cn en c C, zeg:

z1

z = ... en w =
zn

w1
z1 + w1
cz1

.
.. dan z + w =
..

en cz = ..
.
.
wn
zn + wn
czn

Met deze optelling en (complexe) scalaire vermenigvuldiging blijkt Cn een zogeheten (complexe)
vectorruimte te zijn. Daarmee bedoelen we te zeggen dat Cn aan precies dezelfde rekenregels 1-8
als die van Rn voldoet, zie Stelling 1.5, met dat verschil dat nu de scalairen complex mogen zijn.

30

College 3, Stelsels lineaire vergelijkingen II

STELLING 3.6. De optelling + voegt aan ieder tweetal z, w Cn en aan iedere scalair
c C een vector z + w Cn en cz Cn toe, die voldoet aan de volgende 8 rekenregels.
1. z + w = w + z.

( commutatieve eigenschap)

2. (z + w) + v = z + (w + v).

( associatieve eigenschap)

3. Er is een nulvector 0 met de eigenschap z + 0 = 0 + z = z.


4. Voor elke z bestaat een tegengestelde z zo dat z + (z) = 0.
5. c(z + w) = cz + cw.

( distributieve eigenschap 1)

6. (c + d)z = cz + dz.

( distributieve eigenschap 2)

7. c(dz) = (cd)z.
8. 1z = z.

1 2i
i en
We kunnen weer spreken van linaire combinaties in Cn , bijvoorbeeld, als z =
5

1i
w = 1 + i dan is
0

1 2i
1i
6 3i
i + (2 i) 1 + i = 1 + 2i (ga na)
(1 + 2i)
5
0
5 + 10i
een lineaire combinatie van z en w met gewichten 1 + 2i en 2 i.
We merken nog op dat de standaard eenheidsvectoren e1 , e2 , . . . , en ook vectoren in Cn zijn
(zoals alle vectoren in Rn ), en dat iedere vector z Cn een lineaire combinatie is van de vectoren
e1 , e2 , . . . , en .

z1

Inderdaad, als z = ... Cn dan z = z1 e1 + + zn en .

zn
De basis vraag: is een gegeven vector b Cn een lineaire combinatie van gegeven vectoren
z1 , . . . , zk , leidt net als Rn , tot stelsels lineaire vergelijkingen. Het enige verschil is dat de kentallen
van de aangevulde matrix complexe getallen kunnen zijn en dat eventuele vrije variabelen complex
zullen zijn. Vegen met complexe getallen vereist aanzienlijke hogere rekenvaardigheden dan in het
reele geval, hoewel het doel (vegen naar gereduceerde echelonvorm) hetzelfde is.
Voorbeeld 3.7. Beschouw het volgende lineaire stelsel over C:

z1 + iz2 (1 i)z3 = 1
(1 i)z1 2z2 + 12iz3 = 0
Dit geeft de volgende aangevulde matrix, waarbij de eerste stap geen probleem is.




1
i 1 + i 1
1 + i
1
i
1 + i 1

1 i 2
12i
0
+
0 3 i
10i
1 + i
De volgende pivot is 3 i. Aangezien vegen met reele pivots toch wel wat makkeli jker is, vermenigvuldigen we de tweede vergelijking eerst met 3 + i, de geconjugeerde van 3 i. (Herinner:
zz = |z|2 R!)

3.3. De unitaire ruimte Cn en complexe lineaire stelsels

1
0

i
3 i

1 + i
10i

1
1 + i

1
0

31

i
1 + i
1
10 10 30i 2 4i

3+i
1/10



1 i 1 + i 1
+
1 0 4 + 2i 14/10 2/10i

0 1 1 3i 2/10 4/10i
i
0 1 1 3i 2/10 4/10i
Dus de oplossing wordt:

14/10 2/10i (4 + 2i)z3


14/10 2/10i
4 2i
z = 4/10 + 2/10i (1 3i)z3 = 4/10 + 2/10i + z3 1 + 3i
z3
0
1


Opmerking: Bij lineaire algebra deel 2 wordt de complexe lineaire algebra echt besproken.

College 4, Lineaire opspanning en


lineaire onafhankelijkheid
4.1

Lineaire opspanning en het opspannen van Rn

De lineaire algebra is een tak van de wiskunde dat zijn eigen taal spreekt. Alles is geformuleerd
in die taal, zowel de vragen als de antwoorden. We beginnen met de volgende terminologie.
We noemen een geordende verzameling van een eindig stel (niet noodzakelijk verschillende) vectoren v1 , v2 , . . . , vk uit Rn een stelsel vectoren. Als de volgorde van de vectoren van belang is,
wordt dit stelsel vectoren genoteerd als
(v1 , v2 , . . . , vk ),
Als de volgorde niet van belang is, kan het stelsel ook genoteerd worden met de verzameling notatie
{v1 , v2 , . . . , vk }.
We benadrukken nog eens dat in een stelsel vectoren eventueel twee of meer gelijke vectoren kunnen
voorkomen. We herhalen:
Als (v1 , v2 , . . . , vk ) een stelsel vectoren in Rn is en als c1 , c2 , . . . , ck scalairen in R zijn, dan wordt
de vector van de vorm
c1 v1 + c2 v2 + + ck vk

een lineaire combinatie van het stelsel genoemd. De getallen c1 , c2 , . . . , ck heten de gewichten van
de lineaire combinatie.
We weten inmiddels hoe we moeten nagaan of een gegeven vector b al dan niet een lineaire
combinatie van een gegeven stel vectoren is.

Definitie: Als (v1 , v2 , . . . , vk ) een stelsel vectoren in Rn is dan heet de verzameling U van
alle lineaire combinaties van dit stelsel het
lineaire omhulsel van (v1 . . . , vk )
(of ook de lineaire opspanning van (v1 , . . . , vk )) (of kortweg de opspannig van (v1 , . . . , vk )).
De verzameling U wordt genoteerd met:
U = Span(v1 , . . . , vk ) of U = Span{v1 , . . . , vk }.
We zeggen dat het stelsel (v1 , v2 , . . . , vk ) de verzameling U voortbrengt of opspant .

In Stelling 3.4 hebben we geleerd de volgende basisvraag te beantwoorden.


33

34

College 4, Lineaire opspanning en lineaire onafhankelijkheid

Voorbeeld 4.1. Basisvraag.

2
Is de vector v = 2 een lineaire combinatie van het stelsel vectoren
1

2
5
1

0 , 3 , 4 ?

1
0
1

Aan de hand van bovenstaande definitie zie we nu in dat deze vraag equivalent is met de vraag:

2
1
2
5

geldt: 2 Span 0 , 3 , 4 ?

1
1
1
0

en dus is de methode om de eerste vraag te beantwoorden, dezelfde als de methode voor de tweede
vraag.
Kennelijk moeten we kijken of er c1 , c2 en c3 bestaan zodat

1
2
5
2
c1 0 + c2 3 + c3 4 = 2 .
1
1
0
1
Volgens Stelling 3.4 is dit equivalent met de consistentie van het stelsel

1
2
5
2
0 3 4 2 .
1
1
0 1
Omdat


1
2
5
2
1
2
5
0 3 4 2 0 3 4
1
1
0 1
0
0
1

2
2
1

is dit stelsel consistent en dus: ja, v is een lineaire combinatie van deze vectoren.

1
2
5
2
Ga na dat geldt: 3 0 + 2 3 4 = 2 en dus:
1
1
0
1



2
1
2
5

2 Span 0 , 3 , 4 !

0
1
1
1

Via Stelling 3.4 en bovenstaand voorbeeld komen we tot de volgende uitbreiding van Stelling 3.4.

4.1. Lineaire opspanning en het opspannen van Rn

35

STELLING 4.2. Laat A = [ a1 . . . an ] een m n matrix zijn met kolommen ai Rm en zij


b Rm . Dan geldt dat de volgende uitspraken equivalent zijn:
1. b is een lineaire combinatie van de vectoren {a1 , . . . , an },
2. b Span{a1 , . . . , an },
3. de vectorvergelijking: x1 a1 + x2 a2 + + xn an = b is consistent,
4. het lineaire stelsel met aangevulde matrix [ a1 . . . an | b ] is consistent,
5. de matrixvergelijking Ax = b is consistent,
6. Span{a1 , . . . , an } = Span{a1 , . . . , an , b}.

Bewijs: Het zal duidelijk zijn dat de uitspraken 1. tot en met 5. equivalent zijn.
Daarom: 6. 1.. Stel dat Span{a1 , . . . , an } = Span{a1 , . . . , an , b}. Omdat b Span{a1 , . . . , an , b}
volgt b Span{a1 , . . . , an }. Dit is uitspraak 2. en dus volgt 1.
Omgekeerd, 1. 6.. Stel dat b = c1 a1 + + cn an .
Altijd zal gelden: Span{a1 , . . . , an } Span{a1 , . . . , an , b}, maar nu zal ook gelden Span{a1 , . . . , an , b}
Span{a1 , . . . , an }. Want als x Span{a1 , . . . , an , b}, zeg
x = x1 a1 + + xn an + xn+1 b
dan volgt: x = x1 a1 + +xn an +xn+1 (c1 a1 + +cn an ) = (x1 +c1 xn+1 )a1 + +(xn +cn xn+1 )an
en dus x Span{a1 , . . . , an }.
We concluderen: Span{a1 , . . . , an } = Span{a1 , . . . , an , b}.
Het is van belang een gevoel te ontwikkelen voor het begrip lineaire opspanning. Dit zal met
name in R2 en R3 moeten gebeuren, want bij de ruimte R4 etc. kunnen we ons meetkundig weinig
tot niets voorstellen.

1
2
Voorbeeld 4.3. Beschouw de twee vectoren v1 = 1 en v2 = 3 in R3 .
1
1
Vraag: Beschrijf Span{v1 , v2 }.

1
2

Antwoord: Omdat Span{v1 } = c1 1 + c2 3 : c1 , c2 R zien we ei

1
1

1
2
genlijk de parametervoorstelling c1 1 +c2 3 van een vlak door de oorsprong te voorschijn
1
1
komen. (Want v1 en v2 zijn geen scalaire veelvouden van elkaar.) Dat vlak is de opspanning van
die twee vectoren.


1
1
2
Voorbeeld 4.4. Beschouw de drie vectoren v1 = 1 , v2 = 3 en v3 = 6 in R3 .
1
1
3
Vraag: Beschrijf Span{v1 , v2 , v3
}.


1
2
1

Antwoord: Span{v1 , v2 , v3 } = c1 1 + c2 3 + c3 6 : c1 , c2 , c3 R herkennen

1
1
3

36

College 4, Lineaire opspanning en lineaire onafhankelijkheid

we in eerste instantie nog niet. We zien wel dat


voor iedere vaste

c3 er de parametervoorstelling
2
1
v3
van het vlak c1 1 + c2 3 staat, maar
1
1

1
dan verschoven over de steunvector c3 6 .
v2
3
c3 v3

1
v1
Merk op dat de lijn c3 6 en het vlak
3

1
2
c1 1 + c2 3 alleen de oorsprong gemeen
1
1
hebben (ga na!).
Het zal duidelijk zijn dat als we nu c3 ook laten varieren de hele ruimte R3 wordt volgeschoven,
dat wil zeggen: Span{v1 , v2 , v3 } = R3 . (Of te wel: de vectoren v1 , v2 , v3 spannen R3 op.)

1
2
3
Voorbeeld 4.5. Beschouw de drie vectoren v1 = 1 , v2 = 3 en v3 = 2 in R3 .
1
1
2
Vraag: Beschrijf Span{v1 , v2 , v3
}.

1
2
3

Antwoord: Span{v1 , v2 , v3 } = c1 1 + c2 3 + c3 2 : c1 , c2 , c3 R herkennen

1
1
2
we ook hier nog niet.
voorstelling
van het
Weer
geldt dat iedere voor vaste c3 er de parameter

1
2
3
vlak c1 1 + c2 3 staat, maar verschoven over de steunvector c3 2 . Maar hier geldt
1
1
2

3
1
2
dat: v3 = v1 + v2 en dus ligt de lijn c3 2 binnen het vlak c1 1 + c2 3 , d.w.z de
2
1
1
verschuiving over de vector c3 v3 is een verschuiving van het vlak binnen het vlak! Kortom:

Span{v1 , v2 , v3 } = Span{v1 , v2 }
en dus geldt hier dat Span{v1 , v2 , v3 } een vlak is. (En hier spannen de vectoren v1 , v2 , v3 spannen
R3 dus niet op.)
We hebben ingezien dat het mogelijk is voor een stel vectoren in R3 de hele ruimte R3 als lineaire
opspanning te hebben.
We introduceren de volgende terminologie.

Definitie: Als (v1 , v2 , . . . , vk ) een stelsel vectoren in Rn zijn. We zeggen dat dit stelsel
vectoren de hele ruimte Rn opspant als Span{v1 , . . . , vk } = Rn

Hoe kunnen we in het algemeen nagaan of de vectoren {a1 , . . . , ak } uit Rm de ruimte Rm opspannen? Het meetkundig inzicht uit R3 helpt niet in Rn .

4.1. Lineaire opspanning en het opspannen van Rn

37

1
1
1
3
2
1
1
4

Voorbeeld 4.6. Ga na of de vectoren a1 =


1 , a2 = 2 , a3 = 1 en a4 = 4 heel
1
1
2
4
4
R opspannen.
Antwoord Zal het ons lukken om een b R4 te vinden met b
/ Span{a1 , a2 , a3 , a4 }? We proberen
het. Dus gezocht, b R4 zo dat het stelsel [ a1 a2 a3 a4 |b ] inconsistent is. Omdat geldt (ga na):

1 1 1 3 b1
1
1
1
3 b1
2 1 1 4 b2 0 1 1

2 b2 2b1

1 2 1 4 b3 0

0 1 1 b3 + b2 3b1
1 1 2 4 b4
0
0
0
0 b4 + b3 + b2 4b1
zien we dat het stelsel
is als en slechts als b4 + b3 + b2 4b1 6= 0. Dit is het geval als
inconsistent

1
1

bijvoorbeeld: b =
/ Span{a1 , a2 , a3 , a4 } en we concluderen dat
1 . Dus voor deze b geldt: b
1
de vier vectoren a1 , a2 , a3 , a4 de ruimte R4 niet opspannen.
De oorzaak van het feit dat de vectoren a1 , a2 , a3 , a4 de ruimte R4 niet opspannen ligt in het feit
dat na vegen van de matrix [ a1 a2 a3 a4 ] een nulrij ontstaat (waardoor we een inconsistent stelsel
kunnen creeren). We concluderen:

STELLING 4.7. Laat A = [ a1 . . . an ] een m n matrix zijn met kolommen ai Rm .


Equivalent zijn:
1. de vectoren a1 , . . . , an spannen Rm op,
2. Span{a1 , . . . , an } = Rm ,
3. voor iedere b Rm is het lineaire stelsel [ a1 . . . an | b ] consistent,
4. voor iedere b Rm heeft de matrix vergelijking Ax = b een oplossing,
5. een (iedere) echelonvorm van de matrix A bevat geen nulrij,
6. iedere rij van A bevat een pivotpisotie,
7. de kolommen van een (iedere) echelonvorm van de matrix A spannen Rm op,
8. de m n matrix A heeft m pivot kolommen.

We verkrijgen bovendien het belangrijke en misschien verassende gevolg:

STELLING 4.8. Voor de ruimte Rm geldt: minder dan m vectoren spannen de ruimte Rm
niet op.

Bewijs: Neem k vectoren a1 , . . . , ak in Rm met k < m. Bekijk de m k matrix A = [ a1 ak ]


met k kolommen. Omdat deze matrix k kolommen heeft, zal A tenhoogste k pivotkolommen

38

College 4, Lineaire opspanning en lineaire onafhankelijkheid

hebben, dus minder dan m. Bovenstaande stelling zegt de kolommen van A de ruimte Rm niet
zullen opspannen.

College 5, Afhankelijkheid stelsels


vectoren
5.1

Afhankelijkheidsrelaties tussen vectoren, afhankelijkheid


en onafhankelijkheid

We beginnen met het volgende begrip:

Definitie: Stel dat (v1 , , vk ) een stelsel vectoren in Rn is. Een afhankelijkheidsrelatie van dit stelsel (of: tussen de vectoren v1 , , vk ) is een relatie
c1 v1 + + ck vk = 0
waarbij niet alle ci gelijk zijn aan nul.

De eis dat niet alle ci gelijk aan nul mogen zijn, is omdat altijd geldt:
0v1 + + 0vk = 0
en zonder deze eis zou er tussen ieder stel vectoren een afhankelijkheidsrelatie bestaan. Dat willen
we niet.

1
1
1
Voorbeeld 5.1. Beschouw de vectoren v1 = 1 , v2 = 2 en v3 = 4 . Tussen
2
1
1
deze vectoren bestaat een afhankelijkheidsrelatie, want toevallig zien we:
2v1 3v2 + v3 = 0.
Een voorbeeld van een stelsel vectoren waartussen geen afhankelijkheidsrelatie bestaat? Wellicht
is het simpelste voorbeeld het stelsel (e1 , . . . , en ), de standaard eenheidsvectoren in Rn .
Merk op dat er een verbinding/relatie bestaat tussen het begrip afhankelijkheidsrelatie en het
begrip lineaire combinatie tussen vectoren (v1 , . . . , vp ), in de volgende zin. (We nemen p = 4.)
1. Als v4 een lineaire combinatie is van v1 , v2 , v3 , zeg
v4 = 2v1 + v2 + 5v3
dan is er een afhankelijkheidsrelatie tussen de vectoren (v1 , v2 , v3 , v4 ), namelijk:
2v1 + v2 + 5v3 v4 = 0.
39

40

College 5, Afhankelijkheid stelsels vectoren

2. Als er een afhankelijkheidsrelatie bestaat tussen het stelsel vectoren (v1 , v2 , v3 , v4 ), zeg bijvoorbeeld:
2v1 + 0v2 v3 + 4v4 = 0
Dan:
(a) v1 is een lineaire combinatie van v2 , v3 , v4 , want: v1 = 0v2 + 21 v3 2v4 .
(b) v3 is een lineaire combinatie van v1 , v2 , v4 , want: v3 = 2v1 + 0v2 + 4v4 .
(c) v4 is een lineaire combinatie van v1 , v2 , v3 , want: v4 = 21 v1 + 0v2 + 14 v3 .
(d) Over v2 valt niets te zeggen.
Op dezelfde manier toont men aan:

STELLING 5.2. Stel dat (v1 , . . . , vp ) een stelsel vectoren in Rn is. Dan geldt: er bestaat
een afhankelijkheidsrelatie tussen de vectoren van het stelsel (v1 , . . . , vp ) als en slechts als
tenminste een van de vectoren van dit stelsel een lineaire combinatie is van de overige vectoren
uit dit stelsel.

Definitie: Het stelsel vectoren (v1 , . . . , vp ) heet afhankelijk (of: de vectoren v1 , . . . , vp zijn
afhankelijk) als er een afhankelijkheidsrelatie tussen de vectoren uit het stelsel (v1 , . . . , vp )
bestaat.
Het stelsel vectoren (v1 , . . . , vp ) heet onafhankelijk als het niet afhankelijk is.

Voorbeeld 5.3. De vectoren v1 , v2 , v3 uit Voorbeeld 5.1 zijn afhankelijk: 2v1 3v2 + v3 = 0.
Een voorbeeld van een onafhankelijk stel vectoren is bijvoorbeeld het stelsel (e1 , . . . , en ) van standaard eenheidsvectoren in Rn
Een (wellicht vervelend) kenmerk van de lineaire algebra is, dat een vraag op vele manieren gesteld
kan worden. Bijvoorbeeld: de volgende vragen vertegenwoordigen alle dezelfde vraag.
1. Is er een afhankelijkheidsrelaties tussen de vectoren in het stelsel (v1 , . . . , vp )?
2. Is een van de vectoren uit het stelsel (v1 , . . . , vp ) een lineaire combinatie van de overigen
vectoren?
3. Is het stelsel (v1 , . . . , vp ) afhankelijk?
4. Zijn de vectoren v1 . . . vp afhankelijk?
Hoe zijn afhankelijkheidsrelaties te vinden tussen vectoren? Dit wordt duidelijk via de volgende
stelling.

5.1. Afhankelijkheidsrelaties tussen vectoren, afhankelijkheid en onafhankelijkheid

41

STELLING 5.4. Stel dat (a1 , , ak ) een stelsel vectoren in Rn is. Schrijf A = [ a1 . . . ak ].
Dan geldt: De relatie c1 a1 + + ck ak = 0 is een afhankelijkheidsrelaties tussen de vectoren
c1
..
a1 , . . . , ak als en slechts als de vector x = . een niet triviale oplossing is van de homogene
ck

matrixvergelijking Ax = 0.

Omdat we de oplossing van de matrixvergelijking Ax = 0 verkrijgen door A te vegen, verkrijgen


we:

STELLING 5.5. Stel dat de matrix A = [ a1 ak ] via elementaire rijbewerkingen geveegd


wordt naar de de matrix B = [ b1 bk ]. Dan geldt:
iedere afhankelijkheidsrelatie c1 a1 + + ck ak = 0 tussen de kolommen van de matrix A geldt
ook tussen de kolommen van B, dus ook: c1 b1 + + ck bk = 0.
Het omgekeerde geldt ook: iedere afhankelijkheidsrelatie tussen de kolommen van de matrix B
geldt ook tussen de kolommen van A.

Voorbeeld 5.6.
geveegd.

0 0
0 3
A=
0 3
0 1

In Voorbeeld 2.7 is de matrix A = [ a1 a7 ] naar gereduceerde echelonvorm C


3 6
6
7
8 5
9 12 9
2
2 1

4 5

8
9
= [ a1 a7 ]

6
15
1 14

0
0
0
0

1
0
0
0

0
1
0
0

2
2
0
0

3
2
0
0

0
0
1
0

24
7

4
0

In de matrix C in gereduceerde echelonvorm is het makkelijk de niet-pivotkolommen te schrijven


als lineaire combinatie van voorafgaande pivotkolommen. Bijvoorbeeld:
1. c4 is een lineaire combinatie van c2 , c3 (c4 = 2c2 2c3 ), en dus geldt ook: a4 = 2a2 2a3 !
2. c5 is een lineaire combinatie van c2 , c3 (c5 = 3c2 + 2c3 ) en dus geldt ook: a5 = 3a2 + 2a3 !
3. c7 is een lineaire combinatie van c2 , c3 , c6 , (c7 = 24c2 7c3 + 4c6 ), en dus geldt ook:
a7 = 24a2 7a3 + 4a6 !
We zien dat iedere niet pivotkolom van A een lineaire combinatie is van de pivotkolommen A. Ook
zien we dat de pivotkolommen

van A lineair onafhankelijk zijn, want hetzelfde veegschema veegt


1 0 0
[ a2 a3 a6 ] naar 0 1 0 . (Het is duidelijk dat er bij de geveegde matrix geen afhankelijk0 0 1
heidsrelatie tussen de kolmmen is).
We zien: als de matrix A naar gereduceerde echelon vorm wordt geveegd tot een matrix C, dan
kunnen we de matrix C beschouwen als een soort agenda die bijhoudt of en hoe iedere kolom
van A zit in het Span van de voorafgaande pivotkolom
men.
Hiermede hebben we een effectieve procedure gevonden om na te gaan of een stelsel vectoren
afhankelijk dan wel onafhankelijk is.

42

College 5, Afhankelijkheid stelsels vectoren

1
1
2
0
1
2
3
1

Voorbeeld 5.7. Beschouw de vectoren a1 =


1 , a2 = 1 , a3 = 0 , a4 = 2 en
1
1
0
2

1
1

en we stellen de vraag: is het stelsel {a1 , a2 , a3 , a4 , a5 } afhankelijk of onafhankelijk?


a5 =
1
1
Beschouw daartoe de kolommatrix A = [ a1 . . . a5 ] en veeg deze naar gereduceerde echelonvorm
matrix C = [ c1 . . . c5 ] dan krijgen we (ga na):

1
1
A=
1
1

1
2
1
1


2
0 1
1
0
3 1 1

0 2 1 0
0 2 1
0

0
1
0
0

1
1
0
0

1
1
0
0

0
0
=C
1
0

We lezen via C af: a3 = a1 + a2 , a4 = a1 a2 en daarom is het stelsel afhankelijk.

We hebben aangetoond:

STELLING 5.8. Gegeven is een stelsel vectoren (a1 . . . ak ) in Rn . Beschouw de kolommatrix A = [ a1 . . . ak ] en veeg deze naar gereduceerde echelonvorm, zeg naar C = [ c1 . . . ck ].
Equivalent zijn:
1. Het stelsel (a1 . . . ak ) is onafhankelijk.
2. Het stelsel (c1 . . . ck ) is onafhankelijk.
3. De matrixvergelijking Ax = 0 heeft geen niettriviale oplossingen.
4. Alle kolommen van A zijn pivot kolommen.
5. De n k matrix A heeft k pivotposities.
6. De gereduceerde echelonvorm C van A bestaat uit louter standaard eenheids vectoren van
Rn .

We verkrijgen direct het volgende gevolg dat zo belangrijk is dat we het een stelling noemen.

STELLING 5.9. Meer dan n vectoren in Rn zijn afhankelijk!

5.2. Matrix Operaties

5.2

43

Matrix Operaties

Als A een m n matrix is, d.w.z. een matrix met m rijen en n kolommen, dan wordt het (i, j)de
kental aangegeven met ai,j of [A]i,j . Zoals we weten noteren we de matrix met:

a1,1 a1,j a1,n


..
..
..
.
.
.

A = ai,1 ai,j ai,n

.
..
..
..
.
.
am,1 am,j am,n
De kolommen van A zijn n vectoren in Rm en deze worden genoteerd met a1 , . . . , an . De rijen van
A zijn m punten in Rn en we noteren deze met A1 , . . . , Am . We noteren:

A1
A2

A = [ a1 a2 . . . an ] =
..

.
Am

Sommige typen matrices komen steeds weer terug en en we geven hier een overzicht.
Definitie: Een m n matrix A heet:
1. een nulmatrix als ai,j = 0, voor alle i, j. Notatie: 0 of 0mn .
2. vierkant, als m = n.
Een vierkante matrix A heet:
1. een bovendriehoeksmatrix als ai,j = 0, voor alle i, j met i > j. Notatie: U of Un .
2. een onderdriehoeksmatrix als ai,j = 0, voor alle i, j met i < j. Notatie: L of Ln .
3. een diagonaalmatrix als ai,j = 0, voor alle i, j met i 6= j. Notatie: D of Dn .
4. een eenheidsmatrix als ai,j = 0, voor alle i, j met i 6= j en ai,i = 1, voor alle i. Notatie: I
of In .
5. symmetrisch als ai,j = aj,i , voor alle i, j. Notatie: S of Sn .
6. scheef-symmetrisch als ai,j = aj,i , voor alle i, j. Notatie: S of S n .
De kentallen a1,1 , a2,2 , . . . , an,n van een vierkante matrix A = [ai,j ] vormen een diagonaal van de
matrix, geheten de hoofddiagonaal of kortweg de diagonaal.
Optellen en scalaire vermenigvuldiging
Als A en B twee m n matrices zijn dan wordt de som A + B gedefinieerd als de m n matrix
met
[A + B]i,j = [A]i,j + [B]i,j
Merk op dat de som van de matrices A en B alleen gedefinieerd is als A en B dezelfde afmetingen
hebben.
Als c R een scalair is en A een m n matrix dan wordt het scalaire product cA gedefinieerd
als de m n matrix met
[cA]i,j = c[A]i,j

44

College 5, Afhankelijkheid stelsels vectoren

Tenslotte wordt A gedefinieerd door A = (1)A. Voor de optelling en de scalaire vermenigvuldiging van matrices bestaan de volgende rekenregels:
Rekenregels optelling en de scalaire vermenigvuldiging van matrices.
Laat A, B en C m n matrices zijn en c, d scalairen in R. Dan:
1. A + B = B + A

(de commutatieve wet)

2. (A + B) + C = A + (B + C)

(de associatieve wet)

3. A + O = A
4. A + (A) = O
5. c(A + B) = cA + cB

(de eerste distributieve wet)

6. (c + d)A = cA + dA

(de tweede distributieve wet)

7. c(dA) = (cd)A

(een soort associatieve wet)

8. 1A = A
De bewijzen van de rekenregels zijn rechtstreeks uit de definitie.






1 2
3
1 1 2
1 1
Voorbeeld 5.10. Als A =
,B=
en C =
dan
0 1 1
1 0 1
1 5
2A 3B =

2
0

4
6
2 2

3 3 6
3
0 3

5 1
3 2

0
5

en A + C is niet gedefinieerd.
Getransponeerde van een matrix

Definitie: Stel dat A een m n matrix is. De getransponeerde van de matrix A is die n m
matrix AT met de eigenschap dat de ide kolom van A de ide rij van AT wordt.

Dus:


1 2
3 4


1 3
AT =
,
2 4

Voorbeeld 5.11. Stel dat A =

[AT ]i,j = [A]j,i .







1 2 0
,B=
en C = 1 2 3 . Dan:
0
2
1

1 0
1
B T = 2 2 en C T = 2 .
0 1
3

Rekenregels voor het transponeren:


Laat A, B matrices zijn die afmetingen hebben zodat voor iedere regel de aangegeven formule
bestaat en laat c R een scalair zijn. Dan:
1. (AT )T = A

5.2. Matrix Operaties

45

2. (A + B)T = AT + B T
3. (cA)T = cAT
De bewijzen zijn rechtstreeks, evenals het bewijs van de volgende stelling.

STELLING 5.12. Laat A een n n matrix zijn. Dan geldt:


AT = A A is symmetrisch.

College 6, Matrix Algebra


6.1

Product van matrices

Wellicht is een voor de hand liggende definitie van een product van twee (m n) matrices voor
U de zogeheten componentsgewijze definitie, dus [AB]i,j = [A]i,j [B]i,j . Natuurlijk, er is niets dat
ons kan stoppen om dat te doen, toch zullen we dit NIET doen. Bijvoorbeeld, omdat dit product
weinig zinvolle toepassingen blijkt te hebben. Een andere reden is dat we met ons matrixproduct
willen aansluiten bij de definitie van het matrixvectorproduct. Het volgende voorbeeld kan als
motivatie dienen voor het matrix product.
Voorbeeld 6.1. Dit voorbeeld is gebaseerd op het idee dat in een winkel geldt:
aantal kilos nodig prijs per kilo = totale prijs
De eerste tabel geeft aan hoeveel kilo aan fruit Joost en Emiel nodig hebben. De tweede tabel
geeft aan wat de prijs per kilo is van het benodigde fruit bij de twee groenteboeren Arie en Ali.

Joost
Emiel

Appels
2
5

Peren
10
1

Sinaasappelen
1
5

Appels
Peren
Sinaasappelen

Arie
2
4
3

Ali
1.90
4.50
2.50

Het lijkt redelijk te zijn te eisen dat voor het product van de matrices zou moeten gelden:

als N (odig) =

NP=
En dus:


 2
2 10 1
4
5 1 5
3

2
5

10 1
1 5

2
en P (rijs) = 4
3

Prijs Joost bij Arie


Prijs Emiel bij Arie

Prijs Joost bij Ali


Prijs Emiel bij Ali

1.90
2 2 + 10 4 + 1 3
4.50 =
52+14+53
2.50
=

47 51.30
29 26.50

Dit idee leidt tot de volgende definitie.


47

1.90
4.50 dat dan :
2.50

2 1.90 + 10 4.50 + 1 2.50


5 1.90 + 1 4.50 + 5 2.50

48

College 6, Matrix Algebra

Definitie: Als A een m k matrix is en B eem k n matrix is, dan wordt het product
C = AB een m n matrix. Het i, j de kental van dit product wordt berekend via:
ci,j = ai,1 b1,j + ai,2 b2,j + + ai,k bk,j =

k
X

ai, b,j

=1

Opmerking: 1. Als AB bestaat dan hoeven A en B niet dezelfde afmetingen te hebben, echter,
het aantal kolommen van A moet gelijk zijn aan het aantal rijen van B. (In de situatie als in de
definitie is dit aantal k.)
2. In de formule ci,j = ai,1 b1,j + ai,2 b2,j + + ai,k bk,j doorlopen de kentallen ai, de i-de rij van
A en de kentallen b,j de j-de kolom van B. We zeggen ook wel:
het i, j de kental van AB is de ide rij van A maal de j de kolom van B.
3. Als AB bestaat dan is het aantal rijen van AB gelijk aan het aantal rijen van A, het aantal
kolommen van AB is gelijk aan het aantal kolommen van B.
4. Als A een mn matrix is en als x Rn wordt gezien als een n1 matrix, dan is het matrixvector
product Ax gelijk aan het matrixproduct Ax.
Voorbeeld 6.2. Beschouw de volgende vier matrices:





1 1
1
A= 1 2 , B=
, C=
1 2
3

2
4

en D =

1
3

Vraag: Bepaal alle mogelijke producten van twee matrices.


Antwoord Omdat A een 1 2 matrix is, B en C een 2 2 matrix en D een 2 1 matrix, bestaan
de producten: AB, AC, AD, BB, BC, BD, CB, CC, CD en DA. De producten AA, BA, CA,
DB, DC en DD bestaan niet. We berekenen 6 van de 10 producten. Wat betreft de andere 4
laten we de berekening aan U over.




 
4 6
AB = 1 5 , AD = 7 , BC =
5 6
CB =

1 5
1 11

, CD =

7
15

en DA =

1
3

2
6

Opmerking: We zien dat de matrix vermenigvuldiging niet voldoet aan de zogeheten commutatieve wet (ab = ba), en om verscheidene redenen. In het vorige voorbeeld zien we:
1. AB 6= BA, want AB is wel en BA is niet gedefinieerd.
2. AD 6= DA, want hoewel AD en DA beide gedefinieerd zijn, hebben deze matrices niet
dezelfde afmetingen.
3. BC 6= CB, want hoewel BC en CB beide gedefinieerd zijn en dezelfde afmetingen hebben,
zijn het toch verschillende matrices.
De vier zienswijzes van het matrixproduct AB

6.1. Product van matrices

49

A1
Ai
Voor de m k matrix A schrijven we: A =
Am

..
..
..
.
.
.

we: B =
b1 bj bn = [ b1 bn ].
..
..
..
.
.
.

en voor de k n matrix B schrijven

I. De rij-kolom visie van het product.


Deze visie is eigenlijk de definitie van het product. Er geldt (zoals eerder gezegd): het i, j de
kental van AB is de ide rij Ai van A maal de j de kolom van B.
Om precies te zijn: Ai bj - als matrixproduct(!) - is gelijk aan i, j de kental van AB.
II. De kolom visie van het product.
De j de -kolom van AB is Abj . Dus:
AB = A [ b1 . . . bj . . . bk ] = [ Ab1 . . . Abj . . . Abk ]
Om precies te zijn: de j de -kolom van AB is A maal de j de -kolom van B, dus is een lineaire
combinatie van de kolommen van A met gewichten uit de j de -kolom van B.
Om in te zien dat dit juist is volstaat het om naar het ide kental te kijken (voor i = 1, . . . , m) van
deze j de -kolom van AB.
III. De rij-visie van het product.
De ide -rij van AB is Ai B. Dus:

AB =

A1

Ai

Am

B =

A1 B

Ai B

Am B

Om precies te zijn: de ide -rij van AB is de ide -rij van A maal B, dus is een lineaire combinatie
van de rijen van B met gewichten uit ide -rij van A.
Om in te zien dat dit juist is volstaat het om naar het j de kental te kijken (voor j = 1, . . . , n) van
deze ide -rij van AB.
IV. De kolom-rij expansie van het product.

B1
Als A = [ a1 . . . ak ] en B = dan geldt voor het matrixproduct: a B dat [a B ]i,j = ai, b,j
Bk
en dus:
AB = a1 B1 + a2 B2 + + ak Bk
De visies zijn met name handig als men in een groot product slechts een rij of kolom hoeft te weten.
Deze zijn te bepalen zonder het hele product uit te rekenen.

1 0 1
1 1 2
1
1 1
1 .
Voorbeeld 6.3. Beschouw A = 2 1 1 en B = 1
1 0 1
1
2 1 1
Vraag: Bepaal [AB]2,4 , de derde kolom van AB en de derde rij van AB. Bepaal tenslotte het

50

College 6, Matrix Algebra

product met kolom-rij expansie.

1
Antwoord. [AB]2,4 = A2 b4 = 2 1 1 1 = 2 + 1 1 = 2.
1

2
0
1
3
De derde kolom van AB = Ab3 = 2a1 + 1a2 + 1a3 = 4 + 1 + 1 = 6 .
2
0
1
3

 

1
1
2
1
1
2
1 1 =
De
derde
rij
van
AB
=
A
B
=
1.B
+
0B
+
1.B
=
+
3
1
2
3


2 1 3 0 .

1 

Tenslotte. AB = (via kolom-rij expansie) = a1 B1 + a2 B2 + a3 B3 = 2 1 1 2 1 +
1

0 0 0 0
0 
1 
1 1 2 1


1 1 1 1 1 + 1 1 2 1 1 = 2 2 4 2 + 1 1 1 1 +
0
1
1 1 2 1
0 0 0 0

1 2 1 1
2 1 3 0
+ 1 2 1 1 = 4 1 6 2 .
1 2 1 1
2 1 3 0


Rekenregels voor matrixproduct:


Laat A, B en C matrices afmetingen hebben zodat voor iedere regel de aangegeven formule bestaat
en laat c R een scalair zijn. Dan:
1. (AB)C = A(BC)

(de associatieve wet)

2. A(B + C) = AB + AC

(de distributieve wet)

3. (A + B)C = AC + BC

(de distributieve wet)

4. c(AB) = (cA)B = A(cB)


en:
Laat A een m n matrix zijn, ei is de ide kolom van In en Ej is de j de rij van Im . Dan:
1. Im A = A = AIn .
2. Aei is de ide kolom van A.
3. Ej A is de j de rij van A.
Waarschuwing:
1. In het algemeen: AB 6= BA
2. Als AB = AC en A 6= 0 dan niet noodzakelijk B = C.

(De commutatieve wet geldt NIET)


(Wegstrepen mag niet zomaar.)

3. Als AB = 0 en B 6= 0 dan niet noodzakelijk A = 0.


Opmerking: De schrijfwijze van de scalaire vermenigvuldiging cv (met c R en v Rn ) komt
niet overeen met de matrix-product schrijfwijze. Hadden we echter vc geschreven, dan is ook
de scalaire vermenigvuldiging een matrix-product geworden. Soms is het handig deze notatie te
gebruiken.
Machten van een matrix

6.2. Vegen en het matrixproduct, elementaire matrices.

51

Voor vierkante matrices A bestaat AA. Het ligt voor de hand dit aan te duiden met A2 . Evenzo
definieren we voor een k N:
Ak = A
. . . A}
| A{z

k factoren
Vanwege de geldende associatieve wet voor het matrixproduct is dit een zinvolle definitie (leg uit!).
Ook definieren we voor een n n matrix A:
A0 = In
Rekenregels Als A een vierkante matrix en r, s N dan:
1. Ar As = Ar+s
2. (Ar )s = Ars .

Rekenregels voor het transponeren:


Laat A, B matrices zijn die afmetingen hebben zodat voor iedere regel de aangegeven formule
bestaat en laat c R een scalair zijn. Dan:
1. (Ar )T = (AT )r
2. (AB)T = B T AT .
3. (A1 A2 . . . An )T = ATn . . . AT2 AT1 .
De bewijzen zijn rechtstreeks, evenals het bewijs van de volgende stellingen.

STELLING 6.4. Voor iedere m n matrix A is de matrix AT A symmetrisch.

6.2

Vegen en het matrixproduct, elementaire matrices.

De rest van dit college moet ons doen inzien dat elementaire rijbewerkingen eigenlijk al een vorm
van matrixvermenigvuldiging is.
Om tot dit inzicht te komen definieren we eerst het begrip elementaire matrix.

Definitie: Een elementairy matrix E is een matrix verkregen door een veegstap toe te passen
op de eenheidsmatrix In .

Dus we kunnen meteen een overzicht maken van alle mogelijke elementaire matrices.
De elementaire matrices.
n
1. E(,i,j)
is de matrix verkregen door maal de i-de rij van de eenheidsmatrix In bij de j-rij
op-te-tellen.

2. E (n,i,j) is de matrix verkregen door in de eenheidsmatrix In de i-de en de j-rij te verwisselen.


n
3. E(,i)
is de matrix verkregen door de i-de rij van de eenheidsmatrix In met 6= 0 te vermenigvuldigen.

52

College 6, Matrix Algebra

Voorbeeld 6.5. Definieer:

1 0 0
1 0
3
E(4,1,2)
= 4 1 0 E (3,2,3) = 0 0
0 0 1
0 1

1
2 1
A = 3 1 1
0
0 2
Merk op dat:


1
2
1
2
1
2
3
1. E(4,1,2)
A = 1 9 3 6 = 3 1
0
0
2
1
0
0

1
2 1 2
1
2 1 2
2. E (3,2,3) A = 0
0 2 1 = 3 1 1 2
3 1 1 2
0
0 2 1


1
2
1
2
1
2 1
3
1
2 = 3 1 1
A = 3 1
3. E(2,3)
0
0 4 2
0
0 2

0
1
3
1 E(2,3)
= 0
0
0

2
2
1

0
1
0

0
0
2

1 2
4
1 2 +
2 1

2
1
2

Dit voorbeeld illustreert de volgende stelling, die overigens simpel te bewijzen is met behulp van
de rijvisie van het product.

STELLING 6.6. Het resultaat van een elementaire rijoperatie toepassen op een n r matrix
A is gelijk aan EA, waarbij E de elementaire matrix is die verkregen wordt door dezelfde
elementaire rijoperatie toe te passen op In .
Evenzo, het resultaat van een aantal veegstappen op de matrix A is te schrijven als:
Ek Ek1 E1 A.

College 7, Inverteerbare matrices


7.1

De inverse matrix

Bij getallen bestaat de inverse operatie die het gemakkelijk maakt vergelijkingen op te lossen.
Bijvoorbeeld:
ax = b a1 (ax) = a1 b (a1 a)x = a1 b x = a1 b
(Dit voorbeeld laat al zien dat we bij getallen zonder nadenken de associatieve wet gebruiken. En
meestal zijn we ons nog geen eens bewust dat we deze wet gebruiken.)
We zouden graag een een soortgelijke operatie hebben voor matrices, al is het alleen al om het
stelsel Ax = b op te lossen.

Definitie: Laat A een n n matrix zijn. De matrix A heet inverteerbaar, als er een n n
matrix C bestaat, zodat:
AC = In en CA = In

Laten we eerst opmerken dat de matrix C in bovenstaande definitie uniek is. Inderdaad, laat C1
en C2 twee n n matrices zijn zodat AC1 = In = C1 A en AC2 = In = C2 A. Dan:
C1 = C1 In = C1 (AC2 ) = (C1 A)C2 = In C2 = C2
Als A inverteerbaar is, dan zullen we de unieke matrix C met AC = In = CA aanduiden met
A1
De matrix A1 heet de inverse van A. Dus:
AA1 = In en A1 A = In
Een vierkante matrix die niet inverteerbaar is heet een singuliere matrix. Als deze wel inverteerbaar is dan wordt deze niet singulier of ook wel regulier genoemd.
De belangrijkste twee vragen die we stellen zijn:
1. Wanneer is de n n matrix A inverteerbaar?
2. Als A inverteerbaar is, hoe kunnen we A1 bepalen?
Voor een 2 2 matrix zijn deze vragen makkelijk te beantwoorden. De volgende stelling wordt in
de opgaven bewezen.
53

54

College 7, Inverteerbare matrices

STELLING 7.1. Laat A =

a
c

b
d

een 2 2 matrix zijn. Dan:

1. De matrix A is inverteerbaar als en slechts als het getal ad bc 6= 0.


2. Als A inverteerbaar is, dan geldt:
1

1
=
ad bc

d b
c
a

Het getal ad bc in Stelling 7.1 wordt de determinant van A genoemd (notatie det(A)). Volgens
de stelling is een 2 2 matrix A inverteerbaar als en slechts als det(A) 6= 0.


2
5
Voorbeeld 7.2. Beschouw de matrix A =
. Deze matrix A is inverteerbaar want
3 7
det(A) = (2 (7)) (5 (3)) = 1 6= 0. En

 

1 7 5
7 5
1
A =
=
3
2
3
2
1
Merk op dat in de inverse van een
 matrix
 met gehele getallen geen breuken behoeft te bezitten.
4 1
Het kan wel. Bijvoorbeeld: B =
is inverteerbaar want det(B) = 20 6= 0 en
0 5

  5 1 
1
5 1
1
B =
= 20 204
.
4
0 20
20 0

In de volgende stelling verzamelen we de rekenregels voor de inverse operator

STELLING 7.3. Laat A en B n n matrices zijn, en c R.


1. Als A inverteerbaar is, dan is A1 dat ook en
(A1 )1 = A
2. Als A inverteerbaar is en c 6= 0, dan is cA ook inverteerbaar en
(cA)1 =

1 1
A
c

3. Als A en B inverteerbaar zijn, dan is AB dat ook en


(AB)1 = B 1 A1
4. Als A inverteerbaar is, dan is AT dat ook en
(AT )1 = (A1 )T

7.1. De inverse matrix

55

Bewijs:
1. Omdat er een C bestaat met A1 C = In = CA1 (namelijk neem C = A) is A1 inverteerbaar en (A1 )1 = C = A.
2. Duidelijk.
3. Gezocht wordt een matrix C met (AB)C = In = C(AB). De stelling zelf suggereert
C = B 1 A1 te nemen. Inderdaad, (AB)C(AB)(B 1 A1 ) =
= A(BB 1 )A1 = AIn A1 = In en C(AB) = (B 1 A1 )(AB) = B 1 (A1 A)B = B 1 In B =
In . Dus is AB inverteerbaar en (AB)1 = C = B 1 A1 .
4. Transponeren van de identiteit AA1 = In = A1 A geeft: (AA1 )T = InT = (A1 A)T
(A1 )T AT = In = AT (A1 )T , d.w.z. er is een matrix C (namelijk C = (A1 )T ) zo dat
CAT = In = AT C. Dus is de matrix AT inverteerbaar en (AT )1 = C = (A1 )T .

De eerste stap naar het antwoord op de eerste vraag: welke matrices zijn inverteerbaar, komt
als gevolg van de volgende stelling.

STELLING 7.4. Als A een inverteerbare n n matrix is, dan geldt voor iedere b Rn :
de vergelijking Ax = b heeft een unieke oplossing, en wel x = A1 b.

Bewijs: Als Ax = b A1 (Ax) = A1 b (A1 A)x = A1 b In x = A1 b x = A1 b.


Dus inderdaad, als er een oplossing is van het stelsel Ax = b, dan moet dit x = A1 b zijn.
Dat x = A1 b inderdaad een oplossing is volgt uit Ax = A(A1 b) = (AA1 )b = In b = b.
Voorbeeld 7.5. Gebruik A1 om het volgende stelsel op te lossen.

2x1 + 5x2 = 2
3x1 7x2 = 1


  
2
5
x1
2
Dit systeem is te schrijven als Ax = b, dus
=
.
3 7
x2
1

 
1 
 
  

x1
2
5
2
7 5
2
19
Dan x =
=
=
=
.
x2
3 7
1
3
2
1
8
Waarschuwing: Los het stelsel Ax = b NOOIT op via de formule x = A1 b. In de praktijk
blijkt het vegen van het stelsel [A|b] minder werk te zijn dan de berekening van A1 .

GEVOLG 7.6. Als A een inverteerbare n n matrix is dan geldt: de gereduceerde echelonvorm van A is In .

Bewijs: Kies b Rn en veeg het stelsel [A|b] naar een equivalent stelsel met coefficientenmatrix
in gereduceerde echelonvorm. Als [A|b] [E|b ] dan volgt uit het feit dat het stelsel [A|b] een
unieke oplossing heeft dat E = In .

56

7.2

College 7, Inverteerbare matrices

Inverteerbaarheid via elementaire matrices

De volgende paragraaf houdt zich bezig met de omkering van het vorige gevolg: als A naar In te
vegen is, is A dan inverteerbaar? We weten inmiddels dat het vegen van een matrix gelijk staat aan
links met een elementaire matrix vermenigvuldigen. Daarom bekijken we eerst de inverteerbaarheid
van elementaire matrices. We weten dat we iedere veegstap kunnen te niet doen door een andere
veegstap (het terugvegen) en dat geeft de volgende stelling.

STELLING 7.7. Iedere elementaire matrix is inverteerbaar en de inverse is ook weer een
elementaire matrix.

Bewijs: Het terugvegen heeft ons geleerd:


n
n
n
(E(,i,j)
)1 = E(,i,j)
, (E (n,i,j) )1 = E (n,i,j) , (E(,i)
)1 = E(n1 ,i) .

En we krijgen de volgende equivalentie:

STELLING 7.8. Laat A een n n matrix zijn. De volgende uitspraken zijn equivalent:
1. A is inverteerbaar,
2. A is te vegen naar de eenheidsmatrix.
3. A is te schrijven als een product van elementaire matrices.

Bewijs: 1. 2. Dit is Gevolg 7.6.


2. 3. Stel A is naar In te vegen, zeg:
En En1 . . . E2 E1 A = In (met Ei een elementaire matrix).
Dan kunnen we vervolgens stap voor stap de Ei naar rechts brengen, via:
En En1 . . . E2 E1 A = In En1 En En1 . . . E2 E1 A = En1 In
En1 . . . E2 E1 A = En1 In
en dit levert uiteindelijk:
1
1
A = E11 E21 . . . En1
En1 In = E11 E21 . . . En1
En1 .
Omdat volgens Stelling 7.7 de inverse van een elementaire matrix weer een elementaire matrix is,
is A te schrijven als een product van elementaire matrices.
3. 1. Als A een product van elementaire matrices is, dan is A een product van inverteerbare
matrices en volgens Stelling 7.3 is A dan ook inverteerbaar.

7.3

Procedure om A1 te vinden

Via de verkregen inzichten via de elementaire matrices, tonen we aan:

7.3. Procedure om A1 te vinden

57

STELLING 7.9. Stel dat A een inverteerbare nn matrix is. Dan geldt: dezelfde veegstappen
die A naar I vegen, vegen I naar A1 .

Bewijs: Veeg de matrix A naar In , zeg:


En En1 . . . E2 E1 A = In (met Ei een elementaire matrix).
en dus
1
1
A = E11 E21 . . . En1
En1 In = E11 E21 . . . En1
En1 .
1
We kunnen nu A berekenen.
1
1
A = E11 E21 . . . En1
En1 A1 = (E11 E21 . . . En1
En1 )1 =
1
1
1
=(En1 )1 (En1 )1 . . . (A2 )1 (A1 )1 = En En1 . . . E2 E1
en dus:
A1 = En En1 . . . E2 E1 In
En hier staat inderdaad, de stappen E1 , . . . , En die A naar I vegen, vegen I naar A1 .
Procedure: Veeg in de matrix [A|I] de matrix A naar I en pas dezelfde veegstappen toe op I.
Dan verkrijgt men: [I|A1 ]. (Dus: [A|I] [I|A1 ].)

1 2 1
5
6 .
Voorbeeld 7.10. Bepaal A1 van de matrix A = 1
5
4
6

1 2 1 1 0 0
1 5

5
6 0 1 0 +
|
Antwoord: Bekijk [A|I] = 1
5 4
6 0 0 1
+

1 2 1
1 0 0
1 2 1
1
0 0
+
0
3
5
1 1 0 2 0
3
5
1
1 0 +
|
0
6 11 5 0 1
+
0
0
1 7 2 1
5 1


+
1 2 0 6 2
1
1 2 0 6
2
1

3 0 36 11 5 1/3 0
1 0 12 11/3 5/3 2
0
0
0 | 7 2
1
0
0 1 7
2
1

1 0 0 18 16/3 7/3
0 1 0 12 11/3 5/3
0 0 1 7
2
1
Dus:

18 16/3 7/3
A1 = 12 11/3 5/3
7
2
1

58

College 7, Inverteerbare matrices

Een andere kijk op de procedure om A1 te vinden


Stel dat we weten dat de n n matrix A inverteerbaar is. Als we schrijven: A1 = [ b1 . . . bn ] dan
geldt, via de kolomvisie van het matrixproduct:
AA1 = In A[ b1 . . . bn ] = [ e1 . . . en ] [ Ab1 . . . Abn ] = [ e1 . . . en ]
Dat betekent dat:
bi is de oplossing van het stelsel Ax = ei
of te wel
[ A | ei ] [ In | bi ]
Men kan het vegen van
[ A | In ] = [ A | e1 . . . en ]
zien als het simultaan oplossen van de n stelsels vergelijkingen [ A | ei ], en dit levert kennelijk als
oplossing
[ A | e1 . . . en ] [ In | b1 . . . bn ] = [ In | A1 ]

7.4

Karakterisering inverteerbare matrices

Als we de kennis van de colleges 4 en 5 bij elkaar stoppen, komen we tot de volgende stelling.

STELLING 7.11. DE INVERSE MATRIX STELLING


Laat A een n n matrix zijn. De volgende uitspraken zijn equivalent:
1. A is inverteerbaar.
2. A is te schrijven als een product van elementaire matrices.
3. A is rij-equivalent met de eenheidsmatrix In .
4. A heeft n pivot-posities.
5. A heeft n pivot kolommen.
6. Iedere kolom van A heeft een pivotpositie.
7. De kolommen van A zijn onafhankelijk.
8. De vergelijking Ax = 0 heeft een unieke oplossing.

9. A heeft n pivot rijen.


10. Iedere rij van A heeft een
pivotpositie.
11. De kolommen van A spannen
Rn op.
12. Voor iedere b Rn is het stelsel
Ax = b consistent.

13. AT is inverteerbaar.
14. De rijen van A zijn lineair onafhankelijk.
15. De rijen van A spannen Rn op.

Bewijs: Al het werk voor deze stelling is al geleverd.


De equivalentie van de uitspraken 1., 2. en 3. is te vinden in Stelling 7.8. De equivalentie van
de uitspraken 3., 4. en 5. is triviaal, omdat A een vierkante matrix is. De equivalentie van de

7.4. Karakterisering inverteerbare matrices

59

uitspraken 5., 6., 7. en 8 is te vinden in Stelling 5.8.


De equivalentie van de uitspraken 9., 10., 11. en 12 is te vinden in Stelling 4.7. De equivalentie
van de uitspraken 1. en 13. is van Stelling 7.3.
Omdat de rijen van A eigenlijk de kolommen van AT zijn, zijn de uitspraken 7. en 14. equivalent.
Evenzo zijn de uitspraken 11. en 15. equivalent.
Opmerking. Deze stelling is erg lang. De meeste uitspraken zijn slechts van theoretische waarde
(zoals uitspraak 2.). Voor de praktijk zijn de equivalentie van 1., 3., 7. en 11. echt van belang.
Een vraag die vaak gesteld wordt is de volgende:
Waarom wordt bij de definitie van inverteerbaarheid van A het bestaan van een matrix C geeist
zodat AC = In en CA = In . Is een van die twee niet voldoende? De volgende stelling zegt:
achteraf gezien eigenlijk wel!

STELLING 7.12. Stel dat A een n n matrix is.


1. Als er een n n matrix C bestaat met CA = In , dan moet A inverteerbaar zijn en
C = A1 .
2. Als er een n n matrix C bestaat met AC = In , dan moet A inverteerbaar zijn en
C = A1 .

Bewijs: 1. We gebruiken criterium 8. van Stelling 7.11 om aan te tonen dat A inverteerbaar is.
Stel Ax = 0. Dan: Ax = 0 C(Ax) = C0 (CA)x = 0 Ix = 0 x = 0. Dus inderdaad, de
vergelijking Ax = 0 heeft een unieke oplossing en dus is A een inverteerbare matrix.
Tenslotte: CA = In (CA)A1 = In A1 C(AA1 ) = A1 C = A1 .
2. Uit 1. volgt dat C inverteerbaar is en C 1 = A. Maar dan is A ook inverteerbaar en A1 = C.
Opmerking De twee uitspraken in de vorige stelling hadden we als uitspraak 14. en 15. kunnen
toevoegen aan Stelling 7.11. In de rest van dit dictaat zullen we Stelling 7.11 nog enkele malen
uitbreiden.

College 8, Determinanten
8.1

Introductie tot Determinanten

Merkwaardigerwijs ging de geschiedenis van de determinanten vooraf aan die van de matrices.
Determinanten werden gentroduceerd door de Japanner T.S. Kowa (1642-1708) in 1683 en (onaf
hankelijk) door G.W. von Leibniz (1646-1716) in 1693. In 1748 verscheen het boek Treatise on
Algebra van Maclaurin waarin de regel van Cramer voor 4 4 stelsels besproken werd. In 1750
bewees de Zwitser Cramer de algemene regel van Cramer. In 1772 introduceerde Laplace berekening van determinanten via ontwikkeling naar rijen en /of kolommen. Het woord determinanten
werd in 1801 door Gau gentroduceerd. Het was Cauchy die verantwoordelijk was voor de moderne
aanpak en de verdere ontwikkeling van determinanten. Maar determinanten werden pas echt goed
bekend in 1841, toen Jacobi deze gebruikte bij de aanpak van functies van meerdere variabelen
(de matrix van Jacobi en zijn determinant, de Jacobiaan). Het hoogtepunt van de determinanten
was omstreeks 1904, toen het vijfdelige monumentale werk over determinanten van Thomas Muir
verscheen. Sindsdien is het belang van determinanten langszaam verminderd. Tegenwoordig is het
gebruik van de determinant vervangen door veel effectievere methodes uit de numerieke wiskunde.
In veel boeken wordt zelfs de officiele definitie van determinanten niet meer gegeven. Alleen de
berekening van de de determinant wordt besproken. De huidige stand van zaken is dat enig inzicht
wat betreft determinanten van kleine matrices als gewenst wordt beschouwd, met name voor de
berekening van eigenwaarden van deze matrices.
Voor de genteresseerde student zullen we hier de officiele definitie van de determinant van een
vierkante matrix presenteren. In de volgende paragrafen zal de beheersing van deze definitie niet
echt nodig zijn, temeer daar wij veel bewijzen niet zullen leveren. Maar wellicht is het niet slecht
om deze definitie toch eens te zien.


a1,1 a1,2
Uit hoofdstuk 4 weten we dat als A =
een 2 2 matrix is, dan is de determinant
a2,1 a2,2
van A gelijk aan het getal:
a1,1 a2,2 a1,2 a2,1

a1,1 a1,2 a1,3


Evenzo delen we mede: als A = a2,1 a2,2 a2,3 een 3 3 matrix is dan is de determinant
a3,1 a3,2 a3,3
van A gelijk aan het getal:
a1,1 a2,2 a3,3 + a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2 a1,3 a2,2 a3,1 a1,1 a2,3 a3,2 a1,2 a2,1 a3,3
Merk op dat hier een sommatie staat van producten a1, a2, a3, , waarvan de eerste kentallen
van de subscripts bestaan uit 1, 2, 3. Kijken we naar de tweede kentallen van de subscripts van
deze producten dan verschijnen daar weer de getallen 1, 2, 3, en wel in alle mogelijke volgordes
opgeschreven. (Hetzelfde geldt voor de 2 2 matrix met de kentallen 1, 2.)
In het algemeen: het herschrijven van de volgorde van de getallen 1, 2, , n heet een permutatie
van deze getallen en we zullen deze noteren met bijvoorbeeld:
61

62

College 8, Determinanten

(1, 2, 3, 4) (2, 1, 4, 3)
Een permutatie van de getallen 1, 2, . . . , n is op te vatten als een bijectieve functie
: {1, 2, . . . , n} {1, 2, . . . , n}
Bijvoorbeeld, de permutatie (1, 2, 3, 4) (2, 1, 4, 3) is de afbeelding : {1, 2, 3, 4} {1, 2, 3, 4}
met (1) = 2, (2) = 1, (3) = 4 en (4) = 3.
STELLING 8.1. De getallen (1, 2, . . . , n) hebben n! = 1.2.3. . . . .(n 1)n permutaties.

Definitie: Pn is de verzameling van permutaties van de getallen (1, 2, . . . , n).

De verzameling Pn bevat dus n! elementen (permutaties).


Een permutatie Pn heet een verwisseling, als deze een verwisseling is van twee elementen.
Voorbeeld 8.2. De permutaties (1, 2, 3) (1, 3, 2) resp. (1, 2, 3, 4) (1, 3, 2, 4) zijn verwisselingen. Inderdaad, bij de eerste permutatie worden 2 en 3 verwisseld, bij de tweede ook.
De permutatie (1, 2, 3) (3, 1, 2) is geen verwisseling, maar is wel te verkrijgen door twee verwisselingen achter elkaar uit te voeren. Bijvoorbeeld: (1, 2, 3) (1, 3, 2) (3, 1, 2) levert die
permuatie. Hetzelfde geldt voor de permuatie (1, 2, 3, 4) (2, 1, 4, 3).

Definitie: Een permutatie Pn heet even als deze te verkrijgen is door een even aantal
verwisselingen achter elkaar uit te voeren. Anders heet de permuatie oneven.

We noteren signum() = 0 (het teken (sign) van is 0) als een even permuatatie is. Anders
schrijven we signum() = 1.
Merk op dat het teken van de permuatie (1, 2, 3) (1, 2, 3) 0 is, want deze is te verkrijgen via 0
(=even) verwisselingen.
Tenslotte kunnen we de officiele definitie van de determinant van een matrix presenteren.

Definitie: Laat A =

a1,1
a2,1
..
.

an,1
van A gelijk aan het getal
X

a1,2 . . . a1,n
a2,2 . . . a2,n
.. . .
..
.
.
.
an,2 . . . an,n

Pn

een nn matrix zijn. Dan is de determinant

(1)sign() a1,(1) a2,(2) . . . an,(n)

8.2. Berekening van Determinanten

63

Opmerking:
1. De determinant van een 4 4 matrix wordt een sommatie van 4! = 24 producten van vier
getallen uit de matrix. Bij een 5 5 matrix een sommatie van 5! = 120 producten van vijf
getallen uit de matrix. Via de definitie is de berekening met de hand van de determinant van
een grote matrix bijna een onmogelijkheid.
2. Merk dat dat a1,(1) a2,(2) . . . an,(n) een product van getallen uit verschillende kolommen en
van verschillende rijen is.

8.2

Berekening van Determinanten

In deze paragraaf geven we een ietwat effectievere manier van de definitie van de determinant
van een matrix, effectiever wat betreft het berekenen ervan. Merkwaardi-gerwijs zal de definitie
recursief zijn. Dat wil zeggen, om te weten wat de determinant van een 6 6 matrix is, moeten
we eerst weten wat de determinant van een 5 5 matrix is. Maar daarvoor ........etc. We zullen
moeten beginnen met een 1 1 matrix.
Als A = [ a ] dan is de determinant van A het getal a.
Dus: A = [ a ] det(A) = a.

Definitie: Laat A een nn matrix zijn met n 2. De (n1)(n1) matrix Ai,j verkregen
door de ide rij en de j de kolom van A te schrappen wordt de (i, j)de ondermatrix van A
genoemd. Het getal det(Ai,j ) wordt de (i, j)de minor van A genoemd.

1 2
5
0
2
0
4 1
dan is de (3, 2)-minor A3,2 van A de matrix
Voorbeeld 8.3. Als A =
3
1
0
7
0
4 2
0
verkregen door de derde rij en de tweede kolom
te schrappen, dus:

1
5
0
1 2 0
A3,2 = 2
4 1 . Evenzo: A2,3 = 3
1 7 .
0 2
0
0
4 0

Definitie: Laat A een n n matrix zijn met n 2. Dan is de determinant van A, det(A),
gelijk aan het getal:
det(A) = a1,1 det(A1,1 ) a1,2 det(A1,2 ) + + (1)1+n a1,n det(A1,n )

Dus:
det(A) =

n
X
j=1

(1)1+j a1,j det(A1,j )

64

College 8, Determinanten

Opmerking:
1. De kentallen a1,1 , a1,2 , . . . zijn precies de kentallen van de eerste rij van A. We zeggen wel
dat det(A) wordt berekend via ontwikkeling naar de eerste rij van A.
2. Merk op dat de +, , +, voor de kentallen elkaar afwiselen.


a1,1 a1,2
Voorbeeld 8.4. Als A =
dan geldt volgens deze definitie dat det(A) = a1,1 det(A1,1 )
a2,1 a2,2
a1,2 det(A1,2 ) = a1,1 a2,2 a1,2 a2,1 en dit komt overeen met de oude formule uit paragraaf 8.1.
Notatie Als A
a1,1


..
zelfs:

.

an,1

een n n matrix
is dan wordt de determinant van A genoteerd met det(A), |A| of

. . . a1,n
..
..
.
.
. . . an,n



 

1 2
1 2
1 3

=
Waarschuwing. Wees voorzichtig met bovenstaande notatie,
6=
, maar
2 4
3 4





3 4
1 3
1 2
1 3






2 4 . Inderdaad, de determinanten 3 4 en 2 4 zijn allebei gelijk aan het getal 2,




1 2
1 3
de matrices
en
zijn overduidelijk niet gelijk.
3 4
2 4

a1,1
Voorbeeld 8.5. Als A = a2,1
a3,1

a1,2
a2,2
a3,2

a1,3
a2,3 dan is
a3,3

det(A) = a1,1 det(A1,1 ) a1,2 det(A1,2 ) + a1,3 det(A1,3 ) =








a2,1 a2,3
a2,1 a2,2
a
a2,3



=

a
+
a
= a1,1 2,2
1,2
1,3
a3,1 a3,3
a3,1 a3,2
a3,2 a3,3

=a1,1 (a2,2 a3,3 a2,3 a3,2 ) a1,2 (a2,1 a3,3 a2,3 a3,1 ) + a1,3 (a2,1 a3,2 a2,2 a3,1 )


5 3 2





0 2

(3) 1 2
0
2 = 5
Voorbeeld 8.6. 1

2 3
1 3
2 1
3
3(3 4) 2(1 0) = 5.2 + 3(1) 2(1) = 10 3 + 2 = 9
Herinner de formule:
det(A) =

n
X





+ (2) 1

2


0
= 5(0 (2)) +
1

(1)1+j a1,j det(A1,j )

j=1

Het is in sommige boeken gebruikelijk om de minor met de te combineren. Daartoe definieren


we de (i, j)-de cofactor Ci,j van A door:
Ci,j = (1)i+j det(Ai,j )
Met deze notatie wordt de formule van de determinant:
det(A) =

n
X

a1,j C1,j

j=1

Dit heet de berekening van de determinant van A via cofactor expansie langs de eerste rij.

8.2. Berekening van Determinanten

65

Berekenen van det(A) via de Laplace Expansion via rijen of kolommen


Het is wellicht verbazingwekkend dat de determinant berekend kan worden via cofactor expansie
(ontwikkeling) langs een willekeurige rij (of zelfs via een willekeurige kolom). We geven geen bewijs
van de volgende stelling.

STELLING 8.7. Laplace cofactor expansie De determinant van een n n matrix A =


{ai,j }, met n 2, kan berekend worden via ontwikkeling naar de ide rij van A
det(A) = (1)i+1 ai,1 det(Ai,1 ) + (1)i+2 ai,2 det(Ai,2 ) + + (1)i+n ai,n det(Ai,n ) =
= ai,1 Ci,1 + ai,2 Ci,2 + + ai,n Ci,n .

De tweede formule heet cofactorexpansie langs de ide rij van A.


Ook geldt dat det(A) berekent kan worden via ontwikkeling naar de j de kolom van A
det(A) = (1)1+j a1,j det(A1,j ) + (1)2+j a2,j det(A2,j ) + + (1)n+j an,j det(An,j ) =
= a1,j C1,j + a2,j C2,j + + an,j Cn,j

Dit laatste heet weer de cofactor expansie langs de j de kolom van A.

Opmerking:
1. Bij de formule van de ontwikkeling naar en/of de cofactor expansie langs de ide rij van A:
det(A) =

n
X

(1)i+j ai,j det(Ai,j ) =

j=1

n
X

ai,j Ci,j

j=1

geldt dat de kentallen ai,j uit de ide rij van A komen, tesamen met een structuur die te
onthouden is via het zogeheten schaakbord patroon:

+ +
+

det(A) = + +

..
.. .. . .
.
. .
.
2. Bij de formule van de ontwikkeling naar en/of de cofactor expansie langs de j de kolom van
A:
n
n
X
X
det(A) =
(1)i+j ai,j det(Ai,j ) =
ai,j Ci,j
i=1

geldt dat hier de kentallen ai,j


schaakbord patroon.

i=1

uit de j de kolom van A komen, ook hier tesamen met het

Voorbeeld 8.8. Bepaal de determinant van de matrix

1
5
1
4 1
A= 2
0 2
1

66

College 8, Determinanten

via cofactor expansie langs de tweede kolom en ook via expansie langs de derde rij.
Antwoord We berekenen det(A) via expansie langs de tweede kolom:


1






5
1

2 1
1 1
1
1







4 1 = (5)
det(A) = 2
+ (4)
(2)
=
0
1
0 1
2 1
0 2
1

= 5(2 0) + 4(1 0) + 2(1 2) = 10 + 4 6 = 12


We berekenen det(A) via expansie langs de derde rij:


1





5
1

5
1
1
1
1




4 1 = +(0)
det(A) = 2
(2)
+ (1)


4 1
2 1
2
0 2
1
0 + 2(1 2) + 1(4 10) = 0 6 6 = 12


5
=
4

Merk op dat in Voorbeeld 8.8 de tweede berekening iets korter is dan de eerste vanwege de nul in
de derde rij. We concluderen dat de Laplace cofactor expansie het meest zinvol is langs een rij of
een kolom met een maximaal aantal nullen.
Voorbeeld 8.9. Bepaal de determinant van de matrix

2 3 0 1
5
4 2 0

A=
1 1 0 3
2
1 0 0
Antwoord Kolom 3 bevat de meeste nullen, we gebruiken expansie langs de derde kolom.




2 3 1
2 3 1




det(A) = 0C1,3 (2) 1 1 3 + 0C3,3 0C4,3 = 2 1 1 3
2
2
1 0
1 0
We gaan verder met expansie via expansie langs de derde rij.






3 1


(1) 2 1 + 0 = 2[2(8) 5] = 22
= 2 +(2)
1 3
1 3

Het zal ook duidelijk zijn dat als er in een 4 4 matrix A het kental 0 niet voorkomt, de berekening
van de determinant op deze manier een beestenwerk wordt. Wat we dan doen om det(A) te
berekenen bespreken we zo. Eerst vermelden we dat Laplace cofactor expansie in het bijzonder
zinvol is bij een (onder- of ) boven driehoeksmatrix.
Voorbeeld 8.10. Bepaal de determinant van de bovendriehoeks matrix

2 3 1
1
0
4 2
0

A=
0
0 2
3
0
0 0 2
Antwoord Bij iedere stap wordt de Laplace cofactor expansie toegepast langs de eerste kolom.


2 3 1


1

4 2
0
0


4 2
0
3 =
det(A) =
= 2 0 2
0 2
3
0
0 0 2
0
0 0 2

8.2. Berekening van Determinanten

67


2
2.4
0


3
= 2.4.2.(2) = 32
2

En dus:

STELLING 8.11. Laat A een n n boven of onderdriehoeksmatrix zijn. Dan geldt: de


determinant is het product van de kentallen op de diagonaal. Dus:
det(A) = a1,1 a2,2 . . . an,n

Aangezien we iedere vierkante matrix naar een bovendriehoeksmatrix kunnen vegen, roept dit de
vraag op hoe de determinantfunctie van een matrix zich gedraagt bij de elementaire rijbewerkingen!
Dit komt het volgend college aan de orde.

College 9, Determinanten(vervolg)
en deelruimten
9.1

Berekenen Determinanten via vegen

We herhalen de stelling:

STELLING 9.1. Laat A een n n boven of onderdriehoeksmatrix zijn. Dan geldt: de


determinant is het product van de kentallen op de diagonaal. Dus:
det(A) = a1,1 a2,2 . . . an,n

Aangezien we iedere vierkante matrix naar een bovendriehoeksmatrix kunnen vegen, roept dit de
vraag op hoe de determinant van een matrix zich gedraagt bij de elementaire rijbewerkingen (bij
het vegen).
Berekenen van det(A) via vegen naar echelonvorm.
De clou tot het berekenen van determinanten via vegen ligt besloten in de volgende stelling. Het
bewijs laten we achterwegen.

STELLING 9.2. (Determinanten en vegen.) Laat A een vierkante matrix zijn.


1. (Verwisseling) Als de matrix B uit A verkregen worden door verwisseling van twee rijen,
dan geldt: det(B) = det(A).
2. (Scaling) Als de matrix B verkregen wordt door een rij van A met k te vermenigvuldigen,
dan geldt: det(B) = k det(A).
3. (Substitutie) Als de matrix B uit A verkregen door een veelvoud van de ene rij bij een
andere rij op te tellen, dan geldt: det(B) = det(A).

Het volgende voorbeeld laat zien hoe deze stelling te gebruiken om det(A) te gebruiken.
69

70

College 9, Determinanten (vervolg) en deelruimten

Voorbeeld 9.3. Bepaal de determinant van de matrix

2 8 6
8
3 9 5 10

A=
3
0 1 2
1 4 0
6
Antwoord We willen graag met een
eerste rij door 2 te delen.

2

3
det(A) =
3
1
En nu vegen met de eerste rij.

We vegen met rij 2

1 vegen, daarom maken we linksboven het kental 1 door de


8
9
0
4





= 2





= 2



1 4
6
8

3 9
5 10
= 2
1 2
0
3
1 4
0
6

3
5
1
0

4
10
2
6


1 4
3
4
0
3 4 2
0 12 10 10
0
0 3
2
1
0
0
0


4
3
4
3 4 2
0 6
2
0 3
2

We scailen rij 3 en gaan daarna vegen met deze rij.






1 4
1 4
3
4
3
4


0
0
3 4 2
3 4 2
= 4
= 4.1.3.(3).1 = 36
= 4

0 3
1
0 3
1
0
0
0
0
0
0
1
0 3
2
Bij dit laatste is Stelling 8.11 gebruikt.

De volgende stelling zal nu duidelijk zijn.

STELLING 9.4. Laat A een vierkante matrix zijn die met behulp van vervanging en r
verwisselingen (maar zonder scaling) naar een bovendriehoeks matrix U wordt geveegd. Dan
geldt:
det(A) = (1)r u1,1 u2,2 . . . un,n

9.2

Algebrasche eigenschappen van Determinanten

Een direct maar interessant gevolg van Stelling 9.4 is de volgende stelling.

STELLING 9.5. Voor een vierkante matrix A geldt: A is inverteerbaar als en slechts als
det(A) 6= 0.

9.2. Algebrasche eigenschappen van Determinanten

71

Bewijs: A is inverteerbaar als en slechts als (zie Stelling 7.11) in iedere kolom een pivotpositie is
als en slechts als iedere ui,i 6= 0 als en slechts als (1)r u1,1 u2,2 . . . un,n = det(A) 6= 0.
Omdat Stelling 9.2 over veegstappen gaat is deze te herformulieren in termen van elementaire
matrices E. Deze herformulering luidt als volgt:
Als A een n n matrix is en E een elementaire n n matrix, dan geldt:
det(EA) = det(E) det(A)

1 als E een verwisselings matrix


+1 als E een vervangings matrix
want det(E) =

k
als E een scalings matrix met k
STELLING 9.6. Als A en B n n matrices zijn, dan geldt:
det(AB) = det(A) det(B)

Bewijs: Als of A of B niet inverteerbaar is, dan geldt: AB niet inverteerbaar en dus geeft Stelling 9.5 het gewenste resultaat.
Stel nu dat zowel A als B inverteerbaar zijn. Dan is volgens Stelling 7.11 A te schrijven als een
product van elementaire matrices, zeg
A = Ep Ep1 . . . E1 = Ep Ep1 . . . E1 In
Een herhaald toepassen hierop van de formule det(EX) = det(E) det(X) levert:
det(A) = det(Ep ) det(Ep1 ) . . . det(E1 ) det(In ) = det(Ep ) det(Ep1 ) . . . det(E1 )
(want det(In ) = 1.)
Een herhaald toepassen op AB = Ep Ep1 . . . E1 B van dezelfde formule levert:
det(AB) = det(Ep ) det(Ep1 ) . . . det(E1 ) det(B) = det(A) det(B)

Pas op, er geldt NIET: det(A + B) = det(A) + det(B).


Het bewijs van de volgende stelling is een opgave.

GEVOLG 9.7. Als A een inverteerbare n n matrix, dan geldt:


det(A1 ) =

1
= (det(A))1
det(A)

Van de volgende stelling laten we het bewijs achterwege.

72

College 9, Determinanten (vervolg) en deelruimten

STELLING 9.8. Voor iedere n n matrix geldt:


det(AT ) = det(A).

Nu nog een stelling met handigheidjes om te weten.

STELLING 9.9. Laat A een n n matrix zijn.


1. Als A een rij (kolom) met nullen heeft, dan: det(A) = 0.
2. Als A twee gelijke rijen (kolommen) heeft dan geldt: det(A) = 0.
3. det(kA) = k n det(A).

Bewijs: De uitspraken 1. en 2. geven A niet inverteerbaar, en dus det(A) = 0.


Uitspraak 3. wordt verkregen door onderdeel 2 van Stelling 9.2 n maal toe te passen, door n maal
een rij met k te vermenigvuldigen.
Tenslotte nog een stelling met een lineaire eigenschap van de determinant. Daartoe introduceren
we de volgende notatie.
Notatie Laat A een n n matrix zijn. Als x Rn , dan staat Ai (x) voor de matrix verkregen uit
A door de ide rij van A te vervangen door xT . Evenzo staat Aj (x) voor de matrix verkregen uit
A door de k de kolom van A te vervangen door x.

STELLING 9.10. Laat A een n n matrix zijn en fixeer i en/of j. Dan geldt:
1. det(Ai (c1 x + c2 x2 )) = c1 det(Ai (x1 )) + c2 det(Ai (x2 )).
2. det(Aj (c1 x + c2 x2 )) = c1 det(AJ (x1 )) + c2 det(AJ (x2 )).

Bewijs: Als men de determinant van de matrix Ai (c1 x + c2 x2 ) bepaald door te ontwikkelen naar
de ide rij en de distributieve wet toepast verschijnt deze identiteit. De tweede identiteit is te
verkrijgen door te ontwikkelen naar de j de kolom.

9.3

Aanvullende eigenschappen van Determinanten

Deze sectie bevat enige aanvullende kennis over determinanten, met name enige meetkundige
eigenschappen wat betreft de determinanten.

De regel van Cramer


De regel van Cramer betreft een oude stelling die de formule levert voor een onbekende xi bij een
lineair stelsel van n vergelijkingen met n onbekenden.

9.3. Aanvullende eigenschappen van Determinanten

73

Herinner de notatie van de vorige paragraaf: als A = [ a1 . . . ai . . . an ] een n n matrix is (aj Rn )


en een vector b Rn is gegeven, dan staat Ai (b) voor de matrix
Ai (b) = [ a1 . . . b . . . an ].
Dus de ide kolom ai van A is vervangen door b.

STELLING 9.11. De regel van Cramer Laat A een inverteerbare n n matrix zijn en
b Rn . Als x de unieke oplossing is van het stelsel Ax = b, dan geldt:
xi =

det(Ai (b))
, i = 1, . . . , n
det(A)

Bewijs: De kolommen van de eenheidsmatrix In zijn e1 , . . . , en , de standaard eenheidsvectoren.


Als Ax = b, dan:
A(In )i (x) = A[ e1 . . . x . . . en ] = [ Ae1 . . . Ax . . . Aen ] = [ a1 . . . b . . . an ] = Ai (b).
Dus geeft Stelling 9.6 dat
det(A) det((In )i (x)) = det(A(In )i (x)) = det(Ai (b))
Maar
ontwikkeling
van
de
(In )i (x) langs de i
rij geeft:
det((In )i (x)) = xi en dus
(det(A))xi = det(Ai (b))

en de conclusie volgt.

(In )i (x) =

1 0
0 1
.. .. . .
.
. .
0 0
.. ..
. .
0

x1
x2
..
.

0
0
..
.

xi
.. . .
.
.
xn

0
..
.
1

Opmerking: De regel van Cramer is tegenwoordig alleen nog maar van theoretisch belang. Een
onbekende xi oplossen met Cramer is meer rekenwerk dan via vegen alle onbekenden tegelijk
oplossen.
Voorbeeld 9.12. Beschouw het volgende stelsel lineaire vergelijkingen met parameter s.

3sx1 2x2 = 4
6x1 + sx2 = 1
Bepaal voor welke s er een unieke oplossing is en bepaal deze met de regel van Cramer.
Antwoord Beschouw het systeem als Ax = b met






3s 2
4 2
3s 4
A=
, A1 (b) =
, A2 (b) =
6
s
1
s
6 1
Omdat det(A) = 3s2 12 =3(s + 2)(s 2) heeft dit systeem een unieke oplossing als s 6= 2. Als
x1
de unieke oplossing waarbij
s 6= 2 dan is de x =
x2
x1 =

det(A1 (b))
4s + 2
=
det(A)
3(s 2)(s + 2)

74

College 9, Determinanten (vervolg) en deelruimten

x2 =

det(A2 (b))
3s + 24
s+8
=
=
det(A)
3(s 2)(s + 2)
(s 2)(s + 2)

De klassieke adjoint van een matrix en een formule voor A1


Herinner dat de (i, j) cofactor Ci,j van een n n matrix A gelijk is aan
Ci,j = (1)i+j det(Ai,j )
met Ai,j de (i, j) minor van A.
De matrix [Ci,j ]i=1..n,j=1..n heet de cofactorenmatrix van A. De getransponeerde hiervan heet
de (klassieke) adjoint van A en wordt genoteerd met adj(A). Dus:

C1,1 Cn,1

.. . .
..
adj(A) =
.
.
.
C1,n

Cn,n

De volgende stelling geeft de basiseigenschap van de adjoint van een matrix.

STELLING 9.13. Als A een n n matrix is, dan geldt:

det(A)
0

0
det(A)

A adj(A) =
..
.. . .

.
.
.
0

0
0
..
.
det(A)

Bewijs: Het (i, i)de kental van A adj(A) is ide rij A maal ide kolom adj(A), wordt:
ai,1 Ci,1 + ai,2 Ci,2 + + ai,n Ci,n = det(A)
(Want hier staat de cofactor expansie van A naar de ide rij van A.)
Het (i, j)de kental van A adj(A) (met i 6= j) is ide rij A maal j de kolom adj(A), wordt:
ai,1 Cj,1 + ai,2 Cj,2 + + ai,n Cj,n
Dit kan beschouwd worden als de cofactor expansie naar de j de rij van de matrix A . Hierbij wordt
A verkregen uit A door de j de rij van A te vervangen door de ide rij van A. Dit levert dus de
waarde van det(A ) = 0 op (want A heeft twee gelijke rijen).
Deze stelling levert de volgende formule voor A1 op.

STELLING 9.14. Als de n n matrix A inverteerbaar is, dan


A1 =

1
adj(A)
det(A)

9.3. Aanvullende eigenschappen van Determinanten

75

Opmerking: bovenstaande formule is puur van theoretisch belang. Om hiermee de inverse te


bepalen wordt een soap van rekenwerk.

Determinanten als oppervlakte en als volume


Merk op dat de oppervlakte van een parallellogram
op de vectoren a en b gelijk is aan:
oppervlakte
lengte basis hoogte = kak h
Dit levert de volgende interpertatie van de absolute waarde van de determinant van een 2 2 matrix als oppervlakte.

b
hoogte
a

STELLING 9.15. Als A een 22 matrix is dan geldt dat | det(A)| gelijk is aan de oppervlakte
van het parallellogram opgespannen door de kolommen van A.

Bewijs: Stel A =

a1
b1

a2
b2

. Dan geldt: | det(A)| = |a1 b2 a2 b1 |.

Aan de andere kantkunnen we


 de oppervlakte van het parallellogram opgespannen door de koa1
a2
lommen a1 =
en a2 =
bepalen.
b1
b2
Om de hoogte te bepalen projecteren we a2 op de
normaal van a1 en de hoogte wordt

n=normaal
a2

ka2 k | cos()|
waarbij de
 hoek tussen a2 en de normaal is.
b1
Neem n =
als normaal van a1 (dan is
a1
knk = ka1 k).
Dan geldt:

ka2 k cos()

a1

det(A) = a1 b2 a2 b1 = n a2 = knk ka2 k cos() =


ka1 k ka2 k cos() = basis hoogte
en de conclusie volgt.

Opmerking. Omdat det(A) = det(AT ) geldt ook dat | det(A)| gelijk is aan de oppervlakte van
het parallellogram opgespannen door de rijen van A!

76

College 9, Determinanten (vervolg) en deelruimten

In de ruimte kunnen we spreken over het parallellepipidum opgespannen door drie vectoren.
volume=
oppervlakte basis parallellogram hoogte
Dit levert de volgende interpertatie van de absolute waarde van de determinant van een 3 3 matrix als volume.

hoogte

STELLING 9.16. Als A een 3 3 matrix is dan geldt dat | det(A)| gelijk is aan het volume
van het parallellepipidum opgespannen door de drie kolommen van A.

a1 b 1
Bewijs: Beschouw A = a2 b2
a3 b 3
Ontwikkeling naar de eerste kolom

c1
c1
a1
b1
c2 met kolommen a = a2 , b = b2 en c = c2 .
b3
c3
c3
a3
van A geeft:

det(A) = a1 (b2 c3 b3 c2 ) a2 (b1 c3 b3 c1 ) + a3 (b1 c2 c1 b2 ) = a (b c)


Hierbij staat
b c voor het
uitwendig product van de vectoren b en c, zoals ons wel bekend is (?).
b 2 c3 b 3 c2
Dus b c = b3 c1 b1 c3 .
b 1 c2 c1 b 2
De vector b c is dus de normaal van de basis
parallellogram opgespannen door b en c en als
bc
de hoek is tussen de normaal b c en a dan:
det(A) = a (b c) = kb ck kak cos() =
= oppervlakte basis parallellogram hoogte =
= volume parallellopipidum

a
kak cos()

c
b

Opmerking.
1. Omdat det(A) = det(AT ) geldt dat | det(A)| ook gelijk is aan het volume van het parallellepipidum opgespannen door de drie rijen van A.
2. In eerste instantie bestaat er geen interpretatie in Rn van de determinant van een nn matrix
als een n-dimensionaal volume, want we weten niet wat dit is. Echter, determinanten
kunnen gebruikt worden om het begrip n-dimensionaal volume in Rn te definieren. We
zullen niet verder in detail treden.

9.4. Lineaire deelruimten van Rn

9.4

77

Lineaire deelruimten van Rn

We zijn in de voorafgaande colleges het begrip Span van een stel vectoren v1 . . . vk tegengekomen
en we stellen de vraag: Hoe zijn deelverzamelingen van Rn die van de vorm Span{v1 . . . vk } te
herkennen?, d.w.z. wat zijn de algebrasch kenmerkende eigenschappen van deze deelverzamelingen.

STELLING 9.17. Laat v1 , . . . , vk een stelsel vectoren zijn in Rn . Dan geldt dat:
W = Span{v1 , . . . , vk }
de volgende eigenschappen heeft:
1. De nulvector 0 zit in W ,
2. Als w1 en w2 in W , dan ook w1 + w2 W (voor alle w1 , w2 W )
3. Als w W en c R dan ook cw W (voor iedere w W en c R).

Bewijs: Om eigenschap 1. te controleren, zeggen we eenvoudig dat


0 = 0v1 + + 0vk
en dus is 0 een lineaire combinatie van v1 , . . . , vk , d.w.z. 0 Span{v1 , . . . , vk } = W .
Om eigenschap 2 te controleren, kiezen we twee vectoren w1 , w2 uit W , zeg:
w1 = c1 v1 + + ck vk en w2 = d1 v1 + + dk vk .
Dan:
w1 + w2 = (c1 v1 + + ck vk ) + (d1 v1 + + dk vk ) =
= (c1 + d1 )v1 + + (ck + dk )vk

Hier staat dat w1 +w2 een lineaire combinatie is van v1 , . . . , vk , d.w.z. w1 +w2 Span{v1 , . . . , vk } =
W en aan eigenschap 2. is dus voldaan.
Tenslotte eigenschap 3. Kies daartoe w W , zeg w = c1 v1 + + ck vk en kies c R Dan:
cw = c(c1 v1 + + ck vk ) = (cc1 )v1 + + (cck )vk
en ook hier staat dat cw een lineaire combinatie is van v1 , . . . , vk , d.w.z. cw Span{v1 , . . . , vk } =
W en aan eigenschap 3 is dus voldaan.
Zouden deze drie eigenschappen op zich voldoende zijn om de deelverzamelingen van type Span
van een stel vectorente karakteriseren? We definieren:

Definitie: Een deelverzameling W van Rn heet een lineaire deelruimte van Rn , indien:
1. De nulvector 0 zit in W ,
2. Als w1 en w2 in W , dan ook w1 + w2 W (voor alle w1 , w2 W )
3. Als w W en c R dan ook cw W (voor iedere w W en c R).

78

College 9, Determinanten (vervolg) en deelruimten

We zeggen dat de lineaire deelruimte W gesloten is onder optelling en scalaire vermenigvuldiging.


Daarmee is W ook gesloten onder het nemen van lineaire combinaties, d.w.z. als w1 , . . . , wn W
en c1 . . . cn R, dan ook:
c 1 w1 + + c n wn W
Tenslotte, lineaire deelruimten worden ook wel kortweg deelruimten genoemd.
Voorbeeld 9.18. Rn bevat zeker lineaire deelruimten. Twee, wellicht flauwe, voorbeelden zijn:
1. W = {0} Rn , het deel van Rn dat alleen de nulvector bevat. Het is makkelijk na te gaan
dat dit inderdaad aan de eisen van lineaire deelruimte van Rn zijn voldoet. Dit is kennelijk
de kleinste lineaire deelruimte van Rn .
2. W = Rn Rn , het deel van Rn dat alle vectoren bevat van Rn . Ook hier is het makkelijk
na te gaan dat dit inderdaad aan de eisen van lineaire deelruimte van Rn zijn voldoet. Dit
is kennelijk de grootste lineaire deelruimte van Rn .
Deze twee lineaire deelruimten worden ook wel de triviale deelruimten van Rn genoemd. Merk
op dat deze beide deelruimte ook van het type Span zijn. Inderdaad: W = {0} = Span{0} en
W = Rn = Span{e1 , . . . , en }.
De volgende stelling zegt dat we ons doel bereikt hebben.

STELLING 9.19. De lineaire deelruimten van Rn zijn precies de deelverzamelingen van de


vorm W = Span{v1 , . . . , vk }.

Bewijs: Stelling 9.17 laat zien dat iedere verzameling van de vorm W = Span{v1 , . . . , vk } een
lineaire deelruimte is.
Omgekeerd is lastiger. Stel dat W een lineaire deelruimte is. Als W = {0} dan W = Span{0} en
zijn we klaar. Zo niet, kies vector v1 W met v1 6= 0.
Nu geldt zeker Span{v1 } W . Als W = Span{v1 } dan zijn we klaar, zo niet kies v2 W met
v2
/ Span{v1 }.
Nu geldt zeker Span{v1 , v2 } W . Als W = Span{v1 , v2 } dan zijn we klaar, zo niet kies v3 W
met v3
/ Span{v1 , v2 }.
Dit proces stopt als op een bepaald moment geldt: W = Span{v1 , . . . , vk } (en dan zijn we klaar).
De vraag is echter: zal dit proces stoppen? Zo niet, dan zijn de vectoren v1 , . . . , vk , . . . zo gekozen
dat v1 6= 0 en zo dat vk+1
/ Span{v1 , . . . , vk }, voor alle k.
Wij claimen dat de eerste n + 1 vectoren v1 , . . . , vn+1 lineair onafhankelijk zijn. Om dit aan te
tonen stel dat
c1 v1 + + cn+1 vn+1 = 0
Er moet gelden dat cn+1 = 0, want zo niet, dan
vn+1 =

cn
c1
v1
vn
cn+1
cn+1

en dus vn+1 Span{v1 , . . . , vn }. Maar dat was dus niet het geval.
Als cn+1 = 0 dan geldt:
c1 v1 + + cn vn = 0
en hetzelfde argument als net laat zien dat cn = 0. We gaan zo door totdat cn+1 = cn = cn1 =
= c2 = 0 en we concluderen dat c1 v1 = 0. Maar dan ook c1 = 0 want v1 6= 0.

9.4. Lineaire deelruimten van Rn

79

We hebben de claim bewezen: v1 , . . . , vn+1 zijn lineair onafhankelijk. Maar ook dat kan weer niet
want Rn bevat niet n + 1 lineair onafhankelijke vectoren. Dus ergens zit een foute veronderstelling,
en dat kan alleen nog maar zijn dat het proces boven beschreven niet zou stoppen. Als deze
veronderstelling fout is, dan moet dit ptoces dus wel stoppen. En als dit proces na stap k stopt,
dan weten we W = Span{v1 , . . . , vk }

College 10, Deelruimten(vervolg)


10.1

Basis van een deelruimten

Herinner dat we in het vorige college het begrip lineaire deelruimte van Rn hebben ingevoerd. Om
precies te zijn:

Definitie: Een deelverzameling W van Rn heet een lineaire deelruimte van Rn , indien:
1. De nulvector 0 zit in W ,
2. Als w1 en w2 in W , dan ook w1 + w2 W (voor alle w1 , w2 W )
3. Als w W en c R dan ook cw W (voor iedere w W en c R).

We hebben ingezien dat de lineaire deelruimten precies de deelverzamelingen van Rn zijn van
de vorm Span{v1 , . . . , vk }. Dan ligt het voor de hand om een gegeven deelruimte W met zo
min mogelijk vectoren op te spannen. We zoeken een manier om deze zo goedkoop mogelijke
opspanning te beschrijven.

Definitie: Laat W een lineaire deelruimte van Rn zijn. Het stelsel


B = ( b1 , . . . , bk )
vectoren in W heet een basis voor W, als
1. Span B = Span( b1 , . . . , bk ) = W (B spant W op),
2. Het stelsel ( b1 , . . . , bk ) is lineair onafhankelijk.

(Merk op dat de notatie B = ( b1 , . . . , bk ) impliceert dat de volgorde van de basisvectoren van


belang kan zijn.)
Omdat Rn zelf een lineaire deelruimte van Rn is, kunnen we spreken van een basis van Rn . Het
zal een ieder duidelijk zijn dat
( e1 , . . . , en )
een basis van Rn is. Dit wordt de standaardbasis van Rn genoemd.
81

82

College 10, Deelruimten(vervolg)

LEMMA 10.1. Laat W een lineaire deelruimte zijn van Rn en stel dat W = Span{b1 , . . . , bk }.
Dan geldt: als {v1 , . . . , v } een onafhankelijke verzameling vectoren in W is, dan k.
Bewijs: Omdat de verzameling {b1 , . . . , bk } de deelruimte W opspannen (het hoeft geen basis te
zijn) geldt: iedere vector ci is te schrijven als ci = a1,i b1 + , ak,i bk (i = 1, . . . , .)
Kennelijk: als B = [ b1 . . . bk ], A = [aj,i ] en C = [ c1 . . . c ], dan geldt:
BA = C
Merk op dat A een k matrix is.
Bovendien geldt: Als Ax = 0 dan geldt: Cx = BAx = B0 = 0 en omdat de kolommen van C
onafhankelijk zijn, volgt x = 0.
De eigenschap Ax = 0 x = 0 impliceert dat de kolommem van de k matrix A ook onafhankelijk zijn, en dus: k.
Als belangwekkend gevolg van dit lemma verkrijgen we:
STELLING 10.2. Laat W een lineaire deelruimte zijn van Rn en laat B = ( b1 , . . . , bk ) een basis
zijn van W, evenals C = ( v1 , . . . , v ). Dan geldt: k = .
Bewijs: Uit het vorig lemma volgt dat k. Als we de rol van de vectoren bi en cj verwisselen
in het vorig lemma volgt: k . Dus = k.
Omdat ieder tweetal bases van een lineaire deelruimte W evenveel vectoren bevat, kunnen we aan
dit aantal een naam toekennen.

Definitie: Laat W een lineaire deelruimte zijn van Rn . Het aantal vectoren in een basis
van W heet de dimensie van W en wordt genoteerd met dim(W ). De dimensie van de
deelruimte {0} wordt 0 gedefinieerd.

De triviale deelruimte {0} heeft officieel geen basis (waarom niet?) en daarom wordt, in bovenstaande definitie van dimensie, de dimensie van deze ruimte apart gegeven.
STELLING 10.3. dim(Rn ) = n
STELLING 10.4. (De uitdunningsstelling)
Zij W een lineaire deelruimte van Rn . Dan geldt: iedere W opspannende verzameling kan worden
uitgedund tot een basis van W .
Bewijs: Stel dat W = Span{a1 , . . . , ak }. Mocht vector ai bestaan zodat W = Span{a1 , . . . , ai1 , ai+1 , . . . , ak },
dan gooien we ai uit de opspannende verzameling. We gaan door met vectoren uit de opspannende
verzameling te gooien totdat dit niet meer kan. Dus dan
W = Span{ai1 , . . . , ai }
en stelling 4.2 impliceert dat geen van vectoren aij een lineaire combinatie is van de overigen
vectoren in de opspannende verzameling. Maar dan zijn de vectoren {ai1 , . . . , ai } onafhankelijk,
en dus is
B = {ai1 , . . . , ai }
een basis van W die een uitdunning is van verzameling {a1 , . . . , ak }.

10.1. Basis van een deelruimten

83

STELLING 10.5. (De uitbreidingsstelling)


Zij W een lineaire deelruimte van Rn . Stel dat {a1 , , a } een verzameling lineair onafhankelijke
vectoren in W is. Dan is deze verzameling vectoren uit te breiden tot een basis van W .
Bewijs: Als W = Span{a1 , , a } dan zijn we klaar en is {a1 , , a } de gezochte basis.
Zo niet, kies vector a+1 W met
a+1
/ Span{a1 , , a }
Dan geldt zeker:
Span{a1 , , a , a+1 } W.
Als W = Span{a1 , , a , a+1 }, dan zijn we klaar, zo niet dan kiezen we een vector a+2 W
met
a+2
/ Span{a1 , , a , a+1 }.
En zo gaan we maar door. Dit is dezelfde constructie als in Stelling 9.19 en hetzelfde bewijs als in
die stelling laat zien dat de vectoren
{a1 , , a , a+1 , a+2 , . . .}
onafhankelijk zullen zijn. Maar dan kunnen dit niet meer dan n vectoren zijn, d.w.z dit proces zal
stoppen. Het proces stopt alleen als
W = Span{a1 , , a , . . . , a+k }
en dan is de basis {a1 , , a , . . . , a+k } gevonden.(Dit is een basis want de vectoren spannen op
en zijn onafhankelijk.)
GEVOLG 10.6. (De dimensiestelling) Laat W een lineaire deelruimte zijn van Rn met dim(W ) =
k. Dan geldt:
1. Ieder k-tal vectoren in W die W opspannen zijn ook lineair onafhankelijk (en vormen dus
een basis).
2. Ieder k-tal vectoren in W die lineair onafhankelijk zijn spannen W ook op (en vormen dus
een basis)
Bewijs:
1. Stel {a1 , . . . , ak } is een k-tal vectoren in W die W opspannen. Volgens de uitdunningsstelling
kan dit stelsel vectoren worden uitgedund tot een basis (bestaande dus uit k vectoren, want
dim(W ) = k). Maar we beginnen al met k vectoren en dus kan er geen vector worden
weggehaald. Dat kan dus alleen als we al met een basis starten.
2. Stel {a1 , . . . , ak } is een k-tal vectoren in W die onafhankelijk zijn. Volgens de uitbreidingsstelling kan dit stelsel vectoren worden uitgebreid tot een basis (bestaande dus uit k vectoren,
want dim(W ) = k). Maar we beginnen al met k vectoren en dus kan er geen vector aan
worden toegevoegd. Dat kan dus alleen als we al met een basis starten.

Opmerking: Bovenstaand gevolg zegt dat het aangenaam is de dimensie van een deelruimte te
kennen. Dan hoeft minder werk worden verricht om te laten zien dat een bepaalde verzameling
vectoren inderdaad een basis is.

84

College 10, Deelruimten(vervolg)

10.2

Deelruimten geassocieerd met een matrix

Met een matrix kunnen verschillende deelruimten geassocieerd worden.

A1

.. .
Definitie: Laat A een m n matrix zijn, zeg A = [ a1 . . . an ] =
.
Am
1. De kolomruimte van A, notatie Col(A), is de deelruimte van Rm opgespan- nen door
al de kolommen van A. Dus Col(A) = Span{a1 , . . . , an }.
2. De rijruimte van A, notatie Row(A), is de deelruimte van Rn opgespannen door de
rijen van A. Dus Row(A) = Span{A1 , . . . , Am }.

Opmerking: Omdat de rijen van een matrix eigenlijk geen vectoren zijn, wordt met Row(A)
eigenlijk de opspanning van de getransponeerde van de rijen van A bedoeld. Soms is het toch
handig om er als rijen tegenaan te kijken (zie bijvoorbeeld Stelling 10.11). Het zal nu duidelijk
zijn dat:
Row(A) = Col(AT )
Welke vectoren zitten in de kolomruimte van A? Stelling 4.2 geeft ons de volgende stelling.
STELLING 10.7. Laat A = [ a1 . . . an ] een m n matrix zijn met kolommen ai Rm . Als
b Rm , dan zijn equivalent:
1. b Col(A)
2. b Span{a1 , . . . , an },
3. Het lineaire stelsel [ a1 . . . an | b ] is consistent,
4. De matrix vergelijking Ax = b heeft een oplossing.
Hoe gedragen de kolomruimte en de rijruimte zich bij het veeg proces? Van college 5 weten we
dat de afhankelijkheids relaties tussen de kolommen blijven bestaan, maar eenvoudige voorbeelden
laten al zien dat de kolomruimte wel verandert tijdens het veeg proces.




1 1
1 1
Voorbeeld 10.8. Als A =
en B =
, dan zijn A en B rijequivalent, maar
1 1
0 0
Col(A) 6= Col(B). Merk op dat Row(A) = Row(B). Dit is geen toeval zoals de volgende stelling
laat zien.
Echter, de rijruimte gedraagt zich mooier bij het vegen. (Dit is nu een stelling die veel moeilijker
te begrijpen is als men Row(A) niet als de opspanning van de rijen van A ziet, maar als Col(AT ).)
STELLING 10.9. Als A en B rijequivalente matrices zijn. Dan geldt: Row(A) = Row(B).
Bewijs: B wordt uit A verkregen via operaties met de rijen, operaties die rijen oplevert binnen
Row(A) en de uiteindelijk verkregen rijen van B zullen lineaire combinaties van de rijen van A
zijn. Dus Row(B) Row(A).
Omdat B terug te vegen is naar A geeft dezelfde redenering dat Row(A) Row(B). Beide inclusies
tezamen geven de identiteit: Row(A) = Row(B).

10.2. Deelruimten geassocieerd met een matrix

85

Er is nog een belangrijke deelruimte geassocieerd met de matrix A. Daartoe eerst:


STELLING 10.10. Laat A een m n matrix zijn. Dan geldt dat de verzameling
N = {x Rn : Ax = 0}
een lineaire deelruimte is van Rn .
Bewijs: We controleren dat N aan de drie eisen voldoet.
Omdat A0 = 0 geldt: 0 N .
Stel dat w1 N en w2 N . Dus Aw1 = 0 en Aw2 = 0 en er volgt:
A(w1 + w2 ) = Aw1 + Aw2 = 0 + 0 = 0
en dus w1 + w2 N . Evenzo volgt als c R:
A(cw1 ) = cAw1 = c0 = 0
en dus zit ook cw1 N . We concluderen dat N een lineaire deelruimte van Rn is.

Definitie: Laat A een m n matrix zijn. De nulruimte van A, notatie Nul(A), is de


lineaire deelruimte van Rn bestaande uit al de oplossingen van het homogene stelsel Ax = 0.

Met een mn matrix A associeren we vier lineaire deelruimten, de deelruimten Col(A) en Nul(AT )
in Rm en de deelruimten Col(AT ) en Nul(A) in Rn . Dit worden de vier elementaire deelruimten
geassocieerd met A genoemd.
De ruimte Nul(AT ) wordt ook wel de linker nulruimte van A genoemd. Omdat x Nul(AT ) als
en slechts als AT x = 0 als en slechts als (AT x)T = 0T als en slechts als xT A = 0T .
STELLING 10.11. Als A en B rijequivalente matrices zijn. Dan geldt: Nul(A) = Nul(B).
Bewijs: Dit is een direct gevolg van Stelling 2.3
Zonder bewijs vermelden we de volgende stelling.
STELLING 10.12. Laat W een lineaire deelruimte van Rn zijn. Dan:
1. Er bestaat een n k matrix A zodat W = Col(A).
2. Er bestaat een n matrix B zodat W = Nul(B).
Dus als we alles van kolomruimten zouden weten dan weten we ook alles van lineaire deelruimten. Evenzo: als we alles van nulruimten zouden weten, dan weten we ook alles van lineaire
deelruimten.
Tenslotte zullen we aangeven hoe een basis voor een lineaire deelruimte te construeren is. Dit
hangt natuurlijk af van hoe de lineaire deelruimte W in kwestie ons voorgeschoteld is. Beschouw
het volgende voorbeeld.

86

College 10, Deelruimten(vervolg)

1
1
2
1
1
2

Voorbeeld 10.13. Beschouw a1 =


1 , a2 = 1 , a3 = 1
1
2
1
Merk op dat geldt Span{a1 , a2 , a3 , a4 , a5 } = Col(A) met:

1
1
A=
1
1

1
1
1
2

2
2
1
1

0
0
1
2

0
0

0
0
, a4 =

1 en a5 = 1
2
1

0
0

1
1

Vraag: Bepaal bases voor zowel Col(A), Row(A) als Nul(A).


Antwoord Vegen leert ons dat:

1
1
A=
1
1

1
1
1
2

2
2
1
1

0
0
1
2


0
1
0
0

1 0
1
0

0
1
0
0

0
1
2
0
1
0
=B
1 1 1
0
0
0

Stelling 5.5, leert ons dat de pivotkolommen van de oorspronkelijke matrix een minimaal stelsel is
met dezelfde opspanning en Stelling 5.8 leert ons dat die pivotkolommen onafhankelijk zijn.
Kortom ( a1 , a2 , a3 ) vormt een basis voor Col(A).
We leren hieruit dat de pivotkolommen van de oorspronkelijke matrix A een basis vormen voor
de kolomruimte van A.
(De pivotkolommen van de geveegde matrix B zitten i.h.a. niet in Col(A) en zullen dus zeker geen
basis vormen voor Col(A)!)
Wat betreft Row(A) het volgende. In de eerste plaats geldt Row(A) = Row(B). Omdat het
duidelijk zal zijn dat het stelsel van pivotrijen van een matrix B in echelonvorm lineair onafhankelijk
zijn, geldt dat dit stelsel een basis voor Row(B) is. We concluderen dat ( B1 , B2 , B3 ) een basis voor
Row(A) is. We leren hieruit dat de pivotrijen van de geveegde matrix (mits naar echelonvorm)
een basis vormen voor de rijruimte van A.
(Merk op: in dit voorbeeld vormen de pivotrijen van de oorspronkelijke matrix A geen basis voor
Row(A). Ze zijn niet onafhankelijk, want A1 = A2 .)
Merk ook op dat de basis die gevonden is voor Row(A) geen uitdunning is van de rijen van A tot
een basis. Wil men dat bereiken dan zit er niets anders op dan Row(A) = Col(AT ) gebruiken en
AT naar echelonvorm te vegen.
Tenslotte, om een basis voor Nul(A) te bepalen, lossen we het stelsel Ax = 0 op. Dit is equivalent
met Bx = 0. Dit levert:

x4 2x5
1
2

1
1
x4

x4 + x5 = x4 1 + x5
x=
1

x4
1
0
x5
0
1

1
2
1 1

Dit betekent dat het stelsel richtingsvectoren S =


1 , 1 van de oplossing Nul(A)
1 0
0
1
opspant en omdat S een onafhankelijke verzameling is, is het stelsel S een basis voor Nul(A).

10.2. Deelruimten geassocieerd met een matrix

87

Conclusie Een effectieve procedure om een basis te bepalen voor Col(A),


Row(A) = Col(AT ) en Nul(A):
1. Veeg A naar een matrix B in echelonvorm.
2. De pivotkolommen van de oorspronkelijke matrix A vormen een basis voor Col(A).
3. De pivotrijen (of liever, de getransponeerde van de pivotrijen) van de geveegde matrix
B vormen een basis voor Row(A).
4. De richtingsvectoren van de oplossing Ax = 0 vormen een basis voor Nul(A).

College 11, Rang van een matrix.


Eigenwaarden matrix.
11.1

De rang van een matrix

Herinner dat we in het vorige college het begrip basis en dimensie van lineaire deelruimte van Rn
hebben ingevoerd. Ook is uitgelegd hoe bij een gegeven matrix A een basis voor de kolomruimte
Col(A) (en ook de rijruimte Row(A)) te bepalen is, en dit levert direct de volgende stelling op:
STELLING 11.1. Laat A een m n matrix zijn. Dan geldt:
1. dim(Col(A))=aantal pivotposities van A (=aantal gebonden variabelen van stelsel Ax = 0).
2. dim(Row(A))=aantal pivotposities van A.
3. dim(Col(A)) = dim(Row(A)).
Bewijs: We volgen de constructie van een basis voor Col(A) en Row(A). Veeg A naar een matrix
B in echelonvorm. De pivotkolommen van A vormen een basis van Col(A) en hieruit volgt de
eerste claim. De pivotrijen (of liever, de getransponeerde van de pivotrijen) van B vormen een
basis van Row(A) en hieruit volgt de tweede claim. Hiermee is de derde claim triviaal.
De constructie van een basis voor de nulruimte een matrix A levert direct de volgende stelling op:
STELLING 11.2. Laat A een m n matrix zijn. Dan geldt:

dim(Nul(A))=aantal vrije variabelen van het stelsel Ax = 0.

Definitie: Laat A een m n matrix zijn.


De rang van A is de dimensie van de kolomruimte van A. Notatie: rang(A).
De nullity van A is de dimensie van de nulruimte van A. Notatie: nullity(A)

En dus leveren Stelling 11.1 en Stelling 11.2 de volgende stellingen.


STELLING 11.3. Laat A een m n matrix zijn. Dan geldt:
1. rang(A) = rang(AT )
2. rang(A) n en rang(A) m
3. rang(A) + nullity(A) = n.
89

90

College 11, Rang en eigenwaarde van een matrix

Pas op: als A een m n matrix is dan geldt:


rang(AT ) + nullity(AT ) = m.
Een reden waarom de rang van een matrix veel gebruikt wordt, zit onder andere in de volgende
resultaten.
STELLING 11.4. Laat A = [ a1 . . . an ] een m n matrix zijn. Dan geldt:
1. De kolommen van A zijn lineair onafhankelijk als en slechts als rang(A) = n.
2. De kolommen van A spannen Rm op als en slechts als rang(A) = m.
Bewijs:
1. Als de kolommen van A lineair onafhankelijk is, dan is ( a1 . . . an ) een basis van Col(A) =
Span{a1 . . . an } en dus is rang(A) = dim(Col(A)) = n.
Omgekeerd, stel rang(A) = dim(Col(A)) = n. Omdat {a1 . . . an } opspannen is deze verzameling vectoren uit te dunnen tot een basis. Maar omdat dim(Col(A)) = n kan geen
enkele vector weggegooid worden, d.w.z. {a1 . . . an } is al een basis en dus zijn de kolommen
onafhankelijk.
2. Dit is een opgave.

De volgende stelling wil vaak handig zijn.


STELLING 11.5. Laat A een m n en B een n k matrix zijn. Dan geldt:
1. rang(AB) rang(A).
2. rang(AB) rang(B).
Bewijs:
1. Volgens de kolomvisie van het product is iedere kolom van AB een lineaire combinatie van
kolommen van A, en dus Col(AB) Col(A). Maar dan volgt: rang(AB) rang(A).
2. Volgens de rijvisie van het product is iedere rij van AB een lineaire combinatie van de rijen
van B, en dus Row(AB) Row(B). Maar dan volgt: rang(AB) rang(B).

GEVOLG 11.6. Laat A een m n matrix zijn met m 6= n. Dan bestaat er geen n m matrix B
zodat AB = Im en BA = In .
Bewijs: Neem een m n matrix A en een n m matrix B. Omdat m 6= n mogen we stellen:
m > n. Merk op dat rang(Im ) = m en rang(AB) rang(A) n < m, en dus AB 6= Im , want
de matrices AB en Im hebben een verschillende rang. (Als n > m dan AB = In is niet mogelijk.)
Hiermee is de claim bewezen.

11.2. Eigenwaarden, Eigenvectoren en Eigenruimten

11.2

91

Eigenwaarden, Eigenvectoren en Eigenruimten

Definitie: Stel dat A een n n matrix is.


Een vector x Rn heet een eigenvector van A als x 6= 0 en als een R bestaat zodat
Ax = x.
Een getal R heet een eigenwaarde van A als er een x 6= 0 in Rn bestaat met Ax = x.
(Die vector x heet dan een eigenvector bij de eigenwaarde .)
De verzameling van alle eigenwaarden van A heet het spectrum van A.

Het is historisch bepaald om voor eigenwaarden de letter te gebruiken.


Om na te gaan of een gegeven vector x bij een gegeven matrix A een eigenvector is, ja of nee,
hoeven we slechts naar de definitie te kijken.


3 1
Voorbeeld 11.7. Beschouw de matrix A =
. Ga van ieder van de volgende vectoren
3 1
 
 


 
2
1
1
0
x0 =
, x1 =
, x2 =
en x3 =
1
1
3
0
na of ze een eigenvector zijn van A.
1. De vector x0 is geen eigenvector van A, want

  



3 1
2
7
2
Ax0 =
=
6=
, voor elke R.
3 1
1
7
1


  
 
3 1
1
4
1
2. Omdat Ax1 =
=
=4
= 4x1 , is de vector x1 wel een eigenvector
3 1
1
4
1
van A en wel bij de
= 4.
 eigenwaarde

 




3 1
1
0
1
1
3. Omdat Ax2 =
=
=0
= 0x2 , is de vector x2 =
ook een
3 1
3
0
3
3
eigenvector van A en wel bij de eigenwaarde
= 0.

0
4. Tenslotte, de vector x3 =
is geen eigenvector van A (ondanks dat A0 = 10), want bij de
0
definitie van het begrip eigenvector is de nulvector uitgesloten.
Merk op: we hebben inmiddels aangetoond dat = 2 en = 0 eigenwaarden van de matrix A
zijn. Op dit moment is niet duidelijk of A nog meer eigenwaarden heeft.
Opmerking: Een eigenvector van een matrix mag dus niet de nulvector zijn. Echter, het getal
nul kan wel een eigenwaarde van een matrix zijn!
Het is iets lastiger na te gaan of een gegeven getal een eigenwaarde is van een geven matrix.


1 2
Voorbeeld 11.8. Beschouw de matrix A =
. Ga na of de getallen = 5 en = 1
4 3
eigenwaarden zijn van de matrix A.
1. Het getal
 =
 5 is een eigenwaarde van A als er een x 6= 0 bestaat, zodat Ax = 5x. Uitschrijven
x1
met x =
geeft ons het stelsel:
x2


x1 + 2x2 = 5x1
4x1 + 2x2 = 0
equivalent:
4x1 + 3x2 = 5x2
4x1 2x2 = 0

92

College 11, Rang en eigenwaarde van een matrix

en de vraag is of dit tweede homogene stelsel een niet-triviale oplossing heeft. Dit worden
  we
1
inmiddels geacht te kunnen beantwoorden, los het stelsel op en zie bijvoorbeeld dat x =
een
2
niet triviale oplossing is. Dus = 5 is een eigenwaarde van A. Merk ook op dat de niet triviale
oplossingen
  van dit stelsel precies al de eigenvectoren van A bij = 5 zijn, i.h.b. is de vector
1
x=
een eigenvector van A bij de eigenwaarde = 5.
2
2. Het getal = 1 is een eigenwaarde van A als er een x 6= 0 bestaat, zodat Ax = x. Uitschrijven
levert:


x1 + 2x2 = x1
2x2 = 0
equivalent:
4x1 + 3x2 = x2
4x1 + 2x2 = 0
en het zal een ieder duidelijk zijn dat er geen niet-triviale oplossing is van dit stelsel, m.a.w. = 1
is geen eigenwaarde van A.
Algemeen geldt voor een n n matrix A:

R is eigenwaarde van A als en slechts als Ax = x een niet


triviale oplossing heeft.

Het stelsel Ax = x is te herschrijven (via x = Ix) tot het lineaire stelsel:


(A I)x = 0
en we concluderen:
LEMMA 11.9. Stel dat A een n n matrix is. Dan:
1. R is eigenwaarde A als en slechts als het stelsel (A I)x = 0 een niet triviale oplossing
heeft.
2. Als 0 R een eigenwaarde van A is, dan zijn de eigenvectoren van A bij de eigenwaarde 0
precies de niet triviale oplossingen van het stelsel: (A 0 I)x = 0.

Definitie: Laat A een n n matrix zijn en laat 0 een eigenwaarde zijn van A. De verzameling
{x : Ax = 0 x}
heet de eigenruimte van 0 (bij A) en wordt genoteerd met E0 .

Dus: de eigenruimte van de eigenwaarde 0 is de verzameling eigenvectoren bij 0 tezamen met de


nulvector. Met deze observatie en Lemma 11.9 verkrijgen we het volgende lemma.
LEMMA 11.10. Laat A een n n matrix zijn en laat 0 een eigenwaarde zijn van A. Dan geldt:
E0 = Nul(A 0 I).
I.h.b. geldt dat E0 een lineaire deelruimte van Rn is.

11.2. Eigenwaarden, Eigenvectoren en Eigenruimten

93

Definitie: Laat A een n n matrix zijn en laat 0 een eigenwaarde zijn van A. Dan:
de dimensie van de eigenruimte E0 heet: de meetkundige multipliciteit van 0 . Als
dim(E0 ) = k schrijven we:
m.m.( = 0 ) = k

7 1 2
6 ,
Voorbeeld 11.11. Laat zien dat = 6 een eigenwaarde is van de matrix A = 3 3
2 2
2
bepaal een basis voor de eigenruimte E6 en bepaal de meetkundige multipliciteit van de eigenwaarde
= 6.
Antwoord.
Volgens Lemma 11.9 is = 6 een eigenwaarde als en slechts
als het stelsel (A
6I)x = 0 een niet
1
1 2 0
6 0 . Omdat
triviale oplossing heeft. Dit komt overeen met het stelsel 3 3
2
2 4 0


1
1 2 0
1
3 3
6 0 0
2
2
4 0
0

1 2 0
0
0 0
0
0 0

zijn er vele niet triviale oplossingen, dus = 6 is inderdaad een eigenwaarde van A.
Volgens Lemma 11.10 is E6 = Nul(A 6I), en kennelijk is de oplossingsverzameling van het stelsel
(A 6I)x = 0 gelijk aan

1
2
2
x2 + 2x3
1
x2 = x2 1 + x3 0 = Span 1 , 0
E6 =

x3
0
1
0
1

2
1
Kennelijk is 1 , 0 een basis van E6 en dus m.m.( = 6) = 2.

0
1

Een fundamentele eigenschap van eigenvectoren.


STELLING 11.12. Laat A een n n matrix zijn.
Als v1 , . . . , vp eigenvectoren zijn van A bij de verschillende eigenwaarden 1 , . . . , p , dan zijn de
vectoren v1 , . . . , vp lineair onafhankelijk.
Bewijs: We bewijzen dit uit het ongerijmde. Stel de uitspraak is onjuist. Dan is een van de
vectoren een lineaire combinatie van de overigen vectoren. Bovendien kunnen we die overigen
vectoren uitdunnen tot een lineair onafhankelijk stelsel met dezelfde opspanning. We verkrijgen zo
een stel eigenvectoren, zeg: u1 , . . . , uk , uk+1 , bij de verschillende eigenwaarden 1 , . . . , k+1 met:
1. u1 , . . . , uk is een onafhankelijk stel vectoren,
2. uk+1 Span{u1 , . . . , uk }.
3. Aui = i ui (voor i = 1, . . . , k + 1) met i 6= j (voor i 6= j).

94

College 11, Rang en eigenwaarde van een matrix

Omdat uk+1 Span{u1 , . . . , uk } bestaan er c1 , . . . , ck zodat:


uk+1 = c1 u1 + + ck uk

(11.1)

Vermenigvuldig beiden zijden van vergelijking 11.1 met A, dan verkrijgen we Auk+1 = A(c1 u1 +
+ ck uk ) = c1 Au1 + + ck Auk en via 3. verkrijgen we:
k+1 uk+1 = c1 1 u1 + + ck k uk

(11.2)

Vermenigvuldig nu beide zijden van de vergelijking 11.1 met k+1 en trek daar vergelijking 11.2
van af, dan verkrijgen we:
0 = c1 (k+1 1 )u1 + + ck (k+1 k )uk

(11.3)

en omdat de vectoren u1 , . . . , uk onafhankelijk zijn, volgt


ci (k+1 i ) = 0 voor i = 1, . . . , k
en omdat k+1 i 6= 0, voor i = 1, . . . , k, volgt: ci = 0, voor i = 1, . . . , k.
Maar dan zegt vergelijking 11.1 dat uk+1 = 0, en dat is een tegenspraak, want uk+1 is een
eigenvector van A.
GEVOLG 11.13. Een n n matrix A heeft nooit meer dan n eigenwaarden.
Bewijs: Als er meer dan n eigenwaarden zouden zijn dan zou het kiezen van
bijbehorende eigenvectoren volgens Stelling 11.12 meer dan n lineair onafhankelijke vectoren in Rn
opleveren, hetgeen onmogelijk is.

Enige eigenschappen van eigenvectoren en eigenwaarden.


Uit Lemma 11.9 volgt dat = 0 een eigenwaarde van A als en slechts als A 0I|0 een niet trivial
oplossing heeft. We concluderen met behulp van de inverse matrix stelling:
STELLING 11.14. Laat A een n n matrix zijn. Dan geldt:
= 0 is een eigenwaarde van A als en slechts als de matrix A niet inverteerbaar is.
Enig rekenwerk laat zien:
STELLING 11.15. Laat A een n n matrix zijn en stel dat x een eigenvector (van A) is bij de
eigenwaarde . Dan geldt:
1. Als n N dan is x een eigenvector van An bij de eigenwaarde n .
2. Als A inverteerbaar, dan is x een eigenvector van A1 bij de eigenwaarde 1 .
Bewijs: 1. Als Ax = x, dan:
A2 x = A(Ax) = A(x) = Ax = (x) = 2 x
en dus is x een eigenvector van A2 bij de eigenwaarde 2 . Vervolgens:A3 x = A(A2 x) = . . . . . . = 3 x
etc. Officieel zou het bewijs met inductie moeten worden geleverd.
2. Als Ax = x, dan A1 (Ax) = A1 (x) = A1 x. Daarom:
x = A1 x en omdat 6= 0 volgt: A1 x = 1 x.

College 12, De karakteristieke


vergelijking.
12.1

De karakteristieke vergelijking van een matrix

We weten nu hoe we bij een gegeven eigenwaarde van A alle eigenvectoren bij van A te
bepalen. (Dat is het tweede onderdeel van Lemma 11.9.) Hoe we echter alle eigenwaarden van een
matrix kunnen vinden hebben we nog niet ontdekt. We zullen een methode vinden, echter, via
deze methode lukt het alleen de eigenwaarden van kleine matrices te vinden. Voor grote matrices
kunnen de eigenwaarden slechts benaderd worden via numerieke methoden.
Het eerste onderdeel van Lemma 11.9 levert ons dat een eigenwaarde is van A als en slechts
als het stelsel A I|0 een niet triviale oplossing heeft, equivalent, als de matrix A I niet
inverteerbaar is, en dus:

STELLING 12.1. Laat A een n n matrix zijn. Dan: de eigenwaarden van A zijn precies
de (reele) oplossingen van de vergelijking
det(A I) = 0

De vergelijking: det(A I) = 0 heet de de karakteristieke vergelijking van A. Hoe ziet deze


vergelijking eruit?


a b
Voorbeeld 12.2. Als A een 2 2 matrix, zeg A =
dan wordt
c d


a
b
det(A I) =
= (a )(d ) bc = 2 (a + d) + ad bc
c d
een kwadratisch polynoom dus. Daarom is de vergelijking det(A I) = 0 een kwadratische
vergelijking
2 (a + d) + ad bc = 0
in de variabele (althans, bij een 2 2 matrix).

Algemeen geldt bij een nn matrix A dat det(AI) een polynoom van de graad n in de variabele
wordt, en dit wordt het karakteristieke polynoom van A genoemd. Het karakteristieke
polynoom wordt soms genoteerd met pA (). Dus:
pA () = det(A I)
En hiermee wordt het bepalen van de eigenwaarden van A het bepalen van de nulpunten van een
polynoom van de graad n.
95

96

College 12, De karakteristieke vergelijking

Voorbeeld 12.3. Als A een 6 6 matrix is met gegeven karakteristiek polynoom


pA () = 6 125 + 574 + 1383 + 1802 120 + 32
dan kunnen knappe mensen dit polynoom ontbinden tot:
pA () = (2 )3 (1 )2 (4 )
en de karakteristieke vergelijking van A wordt:
(2 )3 (1 )2 (4 ) = 0
die nu simpel is op te lossen; we zien:
1. = 2 is een 3-voudig nulpunt van pA (), en dus een eigenwaarde van A.
2. = 1 is een 2-voudig nulpunt van pA (), en dus een eigenwaarde van A.
3. = 4 is een enkelvoudig nulpunt van pA (), en dus een eigenwaarde van A.
en hiermee zijn alle eigenwaarden van A gevonden.

Definitie: Als = 0 een k-voudig nulpunt is van pA (), dan zeggen we dat = 0 een
eigenwaarde is met algebrasche multipliciteit k. We schrijven:
a.m.( = 0 ) = k.

In Voorbeeld 12.3 krijgen we: = 2 is een eigenwaarde van A met algebrasche multipliciteit 3;
evenzo: a.m.( = 1) = 2 en a.m.( = 4) = 1. Merk op dat de sommatie van al de algebrasche
multipliciteiten van de eigenwaarden van een n n matrix, n oplevert. Merk ook op dat de
algebrasche multipliciteiten geen enkele informatie over de meetkundige multipiliciteiten van de
eigenwaarden levert, behalve dan die informatie die de volgende stelling geeft. Het bewijs van deze
stelling zullen we niet geven.
STELLING 12.4. Laat A een n n matrix zijn met eigenwaarde = 0 . Dan geldt:
1 m.m.( = 0 ) a.m.( = 0 )
Definitie: Laat A een n n matrix zijn. Als er een eigenwaarde = 0 bestaat van A met de
eigenschap: m.m.( = 0 ) <a.m.( = 0 ), dan heet A defect(in de eigenwaarde 0 ).

2
4
3
Voorbeeld 12.5. Bepaal van de volgende matrix A = 4 6 3 alle eigenwaarden met
3
3
1
al hun multipliciteiten.
Antwoord.
De karakteristieke vergelijking wordt:


2
4
3


4 6
3 = 0


3
3 1

12.1. De karakteristieke vergelijking van een matrix

97

De variabele maakt het vegen lastig. We tellen de eerste rij op bij de tweede rij en ontwikkelen
naar de derde kolom.



2
4
3 2
4
3


4 6
3 = 2 2
0 =




3
3 1
3
3 1




2 2
2
4



= +3
+ (1 )
=
3
3
2 2
= 3[6 3 (6 3)] + (1 )[(2 )(2 ) 4(2 )] =
= 0 + (1 )(2 + )[(2 ) + 4] = (1 )(2 + )2

De karakteristieke vergelijking is (1 )(2 + )2 = 0 en we zien dat = 1, 2 de eigenwaarden


van A zijn met a.m.( = 1) = 1 en a.m.( = 2) = 2.
Om de meetkundige multipliciteit
van = 1te bepalen, bepalen we eenbasis
voor E1= Nul(AI).

1
4
3 0
1
1

Dus bekijk het stelsel 4 7 3 0 ; oplossen levert: x = x3 1 , dus 1 is

3
3
0 0
1
1
een basis van E1 , dus m.m.( = 1) = 1.
Merk op dat we dit al uit Stelling 12.4 hadden kunnen concluderen, want deze stelling zegt:
1 m.m.( = 1) a.m.( = 1) = 1.
Dezelfde stelling zegt voor = 2: 1 m.m.( = 2) a.m.( = 2) = 2. Daarom: om
de meetkundige multipliciteit van = 2 te bepalen moeten
de eigenruimte
we de dimensie van
4
4
3 0
E2 = Nul(A + 2I) echt wel bepalen. Dus bekijk het stelsel 4 4 3 0 ; oplossen levert:
3
3
3 0

1
1

x = x3 1 , dus 1 is een basis van E2 , dus m.m.( = 2) = 1. (Merk op dat voor

0
0
het bepalen van de meetkundige multipliciteit het voldoende was het aantal vrije variabelen van
dit stelsel te bepalen.)
Er is een klasse van matrices waarvan de eigenwaarden makkelijk te bepalen is.

1 0 1 1
0 1 1 1

Voorbeeld 12.6. Bepaal de eigenwaarden van de matrix A =


0 0 2 1 met hun multi0 0 0 2
pliciteiten.
Antwoord.
De karakteristieke vergelijking wordt:


1
0
1
1


0 1
1
1
2
2
0 = pA () = det(A I) =
= (1 ) (2 ) .
0
0
2

1



0
0
0 2

We concluderen dat = 1, 2 de eigenwaarden van A zijn met a.m.( = 1) = 2 en a.m.( = 2) = 2.


We bepalen ook de meetkundige multipliciteiten.
Voor = 1 bekijken we de eigenruimte E1 = Nul(A 1I). Dit levert het stelsel:

0 0 1 0 0
0 0 1 1 0
0 0 1 1 0 0 0 0 1 0

0 0 1 1 0 0 0 0 0 0
0 0 0 1 0
0 0 0 0 0

98

College 12, De karakteristieke vergelijking

Er zijn twee vrije variabelen, dus m.m.( = 1) = 2.


Evenzo bekijken we voor = 2 de eigenruimte E2 = Nul(A 2I). Dit levert het stelsel:

1
0 1 1 0
1 0 1 0 0
0 1 1 1 0 0 1 1 0 0

0
0 0 1 0 0 0
0 1 0
0
0 0 0 0
0 0
0 0 0
Er is een vrije variabelen, dus m.m.( = 2) = 1.
Dit voorbeeld is een illustratie van de volgende stelling.
STELLING 12.7. Laat A een n n bovendriehoeks (of onderdriehoeks) matrix zijn. Dan zijn de
kentallen op de diagonaal precies de eigenwaarden van A. Bovendien geldt dat als het getal 0
k maal op de diagonaal staat, dan:
a.m.( = 0 ) = k.
Over de meetkundige multipliciteit is niets te zeggen, behalve dat het iedere waarde tussen 1 en k
kan aannemen.
Tenlotte nog een opmerking over hoe de nulpunten te bepalen van een derde graads (of hoger)
polynoom. Bekijk de vergelijking:
3 + 92 23 + 15 = 0

(12.4)

Hoe de nulpunten te vinden?


De opgaven die wij maken hebben redelijke eigenwaarden (nulpunten), dus:
stap 1. Probeer de waarden = 4, 3, 2, 1, 0, 1, 2, 3, 4.
In dit geval levert proberen = 1 op. Dat betekent dat het polynoom in vergelijking 12.4 te
schrijven is als:
( 1)(kwadratisch polynoom)
stap 2. (Uitdelen) Dit kwadratische polynoom is te verkrijgen door het polynoom 3 + 92
23 + 15 te delen door 1 via een ouderwetse staartdeling!
1/ 3 + 92 23 + 15
3 + 2

82 23 + 15
82 8

15 + 15
15 + 15
0

\ 2 + 8 15

En dus:
3 + 92 23 + 15 = ( 1)(2 + 8 15)

(12.5)

3 + 92 23 + 15 = ( 1)( 3)( 5) = 0

(12.6)

Stap 3. Aangezien 2 + 8 15 = (2 8 + 15) = ( 3)( 5) verkrijgen we:

en daarmee zijn drie nulpunten = 1, 3, 5 gevonden.

College 13, Gelijkvormigheid en


diagonaliseerbaarheid.
13.1

Gelijkvormigheid van matrices

Aangezien van een bovendriehoeksmatrix de eigenwaarden zo zijn af te lezen, zou het plezierig zijn
een transformatie te hebben die een gegeven matrix A omzet in een matrix B, met behoud van
eigenwaarden, en dan bij voorkeur in een bovendriehoeksmatrix.
We concentreren ons eerst op de transformatie. Dit zal niet het vegen zijn van de matrix, want
vegen bewaart de eigenwaarden niet , zoals een eenvoudig voorbeeld al laat zien.






1 1
1 1
1
1 1
Voorbeeld 13.1. Als A =
en B =
=
, dan is het eenvoudig na
0 2
0 2
+
1 3
te gaan dat A en B verschillende eigenwaarden hebben.

Definitie: Stel dat A, B n n matrices zijn.


De matrices A, B heten gelijkvormig (Engels: similar) als er een inverteerbare matrix P
bestaat zodat
A = P BP 1
Als de matrices A en B gelijkvormig zijn noteren we dit met: A sim B.

LEMMA 13.2. Stel dat A, B en C n n matrices zijn.


1. A sim A,
2. als A sim B dan B sim A,
3. als A sim B en B sim C dan A sim C.
De volgende stelling laat zien dat we in ons eerste doel geslaagd zijn, de transformatie die A omzet
in P 1 AP (= B) behoudt eigenwaarden.
STELLING 13.3. Gelijkvormige matrices hebben hetzelfde karakteristiek polynoom en daarom
dezelfde determinant en dezelfde eigenwaarden.
Bewijs: Stel dat A sim B, zeg A = P BP 1 , voor zekere P . Dan geldt:
pA () = det(A I) = det(P BP 1 I) = det(P BP 1 P IP 1 ) =
99

100

College 13, Gelijkvormigheid en diagonaliseerbaarheid.

det P (B I)P 1 = det P det(B I) det(P 1 ) =


det P det(B I)(det P )1 = det(A I) = pB ().
Inderdaad, A en B hebben hetzelfde karakteristiek polynoom en dus de zelfde eigenwaarden, want
dat zijn de nulpunten van het karakteristiek polynoom. Maar ook: det(A) = pA (0) = pB (0) =
det(B).
De gezochte transformatie is de afbeelding die aan een vierkante matrix A de matrix P AP 1
toevoegd. Die transformatie behoudt eigenwaarden. We vermelden hier dat op deze manier iedere matrix A gelijkvormig is met (getransformeerd kan worden naar) een (misschien complexe)
bovendriehoeksmatrix.

13.2

Diagonaliseerbaarheid van matrices

In deze paragraaf zoeken we naar matrices gelijkvormig met een diagonaalmatrix.

Definitie: Stel dat A een n n matrix is.


De matrix A heet diagonaliseerbaar als A gelijkvormig is met een diagonaalmatrix, i.e. er is een diagonaalmatrix D en een matrix P bestaat zodat
A = P DP 1
De factorisering A = P DP 1 van A heet een diagonalisering van A.

Het volgende lemma geeft aan hoe de matrices P en D bij A in bovenstaande definitie er uit zullen
zien.
LEMMA 13.4. Stel dat A een n n matrix is.
Als P = [ p1 . . . pn ] een (niet noodzakelijk inverteerbare) n n matrix is en D = diag(d1 , . . . , dn )
een diagonaalmatrix, dan zijn de volgende uitspraken equivalent:
1. AP = P D,
2. Ieder diagonaalkental di van de matrix D heeft de eigenschap: Api = di pi (voor i = 1, . . . , n)
(en als pi 6= 0 dan is di dus een eigenwaarde van A).
Bewijs: Merk op dat AP = A[ p1 . . . pn ] = [ Ap1 . . . Apn ].
Ook geldt dat P D = [ p1 . . . pn ]diag(d1 , . . . , dn ) = [ d1 p1 . . . dn pn ] en nu is het duidelijk dat
AP = P D is equivalent met Api = di pi (i = 1, . . . , n). Als we aannemen dat iedere pi 6= 0, is
dit weer equivalent met: iedere di is een eigenwaarde van A en pi is een eigenvector van A bij de
eigenwaarde di .
Als direct gevolg van Lemma 13.4 verkrijgen we de volgende twee stellingen.
STELLING 13.5. Stel dat A een n n matrix is. Equivalent zijn:
1. De matrix A is diagonaliseerbaar.
2. Er bestaat een basis van Rn geheel bestaande uit eigenvectoren van A.

13.2. Diagonaliseerbaarheid van matrices

101

Bewijs: Stel dat A diagonaliseerbaar is, zeg dat A = P DP 1 met D = diag(d1 , . . . , dn ). Dan
geldt kennelijk dat AP = P D en omdat de matrix P = [ p1 . . . pn ] inverteerbaar is, geldt dat
iedere kolom pi van P ongelijk is aan 0. Omdat P inverteerbaar is, volgt dat B = {p1 , . . . , pn }
een basis van Rn is. Lemma 13.4 geeft ons dat dit een basis van eigenvectoren van A is.
Omgekeerd, zeg dat B = {b1 , . . . , bn } een basis van Rn bestaande uit eigenvectoren van A. Zeg
dat Abi = 1 bi . We definieren P = [ b1 . . . bn ] (merk op dat bi 6= 0) en D = diag(1 , . . . , n ) dan
zegt Lemma 13.4 ons dat AP = P D. Maar de matrix P is inverteerbaar, omdat zijn kolommen
onafhankelijk zijn, en dus A = P DP 1 , i.e. A is diagonaliseerbaar.
STELLING 13.6. Stel dat A een n n matrix is.
Als A n verschillende eigenwaarden heeft, dan is de matrix A diagonaliseerbaar.
Bewijs: Stel dat 1 , . . . , n n verschillende eigenwaarden van A zijn. Kies bij iedere eigenwaarde
i een eigenvector pi , (i = 1, . . . , n). Dan pi 6= 0 en als we schrijven: P = [ p1 . . . pn ] en
D = diag(1 , . . . , n ) dan zegt Lemma 13.4 ons dat AP = P D. Bovendien garandeert Stelling 11.12
dat het stelsel vectoren {p1 , . . . , pn } lineair onafhankelijk is, en dus is de matrix P inverteerbaar.
Maar dan: A = P DP 1 , i.e. A is diagonaliseerbaar.
De voorafgaande Stelling 13.6 geeft al vele voorbeelden van matrices die diagonaliseerbaar zijn.


1 1
Voorbeeld 13.7. Beschouw de 2 2 matrix A =
. Ga na of A diagonaliseerbaar is; zo
0 2
ja, bepaal een diagonalisering.
Antwoord.
Volgens Stelling 12.7 zijn = 1, 2 de eigenwaarden van A en dus zegt Stelling 13.6 dat A
diagonaliseerbaar is. Het bewijs van deze stelling geeft tevens aan hoe we een diagonalisering van
A kunnen vinden.


0 1 0
We bepalen een basis van E1 = Nul(A I). Dit levert het stelsel
met als oplossing
0 1 0




 
x1
1
1
x=
= x1
. Dus:
is basis E1 .
0
0
0


1 1 0
Evenzo: een basis van E2 = Nul(A 2I) verkrijgen we via het stelsel
, met als
0 0 0




 
x2
1
1
oplossing x =
= x2
. Dus:
is basis E2 .
x2
1
1




1 1
1 0
Als we schrijven P =
en D =
dan geldt volgens Lemma 13.4 dat AP = P D en
0 1
0 2
omdat P inverteerbaar is geldt: A = P DP 1 . Hiermee is een diagonalisering van A gevonden.
Met behulp van Lemma 13.4 kunnen we ook al matrices construeren die niet diagonaliseerbaar
zijn. We geven twee voorbeelden.


1 1
. Ga na of A diagonaliseerbaar is; zo
Voorbeeld 13.8. Beschouw de 2 2 matrix A =
0 1
ja, bepaal een diagonalisering.
Antwoord.
Volgens Stelling 12.7 is = 1 de enige eigenwaarde van A (met a.m.(
 = 1) = 2).
0 1 0
We bepalen een basis van E1 = Nul(A I). Dit levert het stelsel
met als oplossing
0
0 0


 


x1
1
1
x=
= x1
. Dus:
is basis E1 . (Dus m.m.( = 1) = 1.) Lemma 13.4 vertelt
0
0
0


1 0
ons nu hoe matrices P, D te maken met AP = P D. Er zal gelden D =
en de twee
0 1

102

College 13, Gelijkvormigheid en diagonaliseerbaarheid.


1
kolommen van P moeten eigenvectoren bij = 1 zijn, dus scalaire veelvouden van
. Dus
0
kunnen die kolommen niet onafhankelijk gekozen worden, dus P kan niet inverteerbaar gekozen
worden. M.a.w. de matrix A is niet diagonaliseerbaar.

2
2
3
Voorbeeld 13.9. Beschouw de 3 3 matrix uit Voorbeeld 12.5, A = 4 6 3 . Ga na
3
3
1
of A diagonaliseerbaar is; zo ja, bepaal een diagonalisering.
Antwoord.
In Voorbeeld 12.5 hebben we gezien dat = 1, 2 de eigenwaarden van A zijn, en a.m.( = 1) = 1
en a.m.( = 2) = 2.

1
1

Tevens zagen we dat 1 een basis is voor E1 , 1 is een basis voor E2 .

1
0
Als we een diagonalisering proberen te maken, dan zal P uit eigenvectoren bestaan. Omdat er
drie kolommen en slechts twee eigenruimten zijn, zullen er tenminste twee kolommen uit dezelfde
eigenruimten komen, en dus zullen twee kolommen scalaire veelvouden van elkaar zijn (want beide
eigenruimten hebben dimensie 1). Maar dan zal P niet inverteerbaar zijn. Daarom is A niet
diagonaliseerbaar zijn.

1
3
3
Voorbeeld 13.10. Beschouw de 3 3 matrix uit Voorbeeld 12.5, A = 3 5 3 . Ga na
3
3
1
of A diagonaliseerbaar is; zo ja, bepaal een diagonalisering.
Antwoord.
Stap 1.
Omdat het niet duidelijk
is wat de eigenwaarden van A zijn, bepalen we eerst die eigenwaarden.
1




3
3

5
3
3
3

3 5
3 = (1)
pA () = det(AI) =
3
3 1 +
3 1


3
3
1



3 5

= (1 )[(5 )(1 ) + 9] 3[3(1 ) + 9] + 3[9 3(5 )] =
+3
3
3

(1 )(2 + 4 + 4) 3(3 + 6) + 3(3 + 6) = (1 )(2 + 4 + 4) = (1 )( + 2)2


Daarom = 1, 2 zijn de eigenwaarden van A met a.m.( = 1) = 1 en a.m.( = 2) = 2.
Stap 2.
Bepaal een basis voor iedere eigenruimte.

0
3
3 0
Om een basis voor E1 = Nul(A I) te bepalen moeten we het stelsel 3 6 3 0
3
3
0 0

1
1

oplossen. Dit levert x = x3 1 en dit geeft 1 = {p1 } als basis voor E1 .

1
1

3
3
3 0
Evenzo bepalen we een basis voor E2 = Nul(A + 2I) door het stelsel 3 3 3 0 op te

3
3 3 0
1
1
1
1
lossen. Dit levert x = x2 1 + x3 0 en dit geeft 1 , 0 = {p2 , p3 } als

0
1
0
1
basis voor E2 .
Het is eenvoudig na te gaan dat de drie vectoren p1 , p2 , p3 lineair onafhankelijk zijn. (Men kan
ook een beroep doen op Stelling 13.11.)

13.3. Toepassingen van diagonalisering.

Stap 3.

103

1 1 1
1
0
0
1
0 , dan is P inverteerbaar en als D = 0 2
0 dan
Als P = [ p1 p2 p3 ] = 1
1
0
1
0
0 2
geldt volgens Lemma 13.4 dat A = P DP 1 , i.e. A is diagonaliseerbaar.
De volgende stelling is een (niet al te makkelijke) opgave.
STELLING 13.11. Laat A een n n matrix zijn met (verschillende) eigenwaarden 1 , . . . , k .
Als Bi een basis is van de eigenruimte Ei (i = 1, . . . , k), dan is
B1 . . . Bk
een onafhankelijke verzameling vectoren in Rn .
Deze stelling levert:
STELLING 13.12. Stel dat A een n n matrix is. Equivalent zijn:
1. De matrix A is diagonaliseerbaar.
2. (a) Al de nulpunten van het karakteristiek polynoom pA () zijn reeel,
(b) voor iedere eigenwaarde = 0 van A geldt: m.m.( = 0 ) =a.m.( = 0 ).
3. De sommatie van de meetkundige multipliciteiten van de eigenwaarden is n.
Als dit laatste het geval is, dan kunnen de matrices P, D verkregen worden door alle vectoren uit
gekozen bases van de eigenruimten bij elkaar te stoppen in een matrix P en in D de eigenwaarden
overeenkomstig op de diagonaal te zetten.

13.3

Toepassingen van diagonalisering.

Bepaling An , voor een diagonaliseerbare matrix A


Merk op dat voor een diagonaalmatrix D, de matrix Dn makkelijk te bepalen is. Men kan verifieeren dat:
(diag(d1 , . . . , dk ))n = diag(dn1 , . . . , dnk )
Maar als A = P DP 1 dan:
An = (P DP 1 )n = (P DP 1 )(P DP 1 ) . . . (P DP 1 ) = P D(P 1 P )D . . . D(P 1 P )DP 1 = P Dn P 1
dus:
(P DP 1 )n = P Dn P 1
Conclusie: Voor een diagonaliseerbare matrix A is de matrix An simpel te bepalen.


1 1
Voorbeeld 13.13. Bepaal An voor de matrix A =
uit Voorbeeld 13.7. Volgens dit
0 2
voorbeeld geldt:



1
1 1
1 0
1 1
1
A = P DP =
0 1
0 2
0 1
Daarom:
n

A = PD P

1 1
0 1



1n
0

0
2n



1
0

1
1

1
0

1 + 2n
2n

104

College 13, Gelijkvormigheid en diagonaliseerbaarheid.

Discrete lineaire dynamische systemen


Een andere toepassing van eigenwaarden en eigenvectoren is te vinden bij een zogeheten dynamisch systeem.
Hierbij is een vaste n n matrix A gegeven en een startvector x0 . Vervolgens wordt de volgende
rij vectoren gebouwd: x1 = Ax0 , x2 = Ax1 , x3 = Ax2 , . . . Kortom via de formule:
xn+1 = Axn
wordt de rij vectoren {xn }n0 recursief gedefinieeerd bij gegeven startvector x0 . Het doel is een
expliciete formule voor de vector xn te vinden.
Als x0 een eigenvector van A is, zeg bij de eigenwaarde 0 dan is dit niet moeilijk. Inderdaad,
x1 = Ax0 = 0 x0 , x2 = Ax1 = A(0 x0 ) = 0 Ax0 = 20 x0 . Etc. Kortom:
xn = n0 x0
Als x0 een lineaire combinatie van eigenvectoren van A is, zeg
x0 = c1 v1 + + ck vk
(met vi een eigenvector van A bij de eigenwaarde i (i = 1 . . . k)), dan:
x1 = Ax0 = A(c1 v1 + + ck vk ) = c1 Av1 + + ck Avk = c1 1 v1 + + ck k vk .
x2 = Ax1 = A(c1 1 v1 + + ck k vk ) = c1 1 A(v1 ) + + ck k A(vk ) = c1 21 v1 + + ck 2k vk
Kortom:
xn = c1 n1 v1 + + ck nk vk
Merk op dat als A diagonaliseerbaar is, dat dan zeker x0 een lineaire combinatie van eigenvectoren
van A is. (Waarom?)


 
1 1/2
4
Voorbeeld 13.14. Beschouw de matrix A =
en de startvector x0 =
.
0 1/2
3
Vraag: Bepaal een formule voor de recursieve rij {xn }n0 met xn+1 = Axn en zo mogelijk lim xn .
n
 
1
Antwoord: Ga zelf na dat = 1 een eigenwaarde is van A en dat
een basis van E1
0


1
een basis van E1/2 is. We schrijven
is; = 1/2 een eigenwaarde is van A en dat
1
 
 


4
1
1
de startvector als lineaire combinatie van de eigenvectoren:
= c1
+ c2
levert
3
0
1
c1 = 7 en c2 = 3. Daarom:
 

 

1
1
7 3(1/2)n
xn = 7(1)n
+ (3)(1/2)n
=
0
1
3(1/2)n
en dus:
lim xn =

4. Lineaire recurrentie relaties

7
0

13.3. Toepassingen van diagonalisering.

105

De welbekende Fibonacci1 getallen vormen een rij 0, 1, 1, 2, 3, 5, 8, 13, . . . die verkregen wordt door
f0 = 0, f1 = 1 te kiezen en de rest van de rij te berekenen via de formule
fn+1 = fn + fn1
en hiermee ligt de hele rij vast. Dit is een voorbeeld van een lineaire recurrentie relatie hier van
de orde 2. Het is de bedoeling een expliciete formule voor, in dit geval het Fibonacci getal fn , te
bepalen.

Definitie: Stel dat {pn }n0 = {p0 , p1 , p2 , . . .} een rij is, met:
1. p0 , . . . , pk1 liggen vast,
2. Als n k dan kan pn berekend worden via de relatie:
pn = c1 pn1 + c2 pn2 + + ck pnk , met ck 6= 0
dan zeggen we dat de rij {pn }n0 gegeven wordt door een lineaire recurrentie relatie van de
orde k.

Een expliciete formule voor


pn
p0

..
Stap 1. Definieer x0 =
.
pk1

Stap 2. Dan geldt:

xn+1

kan
worden.
op de volgende
manier verkregen

pn

.. Rk .
Rk en xn =
.
pn+k1

pn+1
pn+1

.. =
.. =
=
.
.
pn+k
c1 pn+k1 + + ck pn

pn
0
1
0 ...

pn+1
0
0
1 ...

..
.. = Axn
..
..
..

.
.
.
.
.

ck ck1 ck2 . . .
pn+k1
Stap 3. We hebben een discreet
verkregen met startvector x0 en matrix

lineair dynamisch systeem


0
1
0 ...
0
0
1 ...

A= .
..
.. met xn+1 = Axn .
.
..
..
.
.
ck ck1 ck2 . . .
Stap 4. Als we hiervan een expliciete formule voor xn kunnen verkrijgen, dan levert het eerste
kental van xn een expliciete formule voor pn .
Voorbeeld 13.15. We bepalen een
voorfn uit de
 expliciete
  formule

 rij van Fibonacci. Dus:
f0
0
fn
x0 =
=
en xn =
.
f1
1
fn+1
1 Fibonacci (1170-1250) is de bijnaam van Leonardo of Pisa. Hij schreef verschillende belangrijke boeken die
overleefde, waarvan in
e
en het voortplanting-probleem van een rat werd beschreven, die aanleiding gaf tot deze
rij. De Franse wiskundige Edouard Lucas gaf deze rij de naam de rij van Fibonacci en sprak van Fibannacci
getallen.

106

College 13, Gelijkvormigheid en diagonaliseerbaarheid.

 
 


fn+1
fn+1
0 1
fn
Dan geldt: xn+1 =
=
=
= Axn .
fn+2
fn+1 + fn
1 1
fn+1
We proberen x0 als lineaire combinatie van eigenvectoren van A te schrijven. Hiertoe bepalen we
eerst de eigenwaarden van A.



1
2

1 1 = 1=0
en dus

1 = 21 + 21 5 en 2 = 12 12 5.
Nogal vervelende eigenwaarden, die we voor het gemak maar 1 , 2 blijven noemen.
Basis voor de eigenruimte
 +  

 E1 komt uit stelsel:

0
0 0
1
1 0

1 1 1 0
1
1 1 1 0


1 1
en dit levert
als basis voor E1 .
1


2 1
Evenzo is
een basis voor de eigenruimte E2 .
1
Schrijven we x0 als lineaire combinatie van de eigenvectoren, zeg:






0
1 1
2 1
= c1
+ c2
,
1
1
1
dan levert dit het stelsel op:


c1 ( 12 +

1
2

c1 +

c2 = 1
5) + c2 ( 12 21 5) = 0

1 1
1
1
1
1 1
5) + c2 (
5) = 0 (c1 + c2 ) +
5(c1 c2 ) = 0 c1 c2 = .
Merk op: c1 ( +
2 2
2 2
2
2
5
We krijgen zo het nieuwe stelsel

c1 + c2 = 1
c1 c2 = 15
1
1
1
1
1
2
(1 + ) = en c2 = (1 ) = . Dus:
2
2
5
5
5


 5

1
2
1 1
2 1
x0 =

1
1
5
5
daarom:




2
1
1 1
2 1
n
n
xn = (1 )
(2 )
.
1
1
5
5
Omdat 1 (1 1) = 1 = 2 (2 1) volgt de zogeheten formule van Binet2 voor fn :
Dit levert c1 =

1
fn =
5

n

n
1 1
1
1 1
+
5

5 .
2 2
5 2 2

Gekoppelde lineaire differentiaal vergelijkingen


We beginnen met de opmerking dat alle functies in deze subsecties, functies zijn van de variabele
t. Dus als we praten over de functie x of y, dan bedoelen we een functie met functievoorschrift,
zeg x(t) = t2 of y(t) = et of wat dan ook.
2 Jacques Binet (1786-1856) vond deze formule in 1843, nadat Euler deze al in 1765 had gevonden (maar verloren
was gegaan). J. Binet had veel resultaten in de matrix theorie, getal theorie en fysica.

13.3. Toepassingen van diagonalisering.

107

Als we de differentiaal vergelijking


x = 2x
dx
= 2x(t). Als het
dt
goed is weten we van de middelbare school dat dit precies de functies x(t) = Ce2t (C constant)
zijn. Algemeen: y = ay (a een vaste constante) heeft als oplossing: y(t) = Ceat .
Stel nu dat we n functies x1 , x2 , . . . , xn hebben zo dat de afgeleiden aan de volgende relatie voldoen.

x1 = a1,1 x1 + a1,2 x2 + . . . + a1,n xn

x2 = a2,1 x1 + a2,2 x2 + . . . + a2,n xn


..
..
..

.
.
.


xn = an,1 x1 + an,2 x2 + . . . + an,n xn
opschrijven, dan zijn we op zoek naar alle functies x(t) met de eigenschap

We zullen zon systeem van gekoppelde lineaire differentiaal vergelijkingen schrijven als x = Ax,
waarbij:

x1 (t)
x1 (t)
a1,1 a1,2 . . . a1,n
x2 (t)
x2 (t)
a2,1 a2,2 . . . a2,n

x=
,
x
=
,
en
A
=

..
..
..
..
..
..

.
.
.
.
.
.
xn (t)

xn (t)

an,1

an,2

. . . an,n

Als de matrix A een diagonaalmatrix is, dan is dit systeem simpel op te lossen. Inderdaad, dan
ziet dit stelsel eruit als:

x1 = a1 x1

x2 =
a2 x2
..
..
..

.
.
.


xn =
an xn

oftewel, we kunnen dit beschouwen als n afzonderlijke differentiaal vergelijkingen xi = ai xi (i =


1 . . . n). Hiervan kennen we de oplossing: n.l xi (t) = Ci eai t . (Pas op, zet een index i bij de
constante C, de ene constante hoeft niet de andere
te zijn.) We spreken wel af het
constante
C1 ea1 t
C2 ea2 t

antwoord als een vector te schrijven, dus: x(t) =


is de oplossing.
..

.
an t
Cn e
Als bij een gekoppelde lineaire differentiaal vergelijking x = Ax de matrix A diagonaliseerbaar
is, zeg A = P DP 1 (met D een diagonaalmatrix), dan is differentiaal vergelijking x = Ax op de
volgende manier op te lossen.
Schrijf x = Ax x = P DP 1 x P 1 x = DP 1 x (P 1 x) = D(P 1 x).
Als we schrijven y = P 1 x dan krijgen we differentiaal vergelijking y = Dy, en deze kunnen we
oplossen. (We zeggen dat de differentiaal vergelijking x = Ax ontkoppeld is.) Tenslotte kunnen
we via x(t) = P y(t) de oplossing van het oorspronkelijke stelsel vinden.
Als de matrix A niet diagonaliseerbaar zullen we geen oplosmethode introduceren. Deze bestaat
echter wel.
Voorbeeld 13.16. Beschouw de volgende gekoppelde lineaire differentiaal vergelijking:

x1 = x1 + 2x2
x2 = 3x1 + 2x2
Vraag: Geef de algemene oplossing van dit stelsel. Geef ook een oplossing van dit stelsel dat
voldoet aan aan: x1 (0) = 1 en x2 (0) = 4. (Dit laatste het een beginwaarde probleem.)

108

College 13, Gelijkvormigheid en diagonaliseerbaarheid.

 




x1
1 2
x1
1 2
=
. De matrix A =
x2
3 2
x2
3 2
is diagonaliseerbaar,
want men kan nagaan dat = 4, 1 de eigenwaarden



 zijn van A, en dat
2
1
een basis is voor de eigenruimte E4 , respectivelijk,
een basis is voor de
3
1
eigenruimte E1 . 



2 1
4
0
Daarom: als P =
en D =
dan geldt: A = P DP 1 .
3
1
0 1
1
Dit levert: (P 1 x) = D(P
x).

y1 (t)
Als we schrijven y(t) =
= P 1 x dan krijgen we het ontkoppelde stelsel:
y2 (t)
Antwoord: We herschrijven dit stelsel als

y1
y2

= 4y1
=

y2

met de oplossing y(t) =

C1 e4t
C2 et

Dus de oplossing van het oorspronkelijke systeem wordt:


 





x1 (t)
2 1
C1 e4t
2C1 e4t C2 et
x(t) =
= P y(t) =
=
.
x2 (t)
3
1
C2 et
3C1 e4t + C2 et
Merk op dat ook de antwoorden x1 (t) en x2 (t) gekoppeld zijn via de constanten.
Tenslotte: als men een oplossing zoekt met x1 (0) = 1 en x2 (0) = 4 vult men dit in, in de algemene
oplossing en verkrijgt zo een lineair stelsel in C1 , C2 .
Hier verkrijgt men het stelsel

2C1 C2 = 1
3C1 + C2 = 4
dat geeft: C1 = C2 = 1. De (unieke) oplossing wordt:

  4t

x1 (t)
2e et
x(t) =
=
.
x2 (t)
3e4t + et

College 14, Orthogonaliteit in Rn.


In dit hoofdstuk zullen we het begrip orthogonaliteit
uit R2 en R3 generaliseren naar Rn . We
zullen zien dat alles naar de hogere dimensies gegeneraliseerd kan worden en dit zal leiden tot
belangrijke toepassingen, zoals de kleinste kwadraten oplossingvan een stelsel.

14.1

Het Standaard Inwendig Product in Rn

We beginnen met het standaard inwendige product op de ruimte Rn .


Het Standaard Inwendig Product

u1

Definitie: Als u = ... en v =


un
getal

v1
.. vectoren in Rn zijn, dan verstaan we onder het
.
vn
uT v

het inwendig product van u en v. Dit getal wordt genoteerd met u v en wordt ook wel het
dotproductvan u en v genoemd.


Dus:

u v = u1 v1 + + un vn =

n
X

ui vi

i=1

en we verkrijgen de volgende rekenregels voor het standaard inwendig product.


STELLING 14.1. Laat u, v en w vectoren in Rn zijn en laat c R een scalar zijn. Dan geldt:
1. u v = v u
2. u (v + w) = u v + u w
3. (cu) v = c(u v) = u (cv)
4. u u 0 en u u = 0 als en slechts als u = 0.

Lengte en Afstand
Met behulp van het standaard inwendige product kunnen we een lengtebegrip (of norm) in Rn
introduceren, zoals we dat in R2 en R3 deden.
109

College 14, Orthogonaliteit in Rn .

110

u1

Definitie: Als u = ... een vector in Rn is , dan wordt het getal


un

uu=

q
u21 + + u2n

de lengte van u (of norm) van u genoemd. De lengte wordt genoteerd met kuk.

Dus:

kuk =

uu=

q
u21 + + u2n

Opmerking: p
Voor de praktische berekening van de lengte van een gegeven vector volstaat de
formule kuk = u21 + + u2n . Echter, in een theoretische stelling waarin de lengte een rol speelt
zal men altijd de formule kuk2 = u u gebruiken, zodat de rekenregels van het inwendigproduct
gebruikt kunnen worden.
En we krijgen als rekenregels voor het lengtebegrip:
STELLING 14.2. Laat u een vector in Rn zijn en laat c R een scalar zijn. Dan geldt:
1. kuk = 0 als en slechts als u = 0

2. kcuk = |c| kuk.


n

Een vector met lengte 1 heet een eenheidsvector. Merk op dat als u R met u 6= 0, dan is de
vector
1
u
||u||
een eenheidsvector, en wel een als in dezelfde richting als u. Het overstappen van de vector u Rn
1
met u 6= 0 naar de vector: ||u||
u heet:
het normeren van de vector u.
De standaard eenheidsvectoren e1 , e2 , . . . , en in Rn zijn de vectoren

1
0
0
0
1
0

e1 = . , e2 = . , . . . , en = .
..
..
..
0

Pas op: e1 hoeft niet gelijk te zijn aan e1 want de e1 uit R is niet gelijk aan de e1 uit R4 .
Evenals in R2 en R3 kunnen we het begrip de afstand d(P, Q) tussen punten P, Qen de afstand
d(u, v) tussen vectoren u, vn Rn invoeren. (N.B. d staat voor distance.)

Definitie: De afstand d(u, v) tussen de vectoren u, v in Rn is gelijk aan het getal


d(u, v) = ku vk

14.1. Het Standaard Inwendig Product in Rn

111

Merk op dat de afstand tussen de twee vectoren u = OP en v = OQ gelijk is aan de afstand tussen
de eindpunten P en Q van deze vectoren.
Hoeken en Orthogonaliteit
Het is ons bekend dat in R2 en R3 geldt:
u v = kuk kvk cos(),
waar gelijk is aan de door u en v ingesloten hoek. We zouden een soortgelijk formule ook graag
in Rn tot ons beschikking hebben. Echter, wat verstaan we in Rn onder de hoek tussen twee
vectoren, als n 4? Daarvoor eerst:

STELLING 14.3. (De Cauchy-Schwarz ongelijkheid3 ) Als u en v vectoren in Rn zijn, dan


geldt:
|u v| kuk kvk.
Het bewijs van bovenstaande ongelijkheid zullen we hier niet presenteren.
In de eerste plaats levert de Cauchy-Schwarz ongelijkheid de welbekende driehoeks ongelijkheid.
STELLING 14.4. (De driehoeks ongelijkheid) Als u en v vectoren in Rn zijn, dan geldt:
ku + vk kuk + kvk.
Bewijs: Omdat: ku + vk2 = (u + v) (u + v) = u u + 2u v + v v =
kuk2 + 2u v + kvk2 kuk2 + 2kukkvk + kvk2 = (kuk + kvk)2
Vervolgens gebruiken we de Cauchy-Schwarz ongelijkheid om een hoek te definieren.

Definitie: Als u en v vectoren in Rn zijn ongelijk aan de nulvector, dan verstaan we onder
de hoek tussen u en v dat getal [0, ] met
cos() =

uv
.
kuk kvk

Merk op dat Cauchy-Schwarz impliceert dat 1

uv
kuk kvk

1, dus zon zal zeker bestaan.

Definitie: Als u = 0 of als v = 0, dan heet iedere [0, ] een hoek tussen u en v.

Vanwege de onbepaaldheid van de hoek als u = 0 of als v = 0 zullen we altijd spreken van een
hoek (en niet de hoek) tussen u en v, ook als zowel u 6= 0 en v 6= 0.
GEVOLG 14.5. Als u en v vectoren in Rn zijn en [0, ] is een hoek tussen u en v dan geldt:
u v = kuk kvk cos().
3 Augustin

Louis Cauchy (1789-1857). Abel schreef in 1826 over hem: Cauchy is gek en daar is niets aan
te doen, maar hij is op dit moment de enige die weet hoe wiskunde gedaan moet worden. Cauchy heeft zich
met veel beziggehouden. Hij heeft onder andere de theorie ontwikkeld voor Fourier-getransformeerden en voor
diagonaliseringen van matrices.

College 14, Orthogonaliteit in Rn .

112

Met de regel uv = kuk kvk cos() kan men ook in hogere Rn de hoek tussen twee vectoren bepalen.

Definitie: Als u en v vectoren in Rn zijn dan heten u en v orthogonaal (of ook loodrecht)
als = 2 een hoek tussen tussen u en v is.

Notatie. We noteren uv om aan te geven dat u en v orthogonale vectoren zijn.


De volgende stelling geeft de methode hoe te verifieren of gegeven vectoren u en v orthogonaal
zijn, ja of nee.
STELLING 14.6. Als u en v vectoren in Rn zijn dan geldt: u en v zijn orthogonaal als en
slechts als u v = 0.
Bewijs: Triviaal
STELLING 14.7. (De stelling van Pythagoras) Als u en v vectoren in Rn zijn, dan geldt:
u en v zijn orthogonaal als en slechts als ku + vk2 = kuk2 + kvk2 .
Bewijs: ku + vk2 = kuk2 + kvk2 als en slechts als (u + v) (u + v) = kuk2 + kvk2 als en slechts
als u u + 2u v + v v = kuk2 + kvk2 als en slechts als kuk2 + 2u v + kvk2 = kuk2 + kvk2 als
en slechts als 2u v = 0 als en slechts als u en v orthogonaal zijn.

14.2

Orthogonale verzamelingen en orthogonale bases

Definitie: Het stelsel vectoren (v1 , . . . , vk ) in Rn heet orthogonaal als ieder tweetal verschillende vectoren in dit stelsel orthogonaal is, dus als:
vi vj = 0 als i 6= j, als i, j = 1, . . . , k
We zeggen ook dat de verzameling {v1 , . . . , vk } orthogonaal is.
Het stelsel vectoren (v1 , . . . , vk ) in Rn heet orthonormaal als het stelsel
orthogonaal is en bestaat uit eenheidsvectoren.
We zeggen ook dat de verzameling {v1 , . . . , vk } orthonormaal is.

Opmerking: Als {v1 , . . . , vk } een orthogonale verzameling niet-nul vectoren is, dan kan men
door normeren tot de orthonormale verzameling


1
1
v1 , . . . ,
vk
kv1 k
kvk k
komen.
Voorbeeld 14.8. Laat zien dat de verzameling vectoren {v1 , v2 , v3 } met:

3
1
1/6
v1 = 1 , v2 = 2 en v3 = 2/3
1
1
7/6

14.2. Orthogonale verzamelingen en orthogonale bases

113

orthogonaal is en normeer deze verzameling tot een orthonormale verzameling.


Antwoord. Omdat
v1 v2 = 3 + 2 + 1 = 0, v1 v3 = 3/6 2/3 + 7/6 = 0
en ook v2 v3 = 1/6 4/3 + 7/6 = 0
is het duidelijk dat de verzameling {v1 , v2 , v3 } orthogonaal
is.

3/

11
Omdat: kv1 k = 11 leidt normering van v1 tot w1 = 1/11 .
1/ 11

1/ 6

Evenzo: kv2 k = 6 geeft w2 = 2/6 .


1/ 6
De lengte van v3 is niet om aan te zien:
p
p
p
kv3 k = 1/36 + 4/9 + 49/36 = 1/36 + 16/36 + 49/36 = 66/36

en w3 ziet er niet uit. Daarom, een handigheidje!


Vermenigvuldig v3 eerst met een positieve scalair, zodat
deze geheeltallig wordt (hier met 6),
1

en ga die geheeltallige vector normeren. Dus: v3 = 4 , en omdat kv3 k = 66 wordt


7

1/66
w3 = 4/ 66 . Daarom is {w1 , w2 , w3 } de gezochte orthonormale verzameling.

7/ 66
STELLING 14.9. Als {v1 , . . . , vk } een orthogonale verzameling niet-nulvectoren is in Rn , dan
is de verzameling {v1 , . . . , vk } lineair onafhankelijk.
Bewijs: Stel dat:
c1 v1 + + ck vk = 0
We tonen aan dat ci = 0 voor i = 1, . . . , k. Als volgt. Fixeer i en bekijk
0 = vi 0 = vi (c1 v1 + + ci vi + + ck vk ) =
= vi (c1 v1 ) + + vi (ci vi ) + + vi (ck vk ) = 0 + + ci kvi k2 + + 0 = ci kvi k2

Omdat ci kvi k2 = 0 en vi 6= 0 volgt: ci = 0, voor i = 1, . . . , k. En dus is de verzameling vectoren


{v1 , . . . , vk } inderdaad lineair onafhankelijk.
GEVOLG 14.10. Als {v1 , . . . , vk } een orthogonale verzameling niet-nulvectoren is in Rn , dan is
k n.

Vervolgens:

Definitie: Stel dat W een lineaire deelruimte is van Rn . B = {b1 , . . . , bk } heet een orthogonale basis van W als B een basis is, en als verzameling orthogonaal is. B heet een
orthonormale basis van W als B een basis is, en als verzameling orthonormaal is.

Het is duidelijk dat een orthonormale basis voor W ook een orthogonale basis voor W is. Via
normeren kan vanuit een orthogonale basis een orthonormale basis worden geconstrueerd.

College 14, Orthogonaliteit in Rn .

114

2
2
4
3
1
6

Voorbeeld 14.11. De drie vectoren v1 =


1 , v2 = 1 en v3 = 2 zijn orthogo4
0
7
naal, want v1 v2 = 0, v1 v3 = 0 en v2 v3 = 0. Daarom geldt dat de verzameling {v1 , v2 , v3 }
lineair onafhankelijk is (zie Stelling 14.9). Als we W = Span{v1 , v2 , v3 } beschouwen, kunnen we
concluderen dat
basisis voor W . Na normeren verkrijgen we
B= {v1 , v2 , v3 } eenorthogonale

2/30
4/105
2/6
3/ 30
1/ 6
6/ 105


w1 =
1/ 30 , w2 = 1/ 6 en w3 = 2/ 105 en dus zal C = {w1 , w2 , w3 } een

0
4/ 30
7/ 105
orthonormale basis zijn voor W .

We weten allen dat als B = {b1 , . . . , bk } een basis is voor W en b W is gegeven, dan bestaan er
unieke c1 , . . . , ck R zodat
b = c 1 b1 + + c k bk
De scalairen c1 , . . . , ck zijn te bepalen door het stelsel [b1 . . . bk |b] op te lossen. Als de basis
orthogonaal is kan dit sneller.
STELLING 14.12. Stel dat W een lineaire deelruimte is van Rn met basis B = {b1 , . . . , bk } en
x W is gegeven.
1. Als B een orthogonale basis is voor W , dan geldt:




x b1
x bk
x=
b1 + +
bk .
b1 b1
bk bk
2. Als B een orthonormale basis is voor W , dan geldt:
x = (x b1 )b1 + + (x bk )bk .
Bewijs: 1. Er bestaan zeker (unieke) ci R zodat x = c1 b1 + + ck bk . We tonen aan dat
ci =

x bi
voor i = 1, . . . , k.
bi bi

Bekijk hiertoe x bi = (c1 b1 + + ck bk ) bi = c1 b1 bi + + ci bi bi + + ck bk bi = ci bi bi .


De identiteit x bi = ci bi bi (i = 1, . . . , k) geeft het te bewijzen.
2. Is nu triviaal.
Opmerking: 1.Herkent u de formule in stelling 14.12? Die bent u in stelling 1.4 van college
1 tegen gekomen, maar dan in R3 . Als die formule ook waar is in Rn (en dat is die, zie college
15) dan zien we in deze stelling staan: de componenten van een vector x in de richting van de
basisvectoren zijn te vinden door x loodrecht op iedere basisvector bi te projecteren, mits de basis
orthogonaal is!
2. Stelling 14.12 laat het eerste voordeel zien dat we hebben als we voor een gegeven deelruimte W
een orthogonale basis B tot onze beschikking hebben. Er zijn nog andere voordelen die we zullen
tegenkomen. De volgende stelling zullen we in college 16 bewijzen.
STELLING 14.13. Stel dat W een lineaire deelruimte is van Rn . Dan bestaat er een orthogonale
basis B van W .

College 15, Orthogonale matrices


en orthogonaal complement.
15.1

Orthogonale matrices

Definitie: Laat a1 ak enkele vectoren uit Rn zijn en A = [ a1 ak ]. De k k matrix


AT A
heet de Grammatrix van de vectoren a1 ak .

LEMMA 15.1. Voor de Grammatrix van a1 ak geldt:

a1 a1 a1 a2
a2 a1 a2 a2
T
A A=

.
.

ak a1 ak a2

a1 ak
a2 ak

.
ak ak

Bewijs: Het (i, j)de element van AT A is het matrixproduct van de ide rij van AT en de j de kolom
van A, is dus aTi aj = ai aj .
GEVOLG 15.2. Gegeven zijn een stel vectoren a1 ak in Rn .

1. a1 ak zijn orthogonaal als en slechts als de Grammatrix een diagonaalmatrix is.


2. a1 ak zijn orthonormaal als en slechts als de Grammatrix een eenheidsmatrix is.

Bewijs: Triviaal.
Matrices met orthonormale kolommen zijn belangrijk in toepassingen en ook in computer algoritmes met matrixberekeningen. We weten al van Gevolg 15.2:
STELLING 15.3. De kolommen van de m n matrix U zijn orthonormaal als en slechts U T U =
In .

Definitie: Een matrix Q heet een orthogonale matrix als deze matrix Q vierkant is (zeg
n n) en als de kolommen van Q een orthonormale verzameling vectoren in Rn is.

115

116

College 15, Orthogonale matrices en orthogonaal complement.

Opmerking: De term orthogonale matrixs een onhandige naamgeving, de term orthonormale


matrixzou duidelijk beter zijn. Echter, in de literatuur gebeurd dit niet en dus doen wij dit ook
niet. Ook bestaat er in de literatuur geen term voor een (niet vierkante) matrix met orthonormale
kolommen, noch voor een matrix met orthogonale kolommen.
Voorbeeld 15.4. Van de drie vectoren:
3

w1 =

11
1
11
1
11

6
2
6
1
6

, w2 =

, w3 =

66
4

66
7
66

hebben we in Voorbeeld 14.8 laten zien dat deze orthonormaal zijn. Dus is de matrix
3

1
1

Q=

11
1
11
1
11

6
2
6
1
6

66
4

66
7
66

een orthogonale matrix. Omdat volgens Stelling 15.3 geldt: QT Q = I3 en omdat Q vierkant is,
zal gelden:
3

1
1

=Q =

Verrasend, nietwaar?

11
1

6
1

66

11
2
6
4

66

11
1
6
7
66

!!

STELLING 15.5. Laat Q een vierkante matrix zijn. De volgende uitspraken zijn equivalent:
1. Q is een orthogonale matrix,
2. De kolommen van Q zijn orthonormaal,
3. QT Q is de eenheidsmatrix,
4. Q is inverteerbaar en Q1 = QT ,
5. QQT is de eenheidsmatrix,
6. De rijen van Q zijn orthonormaal,
7. QT is orthogonaal.
Bewijs: 1.2. Triviaal. Dit is de definitie (want gegeven is dat Q vierkant is).
2.3. Triviaal. Dit is Stelling 15.3.
3.4. Als QT Q = I en Q is vierkant, dan volgt QT = Q1 en vice versa.
4.5. Idem.
5.6. QQT = I (QT )T QT = I en volgens Stelling 15.3 is dit equivalent met de kolommen van
QT zijn orthogonaal. Equivalent, de rijen van Q zijn orthogonaal.
6.7. Dit is de definitie (ook QT is vierkant).
Opmerking: Om na te gaan of een gegeven matrix orthogonaal is, is de definitie (de kolommen
zijn orthonormaal) redelijk bruikbaar. Echter in theoretische beschouwingen is de karakterisering
Q is orthonormaal als en slechts als Q1 = QT veel handiger. Hoe zou je kunnen nagaan dat het
product van twee orthogonale matrices weer orthogonaal is?

15.2. Het Orthogonaal Complement

15.2

117

Het Orthogonaal Complement

Het begrip normaal van een vlak in R3 generaliseren we tot het begrip orthogonaal complement
van een deelruimte in Rn .

Definitie: Laat W een lineaire deelruimte van Rn zijn. We zeggen: de vector v Rn is


orthogonaal met W als:
vw, voor iedere w W .
en we noteren dit met:
vW .

Om na te gaan of een gegeven vector v orthogonaal is met W , moeten we nagaan of v w = 0


voor oneindig veel vectoren w, namelijk voor alle w W . Het volgende lemma reduceert dit tot
een eindig aantal, namelijk tot die vectoren die uit een basis voor W komen.
LEMMA 15.6. Laat W = Span{w1 , . . . , wk } een lineaire deelruimte van Rn zijn en fixeer v Rn .
Equivalent zijn:
1. vW .
2. v wi = 0, voor i = 1, . . . , k.
Bewijs: 1.2. Als vW , dan vw, voor alle w W . In het bijzonder: vwi = 0, voor
i = 1, . . . , k.
2.1. Stel dat v wi = 0, voor i = 1, . . . , k. Als w W , zeg w = c1 w1 + + wk , dan
v w = v (c1 w1 + + wk ) = v c1 w1 + + v ck wk = 0, dus vw.

Definitie: Laat W een lineaire deelruimte van Rn zijn. De verzameling van alle vectoren
orthogonaal met W heet het orthogonaal complement van W en wordt genoteerd met
W .

Dus
W = {v Rn : v w = 0 voor alle w W }
We geven enkele eigenschappen van het orthogonaal complement.
STELLING 15.7. Laat W een lineaire deelruimte van Rn zijn. Dan geldt:
1. W is een lineaire deelruimte van Rn .
2. W W = {0}.
3. (W ) = W .
Bewijs: 1. Ga na.
2. Als w W W , dan ww en dus w w = 0 kwk2 = 0 w = 0.
3. Dit is nog vrij lastig om te bewijzen. Het bewijs staat in de volgende paragraaf maar het wordt
niet op college getoond.

118

College 15, Orthogonale matrices en orthogonaal complement.

STELLING 15.8. Laat W een lineaire deelruimte van Rn zijn.


1. Als W = Col(A) dan W = Nul(AT ).
2. Als W = Nul(A) dan W = Col(AT ).
Bewijs: 1. Stel A = [a1 . . . ak ] en W = Col(A), d.w.z. W = Span{a1 , . . . , ak }. Dan: x W als
en slechts als xw (voor iedere w W ) als en slechts als xai (voor i = 1, . . . , k). Equivalent:
aTi x = 0 (voor i = 1, . . . , k). Tenslotte, dit laatste is equivalent met x Nul(AT ).
2. Stel W = Nul(A). Beschouw B = AT . Volgens 1. geldt: (Col(B)) = Nul(B T ) = Nul(A).
Daarom:
(Nul(A)) = Nul(B T ) = ((Col(B)) ) = Col(B) = Col(AT ).

Met andere woorden:


(Col(A)) = Nul(AT ) en (Nul(A)) = Col(AT ) .
Dus ook het bepalen van een basis van W komt neer op het bepalen van een basis van `of een
kolomruimte `of een nulruimte. En dit worden we geacht te beheersen.
GEVOLG 15.9. Laat W een lineaire deelruimte van Rn zijn. Dan geldt:
dim(W ) + dim(W ) = n
Bewijs: Stel dat W = Col(A), voor een n k matrix A. Dan geldt: dim(W ) = dim(Col(A)) =
rang(A) = rang(AT ) = dim(Col(AT )). De uitspraak: dim(W ) + dim(W ) = n is dus equivalent
met dim(Col(AT )) + dim(Nul(AT )) = n voor de k n matrix AT . Deze uitspraak is de ons
bekende rangstellingvoor de matrix AT . Tenslotte, de uitspraak dim(W ) + dim(W ) = n is ook
equivalent met de uitspraak (W ) = W uit Stelling 15.7. We besparen u de details.

1
0
2
1
1
3

Voorbeeld 15.10. Beschouw de vectoren v1 =


2 , v2 = 2 en v3 = 2 en bepaal
1
1
3
een basis van het orthogonaal complement van W = Span{v
,
v
,
v
}.
1
2
3

1
0 2
1
1 3

Antwoord: Het is duidelijk dat W = Col(A) met A =


2 2 2 . Dus W = Nul(A ) en
1
1 3
daarom gaan we het stelsel [AT |0] oplossen. Enig rekenwerk laat zien dat:

1 1
2 1 | 0
1 0
4 0 | 0
[AT |0] = 0 1 2 1 | 0 0 1 2 1 | 0
2 3
2 3 | 0
0 0
0 0 | 0

0
4
0
4
4x3

1
2
1
2x3 x4
2

+ x4
en dus zal B =
,
een
Daarom: x =
= x3
1 0
x3
1
0

1
0
1
0
x4

basis zijn van W . (Merk op dat iedere basis vector orthogonaal is met iedere vi , voor i = 1, 2, 3.)

15.2. Het Orthogonaal Complement

119

Opmerking: Bij het vorige voorbeeld kan het rekenwerk ietwat bepertkt worden. Omdat er
geldt: v3 = 2v1 + v2 , geldt dat: {v1 , v2 } ook W opspannen; {v1 , v2 } is een basis voor Col(A) =
W en als we schrijven: B = [v1 v2 ], dan geldt weer: W = Col(B). Daarom geldt: W = Nul(B T )
en oplossen van het stelsel [B T |0] levert:




1 1
2 1 | 0
1 0
4 0 | 0
T
[B |0] =

0 1 2 1 | 0
0 1 2 1 | 0
en dit zal dezelfde basis voor W opleveren.
De les die uit deze opmerking getrokken kan worden is, probeer W als span te zien van een minimaal
aantal vectoren (dus van een basis van W ), dat reduceert het rekenwerk van het stelsel [AT |0] tot
een minimum.

1 1 2 2
Voorbeeld 15.11. Beschouw de matrix A = 2 2 1 1 en de bijbehorende lineaire deel3 3 3 3
4
ruimte W = Nul(A) (van R ). Bepaal een basis voor het orthogonaal complement W .
Antwoord: Omdat W = Col(AT ), vegen we de matrix AT naar echelonvorm.

1 2 3
1 0 0
1 2 3
0 1 0

AT =
2 1 3 0 0 0
2 1 3
0 0 0


1
2
1
2


We concluderen dat als v1 =
2 en v2 = 1 , dat dan {v1 , v2 } een basis vormen voor
2
1
Col(AT ) = W .

Beschrijving Lineaire Deelruimtes als Kolom- en Nulruimten


Zoals bekend worden de lineaire deelruimtes gerepresenteerd door `of de Kolomruimte van een
matrix `of de Nulruimte van een matrix. Maar we hebben er nog niet de nadruk opgelegd dat iedere
lineaire deelruimte te schrijven is als de Kolomruimte van een matrix maar ook als Nulruimte van
een (andere) matrix. Voor het ene type probleem is de Kolomruimte schrijfwijze handig, voor een
ander probleem de Nulruimte schrijfwijze.
We bepreken eerst hoe zo een representatie te verkrijgen is. Voor de kolomruimte is die ons bekend.
Kolomruimte representatie
Zij W een lineaire deelruimte van Rn . Als a1 , . . . , ak een stel vectoren is in Rn met W =
Span{a1 , . . . , ak } en we bekijken de matrix A = [a1 , . . . , ak ] dan geldt:
W = Col(A)
Zoekt men een matrix met zo klein mogelijke afmetingen, dan kan dat maar op een manier. Zorg
ervoor dat de vectoren die W opspannen zo klein mogelijk is, d.w.z. een basis voor W is.
Nulruimte representatie
Zij W een lineaire deelruimte van Rn . Beschouw W . Als a1 , . . . , ak een stel vectoren is in Rn
met Span{a1 , . . . , ak } = W en we bekijken de matrix A = [a1 , . . . , ak ] dan geldt: Col(A) = W .
Maar dan
W = (W ) = (Col(A)) = Nul(AT )
en de representatie van W als Nulruimte is verkregen. Zoekt men een matrix met zo klein mogelijke
afmetingen, dan kan dat maar op een manier. Zorg ervoor dat de vectoren die W opspannen zo
klein mogelijk is, d.w.z. een basis voor W is.

120

15.3

College 15, Orthogonale matrices en orthogonaal complement.

De orthogonale decompositiestelling

Doel: gegeven een lineaire deelruimte W in Rn en een vector v in Rn , de vector v te ontbinden in


een component in W en een component loodrecht op W (dus: een component in het orthogonaal
complement van W , i.e. W ). De volgende stelling zegt dat deze ontbindibg inderdaad bestaat.

STELLING 15.12. (De Orthogonale Decompositie Stelling) Laat W een lineaire deelruimte van Rn zijn en stel v Rn . Dan bestaan er unieke vectoren w W en w W
met
v = w + w

Bewijs: We tonen eerst de uniciteit aan van w W en w W . Stel daartoe dat w1 , w2 W


en w1 , w2 W bestaan met v = w1 + w1 en v = w2 + w2 . Dan:
w1 + w1 = w2 + w2 en dus w1 w2 = w2 w1
Omdat w1 w2 W en w2 w1 W geldt w1 w2 W W w1 w2 = 0 w1 = w2
en evenzo: w2 w1 W W w2 w1 = 0 w1 = w2 .
Nu tonen we het bestaan aan van w W en w W met v = w + w . Daarvoor hebben we een
orthogonale basis van W nodig. Stel dat B = {b1 , . . . , bk } zo een orthogonale basis is van W . (In
een volgend college zullen we aantonen dat er inderdaad een orthogonale basis voor W bestaat.)
Bekijk:




bk v
b1 v
w=
b1 + +
bk W
b1 b1
bk bk
Als we kunnen aantonen dat v w W dan nemen we w = v w en is het bestaan van zulke
w en w aangetoond.
Om aan te tonen dat v w W is het voldoende aan te tonen dat: v wbi , voor i = 1, . . . , k
(want W = Span{b1 , . . . , bk }). Aldus:






 
b1 v
bi v
bk v
(v w) bi = v
b1
bi
bk bi =
b1 b1
bi bi
bk bk






b1 v
bi v
bk v
v bi
(b1 bi )
(bi bi )
(bk bi ) =
b1 b1
bi bi
bk bk
= v bi 0 v bi 0 = 0 voor i = 1, . . . , k.
De conclusie volgt. (Vraag: ziet u waar in het bewijs de orthogonaliteit van de basis wordt
gebruikt?)

Definitie: Laat W een lineaire deelruimte van Rn zijn en stel v Rn . Laat w W en


w W de ontbinding van v als v = w + w .
Dan heet w de (orthogonale) projectie van v op W en deze wordt genoteerd met projW (v).
Evenzo wordt w w de spiegeling (of het spiegelbeeld) van v t.o.v. W genoemd. Deze wordt
genoteerd met SW (v).

15.3. De orthogonale decompositiestelling

121

Opmerking: We beschouwen de projectie op W als een afbeelding projW : Rn Rn . Evenzo,


de spiegeling t.o.v. W beschouwen we als een afbeelding SW : Rn Rn .
Het bewijs van de decompositiestelling levert ons de methode hoe de projectie projW (v) te berekenen. Maar dan kunnen we ook SW (v) berekenen.
STELLING 15.13. Stel dat B = {b1 , . . . , bk } een orthogonale basis is van W . Dan geldt:




b1 v
bk v
b1 + +
bk
projW (v) =
b1 b1
bk bk
Ook geldt: SW (v) = 2 projW (v) v.
Bewijs: De formule voor projW (v) is terug te vinden in het bewijs van de decompositiestelling.
Wat betreft de spiegeling: omdat v = w + w volgt w = v projW (v). Dus SW (v) = w w =
projW (v) (v projW (v)) = 2 projW (v) v.
Een direct gevolg van de decompositiestelling is de volgende stelling, een stelling die we al eerder
gezien hebben, maar het bewijs nog niet. Als u genteresseerd bent:

STELLING 15.14. Laat W een lineaire deelruimte van Rn zijn. Dan geldt:
(W ) = W

Bewijs: We tonen eerst aan dat W (W ) . Dit is niet moeilijk.


voor iedere w
W (per definitie van W ) volgt dat
Fixeer daartoe w W . Omdat ww,
w (W ) . We concluderen dat inderdaad geldt: W (W ) .
Vervolgens: kan het zijn dat W 6= (W ) ? Stel dat dit zo is. Dan bestaat er een w1 (W )
met w1
/ W . Beschouw de orthogonale decompositie van w1 t.o.v. W en W . Dus:
w1 = w + w
met w W en w W . Merk op dat w1 6= w, want w1
/ W . Maar dan hebben we twee
orthogonale decomposities van w1 t.o.v. W en (W ) , namelijk:
w1 = w1 + 0 met w1 (W ) en 0 W
en
w1 = w + w met w W en w W (W )

Dit is een tegenspraak, en de oorzaak hiervan is de aanname dat W 6= (W ) .


Kortom: W = (W ) .
GEVOLG 15.15. Laat W een lineaire deelruimte van Rn zijn en stel v Rn . Als w W en
w W de unieke vectoren met v = w + w , dan geldt:
projW (v) = w

College 16, Projectie matrices, het


GramSchmidt proces.
16.1

Projectiematrices en spiegelingsmatrices

In het vorige college is de orthogonale projectie van een vector x op een deelruimte W Rn
gedefinieerd. Deze werd genoteerd met projW (x) en projW beschouwen we als een afbeelding
projW : Rn Rn . De volgende formule was afgeleid voor deze projectie:
Als B = {b1 , . . . , bk } een orthogonale basis is van W . Dan geldt:




bk x
b1 x
projW (x) =
b1 + +
bk
b1 b1
bk bk

Evenzo is de spiegeling van een vector x t.o.v een deelruimte W Rn gedefinieerd. Deze werd
genoteerd met SW (x) en SW beschouwen we als een afbeelding SW : Rn Rn . We hebben
ingezien dat
SW (x) = 2 projW (x) x
We verkrijgen dus de volgende formule voor deze spiegeling:

Als B = {b1 , . . . , bk } een orthogonale basis is van W . Dan geldt:






bk x
b1 x
S(x) = 2
b1 + + 2
bk x
b1 b1
bk bk

Om de volgende stellingen te verkrijgen hebben we het volgende lemma nodig.


LEMMA 16.1. Als A = [a1 . . . ak ] dan AAT = a1 aT1 + + ak aTk .
Bewijs: Hier staat kolom rijexpansie van het product beschreven.
Ons doel is de volgende stelling te bewijzen.
STELLING 16.2. Laat W een deelruimte zijn van Rn . Dan bestaat een unieke n n matrix P
met de eigenschap:
projW (x) = P x, voor alle x Rn
123

124

College 16, Projectie matrices, het GramSchmidt proces.

Als B = {q1 , . . . , qk } een orthonormale basis is van W en Q = [ q1 . . . qk ], dan geldt:


P = QQT .
Bewijs: We tonen eerst de uniciteit van de matrix P aan. Dit volgt uit het feit dat de kolommen
van P vastliggen via de gestelde eigenschap projW (x) = P x.
Want: de ide kolom van P is gelijk aan P ei = projW (ei ), dat wil zeggen, als P bestaat dan moet
gelden:
P = [projW (e1 ) . . . projW (en )]
en dit is de uniciteit van P .
Nu nog het bestaan van de matrix P . De formule staat er: als B = {q1 , . . . , qk } een orthonormale
basis is van W en Q = [ q1 . . . qk ], dan de matrix QQT moeten voldoen aan de eigenschap:
T
projW (x) = QQ
in de
 x. Om
 dit in te zien:

 eerste plaats zal zeker gelden:
q1 x
qk x
projW (x) =
q1 + +
qk = (q1 x)q1 + + (qk x)qk
q1 q1
qk qk
Nu een gemene stap. We willen bovenstaand als een matrixproduct zien. De standaardnotatie cx
van het scalaire product staat niet als een matrixproduct zien. De notatie als matrix product is
xc
(een n 1 matrix x maal een 1 1 matrix c(!))
We verkrijgen dan:
projW (x) = (q1 x)q1 + + (qk x)qk = q1 (q1 x) + + qk (qk x) =

= q1 (qT1 x) + + qk (qTk x) = (q1 qT1 )x + + (qk qTk )x = (q1 qT1 + + qk qTk )x = (QQT )x

en dit wilde we aantonen.

Opmerking: Een gevolg van bovenstaande stelling is dat de uitkomst P = QQT onafhankelijk
is van de gekozen orthonormale basis!
De matrix P wordt een projectiematrix genoemd van de projectie op W , of ook de standaardmatrix van de projectie op W en wordt vaak genoteerd met [projW ]. Dus:
projW (x) = [projW ]x
Evenzo:
STELLING 16.3. Laat W een deelruimte zijn van Rn . Dan bestaat een unieke n n matrix S
met de eigenschap:
SW (x) = Sx, voor alle x Rn
Er geldt:

S = 2[projW ] I.
Bewijs: Voor de uniciteit van de matrix: laat als in bovenstaande stelling zien dat
S = [ SW (e1 ) . . . SW (en ) ]
Voor het bestaan van de matrix S gebruiken we het bestaan van de projectiematrix: omdat
SW (x) = 2 projW (x) x volgt:
SW (x) = 2 projW (x) x = 2[projW ]x Ix = (2[projW ] I)x.
De matrix S wordt een spiegelingsmatrix genoemd (van de projectie t.o.v. W ), of ook de standaardmatrix van de spiegeling t.o.v. W en wordt vaak genoteerd met [SW ]. Dus:
SW (x) = [SW ]x

16.2. Het Gram-Schmidt Proces

16.2

125

Het Gram-Schmidt Proces

In deze paragraaf bepalen we een methode om voor een gegeven lineaire deelruimte W van Rn een
orthogonale basis te construeren. Het idee is om vanuit een gegeven basis {b1 , . . . , bk } van W stap
voor stap de orthogonale verzameling {w1 , . . . , wk } te bouwen. Als W tweedimensionaal is, is dit
niet al te moeilijk.

1
2
Voorbeeld 16.4. Stel dat W = Span{b1 , b2 } met b1 = 1 en b2 = 0 . Construeer een
0
1
orthogonale basis {w1 , w2 } voor W .
Antwoord:
Het is duidelijk dat {b1 , b2 } een basis is voor W , echter, deze basis is NIET orthogonaal.
Als w1 nemen we b1 .
Als w2 nemen we de component van b2 orthogonaal met b1 = w1 . Dus:



2
1
1
w 1 b2
2
1 = 1
w2 = b2 projw1 (b2 ) = b2
w1 = 0
w1 w1
2
1
0
1
Tenslotte: {w1 , w2 } vormen inderdaad een orthogonale basis voor W .

Als W driedimensionaal is, zal dit iets meer werk zijn.

1
2
2
1
1
2

Voorbeeld 16.5. Stel dat W = Span{b1 , b2 , b3 } met b1 =


1 , b2 = 0 en b3 = 1 .
1
1
2
Construeer een orthogonale basis {w1 , w2 , w3 } voor W .
Antwoord:
Het is eenvoudig na te gaan dat de verzameling {b1 , b2 , b3 } lineair onafhankelijk is, en dus is
{b1 , b2 , b3 } een basis voor W , echter, deze basis is NIET orthogonaal.
Als w1 nemen we weer b1 .
Als w2 nemen we de component van b2 orthogonaal met b1 = w1 . Handig als we zijn schrijven
we eerst w2 , dus:

2
1
3/2


1 2 1 3/2
w 1 b2

w2 = b2 projw1 (b2 ) = b2
w1 =
0 4 1 = 1/2
w1 w1
1
1
1/2
Nu zien we waar het handigheidje voor was: om de breuken in w2 weg te werken. Dus:

3
3

w2 = 2w2 =
1 .
1
Merk op dat Span{b1 , b2 } = Span{w1 , w2 }. Ook is {w1 , w2 } een orthogonale basis voor Span{b1 , b2 }.
Als w3 nemen we de component van b3 orthogonaal met Span{b1 , b2 }. Deze kunnen we berekenen, want we hebben een orthogonale basis voor Span{b1 , b2 } tot onze beschikking, namelijk
{w1 , w2 }! Handig als we zijn schrijven we eerst w3 , dus:




w 1 b3
w 2 b3
w3 = b3 projSpan{b1 ,b2 } (b3 ) = b3
w1
w2 =
w1 w1
w2 w2

126

College 16, Projectie matrices, het GramSchmidt proces.

1
2
2 1 1 15

1 4 1 20
1
2

3
1/2

3
0
=

1 1/2
1
1

1
0

Een schaling levert w3 =


1 . Nu is {w1 , w2 , w3 } een orthogonale basis voor W . (Indien
2
gewenst kan men deze normeren en een orthonormale basis verkrijgen.)

Het hier boven beschreven proces om vanuit een gegeven basis {b1 , . . . , bk } van W stap voor stap
de orthogonale verzameling {w1 , . . . , wk } te bouwen heet: het Gram-Schmidt proces. Dit
proces gaat in Cn op dezelfde manier.
Het Gram-Schmidt proces verloopt op de volgende manier:
(1) Op stap 1 wordt w1 gebouwd zodat Span{w1 } = Span{b1 }.
(2) Op stap 2 wordt w2 gebouwd zodat w2 w1 en Span{w1 , w2 } = Span{b1 , b2 }.
(3) Op stap 3 wordt w3 gebouwd zodat:
w3 Span{w1 , w2 } en Span{w1 , w2 , w3 } = Span{b1 , b2 , b3 }.
.. .. ..
. . .
() Op stap wordt w gebouwd zodat:
w Span{w1 , . . . , w1 } en Span{w1 , . . . , w } = Span{b1 , . . . , b }.
Wat zal de volgende stap worden om w+1 te construeren?
Bekijk b+1 . Voor de hand ligt te nemen:
w+1 = b+1 projSpan{b1 ,...,b } (b+1 )
De projectie projSpan{b1 ,...,b } (b+1 ) is te bepalen, want bij de vorige stap is juist de orthogonale
basis {w1 , . . . , w } voor Span{b1 , . . . , b } geconstrueerd. Dus:
w+1 = b+1

w1 b+1
w1 w1

w1

w b+1
w w

Dit gaat voort totdat wk geconstrueerd is, en dan is de orthogonale basis {w1 , . . . , wk } van W
verkregen. U heeft het orthogonaliserings proces van Gram4 -Schmidt5 aanschouwd.
4 Jorgen Gram (1850-1916) gaf les aan de universiteit van Kopenhagen en was tevens managing director van een
verzekeringsmaatschappij. In 1874 publiceerde hij het artikel Sur quelques th
eor`
emes fondamentaux de lalg`
ebre
moderne in Mathematische Annalen over lineaire algebra.
5 Erhard Schmidt (1876-1959) promoveerde onder leiding van Hilbert aan de universiteit van G
ottingen. Hij
was
e
en van de grondleggers van de huidige functionaalanalyse en heeft veel onderzoek gedaan aan zogeheten
Hilbertruimten. Zijn naam is verbonden aan het Gram-Schmidt orthogonaliseringsproces, ook al was dit proces al
eerder gebruikt door Cauchy in 1836.

16.2. Het Gram-Schmidt Proces

127

STELLING 16.6. Het Gram-Schmidt Process. Stel dat {v1 , . . . , vk } een basis is voor
de deelruimte W van Rn . Definieer:
w1 = v1 ,
w1 v2
w2 = v2 w
w1 ,
1 w1
w1 v3
w2 v3
w2 ,
w3 = v3 w1 w1 w1 w
2 w2
..
.
w1 vk
k1 vk
wk = vk w
w1 . . . ww
wk1 .
1 w1
k1 wk1
Dan geldt voor iedere = 1, . . . , k dat:
1. Span{v1 , . . . , v } = Span{w1 , . . . , w } = W ,
2. {w1 , . . . , w } is orthogonale basis W ,
3. w is de orthogonale projectie van v op W1 ( 2).
In het bijzonder geldt: {w1 , . . . , wk } is een orthogonale basis voor Wk = W .

College 17, Kleinste kwadraten


benadering.
17.1

Karakterisering van de orthogonale projectie

De definitie van de orthogonale projectie van een vector x op een lineaire deelruimte is toch wel van
een redelijk abstract karakter. Dat deze definitie volledig overeenkomt met de driedimensionale
intutie is in eerste instantie verre van duidelijk. De volgende stelling zal dit duidelijk maken.

STELLING 17.1. Laat W een lineaire deelruimte van Rn zijn en stel x Rn . Dan geldt:
projW (x) is het (unieke) punt in W met de kleinste afstand d(projW (x), x) tot x.

Bewijs: Als x W , dan is x = x + 0 is de orthogonale decompositie t.o.v. W en W , en dus


projW (x) = x. Dus voor x W is de uitspraak juist.
Neem nu x
/ W en stel dat x = w + w met w W en w W . Merk op dat nu geldt:
projW (x) = w en dat x 6= w. We tonen aan dat voor w1 6= w (met w1 W ) geldt:
d(x, w) < d(x, w1 )
u=xw

w = projW (x)
w1
v = w1 w
Bekijk daartoe u = x w = w W en v = w1 w W . Merk op:
uv
want u = w is orthogonaal met iedere w W .
Pythagoras levert:
ku vk2 = kuk2 + kvk2
en dus:
kx w1 k2 = kx wk2 + kvk2
en omdat kvk 6= 0 geldt:

kx w1 k2 > kx wk2
129

130

College 17, Kleinste kwadraten benadering.

en hieruit volgt: d(x, w1 ) > d(x, w).


Als we stellen:
Definitie: De afstand van een vector x tot een deelruimte x wordt gedefinieerd door
d(x, W ) = {minimumkx wk : w W }
dan zegt Stelling 17.1 kennelijk:
STELLING 17.2. Als W een deelruimte van Rn en x Rn dan d(x, W ) = kx projW (x)k =
k projW (x)k.

17.2

De Kleinste Kwadraat Oplossing van een Stelsel Ax = b

In deel 1 van deze cursus hebben we ons bezig gehouden met het oplossen van het stelsel
Ax = b.
We weten dat het stelsel Ax = b oplosbaar is als en slechts als b Col(A). En als het stelsel
inconsistent was, dan was dat het antwoord op de vraag.
Maar wat als er wel een oplossing zou moeten bestaan, maar dat, bijvoorbeeld door meetfouten in
de b, het stelsel inconsistent geworden is? Moeten we dan blijven meten totdat er consistentie is,
wat vrij lastig kan zijn omdat Col(A) slechts een klein gedeelte van de ruimte kan zijn, of . . . Nee,
we pakken het probleem anders aan.
Bepaal die x (of x-sen) zodat kAx bk minimaal is.
Als x Rn alle waarden doorloopt, doorloopt Ax alle waarden in Col(A). En dus vertelt Stelling 17.1 ons dat we eigenlijk de vergelijking
Ax = projCol(A) (b)
aan het oplossen zijn. Deze vergelijking is zeker consistent want projCol(A) (b) Col(A), d.w.z. er
bestaan zeker x Rn zodat kAx bk minimaal is.
Tenslotte, omdat kAx bk een (wortel van een) som van kwadraten is, heet de gevonden x de
kleinste kwadraten benadering van het stelsel Ax = b. Vaak wordt het zelfs de kleinste
kwadraten oplossing van het stelsel Ax = b genoemd. (En dat terwijl als Ax = b inconsistent is,
er helemaal geen oplossing zijn zal!) We merken hier ook op dat als Ax = b wel consistent is, dan
zal de kleinste kwadraten oplossing echt een oplossing zijn van het stelsel Ax = b.
Tenslotte, als x0 de kleinste kwadraten benadering van het stelsel Ax = b is, dan heet kAx0 bk
de kleinste kwadratenfout van de benadering of het residue.
De Normaalvergelijkingen
Om de kleinste kwadraten oplossing van het stelsel Ax = b te bepalen lijkt de volgende methode
voor de hand te liggen: bepaal eerst de projectie
projCol(A) (b)
en los dan het stelsel
Ax = projCol(A) (b)
op. Dit kan zeker, maar wij zullen een andere methode volgen, een veel sluwere methode die
achteraf toch niet echt moeilijk is.

17.2. De Kleinste Kwadraat Oplossing van een Stelsel Ax = b

131

STELLING 17.3. Beschouw de vergelijking Ax = b. Dan geldt: als A een n k matrix en


b Rn dan is x Rk een kleinste kwadraten oplossing van de vergelijking Ax = b als en
slechts als x Rk een oplossing is van de vergelijking AT Ax = AT b.

Bewijs: Merk op: x is de kleinste kwadratenoplossing van Ax = b als en slechts als Ax is de


orthogonale projectie van b op Col(A) b Ax Col(A) (= Nul(AT )) AT (b Ax) = 0
AT b AT Ax = 0, waarmee het gevraagde bewezen is.
Het stelsel
AT Ax = AT b
heet de normaal vergelijking van het stelsel Ax = b. Ongeacht de consistentie van het stelsel
Ax = b zal het normale stelsel AT Ax = AT b consistent zijn!
Voorbeeld 17.4. Bepaal de kleinste kwadraten benadering van het inconsistente stelsel Ax = b
met:

4 0
2
A = 0 2 en b = 0 .
1 1
11
Bepaal tevens de kleinste kwadratenfout.
Oplossing.

 4 0



4 0 1
17 1
AT A =
0 2 =
.
0 2 1
1 5
1 1





2
19
4
0
1
T

0 =
.
A b=
11
0 2 1
11
De normaalvergelijking AT Ax = AT b wordt:


 

19
17 1
x1
=
11
1 5
x2
Dit stelsel is simpel op te lossen en levert de kleinste kwadraten benadering:

  
x1
1
x=
=
x2
2
Omdat:

4 0  
2
4
2
2
1
Ax b = 0 2
0 = 4 0 = 4
2
1 1
11
3
11
8
p

wordt de kleinste kwadratenfout : kAx bk = 22 + 42 + (8)2 = 84.


Kleinste kwadraat benaderingen hoeven niet uniek te zijn.
Voorbeeld 17.5. Bepaal de kleinste
kwadraten
1 1 0 0
1 1 0 0

1 0 1 0
A=
1 0 1 0

1 0 0 1
1 0 0 1

benadering
van Ax= b als:

en b = 0

5
1

132

College 17, Kleinste kwadraten benadering.

Oplossing
We bepalen de normaalvergelijking.

1
1 1 1 1 1 1
1

1
1
1
0
0
0
0
T

A A=
0 0 1 1 0 0 1

0 0 0 0 1 1 1
1
en

3
1 1 1 1 1 1
1
1 1 0 0 0 0 0
T

A b=
0 0 1 1 0 0
2
0 0 0 0 1 1 5
1
De aangevulde

6 2 2 2
2 2 0 0

2 0 2 0
2 0 0 2

1
1
0
0
0
0

0
0
1
1
0
0

0
0
0
0
1
1

6
2
2
2

2
2
0
0

2
0
2
0

2
0

0
2

4
=

matrix van de normaalvergelijking wordt:

|
4
1 0 0
1 |
3

| 4
0 1 0 1 | 5
0 0 1 1 | 2
|
2
|
6
0 0 0
0 |
0

En dit
levert
als kleinste kwadraten
benadering:

x1
3 x4
3
1
x2 5 + x4 5
1

x=
x3 = 2 + x4 = 2 + x4 1
x4
x4
0
1

Het residue is kAx bk = 12.

Waarschuwing Vegen van het stelsel Ax = b heeft geen invloed op de oplossingen van het stelsel.
Het heeft echter wel invloed op de kleinste kwadraten benadering! Conclusie: als een stelsel [ A | b ]
geveegd wordt tot de echelonvorm [ E | c] om te zien of dit stelsel consistent is, en dit stelsel blijkt
inconsistent te zijn, ga dan om de kleinste kwadraten benadering te vinden de normal vergelijkingen
AT Ax = AT b oplossen en niet E T Ex = E T c.
Uniciteit kleinste kwadraten oplossing
Wanneer is de kleinste kwadraten benadering van het stelsel Ax = b uniek? We weten dat
een consistent stelsel Cx = d een unieke oplossing heeft als en slechts als de kolommen van C
onafhankelijk zijn. Omdat de kleinste kwadraten benadering van het stelsel Ax = b eigenlijk de
oplossing is van het consistente stelsel:
Ax = projCol(A) (b)
is, kunnen we concluderen dat:

LEMMA 17.6. Laat Ax = b een stelsel zijn. Equivalent zijn:


1. De kolommen van A zijn lineair onafhankelijk,
2. Er is een unieke kleinste kwadraten benadering van dit stelsel.

17.3. Een alternatieve formule voor de projectiematrix

133

Maar omdat de kleinste kwadraten benadering van het stelsel Ax = b ook de oplossing is van het
consistente stelsel:
AT Ax = AT b
is, kunnen we ook concluderen dat:

LEMMA 17.7. Laat Ax = b een stelsel zijn. Equivalent zijn:


1. De kolommen van AT A zijn lineair onafhankelijk,
2. Er is een unieke kleinste kwadraten benadering van dit stelsel.

Kennelijk kunnen we concluderen:


GEVOLG 17.8. Laat Ax = b een stelsel zijn. Equivalent zijn:
1. De kolommen van A zijn lineair onafhankelijk,
2. De kolommen van AT A zijn lineair onafhankelijk.
En we verkrijgen:

STELLING 17.9. Laat A een matrix zijn met onafhankelijke kolommen en beschouw het
stelsel Ax = b. Dan is er een unieke kleinste kwadraten benadering van dit stelsel, gegeven
door:
x = (AT A)1 AT b

Waarschuwing: Gebruik de formule x = (AT A)1 AT b nooit. Het oplossen van de normaal
vergelijking AT Ax = AT b is minder werk dan het bepalen van (AT A)1 !

17.3

Een alternatieve formule voor de projectiematrix

Merkwaardigerwijs kunnen we nu een nieuwe formule vinden voor de orthogonale projectie van een
vector b op de kolomruimte van een matrix A. Inderdaad, laat Ax = b een stelsel zijn, waarbij
de matrix A onafhankelijke kolommen heeft. We weten dat er een unieke kleinste kwadraten
benadering van dit stelsel, gegeven door:
x = (AT A)1 AT b
Omdat dit eigenlijk de oplossing is van het stelsel Ax = projCol(A) (b) kunnen we concluderen:
Ax = A(AT A)1 AT b = projCol(A) b (!!!)

134

College 17, Kleinste kwadraten benadering.

STELLING 17.10. Zij W een lineaire deelruimte van Rn . Stel dat {a1 , , ak } een basis
is voor W en definieer de n k matrix A = [a1 , , ak ]. Dan geldt: de standaardmatrix van
de orthogonale projectie op W gelijk is aan:
[projW ] = A(AT A)1 AT .

Bewijs: Het is duidelijk dat W = Col(A). Volgens wat hierboven staat is:
A(AT A)1 AT b = projCol(A) (b) = projW (b)
en wel voor iedere b Rn . Maar dan is de projectiematrix kennelijk: [projW ] = A(AT A)1 AT .
Wat als de kolommen van A niet onafhankelijk zijn? Dan zijn er meerdere kleinste kwadraten
benaderingen, maar ieder van die benaderingen is een oplossing van het stelsel Ax = projCol(A) (b).
Dus al die kleinste kwadraat oplossingen zullen dezelfde Ax leveren, die gelijk is aan projCol(A) (b).
Controleer dit maar bij voorbeeld 17.5
Concluderend kunnen we nu zeggen dat we twee methoden hebben om de projectiematrix [projW ]
te bepalen, voor een gegeven deelruimte W . In beide gevallen is een basis B = {a1 , . . . , ak } van
W nodig (dus die moet U kunnen bepalen).
Methode 1. Via het Gram-Schmidt proces een orthogonale basis bepalen en deze normeren. Zo
is een orthonormale basis {q1 , . . . , qk } verkregen van W . Als Q = [q1 . . . qk ] dan geldt: [projW ] =
QQT .
Methode 2. Bekijk de matrix A = [a1 . . . ak ]. Dan geldt [projW ] = A(AT A)1 AT .

Opgaven ter Lehring ende


Vermaeck

135

136

Opgaven ter Lehring ende Vermaeck

Opgaven ter Lehring ende Vermaeck

137

Opgaven bij college 1



1. Beschouw een driehoek ABC en bepaal de vector AB + BC + CA.

6
1
2. Beschouw de vector x = 0 en de vector u = 1 .
3
2
(a) Bepaal de (orthogonale) projectie van x op u.
(b) Bepaal de component van x loodrecht op u.
(c) Bepaal oneindig veel vectoren y met de zelfde projectie op u als x.

(Hint: maak gebruik van de

antwoorden van onderdeel a en b.)

3. (a) Schrijf het lineaire stelsel op dat bij de volgende aangevulde matrix hoort.

1
1
1
1
2
2 1 1 2
1
1
3 2 11 4
(b) Geef de aangevulde matrix van het volgende lineaire stelsel in de variabelen x1 , x2 , x3 .

2x1 + x2 x3 = 8
x1 + 8x2 + 5x3 = 0
(c) Geef de aangevulde matrix van het volgende lineaire stelsel in de variabelen x1 , x2 , x3 en x4 .

2x1 + x2 x3 = 8
x1 + 8x2 + 5x3 = 0
(d) Vind u bovenstaande vraag flauw of kinderachtig? Bekijk dan het volgende voorbeeld.
(i) Wat is de vergelijking van het vlak (in de ruimte) door (1, 1, 0) en (0, 2, 0) loodrecht op
het x, y-vlak?
(ii) Wat is de vergelijking van het vlak door (4, 0, 0) en (2, 1, 0), loodrecht op het x, y-vlak?
(iii) Aan welk stelsel voldoen de punten (x, y, z) die op beide vlakken liggen?
(iv ) Wat is de overeenkomst van dit stelsel met het stelsel uit opgave 3c?
(e) Bovenstaande in beschouwing nemend, is het dan begrijpelijk dat de aangevulde matrix notatie
de voorkeur heeft boven die van het stelsel? Wat is die reden dan? (En niet een kortere
notatie noemen.)
4. Los de
volgende stelsels op door de aangevulde matrix te vegen naar driehoeksvorm:
x1 + x2 + 3x3 = 25
2x1 x2 + 4x3 = 55
(a)

x2 + x3 = 15

x
3x3 = 8
1
2x1 + 2x2 + 9x3 = 7
(b)

x2 + 5x3 = 2

3x2 + 4x3 = 4
x1
(c)
3x1 7x2 + 8x3 = 8

4x1 + 6x2 2x3 = 6

= 10
x1 3x2
x1 + x2 + 5x3 = 2
(d)

2x2 + x3 = 0

138

Opgaven ter Lehring ende Vermaeck

5. We weten: drie vergelijkingen met drie onbekenden oplossen is i.h.a. het bepalen van de gemeenschappelijke punten van de drie vlakken die bij de drie vergelijkingen horen.
(a) Teken drie vlakken in de ruimte zodat de oplossing van het overeenkomstige stelsel een lijn is.
(b) Teken drie vlakken in de ruimte zodat het overeenkomstige stelsel inconsistent is.
(c) Teken drie vlakken in de ruimte zodat het overeenkomstige stelsel een oplossing heeft.
(d) Bestaan er drie vlakken in de ruimte zodat het overeenkomstige stelsel een vlak tot oplossing
heeft?

1
1
2
6. Beschouw de drie vectoren v1 = 1 , v2 = 1 en v3 = 0 in R3 .
2
1
1

1
(a) Ga na of de vector b = 3 een lineaire combinatie is van v1 , v2 , v3 .
5
(b) Ga na of de vector v1 een lineaire combinatie is van v1 , v2 , v3 .
(c) Ga na of de vector v1 een lineaire combinatie is van v2 , v3 .
(d) Bestaat er een vector u R3 die geen lineaire combinatie is van v1 , v2 , v3 ?

Opgaven ter Lehring ende Vermaeck

139

Opgaven bij College 2


1. Welke van de volgende matrices
zijn
in echelonvorm?

4 0 2 3
11 2 3 4
0 1 1 0
0 10 1 0

(a) A1 =
0 1 1 0 en A2 = 0 0 0 0
0 0 0 0
0 0 0 5

1 1 1 1
10 9 8
0 0

0 1 1
0
0

(b) B1 =
0 0 10 5 en B2 = 0 0 1
0 0
0 0
0 0 0

7
0

1
1

2. Welke van de volgende matrices


zijn
in gereduceerde echelonvorm?
En welke in echelonvorm?

1 0 1 0
1 0 0
0
0 1 1 0

0
en A2 = 0 1 1

(a) A1 =
0 0 0 0
0 0 0 1
0 0 0 0
0 0 0
0

1 1 0 1
1 1 0 0
0 0 1 0
0 1 1 0

(b) B1 =
0 0 0 0 en B2 = 0 0 1 1
0 0 0 0
0 0 0 1
3. Laat A en B twee m n matrices zijn. Gebruik de eigenschappen:
1. Een matrix heeft een unieke gereduceerde ecehelonvorm (Stelling 2.4)
2. Veegstappen zijn omkeerbaar
om aan te tonen: de matrices A en B zijn rijequivalent (d.w.z. zijn naar elkaar te vegen) als en
slechts als A en B dezelfde gereduceerde echelonvorm hebben.
4. Voor ieder
van de volgende matrices
A1 en

A2 waarbij:

1
3
1
3
1
3 1
1
A1 = 8 24 5 21 en A2 = 1 3
2
0 :
3
9
1
7
0
0 1 1
(a) Veeg Ai naar gereduceerde echelon vorm
(b) Wijs de pivotkolommen en de pivotposities van Ai aan op de gebruikelijke manier.
(c) Ga na of de twee matrices rijequivalent zijn en zo ja, leg uit hoe deze naar elkaar te vegen zijn.
5. Ga na dat van de volgende stelsels de coefficientenmatrix in gereduceerde echelonvorm is. Geef
aan wat de vrije variabelen en wat de gebonden variabelen zijn. Schrijf de oplossing in vectorparametervorm (vegen is dus niet meer nodig).

x1 + 2x2
4x4 = 4
(a)
x3 6x4 = 2

+ 3x3
= 0
x1
x2 2x3
= 2
(b)

x4 = 1

6. Ga na
welke van de volgende stelsels consistent zijn.
x2 + 5x3 = 4

x1 + 4x2 + 3x3 = 2
(a)

2x1 + 7x2 + x3 = 1

140

Opgaven ter Lehring ende Vermaeck

3x1
5x1
(b)

x1

+
+
+

2x2
3x2
x2

+
+

x3
3x3
x3

= 1
= 2
= 1

7. Ga na of de volgende stelsels consistent zijn. Zo ja, los de stelsels op en schrijf het antwoord in
vectorparametervorm.

3x1 + 2x2 + x3 = 1

5x1 + 3x2 + 3x3 = 2


(a)
7x1 + 4x2 + 5x3 = 3

x
+ x2 x3 = 0
1
3x1 2x2 + 5x3 + x4 = 1
x1 + x2 3x3 + 2x4 = 2
(b)

6x1 + x2 4x3 + 3x4 = 7

x1 + x2 3x3 + x4 = 5
(c)
2x1 x2 + x3 2x4 = 2

7x1 + x2 7x3 + 3x4 = 3

x1 + x2 + 2x3 + 3x4 + 4x5 = 0


2x1 + 2x2 + 7x3 + 11x4 + 14x5 = 0
(d)

3x1 + 3x2 + 6x3 + 10x4 + 15x5 = 0

x1 2x2 + x3 + 2x4 = 2

2x1 + 3x2 x3 5x4 = 9


(e)
4x1 x2 + x3 x4 = 5

5x1 3x2 + 2x3 + x4 = 3


8. Een
(a)
(b)
(c)

= b1
x1 x2
stelsel wordt gegeven door x1 + 3x2 2x3 = b2

x1 + 3x2 4x3 = b3
Los het stelsel op als de termen bi respectievelijk 1, 1 en 1 zijn.
Dezelfde vraag maar nu met 0, 0 en 0.
Waar moeten b1 , b2 en b3 aan voldoen opdat het stelsel consistent is?

Opgaven ter Lehring ende Vermaeck

141

Opgaven bij college 3


1. Gegeven is een stelsel met parameters en in R en aangevulde matrix

4
3
1
2
0 2
2 2

0
0
( 2)( + 1) 0
(a) Geef alle waarden van en waarvoor dit stelsel geen oplossingen heeft.
(b) Geef alle waarden van en waarvoor dit stelsel oneindig veel oplossingen heeft.
(c) Geef alle waarden van en waarvoor dit stelsel precies een oplossing heeft.
2. [Tentamen wi2142TNW, 24.08.04, iets aangepast]
Gegeven is het stelsel

x1 + 3x2 + x3 + x4 = 0
2x1 + 3x2 + 2x3 x4 = 3

4x1 + 6x2 + 2 x3 + x4 =

(, R).

(a)

(i) Voor welke waarden van en heeft het stelsel geen oplossingen?
(ii) Voor welke waarden van en heeft het stelsel oneindig veel oplossingen?
(iii) Voor welke waarden van en heeft het stelsel precies een oplossing?
(b) Los het stelsel op voor = 2 en = 2.

1
3. Van de matrixvergelijking Ax = b met A = 4
7
vector b als lineaire combinatie van de kolommen

2
2 3
5 6 is x = 1 de oplossing. Schrijf de
3
8 9
van de matrix A.

4. (a) Herschrijf de vectorvergelijking









  
2
1
3
3
1
x1
+ x2
+ x3
+ x4
=
3
1
2
8
1
als een lineair stelsel enals een
matrixvergelijking.

7
3
6
(b) Voor de vectoren u = 2 , v = 1 en w = 1
5
3
0
dit feit om zonder rijoperaties de matrixvergelijking


7 3 
x
1
2 1
=
x2
5 3

geldt: 3u 5v w = 0. Gebruik

6
1
0

op te lossen.
5. Gegeven zijn twee

1 2
4 5
7 8

stelsels met dezelfde coefficientenmatrix

3 6
1
1 2
6 15 met xp = 1 en 4 5
9 24
1
7 8

met een gegeven particuliere oplossing:

3
0
1
6 3 met xp = 1
9 6
1

Los beide stelsels op door de bijbehorende homogene vergelijking op te lossen.

142

Opgaven ter Lehring ende Vermaeck

6. Stel dat de matrixvergelijking Ax = b een unieke oplossing heeft. Wat kunt u zeggen over de
oplossingsverzameling van de vergelijking Ax = b1 , als b1 6= b?
7. Geef bij elk van de volgende uitspraken aan of deze waar of onwaar is (en leg uit waarom):
(a) Een lineair stelsel vergelijkingen met minder vergelijkingen dan onbekenden heeft oneindig
veel oplossingen.
(b) Een consistent lineair stelsel vergelijkingen met minder vergelijkingen dan onbekenden heeft
oneindig veel oplossingen.
(c) Laat A een matrix zijn. Als het stelsel Ax = 0 slechts de triviale oplossing heeft, dan heeft
het stelsel Ax = b voor iedere b Rn een unieke oplossing.
(d) Laat A een vierkante matrix zijn. Als het stelsel Ax = 0 slechts de triviale oplossing heeft
(dat is x = 0), dan heeft het stelsel Ax = b voor iedere b Rn een unieke oplossing.
(e) De som van twee oplossingen van een lineair stelsel vergelijkingen is ook een oplossing van dit
stelsel.
(f) De som van twee oplossingen van een homogeen lineair stelsel vergelijkingen is ook een oplossing van dit stelsel.
(g) Een scalair veelvoud van een oplossing van een homogeen lineair stelsel verge
lijkingen is ook een oplossing van dit stelsel.
8. Bepaal de oplossing z C3 van het volgende lineaire stelsel over C.

2z1 + iz2 + (1 + 3i)z3 = 1


z1 2z2 + iz3 = 0

iz1 + z2 + (2 + i)z3 = 1

Opgaven ter Lehring ende Vermaeck

143

Opgaven college 4
1. Behandel de vectoren v1 , v2 , v3 als in Voorbeeld 4.4 en Voorbeeld 4.5 om Span{v1 , v2 , v3 } te
bepalen.

1
3
1
(a) v1 = 2 , v2 = 2 en v3 = 1 .
3
1
1

1
3
1
(b) v1 = 2 , v2 = 2 en v3 = 2 .
3
1
1
2. Geef een voorbeeld van drie vectoren v1 , v2 , v3 R3 zo dat v1 Span{v2 , v3 } maar v3
/
Span{v1 , v2 }.
3. Bepaal ofde vector
v in de opspanning


 zit van de daaropvolgende vectoren.
1
1
2
(a) v =
, u1 =
, u2 =
.
2
1
1

2
1
1
(b) v = 1 , u1 = 1 , u2 = 0 .
6
2
3

2
1
1
0
(c) v = 1 , u1 = 1 , u2 = 0 , u3 = 1 .
6
2
3
1

1
1
0
1
(d) v = 2 , u1 = 1 , u2 = 1 , u3 = 0 .
3
0
1
1
4. Ga na of de volgende stelsels vectoren in R3 de ruimte R3 opspannen. Zo niet, geef een vector die
niet in de
opspanning
zit.

1
1
1
(a) u1 = 1 , u2 = 0 , u3 = 3 .
1
2
1


1
1
1
(b) u1 = 1 , u2 = 0 , u3 = 3 .
1
2
1

1
1
(c) u1 = 1 , u2 = 0 .
1
3
5. Bepaal bij de volgende vectoren alle waarden van de parameter h zodat de gegeven vectoren de
ruimte Rnwaarinze zitten
opspannen.

1
3
1
(a) u1 = 1 , u2 = 5 , u3 = 5 .
4
7
h

1
1
1
1
1
1
2
1

(b) v1 =
1 , v2 = 2 , v3 = 1 en v4 = 1 .
2
1
1
h

144

Opgaven ter Lehring ende Vermaeck

1
1
2

(c) w1 =
2 , w2 = h2 en w3 =
1
1

1
1
2
(d) z1 = 2 , z2 = 1 , z3 = 5 en
1
1
2

1
1
.
1
h

0
z4 = h .
0

Opgaven ter Lehring ende Vermaeck

145

Opgaven college 5
1. Toon aan: als het stelsel {v1 , . . . , vk } de nulvector bevat, dan is dit stelsel afhankelijk.
2. Toon aan: een stelsel v1 , v2 van twee vectoren is afhankelijk als en slechts als een van de twee
vectoren een scalair-veelvoud is van de ander.
3. Bewijs of weerleg de volgende uitspraken.
(a) Als het stelsel {v1 , . . . , vk } afhankelijk is, dan is het grotere stelsel {v1 , . . . , vk , vk+1 } dat ook.
(b) Als het stelsel {v1 , . . . , vk } onafhankelijk is, dan is het grotere stelsel {v1 , . . . , vk , vk+1 } dat
ook.
(c) Als het stelsel {v1 , . . . , vk } afhankelijk is, dan is het kleinere stelsel {v1 , . . . , vk1 } dat ook.
(d) Als het stelsel {v1 , . . . , vk } onafhankelijk is, dan is het kleinere stelsel {v1 , . . . , vk1 } dat ook.
4. Bepaal bijieder
1
(a) v1 = 1
4

1
(b) v1 = 1
4

1
(c) v1 = 1
4

van
de volgende

gevallen voor
welke
waarden van h de vectoren afhankelijk zijn.
3
1
, v2 = 5 en v3 = 5 .
7
h

2
1
, v2 = 2 en v3 = 5 .
8
h

3
1
1
, v2 = 5 en v3 = 5 en v4 = h .
7
1
h

5. Bepaal van elk van de volgende stellen vectoren of deze afhankelijk of onafhankelijk zijn. Probeer
het eerst via inspectie in te zien (d.w.z. uit het hoofd). Leg in die gevallen wel uit hoe je tot het
antwoord
gekomen
bent.

2
1
(a) 1 , 4
3
4

0
2
2
(b) 1 , 1 , 0
2
3
1

0
5
1
3
1 0 1 1


(c)
1 , 0 , 5 , 2
2
0
6
3

2
3
1
(d) 2 , 1 , 5
1
2
2

3
5
4
1
(e) 2 , 3 , 3 , 0
4
6
6
2

1
1
1
0
1 1 0 1


(f)
1 , 0 , 1 , 1
0
1
1
1
6. (a) Gegeven is de onafhankelijke verzameling {v1 , v2 } in Rn . Toon aan dat {v1 + v2 , v1 v2 }

146

Opgaven ter Lehring ende Vermaeck

ook een onafhankelijke verzameling is.


(b) Ga na dat voor iedere keuze van de vectoren vi Rn (i = 1, 2, 3) de verzameling {v1 + v2 + v3 , v1 + v2 , v3 }
in Rn een afhankelijk verzameling is.
(c) Gegeven is dat de verzameling vectoren {v1 , v2 , v3 } in Rn onafhankelijk is. Ga na of de
volgende verzamelingen dat ook zijn.
(i) {v1 , v1 + v2 , v1 + v2 + v3 },
(ii) {v1 v2 , v2 v3 , v3 v1 },
(iii) {v1 + v3 , v2 + v3 , v3 , v1 + v2 + v3 }
7. Laat
A=

3 0
1 5

B=

4 2
0
2

1
3

1
C = 3
5

2
4 ,
6

Bereken, indien mogelijk, de volgende matrices:


(a) A + 2C
(b) 2A 4I2 (c) B C
(d) B 2C T (e) B T 2C (f) A + AT
Wat valt u op aan de antwoorden van (d) en (e)? Geef een verklaring hiervan. Wat valt u op aan
de matrix in antwoord (f)? (Voor een verklaring: zie opgave 8c.)
8. (a)
(b)
(c)
(d)

Bewijs dat de som van twee symmetrische n n matrices weer symmetrisch is.
Waar of niet: als A symmetrisch is dan is cA ook symmetrisch (met c R)?
Toon aan: als A een vierkante matrix is dan is de matrix A + AT ook symmetrisch.
Wat geldt voor A + AT als A geen vierkante matrix is?

9. Een matrix A heet scheefsymmetrisch als AT = A.


(a) Leg uit waarom een scheefsymmetrische matrix vierkant moet zijn.
(b) Geef een voorbeeld van een scheefsymmetrische 3 3 matrix met zoveel mogelijk kentallen
ongelijk aan nul.
(c) Bewijs dat de som van twee scheefsymmetrische n n matrices weer scheefsymmetrisch is.
(d) Waar of niet: als A scheefsymmetrisch is dan is cA ook scheefsymmetrisch (met c R)?
(e) Bewijs dat voor n n matrices A geldt dat A AT scheefsymmetrisch is.
10. (a) Bewijs dat iedere vierkante matrix te schrijven is als de som van een symmetrische en een
scheefsymmetrische matrix. (Hint: gebruik opgave 8c en 9e).
(b) Bepaal alle n n matrices die zowel symmetrisch als scheefsymmetrisch zijn.
(c) Bewijs dat iedere matrix op unieke manier te schrijven is als de som van een symmetrische en
een scheefsymmetrische matrix.
(Hint: als A = B1 + C1 = B2 + C2 met Bi symmetrisch en Ci scheefsymmetrisch, bekijk dan
B1 B2 en C2 C1 .)

Opgaven ter Lehring ende Vermaeck

147

Opgaven college 6
1. Laat
A=

3 0
1 5

B=

4 2 1
0
2 3

E=

4 2

1 2
C = 3 4 ,
5 6

F =

1
2

D=

0 3
2
1

Bereken, indien mogelijk, de volgende matrices:


(a) AB (b) BD (c) BC
(d) B T B
(e) F E (f) EF
(g) DA AD (h) A3
2. Voor het handmatig berekenen van een matrixproduct, gebruik je meestal de definitie. Soms is
(vanwege de eenvoud van een van de matrices) een van de andere visies (de kolom- of de rij-visie)
handiger.
Gebruik in de volgende gevallen een zo handig mogelijke methode om het product AB en BA van
de volgende
de gebruikte
methode.
matrices te berekenen
en vermeld

7 17 39 5
0 0 0
(a) A = 5
3 2
0 , B = 0 2 0
2 5 12 8
1 1 0

0 1 0 0
1
2
3
4
0 0 0 1
4 5
3
2

(b) A =
1 0 0 0 , B = 0
1 1 7
0 0 1 0
12
8 11
5

3
1
0
4 0
0
1 , B = 0 8
0
(c) A = 2 2
1
5 3
0 0 3

1 0 0
3
1
0
1
(d) A = 0 1 0 , B = 2 2
2 0 1
1
5 3
3. Bepaal door proberen voorbeelden van reele 2 2-matrices A, B, C, D, E en F waarvoor geldt
(a) A2 = I;
(b) B 2 = 0 terwijl B 6= 0;
(c) CD = DC met CD 6= 0;
(d) EF = 0, terwijl alle kentallen van E en F ongelijk aan nul zijn.
4. Geef bij elk van de volgende uitspraken aan of deze waar of onwaar is (en leg uit waarom). De
afmetingen van matrices A, B en C zijn steeds zo dat de algebrasche operaties gedefinieerd zijn.
(a) Als A = B, dan AC = BC.
(b) Als AC = BC, dan A = B.
(c) Als AB = 0 dan A = 0 of B = 0.
(d) Als A + C = B + C, dan A = B.
(e) Als A2 = I, dan A = I.
(f) De kentallen van A2 zijn allemaal 0.
5. A en B zijn vierkante matrices van gelijke afmetingen.
(a) Welke van de volgende matrices zijn gelijk aan (A + B)2 ?

148

Opgaven ter Lehring ende Vermaeck

(i) (B + A)2 ;
(ii) A2 + 2AB + B 2 ;
(iii) A(A + B) + B(A + B);
(iv ) (A + B)(B + A);
(v ) A2 + AB + BA + B 2 .
(b) Onder welke conditie geldt (A + B)2 = A2 + 2AB + B 2 ?
6. Bewijs: het product van twee bovendriehoeksmatrices is weer een bovendriehoeksmatrix.
7. (a) Geef een voorbeeld van twee symmetrische 2 2 matrices waarvoor het product AB niet symmetrisch is. Ga na of bij de door u gevonden matrices misschien wel geldt of BA symmetrisch
is?
(b) Toon aan: als A en B symmetrische n n matrices zijn, dan geldt AB is symmetrisch als en
slechts als AB = BA.
8. Beschouw de volgende veegstappen bij de matrices A en B. Bepaal matrices E1 en E2 zodat:

1
2 1
1
2
1 2
2
3 4

2
3 4 2 , E2 B =
E1 A = 1
1 2 2 3
1 2 1 2
+
1
1 1
+

Opgaven ter Lehring ende Vermaeck

149

Opgaven college 7

1 2
4 6
1. (a) Laat zien dat
en 2
1
10 14
1
0
(b) Gebruik inverse matrices om de oplossing


4x1 6x2 = 8
10x1 14x2 = 6

2
1 inverteerbaar zijn en vind hun inversen.
1
van de volgende stelsels te vinden

x1 2x2 + 2x3 = 3
en
2x1 + x2 + x3 = 0

x1
x3 = 2

2. Bepaal van elk van de volgende matrices de inverse,





2
12 9
3 5
(a)
(b)
(c) 2
4 3
1
2

1
1 2 3
1
2 2
1
(d) 4 5 6 (e) 2 1 1 (f) 2
7 8 9
1
3 2
1

2
7 13
(g) 2 5 3
1
4
9

1
0

(h)
0
0

2
1
0
0

3
2
1
0

4
3

2
1

indien deze
bestaat.
3 4
1 1
1 2

2
1
5 4
4
6

0 1 0 0 0 0
2 0 2 0 0 0

0 3 0 1 0 0
(i)
0 0 1 0 2 0

0 0 0 3 0 1
0 0 0 0 2 0

3. Bewijs stelling 7.1


4. [Tentamen ET, 02.11.94, deel 1]
(a) Gegeven is een vierkante matrix A met de eigenschap dat A2 + 3A + I = 0. Toon aan dat A
inverteerbaar is. Geef ook de inverse van A.
(b) Bepaal de n n matrix B als gegeven is dat deze inverteerbaar is en bovendien voldoet aan
B 2 3B = 0.
5. Bepaal
alle waarden
van r waarvoor geldt dat de matrix
2 4 2
(a) 1 r 3 inverteerbaar is;
1 2 1

2 4 2
(b) 1 r 3 inverteerbaar is.
1 1 2
6. (a)
(b)
(c)
(d)

Gegeven is een inverteerbare matrix A. Is A + AT dan ook inverteerbaar? En A + A?


Toon aan: Als A2 inverteerbaar is, dan is A ook inverteerbaar.
Toon aan: Als A symmetrisch + inverteerbaar, dan is A1 ook symmetrisch.
Toon aan: Als A scheef-symmetrisch + inverteerbaar, dan is A1 ook scheef-symmetrisch.

7. Geef bij elk van de volgende uitspraken aan of deze waar of onwaar is (en leg uit waarom). De
afmetingen van matrices A, B en C zijn steeds zo dat de algebrasche operaties gedefinieerd zijn.
(a) Als AC = BC en C is inverteerbaar, dan A = B.
(b) Als AB = 0, en B is inverteerbaar, dan A = 0.
(c) Als twee van de matrices uit AB = C inverteerbaar zijn, dan de derde ook.

150

Opgaven ter Lehring ende Vermaeck

(d) Als A en B inverteerbaar zijn, dan is A + B ook inverteerbaar met inverse A1 + B 1 .


(e) Als A en B inverteerbaar zijn, dan is AB ook inverteerbaar met inverse A1 B 1 .
8. Een
(a)
(b)
(c)
(d)

vierkante matrix A heet idempotent als A2 = A, A heet nilpotent als A2 = O.


Geef een voorbeeld van een idempotente 2 2 matrix A met A 6= O, I.
Toon aan: Als A een inverteerbare idempotente matrix is, dan A = I.
Geef een voorbeeld van een idempotente 2 2 matrix A met A 6= O.
Toon aan: Er bestaan geen inverteerbare nilpotente matrices.

9. Los de matrix X op uit de volgende vergelijkingen. U mag aannemen dat de matrices A en B


inverteerbaar zijn.
(a) XA2 = A1
(b) AXB = (BA)2
(c) (A1 X)1 = (B 2 A)1 A
(d) ABXA1 B 1 = I + A
10. Heriner: vegen is links vermenigvuldigen met een (inverteerbare!!) matrix.
(a) Laat A een inverteerbare n n matrix en B een n k matrix. We beschouwen de matrix
[A|B], vegen A naar de matrix In en passen dezelfde veegstappen toe op B. Dan verschijnt
daar de matrix: (dus [A|B] [In |??])?




1 2
1 2
(b) Bepaal B 1 A bij de matrices: B =
en A =
, zo kort mogelijk.
2 5
3 4

Opgaven ter Lehring ende Vermaeck

151

Opgaven college 8
1. Bekijk nog eens de definitie van de determinant zoals in paragraaf 8.1 en leg hiermee uit wat de
formule van de determinant van de 1 1-matrix A = [a1,1 ] is.
2. (a) Bepaal alle permutaties van {1, 2, 3, 4}.
(b) Schrijf iedere permutatie uit (a) als een product van cykels en bepaal daarmee het teken
van iedere permutatie.
(c) Gebruik het resultaat van onderdeel (a) om de algemene formule te bepalen van de determinant


a1,1 a1,2 a1,3 a1,4


a2,1 a2,2 a2,3 a2,4


a3,1 a3,2 a3,3 a3,4


a4,1 a4,2 a4,3 a4,4
3. Bereken

2
(a) 1
1

de determinanten
van

de
1
1
3
4 4 ,
(b) 5
0
2
1

volgende
in 8.2:
matrices
m.b.v. dedefinitie

0 8
1 2 3
a
1 1
0 7 ,
a 3 .
(c) 4 5 6 ,
(d) 1
4 2
7 8 9
4 2 a

4. Bereken de determinanten van de volgende matrices via Laplace


schikte rij of kolom.

0 2 0 0
1 0 1 0
0
0 1
3 0 0 0
0 1 0 1

5 2 , (b)
(a) 0
0 0 0 4 , (c) 1 1 0 0
3 1 4
0 0 1 0
0 0 1 1
5. Bepaal de volgende determinanten.



a 0

0
0
cos


sin cos
tan , (b) b c
(a)
d e
cos sin cos


0 0 0 2


0 0 3 c
,
(d)

0 1 d e
3 f g h

0
0
f


0 0

(c) 0 b
d e

a
c
f

cofactor expansion naar een ge

2
, (d)

2
1



,

5
0
4
1

7
0
1
3

2
0
.
1
4

152

Opgaven ter Lehring ende Vermaeck

Opgaven ter Lehring ende Vermaeck

153

Opgaven college 9
1. Bepaal de

4

2
(a)
3
1

volgende determinanten m.b.v. Stelling 9.1:






4 0 0 0
2
2 0 0



2 3 0 0
3
3 1 0



(b)
(c) 2
1 0 2
3
1
1
0



1 3 1 1
11
3 0 3


0
1
4
2 4 2
3 1
0
8 4
6





(d)

1
1
2
2

2. A is een 3 3 matrix met det(A) = 3 en B is een 4 4 matrix met det(B) = 3.


Bepaal det(2A) en det(2B).
3. Bereken de determinanten van de volgende matrices uit
eigenschapppen van de determinant:

0 2
1 1
1
0
0 1
3 0
5 2 , (c)
(a) 3 0 2 , (b) 0
0 0
2 2
2
3 1 4
0 0

1
4 1
3
2
3 4
0
(d) 2 0 2 . (e) 1 3 2 , (f)
1
5 4
1
1
5
2
0
4. Bereken det A en det A1

2
0
als A =
0
0

3
2
0
0

4
3
2
0

2
3
3
4

2
3
3
3

1
1
2
2

het hoofd, door gebruik te maken van


0
0
0
1
0
1
1
0

0
0
,
4
0

1 0
0 1
.
0 0
1 1

5
4
.
3
2

5. Gegeven zijn 3 3 matrices A en B met det A = 2 en det B = 2. Bereken:


(a) det(AB),
(b) det(3A),
(c) det(A4 ),
1
T
(d) det(B A), (e) det(2B ), (f) det(BB T ).
6. Vind een algemene formule voor de berekening van det(cA) met behulp van det(A) als A een n n
matrix is en c een scalar.
7. Laat met een voorbeeld zien dat in het algemeen det(A + B) 6= det(A) + det(B).
8. Bepaal de mogelijke waarden van det A als A idempotent is (d.w.z. A2 = A). Evenzo als de matrix
A nilpotent is (A2 = O).
De opgaven 9-13 zijn een toegift en zijn absoluut geen tentamenstof. We kunnen later wel naar
deze resultaten verwijzen.
9. (a) Laat x1 , x2 , . . . , xn , xn+1 getallen

1
x1
x21

1
x2
x22

1
x3
x23

.
..
..
..
.
.

2
1 xn
x
n

1 xn+1 x2
n+1

Hier staat
j > i.

n+1j>i1 (xj

in R zijn. Bewijs dat



xn1
xn1
1
xn1
xn2
2
n1
x3
xn3
..
.. =
..
.
.
.
n

xn1
x
n
n

n1
n
xn+1 xn+1

n+1j>i1

(xj xi )

xi ) voor het product van alle mogelijke termen (xj xi ) met

154

Opgaven ter Lehring ende Vermaeck

Q
Dus als n = 2 dan n+1j>i1 (xj xi ) = (x3 x1 )(x2 x1 )(x3 x2 ).
Q
Als n = 3 dan n+1j>i1 (xj xi ) = (x4 x1 )(x3 x1 )(x2 x1 )(x4 x2 )(x3 x2 )(x4 x3 ).
(Hint:
omdat
de
berekening


x2 x1
x22 x21
xn1
xn1
xn2 xn1
2
1
vrij lastig is de

n1
n1
x3 x1
x23 x21
x3 x1
xn3 xn1
volgende opstap.



..
..
.
..
.
..
..
Het ligt voor de


.
.
.


n1
2
2
n1
n
n
hand om
xn x1
xn x1
xn x1
xn x1

xn+1 x1 x2 x2 xn1 xn1 xn xn
n+1

n+1

n+1

via vegen met de eerste rij en ontwikkelen naar de eerste kolom te verkrijgen bovenstaande determinant te verkrijgen. Vervolgens gaan we van rechts naar links kolomvegen.
Kolom n vervangen door kolom n x1 (n 1)de kolom.
Kolom n-1 vervangen door kolom (n 1) x (n 2)de kolom. Etc.
1

Nu kan men bij iedere rij de term (kijk zelf maar) buiten haakjes halen.
De determinant van deze opgave heet de VanderMonde determinant, genoemd naar de Franse
wiskundige A. T. Vandermonde (1735-1796).
(b) Gebruik de VanderMonde determinant om het volgende te bewijzen: als x1 , . . . , xn+1 (n+1)
verschillende getallen in R zijn en b1 , b2 , . . . , bn , bn+1 zijn gegeven waarden in R, dan bestaat
er een uniek polynoom p(x) = a0 +a1 x+ +an xn van de graad tenhoogste n zodat p(xi ) = bi
(voor i = 1 . . . n + 1).
10. Gebruik de regel van Cramer
om de volgende twee stelsels op te lossen.

2x1 + x2 = 7
3x1 2x2 = 7
3x1 + x3 = 8
en
5x1 + 6x2 = 5

x2 + 2x3 = 3

11. Volgens Stelling 9.14 geldt: A regulier dan ook adj(A) regulier.
Toon nu aan: als A een singuliere matrix is, dan is adj(A) ook een singuliere matrix.
(Hint. Als A singulier is dan geldt volgens Stelling 9.13: A adj(A) = 0. Als adj(A) regulier zou
zijn dan geldt: A?? en dus adj(A) =??. Tegenspraak!)
12. Toon aan: als A een n n matrix (met n 2) dan det(adj(A)) = (det(A))n1
13. Toon aan: als A een reguliere n n matrix (met n 2) dan is adj(A) inverteerbaar en
(adj(A))1 =

1
A = adj(A1 )
det(A)

Gebruik dit om een formule voor adj(adj(A)) te bepalen, voor reguliere A. (Hint: pas Stelling 9.14
toe op adj(A).)
14. Welke van de volgende deelverzamelingen van R2 zijn deelruimten van R2 ? Geef in het geval van
deelruimte een opspannend stel vectoren.



x
(a) Het eerste kwadrant K1 , preciezer, de verzameling K1 =
: x 0, y 0 .
y



x
(b) De vereniging van het eerste en derde kwadrant, dus K =
: xy 0 .
y
(c) De punten op de lijn met de vergelijking y = x.



x
(d) De vereniging van de x-as en de y-as, dus T =
: x = 0 of y = 0 .
y



x
(e) De punten binnen de eenheidsdisc D, dus D =
: x2 + y 2 1 .
y

Opgaven ter Lehring ende Vermaeck

(f) De punten op de eenheidscirkel C, dus C =

155



x
y


: x +y =1 .
2

15. Welke van de volgende verzamelingen vormen een deelruimte van een geschikte Rn ? Geef in het
geval van deelruimte een opspannend stel vectoren.

b
a
+
3b
=
c

y
(b) B =
:
(a) A =
: x+y+z =2
c
b+c+a=d

b 2d

2a b + 1 = c
(c) C = b :
(d) D = 5 + d : b, d R
a=b

b + 3d
c

3b + c 6d

1+a

d
: b, c, d R
(f) F = 1 + b : a, b R
(e) E =

2+a+b

156

Opgaven ter Lehring ende Vermaeck

Opgaven ter Lehring ende Vermaeck

157

Opgaven college 10
1. Schrijf de volgende
of als kolomruimte of als nulruimte van een matrix.
lineaire
deelruimten

1
2

(a) W = Span 2 , 1

1
1

a
2a

b
=
c
(b) W = b :
a=b

b
a + 3b = c

:
(c) W =
b + c + a = d
c

2. Bepaal in ieder van de gevallen of b Col(A), w Row(A) en x Nul(A).



 
1
1
1 0 1
3
(a) A =
,b=
, w = 1 , x = 2 .
1 1
1
2
1
1

1
1 3
1
2
1
(b) A = 0
2
1 , b = 1 , w = 4 , x = 1 .
1 1
4
0
5
1

3. Toon aan: Als A en B matrices zijn met de eigenschap dat AB = 0, dan is Col(B) een deelverzameling van Nul(A). En omgekeerd?
4. Laat A en B twee matrices zijn waarvoor geldt dat AB gedefinieerd is.
(a) Bewijs dat de kolomruimte van AB bevat is in de kolomruimte van A.
(b) Is het ook waar dat de kolomruimte van AB bevat is in de kolomruimte van B?
(c) Doe analoge uitspraken met betrekking tot de rijruimte van AB.
5. Bepaal bij elk

1
(a) A =
1

1
(c) A = 0
0

T
van de volgende matrices Aeen basis van
Col(A), Col(A ) en Nul(A).

1 1 3
0 1
1
(b) A = 0 2
1
1

1 3 2

1
0
1
2 4 0 2 1
1 1
1 (d) A = 1
2 1 2 3
1 1 1
1 2 1 4 4

6. Geef bij elk van de volgende uitspraken aan of deze waar of onwaar is (en leg uit waarom).
(a) Een basis voor W is een zo groot mogelijke W opspannende verzameling vectoren.
(b) Een basis voor W is een zo klein mogelijke W opspannende verzameling vectoren.
(c) Een basis voor W is een zo groot mogelijke onafhankelijke verzameling vectoren in W .
(d) Een basis voor W is een zo klein mogelijke onafhankelijke verzameling vectoren in W .
(e) Als Span{v1 , v2 , v3 , v4 } = R4 dan is {v1 , v2 , v3 , v4 } een basis voor R4 .
7. Gegeven is de volgende deelruimte van R4 :


1
3

3
1

W = Span
,
1 3

2
6


1
2
0 2
,
,
3 10
0
4

1
,
.
10

158

Opgaven ter Lehring ende Vermaeck

(a) Geef een 4 5 matrix A1 , een 4 6 matrix A2 en een 4 7 matrix A3 , zo dat W = Col Ai
voor i = 1, 2, 3.
(b) Bestaat er een 4 4 matrix A zo dat W = Col A? En een 4 3 matrix? En een 4 2 matrix?
En een 5 5 matrix?
(c) Geef een 4 4 matrix B1 zo dat W = Row B1 .
(d) Gegeven is dat B een matrix is zo dat W = Row B. Wat kun je zeggen over de afmetingen
van B?
(e) Kun je een matrix C bedenken zo dat W = Nul C?
8. De deelruimte W van Rn is de oplossingsverzameling van het stelsel

x4 + 2x5 = 0
x1 + x2
2x1 + 2x2 + x3 x4 + 7x5 = 0

x1 x2 + x3 + 2x4 + x5 = 0

(a) Wat is n?
(b) Bepaal de dimensie van W . Doe dit met zo weinig mogelijk rekenwerk!
(c) Geef een matrix A zo dat W = Nul A. Kun je nog een matrix bedenken met deze eigenschap,
maar met andere afmetingen?
(d) Geef een matrix B zo dat W = Col B?
(e) Geef een matrix C zo dat W = Row C.

1 2
0 1
2
1
5 3

1
3 1
9. Gegeven is de matrix A = 1
.
1
1 1 3
0
2
2 4
(a) Geef voor elk van de verzamelingen Col A, Row A, Nul A en Nul(AT ) aan van welke Rn ze een
deelruimte zijn.
(b) (i) Behoort (4, 2, 2, 0)T tot Nul(A)? En (7, 1, 0, 5)T ?
(ii) Behoort (0, 0, 0, 0, 1)T tot Col(A)? En (0, 11, 6, 2, 8)T ?
(iii) Behoort (0, 0, 0, 0)T tot Row(A)? En (0, 0, 0, 1)T ?
(c) Bepaal met behulp van je antwoord op (b) de dimensies van de kolom, rij, nul en linkernulruimte van A. Bepaal deze zonder verdere veegoperaties uit te voeren.
(d) Bepaal bases voor de kolom, rij en nulruimte van A. Doe dit door slechts de matrix A te
vegen (hetgeen je waarschijnlijk al gedaan hebt).
(e) Geef een matrix B zo dat Nul A = Col B.
(f) Dun de rijen van A uit tot een basis voor de rijruimte van A.
(g) Bewijs dat de vectoren (0, 0, 1, 1, 1)T en (2, 4, 4, 2, 3)T een basis voor Nul AT vormen.
10. Bepaal de dimensies van Col A, Row A, Nul A en Nul(AT ) voor A =

2 1
1
1
1 3
1 1
0
1
1 4 4

(a) 0
2
1 (b) 0 1 1
1 (c)
1 0 2
1 1 4
0 1 1 1
1 2
3

Opgaven ter Lehring ende Vermaeck

159

Opgaven college 11
1. Toon aan: Als A en B matrices zijn met de eigenschap dat AB = 0, dan geldt: rang(B)
dim(Nul(A)).
2. Laat A een m n matrix zijn. Vul in (met uitleg):
1. Equivalent zijn:
(a) De kolommen van A zijn lineair onafhankelijk.
(b) dim(Col(A)) =??
(c) dim(Nul(A)) =??
2. Equivalent zijn:
(a) De kolommen van A spannen Rm op.
(b) dim(Col(A)) =??
(c) dim(Nul(A)) =??
3. Laat A een m n matrix zijn. Toon aan dat de volgende eigenschappen equivalent zijn:
1. De kolommen van A zijn lineair onafhankelijk.
2. De kolommen van AT spannen Rn op.
4. Laat A een m n matrix zijn met rang(A) = k. Toon aan:
(a) Er bestaat een m k matrix B en een k n matrix C zo dat BC = A.
(b) Als < k bestaat er geen m matrix B en een n matrix C zo dat BC = A.
5. (a) Geef een voorbeeld van twee vierkante matrices A, B met rang(AB) < rang(A) en rang(AB) <
rang(B).
(b) Toon aan: als A inverteerbaar, dan rang(AB) = rang(B).
(c) Toon aan: als B inverteerbaar, dan rang(AB) = rang(A).
(d) Geef een voorbeeld van twee vierkante matrices A, B met rang(AB) 6= rang(BA).
6. Als AB = I dan heet A een links-inverse van B en B heet een rechts-inverse van A. Toon
aan:
(a) Als A een m n matrix, dan heeft A een rechts-inverse als en slechts als rang(A) = m.
(b) Als A een m n matrix, dan heeft A een links-inverse als en slechts als rang(A) = n.
(c) Als A een m n matrix, dan heeft A zowel een rechts-inverse als een links-inverse als en slechts
als A vierkant en inverteerbaar is. Bovendien zijn dan de rechts-inverse en de links-inverse
aan elkaar gelijk.
7. Ga bij de volgende matrices na of de gegeven vectoren eigenvectoren zijn. Zo ja, bepaal de bijbehorende eigenwaarden.

1 3 3
0
5
3
4 met 1 en 2 ?
(a) A = 2
1
4
3
1
3






2 1
0
1 + 2
(b) A =
met
en
?
1 4
0
1

3 2 1
1
1
3 met 0 en 1 ?
(c) A = 1 2
3 2 1
1
1

160

Opgaven ter Lehring ende Vermaeck

3 0 1
1 ? En 1? Zo ja, bepaal dan ook de meetkun8. (a) Is 4 een eigenwaarde van A = 2 3
3 4
5
dige multiplicitiet van de eigenwaarde.

2 3 1
(b) Is 4 een eigenwaarde van A = 1 4 1 ? En 6? Zo ja, bepaal dan ook de meetkundige
0 5 1
multiplicitiet van de eigenwaarde.

1 1 1
(c) Is 0 een eigenwaarde van A = 1 1 1 ? En 3? Zo ja, bepaal dan ook de meetkundige
1 1 1
multiplicitiet van de eigenwaarde.

Opgaven ter Lehring ende Vermaeck

161

Opgaven college 12
1. Bepaal van de volgende matrices:
(a) de eigenwaarden,
(b) een basis van de eigenruimten,
(c) de algebrasche en meetkundige multipliciteiten van iedere eigenwaarde.





2
1 1
1 3
2 1
A=
B=
C = 0 2 2
2 6
1 2
0
0 2

0 1 1 1
0
0 2
1 0 1 1

E=
D = 0 2 2
1 1 0 1
2
1 1
1 1 1 0
2. Laat A een n n matrix zijn. Druk de eigenvectoren en eigenwaarden van A + cI uit in die van A.
(D.w.z., als een eigenwaarde is van A, dan is . . . een eigenwaarde van A + cI. Bovendien: als x
een eigenvector van A is bij , dan is . . . eigenvector A + cI bij de eigenwaarde . . . .)
3. (a) Laat A een nilpotente matrix zijn (d.w.z. een matrix met An = O, voor zekere n N). Laat
zien: als R een eigenwaarde is van A, dan is = 0.
(b) Laat A een idempotente matrix zijn (d.w.z. A2 = A). Laat zien: als R een eigenwaarde
is van A, dan is = 0 of = 1.
4. Laat A een vierkante matrix zijn.
(a) Toon aan dat A en AT dezelfde karakteristieke vergelijking hebben.
(b) Toon aan dat A en AT dezelfde eigenwaarden hebben.
(c) Geef een voorbeeld van een 2 2 matrix A zo dat A en AT niet dezelfde eigenvectoren hebben.
5. Voor een n n matrix A met eigenwaarden 1 , . . . , n (naar multipliciteit geteld evenals de
complexe nulpunten) geldt:
(a) 1 2 n = det A
(b) 1 + 2 + + n = a11 + a22 + + ann , (Lastig te bewijzen, wel een leuk feit.)

162

Opgaven ter Lehring ende Vermaeck

Opgaven college 13
1. Laat A, B inverteerbare n n matrices zijn. Toon aan dat de matrices AB en BA gelijkvormig
zijn.
2. Geef een bewijs van Lemma 13.2.
3. Toon aandat de volgende
matrices
A, B niet gelijkvormig zijn.


3 1
2 1
(a) A =
en B =
.
5
7
4 6

1 2 3
3 0 0
(b) A = 0 1 2 en B = 1 1 0 .
0 0 2
1 1 1
4. Laat zien dat de volgende matrices A en
van zowel A als B. Laat ook zien dat A
A = QBQ1 .



1 1
1 2
(a) A =
en B =
.
0 2
0 2

1 1 1
2 0 0
(b) A = 0 2 2 en B = 1 1 0
0 0 3
3 2 3
5. Verzin een 3 3

E1 heeft, en

B diagonaliseerbaar zijn. Bepaal een diagonalisering


en B gelijkvormig door een matrix Q te bepalen met

1
1
matrix A die eigenwaarden = 1, 2 heeft en die 1 , 0 als basis van

1
1

1
0 als basis van E2 . Hoeveel van zulke matrices zullen er bestaan?

6. Geef een bewijs van Stelling 13.11. (Toch wel lastig)


7. [Tentamen lineaire algebra voor ET, 28 oktober 2002]
Ga na of het volgende waar dan wel niet waar is (zonder de matrixproducten te berekenen):

1
1
2

1
1
2 0 0
1 1
1
0 1 0 2 0 1 0 1
1
1
0 0 5
2 1
1

1 1 0
5 0 0
1 0 1 0 2 0
1 1 1
0 0 2

1 1
1 0
1 1

1
0
1
1

8. Ga van de volgende matrices


zijn. Zo ja, bepaal een diagonalisering.

na of ze diagonaliserbaar

3 1 0
1 0 1
(a) A = 0 3 1 , B = 0 1 1
0 0 3
1 1 0

1 0 0
1 2 1
(b) A = 2 2 1 , B = 1 0 1
3 0 1
1 1 0

Opgaven ter Lehring ende Vermaeck

2
0
(c) A =
0
0

0
3
0
0

2
0
3
0

163

2
1

0
1

9. [Tentamen lineaire algebra voor ET, 20 augustus 2002, gedeelte]


Gegeven zijn de volgende matrices:

1
1
1
0
0
0
P = 1
2 2 en D = 0 2
0 .
1 3
1
0
0 2
Verder A = P DP 1 . Beantwoord de volgende vragen zonder A uit te rekenen! Geef argumenten!
(a) Wat zijn de eigenwaarden van A? Geef ook de algebrasche multipliciteiten.
(b) Bepaal bij elke eigenwaarde een basis voor de bijbehorende eigenruimte.
(c) Is A gelijk aan RCR1 als

1 1
0
2 0
0
1 en C = 0 0
0 ?
R = 2 1
3 1 1
0 0 2
10. Voor welke
waarden van
k zijn de volgende matrices diagonaliseerbaar?
1 0 k
(a) A = 0 1 0
0 0 1

1 k 0
(b) A = 9 2 0
0 0 1

1 1 k
(c) A = 1 1 k .
1 1 k

1
11. Beschouw de matrix A = 0
0

0
1
1
1 . Bepaal An en lim An .
n
0 1/2

4 8 1
12. Beschouw de matrix A = 0 9 1 .
0 0 1
(a) Geef een diagonalisering van A.
(b) Geef een diagonalisering van A2 .
(c) Geef een diagonalisering van een matrix B met B 2 = A. Hoeveel van deze matrices kunt U
vinden op deze manier?
(d) Geef een diagonalisering van een matrix Bn met positieve eigenwaarden met Bnn = A. Bepaal
lim Bn .
n

13. Gegeven zijn de volgende matrix en vectoren

1 1
1
1
1
1
1 ,
A=
2
1
1 1

1
b1 = 1 ,
2

1
b2 = 1
1

1
en b3 = 1 .
0

164

Opgaven ter Lehring ende Vermaeck

(a) Toon aan dat B = {b1 , b2 , b3 } een basis voor R3 is bestaande uit eigenvectoren van A.

2
(b) Schrijf v = 4 als lineaire combinatie van b1 , b2 b3 . Waarom weet je zeker dat dit kan?
3
(c) Beschouw het dynamisch systeem xn+1 = Axn met x0 = v. Bepaal xn . Bestaat lim xn ?
n

(d) Bestaat lim Ak ?


k

1
(e) Bestaat lim Ak w als w = 3 ?
k
1
14. Bepaal van de volgende lineaire recurrentie problemen een formule voor pn .
(a) p0 = 0, p1 = 5 en pn+1 = 3pn + 4pn1 .
3
5
(b) p0 = 10, p1 = 3 en pn+1 = pn + pn1 . Bepaal ook lim pn .
n
8
8
15. Los de
gekoppelde differentiaal vergelijkingen op.
 volgende
x1 = x1 + 3x2
(a)
x = 2x1 + 2x2
 2
x1 =
2x1 x2
(b)
x2 = x1 + 2x2

x2 x3
x1 =
x2 = x1
+x3
(c)

x3 = x1 +x2

x2 x3
x1 =
x2 = x1
+x3
(d)
met x1 (0) = 1, x2 (0) = 0 en x3 (0) = 1.

x3 = x1 +x2

Opgaven ter Lehring ende Vermaeck

165

Opgaven college 14
1. Stel dat de vectoren u, v en w in Rn gegeven zijn. Als u v = u w en u 6= 0, volgt dan dat
v = w? (Zo ja, bewijs dat dan. Zo nee, geef een tegenvoorbeeld.)

1
1
1
1
4

2. Gegeven zijn de vectoren u =


1 en v = 0 in R .
1
0
(a) Bepaal u v, kuk, kvk.
(b) Bepaal de hoek tussen u en v.
(c) Normeer beide vectoren u en v tot u1 en v1 .
3. Laat u en v vectoren in Rn zijn. Toon aan:
uv als en slechts als d(u, v) = d(u, v).
(Hint: begin het bewijs aan die kant van de identiteit waar rekenregels toegepast kunnen worden,
en met name de rekenregels van het inwendig product!)
4. Laat u en v niet nulvectoren in Rn zijn, met normering u1 en v1 . Toon aan dat de hoek tussen u
en v gelijk is aan de hoek tussen u1 en v1
5. Welke van de volgende 4 expressies zijn onzinnig.
(a) u (v + w) (b) (u v) w (c) (u v)w (d) (u v) + w
6. Stel dat de vectoren u, v en w in Rn gegeven zijn met
u v = 2, u w= 6 en v w
=4
kuk = 2, kvk = 2 en kwk = 10
(a) Bepaal (u + w) (v w).
(b) Bepaal (2v w) (3u + 2w).
(c) Bepaal k2u vk.
(d) Toon aan: u + v = w.

9
1
0
1
1k
k

7. Gegeven zijn de vectoren u =


,v=
en w = 2
2
2k
k
5
k
0
(a) Bepaal alle k R zodat u en v orthogonaal zijn.
(b) Bepaal alle k R zodat u en w orthogonaal zijn.
(c) Bepaal alle k R zodat v en w orthogonaal zijn.
8. De vectoren u,
(a) Toon aan:
(b) Toon aan:
(c) Toon aan:

in R4 .

v en w in Rn zijn gegeven.
(u v) (u + v) = kuk2 kvk2 .
ku + vk2 + ku vk2 = 2kuk2 + 2kvk2 .
u v = 14 ku + vk2 14 ku vk2

9. Bepaal of de verzameling vectoren {v1 , . . . , vk } orthogonaal is. Zo ja, kijk of de verzameling via
normeren tot een orthonormale verzameling {w1 , . . . , wk } te maken is.

3
2
1
(a) 1 , 4 , 1
2
1
2

166

Opgaven ter Lehring ende Vermaeck

(b)

(c)

3
1
2
1
0
1
1

2
0
, 4 , 0
1
0



0
1
1 1

,

1 , 1
1
0

2/3
1/3
2/3
10. Ga na dat B = {v1 , v2 , v3 } met v1 = 1/3 , v2 = 2/3 en v3 = 2/3 een or2/3
1/3
2/3

2
thonormale basis voor R3 vormen en schrijf de vector w = 0 als lineaire combinatie van
5
v1 , v2 , v3 .

Opgaven ter Lehring ende Vermaeck

167

Opgaven college 15

4
2
1. Ga na dat de vectoren v1 = 2 , v2 = 2 orthogonaal zijn en bepaal een vector v3 z
o
1
12
dat {v1 , v2 , v3 } een orthogonale basis is voor R3 . Gebruik deze vectoren om een orthogonale 3 3
matrix te maken.

1/2 1/ 2
1 1 2
2. Ga na of de matrices Q1 = 4 0
1 en Q2 = 1/ 2 1/ 2 orthogonaal zijn. Als
1 1 2
0
0
uw antwoord nee is, waarom dan niet?

3. Laat zien dat het product Q1 Q2 van twee orthogonale n n matrices Q1 en Q2 weer orthogonaal
is. En Q1 + Q2 ?
4. Stel
(a)
(b)
(c)
(d)
(e)

dat Q een n k matrix is met orthonormale kolommen.


Is Q noodzakelijk een orthogonale matrix?
Kan gelden: k > n?
Toon aan: kQxk = kxk, voor alle x Rk .
Toon aan: Qx Qy = x y, voor alle x, y Rk .
Toon aan: de hoek tussen de vectoren x en y (in Rk ) is gelijk aan de hoek tussen de vectoren
Qx en Q(y) (zitten in welke R? ?), voor alle x, y Rk .

5. Laat Q een orthogonale matrix zijn. Toon aan:


(a) det(Q) = 1.
(b) Als een eigenwaarde is van Q dan || = 1.

1/ 2
6. Vul de kentallen van de matrix
0
1/ 2
keuzes van kolommen zijn er?

7. Beschouw de vectoren v1

1/3
1/3
1/ 3

aan tot een orthogonale matrix. Hoeveel

1
1
2
2
1
3

=
3 , v2 = 1 en v3 = 7
2
2
6

en de deelruimte W =

Span{v1 , v2 , v3 }.
(a) Bepaal een basis voor W .
(b) Verifieer dat iedere basisvector orthogonaal is met iedere vi (i = 1, 2, 3).
(c) Verifieer ook dat dim(W ) + dim(W ) = 4.
(d) Bepaal een matrix A zodat W = Nul(A).



1 1 2
1
8. Beschouw de matrix A =
en de deelruimte W = Nul(A).
1 1 2 1
(a) Bepaal een basis voor W .
(b) Bepaal een matrix B zodat Nul(B) = W .

168

9. Beschouw de vectoren v1
Span{v1 , v2 , v3 }.

Opgaven ter Lehring ende Vermaeck

1
1
1
1

=
1 , v2 = 2
2
1

en v3

1
1

=
2 en de deelruimte V =
5

2
1
0
2
0
4

Evenzo, beschouw de vectoren w1 =


3 , w2 = 1 en w3 = 2
3
1
2
W = Span{w1 , w2 , w3 }.
(a) Bepaal bases voor V en W .
(b) Bepaal bases voor V en W .
(c) Bepaal matrix A1 en A2 zodat Col(A1 ) = V en Col(A2 ) = W .
(d) Bepaal matrices B1 en B2 zodat Nul(B1 ) = V en Nul(B2 ) = W .

en de deelruimte

1
10. Beschouw de lijn L = Span{v} met v = 2 . L is een lineaire deelruimte van R3 .
3
(a) Bepaal een matrix A zodat Nul(A) = L.
(b) Beschrijf meetkundig wat bij onderdeel (a) gebeurd.
(c) Beschrijf een 5 3 matrix B zodat Nul(B) = L. Wat gebeurd hier meetkundig?

1
1
1
2

11. Beschouw de vectoren v1 =


1 , v2 = 1
1
1

en x = 5 . W is de deelruimte Span{v1 , v2 }.

0
1

2
5

(a) Gebruik de definitie van projectie om aan te tonen dat de vector p =


2 de projectie van
2
x op W is.
(b) Bepaal ook SW (x).

12. Beschouw de vectoren v1

1
1
5
1
1
1

=
, v =
en x =
0 2
1
1
1
0
0

Span{v1 , v2 }.
(a) Bepaal voor x de decompositie in vectoren uit W en W .
(b) Bepaal projW (x) en SW (x).
(c) Bepaal ook projW (x) en SW (x).

13. Bekijk de drie vectoren v1


Span{v1 , v2 , v3 }.

1
0
1
0

=
0 , v2 = 1
0
1

en v3

W is de deelruimte

(Hint: v1 v2 .)

2
0

=
0 en de deelruimte W =
2

5
1

Bepaal voor x =
3 de decompositie in vectoren uit W en W .
1

(Hint: Pas op, {v1 , v2 , v3 } is

Opgaven ter Lehring ende Vermaeck

GEEN orthogonale verzameling. Maak gebruik van Gevolg 15.15.)

169

170

Opgaven ter Lehring ende Vermaeck

Opgaven college 16

1
1
5
1
1

1. Beschouw nogmaals de vectoren v1 =


0 , v2 = 1 en x = 3 1 van opgave 12 van
1
0
0
College 15. W is de deelruimte Span{v1 , v2 }.
(a) Bepaal de projectiematrix [projW ] en de spiegelingsmatrix [SW ]. (Hint: v1 v2 .)
(b) Bepaal nogmaals, nu met behulp van deze matrices, projW (x) en SW (x).
2. Laat W een deelruimte zijn van Rn .
(a) Leg uit waarom de identiteit: x = projW (x) + projW (x), voor alle x Rn betekent dat
[projW ] + [projW ] = In .
(b) Gebruik bovenstaand feit om opgave
dus:
13 van college
15 nog eente doen,

1
0
2
1
0
0

Bekijk de drie vectoren v1 =


0 , v2 = 1 en v3 = 0 en de deelruimte W =
0
1
2
Span{v1 , v2 , v3 }.

5
1

Bepaal [projW ] en daarmee [projW ]. Bepaal nu projW (x) voor de vector x =


3 .
1
3. Gebruik de identiteit [projW ] + [projW ] = In om aan te tonen: [SW ] = [SW ].
4. (a) W = Rn is een deelruimte van Rn . Bepaal voor deze deelruimte de matrices [projW ] en [SW ].
(b) W = {0} is een deelruimte van Rn . Bepaal voor deze deelruimte de matrices [projW ] en [SW ].
5. (a) Gebruik de formule [projW ] = QQT om aan te tonen dat iedere projectiematrix [projW ]
symmetrisch is en idempotent. (De matrix P heet idempotent als P 2 = P .)
(b) Toon aan: als P een symmetrische en idempotente n n matrix is, dat er een deelruimte W
in Rn bestaat met [projW ] = P .
(Hint: neem W gelijk aan Col(P ). Dan geldt zeker P x W , voor alle x Rn . Om in te zien dat P x de
projectie van x op W is het voldoende aan te tonen dat x P x W = (Col(P )) = Nul(P T )!!!!)

6. De vorige opgave laat zien dat de projectiematrices precies de symmetrische idempotente matrices
zijn. In deze opgave karakterizeren we spiegelingmatrices.
(a) Toon aan: als P een symmetrische idempotente matrix is, dan is 2P I een symmetrische
orthogonale matrix.
(b) Toon aan: een spiegelingsmatrix [SW ] is symmetrisch en orthogonaal.
(c) Toon aan: als S een symmetrische orthogonale matrix is, dan is de matrix 21 (S+I) symmetrisch
en idempotent.
(d) Leg uit waarom geldt dat de spiegelingmatrices precies de symmetrisch en orthogonale matrices
zijn.


1
2
4
5
1 0 2 1
1
0 1 1 2
1
3
3

7. Beschouw de matrix A =
3
4 10 11 0 0 0 0
0 1 1 2
0 0 0 0
(a) Bepaal een orthogonale basis voor Col(A) Rn . Bepaal ook

een orthonormale basis.

Opgaven ter Lehring ende Vermaeck

(b)
(c)
(d)
(e)

171

Bepaal een orthogonale basis voor Nul(A) Rn .


Bepaal een orthogonale basis voor Col(A) .
Bepaal een orthogonale basis voor Nul(A) .
Maak met bovenstaande resultaten twee orthogonale matrices.

1
2
4
5
0
0
1

1
3
3
en de vector x = . Gebruik de
8. Beschouw opnieuw de matrix A =
3
0
4 10 11
0 1 1 2
1
resultaten van opgave 1 om de orthogonale projectie van x op Col(A) en op Nul(A) te bepalen.
Bepaal tevens de projecties van x op Col(A) en op Nul(A)

1/2
2/14
1/2
1/ 14
. Bepaal kolommen q3 en
9. Beschouw de 4 4 matrix Q = [ q1 q2 ] =
1/2

0
1/2 3/ 14
q4 voor Q zodat de matrix Q orthogonaal wordt. (Hint: {q3 , q4 } is een orthonormele basis Span{q1 , q2 } .)

1
1
1
1

10. Als v1 =
1 , v2 = 1 en v3 =
1
5
orthonormale basis van W = Span{v1 , v2 , v3 }.

1
2
, bepaal dan een orthogonale basis en een
0
1

172

Opgaven ter Lehring ende Vermaeck

Opgaven college 17

1
1
5
1
1
1

1. Beschouw nogmaals de vectoren v1 =


0 , v2 = 1 en x = 1
1
0
0
College 15. W is de deelruimte Span{v1 , v2 }.
(a) Bepaal d(x, W ).
(b) Bepaal d(x, W ).

1
0
1
0

2. Beschouw nogmaals de vectoren v1 =


0 , v2 = 1
0
1

en v3

W = Span{v1 , v2 , v3 } van opgave 13 van College 15. Tevens: x =

(a) Bepaal d(x, W ).


(b) Bepaal d(x, W ).

van opgave 12 van

2
0

=
0 en de deelruimte
2

5
1
.
3
1

3. Bepaal voor de volgende stelsels Ax = b: (1) De normaal vergelijking (2) De kleinste kwadraat
oplossing(en); (3) De projectie van b op Col(A).

3 1
1
(a) A = 1 1 , b = 1 .
1 2
1

1 2
4
0 3

en b = 1 .
(b) A =
2
2
5
3
0
4

1 1 0
1
1 1 0

en b = 3 .
(c) A =
1 0 1
8
1 0 1
2
4. Gegeven is dat het stelsel Ax = b de eigenschap heeft dat b orthogonaal is met iedere kolom ai
van A. Bepaal een kleinste kwadraat oplossing van dit stelsel.
5. Gegeven is dat de kolommen van de matrix A orthonormaal zijn. Bepaal de kleinste kwadraat
oplossing van stelsel Ax = b.
6. Laat A een reele m n matrix zijn.
(a) Omdat Ax = 0 consistent is geldt dat de vergelijking Ax = 0 en de bijbehorende normaalvergelijking dezelfde oplossing hebben.
Gebruik dit inzicht om aan te tonen dat Nul(A) = Nul(AT A).
Kunt u dit ook rechtstreeks aantonen?
(b) Gebruik onderdeel (a) om aan te tonen dat geldt: rang(A) = rang(AT A).
7. Laat A een reele matrix zijn met lineair onafhankelijke kolommen en beschouw P = A(AT A)1 AT .
Toon aan.
(a) P is een symmetrische matrix.

Opgaven ter Lehring ende Vermaeck

173

(b) P is een idempotente matrix (d.w.z. P 2 = P ).


Herinner nu opgave 5 van College 16 die zegt dat een symmetrische idempotente P matrix een
projectiematrix is, en wel van de projectie op de deelruimte W = Col(P ).
(c) Toon aan dat Col(P ) = Col(A). (Dus weer zien we in dat P = A(AT A)1 AT de projectiematrix is van de projectie op Col(A).)
8. Bepaal voor de volgende lineaire deelruimten W de standaardmatrix van de projectie op W , zonder
eerst een orthogonale basis voor W te bepalen. Bepaal vervolgens de projectie van de gegeven vector
b op Col(A).


1
1
0

(a) W = Span 0 , 1 en b = 1 .

1
1
0

1
1
1

(b) W = Span 2 , 0 en b = 2 .

3
1
1

You might also like