You are on page 1of 11

Hoofdstuk 1

Vectoren dik gedrukt, scalairen normaal en Matrices in hoofdletters

Vector = een pijl in Rn. Een vector heeft een grootte en een richting. Dit in tegenstelling tot
een cordinaat, dat slechts n punt in Rn is, en dus ook geen grootte en richting heeft.
Cofficinten matrix = matrix waarin de rechterkolom geen oplossing van de vergelijking is
Vier manieren om een vergelijking op te schrijven:
1. Lineair systeem = Stelsel van lineaire vergelijkingen

2. Vector-vergelijking

3. Matrix vergelijking

4. Aangevulde matrix (belangrijkste, zo los je hem uiteindelijk op)

Aantal oplossingen:
Oneindig veel (consistent)
1 (consistent)
Geen (inconsistent)

Oplossingsverzameling: Bestaat uit basisvariabelen en vrije variabelen


3 elementaire rij-operaties bij een matrix
Vervangen
Vermenigvuldigen
Verwisselen
Standaard rijvorm
Alle niet-nul rijen boven de nulrijen
Elk hoofdelement ( = pivot, meest linkse niet nul element) zit in een kolom rechts van
het hoofdelement in de rij er boven
Alle elementen in een kolom onder het hoofdelement zijn nullen
Kanonieke (= gereduceerde) rijvorm heeft nog 2 eisen:
Het hoofdelement in elke niet-nul rij is gelijk aan 1
Elk hoofdelement is het enige niet-nul element in een kolom
Nulrij/nulkolom: rij/kolom met alleen maar nullen
Variabelen: x1, x2, , xp
Basisvariabelen: x1 = 3
vrije variabelen: x1 vrij te kiezen
Algemene oplossing: Beschrijft alle oplossingen
Parametrische omschrijving: In de algemene oplossing worden vrije variabelen als
parameter gebruikt
Verzameling: {v1, v2, v3}
Opspansel: span {v1, v2, ... , vp} ,met v1, v2, ... , vp vectoren uit Rn, is een verzameling van alle
vectoren uit Rn die je kunt schrijven als c1 * v1 + c2 * v2 + + cp * vp .
Dus: span {v1, v2, ... , vp} = c1 * v1 + c2 * v2 + + cp * vp
b zit in span {v1, v2, ... , vp} als je b kunt schrijven als = c1 * v1 + c2 * v2 + + cp + vp.
Dus om te kijken of b er in zit, moet c1 * v1 + c2 * v2 + + cp * vp = b oplossingen hebben.
Dit los je op door c1 * v1 + c2 * v2 + + cp * vp = b te beschouwen als vectorvergelijking.
Logisch equivalente beweringen: (zie aantekening voor uitleg!)
1. Voor elke b in Rm heeft de vergelijking Ax = b een oplossing
2. Elke b in Rm is een lineaire combinatie van de kolommen van A
3. De kolommen van A spannen Rm op
4. A heeft een pivot positie in elke rij
Rekenregels: Als A een m x n matrix is, u en v vectoren in Rn en c een scalair, dan
A(u + v) = Au + Av
A(cu) = cAu
Lineaire combinaties
x1*a1

Ax (= x1*a1 + x2*a2 + )

Homogeen systeem: Ax = 0
Altijd de triviale oplossing x = 0
Soms zijn er niet-triviale oplossingen voor x (dan is er een vrije variabele in de
oplossingsverzameling van x aanwezig)
o Als er niet-triviale oplossingen zijn, dan is het systeem lineair afhankelijk
o Als er geen niet-triviale oplossingen zijn, dan is het lineair onafhankelijk
Niet-homogeen systeem: Ax = b
(DIT IS GEEN EERSTEGRAADS FUNCTIE!)
Heeft de oplossing x = [x1; x2; x3 ] (de puntkomma tussen de x-en betekent dat de xen eigenlijk onder elkaar moeten staan, maar dat is geen efficint papiergebruik). Door
op de plaatsen van x1, x2, x3 enz. de gevonden waarden (na het herleiden van de
aangevulde matrix) in te vullen, kun je x herschrijven tot x = [x1; x2; x3 ] = p + vh.
Hierbij is vh de niet-triviale oplossing van het homogeen systeem. p is een vector die
er voor zorgt dat de oplossing gaat gelden voor Ax = b. Geometrisch gezien zorgt p er
voor dat de oplossingsverzameling verschoven wordt. vh wordt ook wel de homogene
oplossing genoemd en p de particuliere oplossing.
De volgende dingen kunnen lineair afhankelijk zijn (controleren m.b.v. aangevulde matrices):
Matrix kolommen, als een kolom een veelvoud is van een andere kolom
Homogene systemen: Ax = 0
Verzamelingen: { v1, v2, ... , vp } = c1 * v1 + c2 * v2 + + cp * vp = Ax = 0
o Verzameling S = { v1, v2, ... , vp } is ook lineair afhankelijk als geldt:
v2 = c * v1

Als n van de vectoren de nulvector is

Als er meer vectoren zijn dan rijen in een vector (dus p>n)

vp is een lineaire combinatie van andere vectoren (c1*v1 + c2*v2 = vp)

(lineaire combinatie, want bovenstaande is herschrijfbaar tot: Ax = b)


Transformatie T

T zet vector x om in vector b = T(x)

Hierbij gaat x van Rn naar Rm

Rn is het domein van T

Rm is het codomein van T

T(x) noemen we ook wel het beeld van x onder T ,dus T(u) is het beeld van u onder T

T(x) is het bereik van T = de verzameling van alle beelden onder T


Als een transformatie T(x) ervoor zorgt dat Rn in Rm wordt afgebeeld, dan heet T surjectief.
T(x) spant dan Rm op, oftewel de matrix die voor de transformatie zorgt moet dan Rm
omspannen, dus die moet in elke rij een pivot hebben. (controleerbaar met de 4 logisch
equivalente stellingen).
Officile omschrijving: Een afbeelding T: Rn -> Rm heet surjectief (engels: onto) als elke
willekeurige vector b = T(x) in Rm het beeld is van MINSTENS 1 vector x in Rn.
Als de kolommen van A in T(x) = Ax lineair onafhankelijk zijn (dus geen niet-triviale
oplossingen voor Ax=0), heet T injectief.
Officile omschrijving: Een afbeelding T: Rn -> Rm heet injectief (engels: one-to-one)
als elke willekeurige vector b in Rm het beeld is van HOOGUIT 1 vector x in Rn.

Soorten transformaties
Matrix transformaties (meest gebruikte). hiermee zet je met behulp van een matrix A
de vector x om in b, T(x) = Ax = b. Matrix transformaties zijn lineaire transformaties.
Soms heb je te maken met de transformatie T(x) = Ax en dan is A gevraagd, zodat je
T(x) voor elke willekeurige x kunt berekenen. Dan is er in zon vraag e1, e2 enz.
gegeven met bijbehorende T(e1), T(e2) enz. Dan A= [ T(e1) T(e2) enz. ]
A heet dan de standaard matrix voor de lineaire transformatie T. Uitgebreide uitleg en
het bewijs van de stelling in de aantekening bij paragraaf 1.9
Lineaire transformaties: deze voldoen aan de volgende rekenregels:
o T(u+v) = T(u) + T(v) voor alle u, v in het domein van T (in Rn dus)
o T(cu+dv) = c*T(u) + d*T(v) voor alle u, v in het domein van T (in Rn dus)
o T(c*u) = c*T(u)
voor alle u alle c
o T(0) = 0
Geometrisch
lineaire transformaties: dit zijn lineaire transformaties die beschreven

worden in een assenstelsel. De volgende dingen kunnen gebeuren:


o Een punt/vlak verschuiven (= schuiftransformatie). Dit kan met een
willekeurige matrix A ( T(x) = Ax ), maar ook met een scalair r ( T(x) = r*x ).
Als 0<r<1, dan wordt de afbeelding verkleind en dan spreek je van contractie.
Als r>1, dan wordt de afbeelding vergroot en dan spreek je van dilatie.
o Een punt verschuiven over een cirkel. Bijbehorende matrix op pagina 100.
o Een punt spiegelen, bijvoorbeeld in de x-as, de y as, de lijn y=x, de lijn y=-x of
de oorsprong. Bijbehorende standaardmatrices op pagina 101 van het boek.
o Een vlak projecteren op de x-as of y-as. Bijbehorende standaardmatrices op
pagina 103 van het boek.
De oplosmethode voor elektrische schakelingen leren (zie aantekeningen)

Hoofdstuk 2: Matrix Algebra


Rekenregels voor matrices:
A+B=B+A

(A + B) + C = A + (B + C)

A+0=A

r*(A + B) = r*A + r*B

(r+s)*A = r*A + s*A

r*(s*A) = (r*s)*A

A*B B*A
OPLETTEN DUS!

A*B = [A*b1 A*b2 A*b3 A*bn] en B*A = [B*a1 B*a2 B*a3 B*an]

Alle kolommen A*bn van matrix A*B zijn dus lineaire combinaties (Ax = b = A*bn)
Als A is een m x n matrix en B een n x p matrix, dan is AB een m x p matrix

Ak = A*A*A**A (bijv. A3 = A*A*A)

A(BC) = (AB)C

A(B+C) = AB + AC

(B+C)A = BA + CA

r(AB) = (rA)B = A(rB)

Im*A = A = A*In
LET OP DE VOLGORDE VAN A EN I en Im EN In

Als AB = AC, dan geldt NIET automatisch B=C

Als A*B = 0, dan geldt NIET automatisch A=0 of B=0

AT is de transpose van matrix A. We zeggen dan dat we matrix A transponeren. In matlab is dit
A. Hiermee worden de rijen kolommen en de kolommen worden de rijen. Ook hiervoor
gelden een aantal rekenregels:

(AT)T = A

(A+B)T = AT + BT

(rA)T = r*AT

(ABC)T = CTBTAT
LET WEER OP DE VOLGORDE VAN A EN B
De inverse matrix van A is A-1. Dit is een unieke matrix. Matrices die geen iverse hebben
heten singulier. Matrices die wel een inverse hebben noemen we niet-singulier. Alleen
vierkante matrices kunnen genverteerd worden (A is dus een n x n matrix) en de inverse
matrix bestaat alleen wanneer A*A-1 = A-1*A = In
De inverse matrix van A vind je door de matrix [A I] te herleiden. Het resultaat wordt dan
[I A-1]. Nu kun je de oplossing zo aflezen uit het achterste gedeelte A-1.
Voor een 2x2 matrix is er nog een andere manier:
Als A = [a b
c d]

dan A-1 = 1/(ad bc) * [d b


-c a]

waarbij (ad bc) = det A


(determinant van A)

Rekenregels m.b.t. inverse matrices:

Als Ax = b, dan x = A-1b (alleen als A-1 bestaat)

Als A inverteerbaar is, dan is A-1 ook inveerteerbaar

(AB)-1 = B-1A-1

(AT)-1 = (A-1)T (Als A inverteerbaar is, dan is AT ook inverteerbaar)


De volgende stellingen zijn logisch equivalent voor een n x n matrix A:

A is een inverteerbare matrix

A is rij-equivalent (~) aan In (dus A is te herleiden tot In)

A heeft n pivot posities (dit is een mooie controle op inverteerbaarheid)

Ax = 0 heeft alleen de triviale oplossing (geen vrije variabelen in A)

De kolommen van A vormen een lineair onafhankelijke verzameling

The lineaire transformatie T(x) = Ax is injectief (one-to-one)

Ax = b heeft minstens 1 oplossing voor elke b in Rn

De kolommen van A omspannen Rn

De lineaire transformatie T(x) = Ax beeld Rn af in Rn

Er is een matrix C zodat CA = I

Er is een matrix D zodat AD = I

AT is een inverteerbare matrix


Ook lineaire transformaties kunnen inverteerbaar zijn. Stel je transformeert x naar T(x) door
A*x, dan kun je T(x) terug transformeren naar x door T(x)*A-1 (A*x*A-1 = x)
Een elementaire matrix E is een matrix die ontstaat door n enkele elementaire rij-operatie
uit te voeren op een eenheidsmatrix. Omdat rij-operaties omkeerbaar zijn (en E dus weer terug
te schrijven is tot I) zijn alle elementaire matrices inverteerbaar. De inverse matrix E-1 is de
elementaire matrix die E terug transformeert naar I.
Het Leontief input-output model is een rekenmethode die in de economie wordt gebruikt om
de verdeling te bepalen van geproduceerde goederen:
Totale productie = Onderlinge vraag tussen bedrijven + vraag consument
x
=
Cx
+
d
Waarbij x de totale productie is, C de matrixvorm van de input-output tabel, en d de vraag van
de consument. Vaak wordt deze formule herschreven tot de vorm: (I-C)x = d , waardoor x
oplosbaar wordt. Hier staat namelijk gewoon Ax = b.
Bij benadering geldt: (I-C)-1 I + C + C2 + C3 + + Cm als de waarden in de kolommen van
C kleiner zijn dan 1. Wanneer dan m naar oneindig gaat, nadert Cm de nul-matrix.
Voorbeeld Col A (Zie volgende bladzijde)

Een apart type opspansel is de deelruimte. Een deelruimte H voldoet aan de volgende eisen:
H bevat de nulvector
Voor elke willekeurige u en v, de som u + v ligt in deelruitme H
Voor elke willekeurige u en elke willekeurige scalair c, het product c*u ligt in H
Col A (Kol A in het Nederlands) is de kolomruimte van matrix A. Dit is de verzameling van
alle lineaire combinaties van de kolommen van A. Om te kijken of een bepaalde vector v in
Col A voorkomt, los je op: Ax = v. Is dit systeem consistent, dan zit v in Col A.
Col A: Als A = [a1 a2 ], dan Col A = Ax = Span{ a1, a2, } = x1*a1 + x2*a2 +
De basis voor Col A bestaat uit de pivot kolommen van de originele matrix A, en dus
niet van de gereduceerde vorm van A
Nul A is de nulruimte van matrix A. dit is hetzelfde als de oplossingsverzameling van Ax = 0.
Om te kijken of een bepaalde vector v in Nul A voorkomt, moet je A*v uitrekenen en kijken
of dit de nulvector oplevert. Zo ja, dan zit v in Nul A, en anders niet.
Nul A = de oplossingsverzameling van Ax = 0
De basis voor Nul A bestaat uit de vectoren in de oplossingsverzameling van Ax = 0,
dus als Nul A = x3*u + x4*v, dan de basis voor Nul A = {u,v}
Een basis voor een deelruimte H van Rn is een lineair onafhankelijke verzameling in H die
H opspant. Dus je moet kijken of de gegeven kolommen lineair onafhankelijk zijn.
Logisch equivalente beweringen voor vierkante (n x n) matrices:
Voor elke b in Rm heeft de vergelijking Ax = b een oplossing
1.
Elke b in Rm is een lineaire combinatie van de kolommen van A
2.
De kolommen van A spannen Rm op (dus de kolommen zijn een basis voor Rm)
3.
A heeft een pivot positie in elke rij
4.
De kolommen van A zijn lineair onafhankelijk
5.
A is een inverteerbare matrix
6.
A is herleidbaar tot de identiteitsmatrix Im
7.
Normaal gesproken ben je gewend om de cordinaten van een assenstelsel uit te drukken in
(x,y). Maar je kunt ook met vectoren werken, bijv. b1 en b2, die een opspansel of deelruimte
vormen. Een punt binnen deze deelruimte druk je dan uit in bijv. 3b1 en 2b2. Als je het punt x
uit wil drukken in vectoren, doe je dat met [x]B. Hierin is B de verzameling vectoren die de
basis van de desbetreffende deelruimte vormen. Hieronder een voorbeeld:

De dimensie van een m x n matrix A is {m n}.


Met de dimensie van een deelruimte H bedoelen we het aantal vectoren in de basis van H. De
nul deelruimte is nul (nulvector zorgt voor lineaire afhankelijkheid dus basis kan niet bestaan)

De rang van matrix A is de dimensie van Col A (dus het aantal vectorkolommen in Col A).
Dus: Rang A = dim Col A. Ook geldt voor m x n matrix A: dim Col A + dim Nul A = n

Hoofdstuk 3: De determinant
De determinant van een matrix is een getal dat vertelt of een matrix inverteerbaar is of niet.
Als det A (de determinant van A) gelijk is aan nul, dan is de matrix niet inverteerbaar. A heet
dan singulier.
Is de determinant ongelijk aan nul, dan is de matrix wel inverteerbaar. A heet dan nietsingulier.
Omdat alleen vierkante matrices inverteerbaar kunnen zijn, hebben ook alleen vierkante
matrices een determinant. Van een 1x1 en een 2x2 matrix kunnen we de determinant direct
berekenen.
Voor het berekenen van de determinant van grotere matrices bestaan 2 technieken:
cofactor ontwikkeling naar een bepaalde rij of kolom.
De matrix omschrijven tot de driehoeksmatrix. De determinant is vervolgens gelijk
aan het product van de getallen in de hoofddiagonaal. Denk met omschrijven aan de
rekenregels voor elementaire rij-operaties.
Tekenafspraak:

Driehoeksmatrices:

Andere notatie:

Enkele standaard determinanten:

1x1 matrix: det A = a


(met A = [a])
2x2 matrix: det A = ad bc
Driehoeksmatrix: det A = Het product van de getallen op de hoofddiagonaal
Identiteitsmatrix: det In = 1
Matrix met twee dezelfde rijen: det A = 0
Matrix met nulrij: det A = 0
Matrix met nulkolom: det A = 0
det AT = det A
det A-1 = 1/(det A)
det (A*B) = (det A)*(det B)
det (A4) = (det A) * (det A) * (det A) * (det A)
LET OP: det (A+B) (det A) + (det B)

De determinant na elementaire rij-operaties:


Als de matrix B ontstaat door een veelvoud van een rij van A op te tellen bij een
andere rij, dan: det B = det A
Als B ontstaat door twee rijen van A te verwisselen, dan: det B = det A
Als B ontstaat door een rij van A met k te vermenigvuldigen, dan: det B = k * det A
De determinant na kolom-operaties:
Als de matrix B ontstaat door een veelvoud van een kolom van A op te tellen bij een
andere kolom, dan: det B = det A.

Als B ontstaat door twee kolommen van A te verwisselen, dan: det B = det A.
Als B ontstaat door een kolom van A met k te vermenigvuldigen, dan: det B= k*det A.

De lineariteit eigenschap van een determinant houdt in dat je de determinant kunt zien als een
lineaire functie van de kolom variabele. Verder geen idee wat je er mee kunt!
Regel van Cramer: xi = det Ai(b) / det A

met Ai(b) Matrix A waarbij de i-de kolom


vervangen is door b.

De geadjungeerde van Matrix A, genoteerd als adj A, is de matrix die uit cofactoren bestaat:
(Vraag 11 van paragraaf 3.3 bestuderen!)

In dit voorbeeld zijn de cofactoren voor linksboven en linksonder aangegeven. Let ook hier
weer op de tekenafspraak!
Enkele toepassingen van de determinant:
De oppervlakte van een parallellogram is de absolute waarde van de uitkomst van
de determinant van de vectoren van de 2 belangrijkste hoekpunten, dus: opp. = | det A
|. Hierbij is A dus een 2 x 2 matrix. Voorwaarde is wel dat 1 van de 2 onbelangrijke
hoekpunten de oorsprong is. Is dit niet zo, dan moet je het parallellogram verschuiven
zodat hij in de oorsprong komt.
Het volume van een blok wordt bepaald door de absolute waarde van de uitkomst van
de determinant van de vectoren van de 3 belangrijkste hoekpunten, dus volume = | det
A |. Hierbij is A dus een 3 x 3 matrix. Ook hier weer de voorwaarde dat 1 van de
hoekpunten de oorsprong is.

Hoofdstuk 6 en Stewart Hoofdstuk 12: vectoren in een ruimte Rn


Inproduct:

Lengte van een vector:

Een vector met lengte 1 heet een eenheidsvector (let op: ei heet k een eenheidsvector)
De afstand tussen twee vectoren is ||u-v||:

Uitproduct (= kruisproduct):

Grafische voorstelling van het uitproduct:

Hieruit volgt: De vector u x v is orthogonaal tot zowel u als v.


Het uitproduct bestaat alleen voor vectoren in R3.
Als hoek nu 90 is, en u en v dus orthogonaal zijn, dan: u v = ||u|| ||v|| cos( ) = 0
Als hoek nu 0 is, en u en v dus parallel lopen, dan: u v = ||u|| ||v|| cos (0) = ||u|| ||v||

De verzameling van vectoren z die orthogonaal zijn tot vlak W, waarbij W omspannen wordt
door u en v, heet het orthogonaal complement van W en wordt genoteerd met W.
Als A een m x n matrix is, dan is het orthogonaal complement van de rijruimte van A de
nulruimte van A, en het orthogonaal complement van de kolomruimte van A is de nulruimte
van AT: (Rij A) = Nul A en (Kol A) = Nul AT
Rekenregels:
uv=vu
(u + v) w = u w + v w
(cu) v = u (cv)
u u 0 (behalve als u = 0 natuurlijk)
(c1*u1 + + cpup) w = c1(u1 w) + + cp(up w)
|| cu || = c ||u||
u x v = -v x u
(cu) x v = c(u x v) = u x (cv)
u x (v + w) = u x v + u x w
(u + v) x w = u x w + v x w
u (v x w) = (u x v) w
u x (v x w) = (u w)v (u v)w
Enkele toepassingen van in- en uitproduct:
De oppervlakte van een parallellogram dat wordt bepaald door u en v is gelijk aan
de lengte van het uitproduct van u en v, dus opp. = ||u x v||
Het volume van een blok dat wordt bepaald door u, v en w is gelijk aan | u (v x w) |
(De verticale strepen zijn absoluutstrepen)

You might also like