Professional Documents
Culture Documents
Vector = een pijl in Rn. Een vector heeft een grootte en een richting. Dit in tegenstelling tot
een cordinaat, dat slechts n punt in Rn is, en dus ook geen grootte en richting heeft.
Cofficinten matrix = matrix waarin de rechterkolom geen oplossing van de vergelijking is
Vier manieren om een vergelijking op te schrijven:
1. Lineair systeem = Stelsel van lineaire vergelijkingen
2. Vector-vergelijking
3. Matrix vergelijking
Aantal oplossingen:
Oneindig veel (consistent)
1 (consistent)
Geen (inconsistent)
Ax (= x1*a1 + x2*a2 + )
Homogeen systeem: Ax = 0
Altijd de triviale oplossing x = 0
Soms zijn er niet-triviale oplossingen voor x (dan is er een vrije variabele in de
oplossingsverzameling van x aanwezig)
o Als er niet-triviale oplossingen zijn, dan is het systeem lineair afhankelijk
o Als er geen niet-triviale oplossingen zijn, dan is het lineair onafhankelijk
Niet-homogeen systeem: Ax = b
(DIT IS GEEN EERSTEGRAADS FUNCTIE!)
Heeft de oplossing x = [x1; x2; x3 ] (de puntkomma tussen de x-en betekent dat de xen eigenlijk onder elkaar moeten staan, maar dat is geen efficint papiergebruik). Door
op de plaatsen van x1, x2, x3 enz. de gevonden waarden (na het herleiden van de
aangevulde matrix) in te vullen, kun je x herschrijven tot x = [x1; x2; x3 ] = p + vh.
Hierbij is vh de niet-triviale oplossing van het homogeen systeem. p is een vector die
er voor zorgt dat de oplossing gaat gelden voor Ax = b. Geometrisch gezien zorgt p er
voor dat de oplossingsverzameling verschoven wordt. vh wordt ook wel de homogene
oplossing genoemd en p de particuliere oplossing.
De volgende dingen kunnen lineair afhankelijk zijn (controleren m.b.v. aangevulde matrices):
Matrix kolommen, als een kolom een veelvoud is van een andere kolom
Homogene systemen: Ax = 0
Verzamelingen: { v1, v2, ... , vp } = c1 * v1 + c2 * v2 + + cp * vp = Ax = 0
o Verzameling S = { v1, v2, ... , vp } is ook lineair afhankelijk als geldt:
v2 = c * v1
Als er meer vectoren zijn dan rijen in een vector (dus p>n)
T(x) noemen we ook wel het beeld van x onder T ,dus T(u) is het beeld van u onder T
Soorten transformaties
Matrix transformaties (meest gebruikte). hiermee zet je met behulp van een matrix A
de vector x om in b, T(x) = Ax = b. Matrix transformaties zijn lineaire transformaties.
Soms heb je te maken met de transformatie T(x) = Ax en dan is A gevraagd, zodat je
T(x) voor elke willekeurige x kunt berekenen. Dan is er in zon vraag e1, e2 enz.
gegeven met bijbehorende T(e1), T(e2) enz. Dan A= [ T(e1) T(e2) enz. ]
A heet dan de standaard matrix voor de lineaire transformatie T. Uitgebreide uitleg en
het bewijs van de stelling in de aantekening bij paragraaf 1.9
Lineaire transformaties: deze voldoen aan de volgende rekenregels:
o T(u+v) = T(u) + T(v) voor alle u, v in het domein van T (in Rn dus)
o T(cu+dv) = c*T(u) + d*T(v) voor alle u, v in het domein van T (in Rn dus)
o T(c*u) = c*T(u)
voor alle u alle c
o T(0) = 0
Geometrisch
lineaire transformaties: dit zijn lineaire transformaties die beschreven
(A + B) + C = A + (B + C)
A+0=A
r*(s*A) = (r*s)*A
A*B B*A
OPLETTEN DUS!
A*B = [A*b1 A*b2 A*b3 A*bn] en B*A = [B*a1 B*a2 B*a3 B*an]
Alle kolommen A*bn van matrix A*B zijn dus lineaire combinaties (Ax = b = A*bn)
Als A is een m x n matrix en B een n x p matrix, dan is AB een m x p matrix
A(BC) = (AB)C
A(B+C) = AB + AC
(B+C)A = BA + CA
Im*A = A = A*In
LET OP DE VOLGORDE VAN A EN I en Im EN In
AT is de transpose van matrix A. We zeggen dan dat we matrix A transponeren. In matlab is dit
A. Hiermee worden de rijen kolommen en de kolommen worden de rijen. Ook hiervoor
gelden een aantal rekenregels:
(AT)T = A
(A+B)T = AT + BT
(rA)T = r*AT
(ABC)T = CTBTAT
LET WEER OP DE VOLGORDE VAN A EN B
De inverse matrix van A is A-1. Dit is een unieke matrix. Matrices die geen iverse hebben
heten singulier. Matrices die wel een inverse hebben noemen we niet-singulier. Alleen
vierkante matrices kunnen genverteerd worden (A is dus een n x n matrix) en de inverse
matrix bestaat alleen wanneer A*A-1 = A-1*A = In
De inverse matrix van A vind je door de matrix [A I] te herleiden. Het resultaat wordt dan
[I A-1]. Nu kun je de oplossing zo aflezen uit het achterste gedeelte A-1.
Voor een 2x2 matrix is er nog een andere manier:
Als A = [a b
c d]
(AB)-1 = B-1A-1
Een apart type opspansel is de deelruimte. Een deelruimte H voldoet aan de volgende eisen:
H bevat de nulvector
Voor elke willekeurige u en v, de som u + v ligt in deelruitme H
Voor elke willekeurige u en elke willekeurige scalair c, het product c*u ligt in H
Col A (Kol A in het Nederlands) is de kolomruimte van matrix A. Dit is de verzameling van
alle lineaire combinaties van de kolommen van A. Om te kijken of een bepaalde vector v in
Col A voorkomt, los je op: Ax = v. Is dit systeem consistent, dan zit v in Col A.
Col A: Als A = [a1 a2 ], dan Col A = Ax = Span{ a1, a2, } = x1*a1 + x2*a2 +
De basis voor Col A bestaat uit de pivot kolommen van de originele matrix A, en dus
niet van de gereduceerde vorm van A
Nul A is de nulruimte van matrix A. dit is hetzelfde als de oplossingsverzameling van Ax = 0.
Om te kijken of een bepaalde vector v in Nul A voorkomt, moet je A*v uitrekenen en kijken
of dit de nulvector oplevert. Zo ja, dan zit v in Nul A, en anders niet.
Nul A = de oplossingsverzameling van Ax = 0
De basis voor Nul A bestaat uit de vectoren in de oplossingsverzameling van Ax = 0,
dus als Nul A = x3*u + x4*v, dan de basis voor Nul A = {u,v}
Een basis voor een deelruimte H van Rn is een lineair onafhankelijke verzameling in H die
H opspant. Dus je moet kijken of de gegeven kolommen lineair onafhankelijk zijn.
Logisch equivalente beweringen voor vierkante (n x n) matrices:
Voor elke b in Rm heeft de vergelijking Ax = b een oplossing
1.
Elke b in Rm is een lineaire combinatie van de kolommen van A
2.
De kolommen van A spannen Rm op (dus de kolommen zijn een basis voor Rm)
3.
A heeft een pivot positie in elke rij
4.
De kolommen van A zijn lineair onafhankelijk
5.
A is een inverteerbare matrix
6.
A is herleidbaar tot de identiteitsmatrix Im
7.
Normaal gesproken ben je gewend om de cordinaten van een assenstelsel uit te drukken in
(x,y). Maar je kunt ook met vectoren werken, bijv. b1 en b2, die een opspansel of deelruimte
vormen. Een punt binnen deze deelruimte druk je dan uit in bijv. 3b1 en 2b2. Als je het punt x
uit wil drukken in vectoren, doe je dat met [x]B. Hierin is B de verzameling vectoren die de
basis van de desbetreffende deelruimte vormen. Hieronder een voorbeeld:
De rang van matrix A is de dimensie van Col A (dus het aantal vectorkolommen in Col A).
Dus: Rang A = dim Col A. Ook geldt voor m x n matrix A: dim Col A + dim Nul A = n
Hoofdstuk 3: De determinant
De determinant van een matrix is een getal dat vertelt of een matrix inverteerbaar is of niet.
Als det A (de determinant van A) gelijk is aan nul, dan is de matrix niet inverteerbaar. A heet
dan singulier.
Is de determinant ongelijk aan nul, dan is de matrix wel inverteerbaar. A heet dan nietsingulier.
Omdat alleen vierkante matrices inverteerbaar kunnen zijn, hebben ook alleen vierkante
matrices een determinant. Van een 1x1 en een 2x2 matrix kunnen we de determinant direct
berekenen.
Voor het berekenen van de determinant van grotere matrices bestaan 2 technieken:
cofactor ontwikkeling naar een bepaalde rij of kolom.
De matrix omschrijven tot de driehoeksmatrix. De determinant is vervolgens gelijk
aan het product van de getallen in de hoofddiagonaal. Denk met omschrijven aan de
rekenregels voor elementaire rij-operaties.
Tekenafspraak:
Driehoeksmatrices:
Andere notatie:
Als B ontstaat door twee kolommen van A te verwisselen, dan: det B = det A.
Als B ontstaat door een kolom van A met k te vermenigvuldigen, dan: det B= k*det A.
De lineariteit eigenschap van een determinant houdt in dat je de determinant kunt zien als een
lineaire functie van de kolom variabele. Verder geen idee wat je er mee kunt!
Regel van Cramer: xi = det Ai(b) / det A
De geadjungeerde van Matrix A, genoteerd als adj A, is de matrix die uit cofactoren bestaat:
(Vraag 11 van paragraaf 3.3 bestuderen!)
In dit voorbeeld zijn de cofactoren voor linksboven en linksonder aangegeven. Let ook hier
weer op de tekenafspraak!
Enkele toepassingen van de determinant:
De oppervlakte van een parallellogram is de absolute waarde van de uitkomst van
de determinant van de vectoren van de 2 belangrijkste hoekpunten, dus: opp. = | det A
|. Hierbij is A dus een 2 x 2 matrix. Voorwaarde is wel dat 1 van de 2 onbelangrijke
hoekpunten de oorsprong is. Is dit niet zo, dan moet je het parallellogram verschuiven
zodat hij in de oorsprong komt.
Het volume van een blok wordt bepaald door de absolute waarde van de uitkomst van
de determinant van de vectoren van de 3 belangrijkste hoekpunten, dus volume = | det
A |. Hierbij is A dus een 3 x 3 matrix. Ook hier weer de voorwaarde dat 1 van de
hoekpunten de oorsprong is.
Een vector met lengte 1 heet een eenheidsvector (let op: ei heet k een eenheidsvector)
De afstand tussen twee vectoren is ||u-v||:
Uitproduct (= kruisproduct):
De verzameling van vectoren z die orthogonaal zijn tot vlak W, waarbij W omspannen wordt
door u en v, heet het orthogonaal complement van W en wordt genoteerd met W.
Als A een m x n matrix is, dan is het orthogonaal complement van de rijruimte van A de
nulruimte van A, en het orthogonaal complement van de kolomruimte van A is de nulruimte
van AT: (Rij A) = Nul A en (Kol A) = Nul AT
Rekenregels:
uv=vu
(u + v) w = u w + v w
(cu) v = u (cv)
u u 0 (behalve als u = 0 natuurlijk)
(c1*u1 + + cpup) w = c1(u1 w) + + cp(up w)
|| cu || = c ||u||
u x v = -v x u
(cu) x v = c(u x v) = u x (cv)
u x (v + w) = u x v + u x w
(u + v) x w = u x w + v x w
u (v x w) = (u x v) w
u x (v x w) = (u w)v (u v)w
Enkele toepassingen van in- en uitproduct:
De oppervlakte van een parallellogram dat wordt bepaald door u en v is gelijk aan
de lengte van het uitproduct van u en v, dus opp. = ||u x v||
Het volume van een blok dat wordt bepaald door u, v en w is gelijk aan | u (v x w) |
(De verticale strepen zijn absoluutstrepen)