You are on page 1of 31

Apostila Colaborativa de lgebra Linear

3. Transformaes Lineares
2015.2

Resumo

Nesta unidade, estudaremos as propriedades das transformaes line-


ares e sua relao com os espaos vetoriais.

1
1 Transformaes Lineares
Considere uma matriz A Rmn . Quando efetuamos um produto entre uma
matriz A e um vetor x, estamos levando o espao Rn no espao Rm :

A : Rn Rm
x 7 Ax = b

Portanto, podemos encarar uma matriz como uma transformao no espao.

Exemplo 1.1.
c 0
A=
0 c
Esta transformao A = c I estica todo vetor por um fator c.

Exemplo 1.2.
0 1
A=
1 0
Esta matriz rotaciona qualquer vetor por 90 graus: A(1, 0) = (0, 1), A(0, 1) = (1, 0).

Exemplo 1.3.
0 1
A=
1 0
Esta matriz reflete todo vetor no eixo de simetria de 45 graus.

Exemplo 1.4.
1 0
A=
0 0
Esta matriz toma qualquer vetor do espao e projeta no subespao definido por
x 2 = 0, ou seja, no eixo x 1 . Este eixo o espao coluna de A, enquanto que seu
espao nulo o eixo x 1 = 0.

importante notar, no entanto, que algumas transformaes no podem


ser realizadas atravs de matrizes:

(i) impossvel mover a origem, j que A0 = 0.

(ii) Se Ax = x 0 , ento A(2x) = 2x 0 , ou seja, A(c x) = c Ax.

(iii) Se Ax = x 0 e Ay = y 0 , ento A(x + y) = x 0 + y 0 , ou seja, A(x + y) = Ax + Ay.

2
Estas regras vem da definio da multiplicao entre matrizes, e definem o
que chamamos de transformao linear.

Definio 1. Sejam E , F espaos vetoriais sobre um mesmo corpo K. Uma trans-


formao linear T uma funo T : E F que associa a cada u E um vetor
v = T (u) F e que satisfaz a condio seguinte: para todos u, w E e K
temos que
T (u + w) = T (u) + T (w).

Para todo nmero c, d R e vetores x, y Rn , a multiplicao de matrizes


satisfaz a regra da linearidade

A(c x + d y) = c(Ax) + d (Ay).

Toda transformao que satisfaz esta propriedade uma transformao linear.


Portanto, toda matriz define uma transformao linear. Mas, ser que toda
transformao linear leva a uma matriz? Veremos que, em espaos de dimen-
so finita, isso verdadeiro.
Tome como exemplo o espao Pn , polinmios de grau n. Este espao tem
dimenso n + 1.

Exemplo 1.5. A diferenciao, d /d x, uma transformao linear:

d
Ap = p(x)
dx
d
= (a 0 + a 1 x + . . . + a n x n )
dx
= a 1 + 2a 2 x + . . . + na n x n1 .

Exemplo 1.6. A integrao de 0 a x tambm linear (leva Pn a Pn+1 ):


Z x
Ap = p(x)d x
0
Z x
= (a 0 + a 1 x + . . . + a n x n )d x
0
a n n+1
= a0 x + . . . + x .
n +1
A definio abaixo nos d uma ideia de onde essas transformaes lineares
vivem e das relaes entre elas.

3
Definio 2. Seja L(E ; F ) o conjunto das transformaes lineares de E em F .
Ento, L(E ; F ) um espao vetorial. As transformaes lineares T : E E so
chamadas operadores lineares em E . Por sua vez, as transformaes lineares
: E R, com valores numricos, so chamadas funcionais lineares. Escreve-se
E em vez de L(E ; R) e o conjunto E dos funcionais lineares : E R chama-se
espao vetorial dual de E .

1.1 Matriz de uma transformao linear


A linearidade importante pois nos d uma propriedade crucial: se conhecer-
mos a ao de uma transformao em todos os vetores da base, conhecemos
a ao da transformao em todos os vetores do espao gerado por esta base,
visto que cada vetor do espao apenas combinao linear de todos os vetores
da base. Depois que sabemos a ao de uma transformao na base, no h
mais graus de liberdade possveis: a transformao fica inteiramente determi-
nada.

Exemplo 1.7. Que transformao linear leva



2
1
x1 = em Ax 1 = 3 e
0
4

4
0
x2 = em Ax 2 = 6?

1
8

A resposta deve ser a multiplicao pela matriz



2 4
A = 3 6 .
4 8

Agora, considere outro problema: encontrar a matriz que representa a dife-


renciao, e a matriz que representa a integrao em um intervalo. Basta, para
isto, definirmos uma base para o espao onde as transformaes sero aplica-
das. Para os polinmios de grau 3, cuja dimenso 4, existe uma base natural
que a base dos monmios,

p 1 = 1, p 2 = x, p3 = x 2, p4 = x 3.

4
Esta base no nica, mas bastante conveniente. Agora, vamos olhar para o
efeito da diferenciao nesta base: sejam q 1 = 1, q 2 = x, q 3 = x 2 em P2 . Ento

Ap 1 = 0, Ap 2 = 1 = q 1 ,
Ap 3 = 2x = 2q 2 , Ap 4 = 3x 2 = 3q 3 .

Note que

0 1 0 0
A : P3 P2 , tal que A diff = 0 0 2 0 .
0 0 0 3
A derivada de qualquer outra combinao de polinmios uma combinao
linear dos membros da base, e portanto aplicar a matriz da transformao a
este polinmio equivalente a aplic-la aos vetores da base e combinar os re-
sultados.
Suponha que os vetores p 1 , . . . , p n so base para o espao V , e q 1 , . . . , q m
formam uma base para o espao W . Ento, cada transformao linear A de
V para W representada por uma matriz. A j -sima coluna encontrada ao
aplicarmos A ao j -simo vetor da base de W ; o resultado Ap j combinao
dos q e os coeficientes desta combinao vo na coluna j de A:

Ap j = a 1, j q 1 + . . . + a m, j q m .

Para a matriz de diferenciao, a coluna 1 veio de p 1 : sua derivada era zero,


ento a primeira coluna era nula. A ltima coluna veio de x 3 : a derivada era
3x 2 , e assim o coeficiente 3 est na linha correspondente a x 2 = p 3 .
Fazendo a mesma coisa para a integrao, que vai do espao P2 no espao
P3 . Devemos ento escolher uma base para P3 . A base mais natural para este
espao justamente q 1 = 1, q 2 = x, q 3 = x 2 , q 4 = x 3 . Desta forma, teremos, para
cada vetor da base do espao P3 :
1 1
Ap 1 = x = q 2 , Ap 2 = x 2 = q 3 ,
2 2
1 1
Ap 3 = x 3 = q 4 .
3 3
Assim, a matriz que representa esta transformao linear

0 0 0
1 0 0
A int = .

0 21 0
0 0 13

5
Observao: Enxergamos a integrao como a operao inversa da diferen-
ciao, isto , a integrao seguida da diferenciao nos do o resultado origi-
nal de volta. Se tomarmos a matriz de diferenciao na base das cbicas, que
uma matriz 3 4, teremos:

0 1 0 0 1
A diff = 0 0 2 0 , e A diff A int = 1 .
0 0 0 3 1

Portanto, o operador de diferenciao nesta base a inversa esquerda da inte-


grao. Como para matrizes retangulares impossvel termos inversas dos dois
lados, o produto A int A diff no pode ser igual identidade; mas isto no ocorre
de qualquer forma, j que a derivada de uma constante zero, e a integral de
zero nunca pode trazer esta constante de volta (a primeira linha do produto
citado nula).
As transformaes lineares aqui representadas (e todas as outras) tem re-
presentao matricial, mas uma transformao linear no uma matriz: uma
matriz representa a transformao em uma base dada. Portanto, a matriz usada
para representarmos uma transformao linear varia de acordo com a base es-
colhida para o espao.

1.1.1 Matriz de uma transformao linear em relao a uma base do dom-


nio e a uma base do contradomnio.

Uma transformao linear T : E F uma funo especial que linear, e vai do


espao vetorial E no espao vetorial F . Em geral, para definirmos uma funo,
precisamos definir o valor de f (x) para todo x no domnio de f . No caso das
transformaes lineares, bem mais fcil definirmos esta funo, pois basta
faz-lo em cada elemento da base.
Sejam E , F espaos vetoriais de dimenso finita e = {u 1 , . . . , u n } uma base
de E . Todo vetor v E se exprime, de modo nico, como combinao linear

v = x1 u1 + . . . + xn un

de elementos da base . Para qualquer transformao linear T : E F e para


qualquer vetor v E , temos que

T (v) = T (x 1 u 1 + . . . + x n u n )
= x 1 T (u 1 ) + . . . + x n T (u n ),

6
ou seja, a definio de T depende apenas da aplicao da transformao linear
nos vetores u i .
Como consequncia, se quisermos definir uma transformao linear T :
E F , basta escolhermos uma base para F , e para cada j = 1, . . . , n um vetor

v j = (a 1 j , a 2 j , . . . , a m j ) F

e dizer que v j = T (u j ) a imagem do j -simo vetor da base pela transforma-


o linear T . A partir da, fica determinada a imagem T (v) de qualquer vetor
v E , pois se
v = x 1 u 1 + . . . + x n u n = (x 1 , . . . , x n ) ,
ento
!
n
X
y = T (v) = T xjuj
j =1
n
X
= x j T (u j )
j =1
X n
= a1 j x j , a2 j x j , . . . , am j x j
j =1
!
n
X X X
= a1 j x j , a2 j x j , . . . , am j x j ,
j =1

ou seja, cada coordenada y i do vetor y na base calculada como

y 1 = a 11 x 1 + a 12 x 2 + . . . + a 1n x n
y 2 = a 21 x 1 + a 22 x 2 + . . . + a 2n x n
..
.
y m = a m1 x 1 + a m2 x 2 + . . . + a mn x n

Portanto, toda transformao linear T : E F fica inteiramente determinada


por uma matriz A Kmn . Os vetores-coluna desta matriz so as coordenadas
dos vetores v j na base , em que cada v j = T (u j ), ou seja, imagem do vetor u j
da base de E . A imagem de T (v) o vetor (y 1 , . . . , y m ) F cujas coordenadas
so dadas pelas equaes acima.
O resultado a seguir ser til mais frente.

7
Teorema 1. Para toda matriz A M(m n), o nmero de linhas l.i. de A igual
ao nmero de colunas l.i. de A.

Demonstrao. Seja p o nmero de colunas l.i. da matriz A. Ento existem p


vetores
w 1k
.
w k = .. Rm
w mk
tais que cada uma das colunas

a1 j
.
a (:, j ) = .. , 1 j n
am j

de A combinao linear dos w 1 , . . . , w p :


p
X
a (:, j ) = ck j w k , 1 j n.
k=1

Tomando a i -sima coordenada de cada um dos membros desta equao, ve-


mos que
p
X p
X
ai j = ck j w i k = w i k ck j , (1)
k=1 k=1

para quaisquer i , j , com 1 i m e 1 j n. Considerando agora os vetores-


linha a (i ,:) = (a i 1 , . . . , a i n ) da matriz A, juntamente com os vetores c k = (c k1 , . . . , c kn ),
1 k p, observamos que a igualdade entre o primeiro e o terceiro membros
de (1) significa que, para todo i = 1, . . . , m tem-se
p
X
a (i ,:) = w i k ck , 1 i m.
k=1

Assim, os vetores linha de A so combinaes lineares de c 1 , . . . , c p , portanto o


nmero de linhas l.i. de A p. Aplicando este resultado matriz A T , que
tem como linhas as colunas de A, concluimos que o o nmero de colunas l.i.
de A menor ou igual ao nmero de linhas l.i. de A e assim temos o resultado
completo.

8
1.2 Rotaes, projees e reflexes.
J vimos que rotaes de 90 graus, projees no eixo x e reflexes com relao
linha de 45 graus em R2 eram representadas por matrizes simples da forma

0 1 1 0 0 1
Q= , P= , H=
1 0 0 0 1 0

respectivamente. Mas lgico pensar que rotaes com outros ngulos, refle-
xes e projees em outros eixos sero igualmente simples, j que estas so
todas transformaes lineares que passam pela origem (A0 = 0). Assim, vamos
primeiramente considerar o plano e seus vetores bsicos (1, 0), (0, 1) para ten-
tarmos visualizar estas transformaes em geral.

Rotao. Na Figura 1, mostramos a rotao por um ngulo no sentido anti-


horrio. Podemos ver o efeito desta rotao nos dois vetores bsicos, onde
c = cos e s = sin . A rotao aplicada ao primeiro vetor da base resulta em
(cos , sin ), cujo comprimento ainda 1. Se aplicada ao segundo vetor, a ro-
tao resulta em ( sin , cos ). Assim, pela definio da transformao linear
que vimos antes, estas so as colunas da matriz da transformao, e assim te-
mos Q . Com esta transformao, podemos exemplificar o comportamento

0
1

sin

cos cos

sin


1
0

Figura 1: Rotao por um ngulo .

das transformaes enquanto matrizes.


(i) A inversa de Q equivale rotao por no sentido contrrio:

c s c s 1 0
Q Q = = .
s c s c 0 1

9
(ii) O quadrado de Q (ou seja, a aplicao desta matriz duas vezes sobre o
mesmo vetor) equivale rotao por um ngulo 2:

c s c s
Q 2 =
s c s c
2 2
c s 2c s
=
2c s c2 s2

cos 2 sin 2
= .
sin 2 cos 2

(iii) O produto de Q e Q equivalente rotao por + :

cos sin cos sin



QQ =
sin cos sin cos
cos cos sin sin cos sin sin cos

=
cos sin + sin cos sin sin + cos cos
cos ( + ) sin ( + )

= = Q + .
sin ( + ) cos ( + )

Estas propriedades no acontecem por acidente: a multiplicao de ma-


trizes definida para que estas propriedades sejam verdadeiras para as trans-
formaes lineares: o produto das matrizes das transformaes lineares o
produto das transformaes, ou mais exatamente, a composio das transfor-
maes.

Projeo Na Figura 2 representamos a projeo dos vetores bsicos na linha


determinada pelo ngulo . Note que o comprimento da projeo c = cos .
Assim, o ponto de projeo de (1, 0) exatamente c(c, s). Similarmente, a pro-
jeo de (0, 1) s(c, s).
Esta matriz no possui inversa, pois a projeo no pode ser desfeita. Pon-
tos do tipo (s, c) so projetados na origem (voltaremos a este fato mais tarde).
Ao mesmo tempo, todos os pontos na linha so projetados neles mesmos! Em
outras palavras, projetar duas vezes o mesmo que projetar uma vez, e ento
P2 = P: 2 2 2 2
c (c + s 2 ) c s(c 2 + s 2 )

2 c cs
P = = .
c s s2 c s(c 2 + s 2 ) s 2 (c 2 + s 2 )

10

0
1


c

c c
s
s
s


1
0

Figura 2: Projeo na linha .

Reflexo Na Figura abaixo (em construo), vemos a reflexo de (1, 0) na li-


nha definida por . O comprimento da reflexo igual ao comprimento do ve-
tor original, assim como na rotao. No entanto, estas transformaes so bem
diferentes: aqui, a linha continua a mesma, e os pontos so apenas refletidos,
como que por um espelho.
A matriz desta transformao tem uma propriedade especial: H 2 = I , ou
seja, duas reflexes trazem de volta o original. Assim, uma reflexo sua pr-
pria inversa. Para vermos isso em termos matriciais, note primeiramente que
H = 2P I . Assim, H x + x = 2P x, ou seja, o elemento refletido mais o original
igual a duas vezes sua projeo. Portanto,

H 2 = (2P I )2 = 4P 2 4P + I = I ,

j que toda projeo satisfaz P 2 = P .

1.3 Produto de transformaes lineares


Definio 3. Suponha que T e S so transformaes lineares tais que

T : V W, S : U V.

Ento,

(T S) :U V W
u 7 S(u) 7 T (S(u)).

Logo, a composio (T S) : U W tambm uma transformao linear.

11
Observao Sejam P,Q : R2 R2 projees ortogonais sobre duas retas do
plano, uma das quais perpendicular outra. Todo vetor v R2 a diagonal de
um retngulo que tem P v e Qv como lados. Segue-se ento que v = P v + Qv
para todo v R2 , ou seja, P + Q = I . Logo, Q = I P e portanto PQ = P (I
P ) = P P 2 . Como sabemos que a projeo satisfaz P 2 = P , temos que PQ = 0
mesmo com P,Q 6= 0.

Definio 4. Um operador A chama-se nilpotente quando, para algum n N,


tem-se A n = 0.

Exemplo 1.8. O operador de derivao que vimos anteriormente nilpotente,


pois se ele age de Pn em Pn1 , ento D n+1 p = 0 para todo p, ou seja, D n+1 = 0.

1.4 Os Espaos Fundamentais


Imagem

Agora, vamos considerar o exemplo de um sistema de equaes lineares de trs


equaes e duas incgnitas:

1 0 b1
u
5 4 = b 2 .
v
2 4 b3

Como nesse caso temos mais equaes que incgnitas, bastante provvel
que o sistema no tenha soluo. Um sistema com m > n poder ser resolvido
se o lado direito do sistema (aqui, b) estiver contido em um subespao vetorial
especial: o sistema Ax = b poder ser resolvido se e somente se o vetor b puder
ser escrito como combinao linear das colunas de A.
Para ver isto, note que o sistema pode ser reescrito da seguinte forma:

1 0 b1
u 5 + v 4 = b 2 .
2 4 b3

Assim, note que o subconjunto dos vetores que podem ser gerados como
lado direito do sistema exatamente o conjunto de todas as combinaes line-
ares das colunas de A. Portanto, Ax = b pode ser resolvido se e somente se b
estiver contido no plano que gerado pelos dois vetores coluna de A. Se b no
estiver contido neste plano, ento ele no pode ser obtido como combinao
linear das colunas de b. Neste caso, o sistema no tem soluo.

12
Se A representa uma transformao linear, este plano definido pelas colu-
nas de A, um subespao importante chamado espao coluna de A, ou imagem
de A (ou ainda, imagem da transformao representada pela matriz A). Por um
lado, se A = 0 ento o espao coluna de A ser formado apenas pelo vetor b = 0;
no outro extremo, qualquer matriz inversvel em Rnn ter todo o espao Rn
como espao coluna (qualquer lado direito em Rn define uma soluo para o
sistema).

Definio 5. Seja T : E F uma transformao linear definida entre espaos


vetoriais E , F sobre um mesmo corpo K. Ento a imagem de T um subespao
vetorial definido como

Im(T ) = {y F | y = T (x), para algum x E }.

Verificamos se esse subconjunto realmente um subespao:

(i) Suponha que y 1 , y 2 Im(T ). Ento, existem x 1 , x 2 E tais que T (x 1 ) = y 1


e T (x 2 ) = y 2 . Logo, podemos escrever

y 1 + y 2 = T (x 1 ) + T (x 2 ) = T (x 1 + x 2 ),

onde a ltima igualdade vlida pois T linear. Assim, y 1 + y 2 pode ser


escrito como T (w), com w = x 1 +x 2 E (pois E espao vetorial), e assim
tambm pertence imagem de T .

(ii) Seja K e y Im(T ). Ento, y = T (x) para algum x E . Isto implica


que y = T (x), (j que T linear) e portanto, y tambm pertence
imagem de T .

Portanto, a imagem , de fato, um subespao linear.

Definio 6. Seja T : E F uma transformao linear como acima. Ento cha-


mamos a dimenso da imagem de T de posto de T (ou rank de T ).

Se a transformao linear T tem representao como uma matriz A com


relao a uma base de E e uma base de F , ento podemos falar da imagem de
A como sendo

Im(A) = {b F : b = Ax, para algum x E }.

13
Isso significa que b est na imagem de A se e somente se o sistema Ax = b tem
soluo. Neste caso, podemos escrever

b = Ax
= A(:, 1)x 1 + A(:, 2)x 2 + . . . + A(:, n)x n ,

em que A(:, j ) representa a coluna j de A. Desta forma, b Im(A) se e somente


se b pode ser escrito como combinao linear das colunas de A (em que os
coeficientes da combinao linear so as entradas de x). Com isso, o posto da
matriz A igual ao nmero de colunas l.i. de A (que igual ao nmero de linhas
l.i. de A por um teorema anterior).
Como encontrar uma base para a imagem de uma matriz A? Se a matriz U
a matriz na forma escada obtida depois de aplicarmos a A as operaes ele-
mentares da eliminao gaussiana, ento a imagem de A diferente da imagem
de U , mas estes dois espaos tm a mesma dimenso. Para vermos isso, basta
observarmos que o nmero de colunas l.i. de U sempre ser igual ao nmero
de colunas l.i. de A, visto que os pivs aparecem em U justamente nas colunas
que eram l.i. em A.
Para recuperarmos uma base para a imagem de A, basta realizarmos a eli-
minao para obtermos U ; os ndices das colunas de U que formam uma base
para a sua imagem (as colunas que tem os pivs da eliminao) correspondem
aos ndices das colunas de A que so base para sua imagem. Isto acontece pois
o sistema homogneo Ax = 0 equivale ao sistema homogneo Ux = 0; por-
tanto, Ax = 0 determina, assim como Ux = 0, a dependncia entre os vetores
coluna da matriz A (e de U ), com coeficientes x, idnticos aos dois sistemas.
Se um conjunto de colunas de A l.i., ento as colunas correspondentes de U
tambm so l.i.

Exemplo 1.9. Finalmente, chegamos ao caso mais fcil, em que o posto o me-
nor possvel (exceto pela matriz nula que possui posto 0).

Exemplo 1.10.
2 1 1
4 2 2

A= .
8 4 4
2 1 1
Cada linha um mltiplo da primeira, e assim o espao gerado pelas linhas de
A unidimensional. De fato, podemos escrever esta matriz como um produto

14
entre um vetor linha e um vetor coluna:

2 1 1 1
4 2 2 2

A= = 2 1 1 .
8 4 4 4
2 1 1 1

Ao mesmo tempo, as colunas tambm so mltiplos do mesmo vetor coluna,


e assim o espao gerado pelas colunas tambm tem dimenso 1.
Teorema 2. Toda matriz de posto 1 pode ser escrita como A = uv T .

Ncleo

Agora, queremos analisar as possveis solues de um sistema Ax = 0. Obvia-


mente, a soluo x = 0 sempre possvel, mas podem haver outros x Rn que
satisfaam Ax = 0, inclusive infinitas solues deste tipo (isto sempre acontece
quando temos mais variveis do que equaes, ou seja, n > m - Teorema an-
terior). O conjunto das solues do sistema homogneo Ax = 0 tambm um
subespao vetorial.
Definio 7. Seja T : E F uma transformao linear. Ento o ncleo de T (ou
espao nulo, ou kernel de T ) o subespao vetorial definido como

N(T ) = {x E | T (x) = 0}.


Analogamente ao caso da imagem, podemos calcular o ncleo da matriz
que representa uma transformao linear encontrando todas as solues do
sistema homogneo definido por essa matriz.
fcil encontrarmos o ncleo para a matriz do exemplo anterior: basta to-
marmos
1 0 0
5 4 u = 0
v
2 4 0
para percebermos que, da primeira equao, temos que u = 0, e pela segunda
equao devemos ter igualmente v = 0. Portanto, neste caso, apenas o vetor
nulo faz parte do ncleo da matriz.
Vamos supor agora que a matriz do sistema

1 0 1
B = 5 4 9 .
2 4 6

15
A imagem desta matriz igual imagem de A, j que a terceira coluna combi-
nao linear das outras duas. No entanto, o ncleo desta matriz contm qual-
quer mltiplo do vetor (1, 1, 1). Portanto, este subespao uma reta que passa
pela origem.

1.5 Sistemas Retangulares


Considere a seguinte matriz.

1 3 3 2
A= 2 6 9 5
1 3 3 0

O primeiro piv a 11 6= 0, e assim teremos



1 3 3 2
A 0 0 3 1
0 0 6 2

O candidato a segundo piv zero, e assim vamos procurar embaixo dele por
uma entrada no-nula. No entanto, todas as entradas abaixo dele so tambm
nulas, e assim poderamos parar a eliminao por aqui. Mas como esta ma-
triz retangular, no precisamos declarar a matriz singular; podemos apenas
continuar com a eliminao na prxima coluna. Assim, teremos

1 3 3 2
U = 0 0 3 1
0 0 0 0

pois na quarta coluna o candidato a piv nulo, e no podemos fazer mais


nenhuma operao.
Assim, podemos como nas matrizes quadradas decompor A = LU ; neste

1 0 0
caso L = 2 1 0. Podemos notar assim que L uma matriz 3 3, ou seja,
1 2 1
quadrada de dimenso igual ao nmero de linhas das matrizes A e U . Caso
seja necessrio trocar uma linha pela outra no processo e eliminao para evi-
tarmos um piv nulo, podemos encontrar uma matriz de permutao P tal que
P A = LU . Resumimos tudo isso no seguinte resultado.

16
A qualquer matriz A Rmn correspondem uma matriz de permutao P ,
uma matriz triangular inferior L com diagonal unitria, e uma matriz m n na
forma escada U tais que P A = LU .
Nosso objetivo no momento olhar para esta forma final e verificar quais
as possibilidades para o sistema Ax = b.
Se b = 0, ento as operaes da eliminao no tem efeito algum no vetor
b; portanto as solues de Ax = b so as mesmas de Ux = 0:

x1
1 3 3 2 0
x
2
Ux = 0 0 3 1 = 0 .
x 3
0 0 0 0 0
x4
As variveis x 1 , x 2 , x 3 e x 4 podem ser concentradas em dois grupos: as variveis
bsicas, que correspondem a colunas com pivs no-nulos (neste caso, x 1 e x 3 )
e as variveis livres, correspondentes a colunas sem pivs (neste caso x 2 e x 4 ).
Para encontrarmos a soluo deste sistema, basta ento escolhermos valo-
res arbitrrios para as variveis livres; assim, no nosso exemplo teremos
1
x3 = x4
3
x 1 = 3x 2 x 4 .
Portanto, este sistema tem infinitas solues, e qualquer soluo uma combi-
nao do tipo
3x 2 x 4 3 1
x2 1 0

x = = x2 + x4 1 .

1
3 x4 0 3
x4 0 1
Podemos ver ento que o vetor (3, 1, 0, 0) a soluo quando x 2 = 1, x 4 = 0 e o
outro vetor a soluo quando x 2 = 0, x 4 = 1. Portanto, qualquer outra soluo
ser combinao linear destes vetores: eles formam a base para o espao nulo
de A (que igual ao espao nulo de U ). O espao nulo um subespao de
mesma dimenso que o nmero de variveis livres.
No caso no-homogneo, a situao diferente, pois depois da eliminao
temos um sistema U x = c da forma

x1
1 3 3 2 b1
x2
0 0 3 1 = b 2 2b 1 .
x 3
0 0 0 0 b 3 2b 2 + 5b 1
x4

17
claro que a terceira equao implica que o sistema s pode ser consistente se
b 3 2b 2 + 5b 1 = 0. Em outras palavras, o conjunto de vetores b gerados por Ax
no pode ser todo o espao, pois j temos uma restrio imposta. Mesmo com
mais variveis do que equaes, pode ser que no tenhamos soluo. Isto tam-
bm pode ser visto do fato que o espao das solues gerado pelas colunas de
A, e assim gerado pelos vetores

1 3 3 2
2 , 6 , 9 , 5 .
1 3 3 0
No entanto, o segundo vetor 3 vezes o primeiro, e o quarto vetor equivale ao
primeiro mais uma frao do terceiro! Portanto, estes vetores so l.d., e corres-
pondem exatamente s colunas sem pivs!
Escolhendo um vetor no plano b 3 2b 2 + 5b 1 = 0, por exemplo b = (1, 5, 5),
veremos que aps a eliminao, temos o sistema U x = c

x1
1 3 3 2 1
0 0 3 1 x 2
= 3 .
x 3
0 0 0 0 0
x4
Assim, a ltima equao pode ser eliminada (0 = 0) e as outras nos do
1
x3 = 1 x4
3
x 1 = 2 3x 2 x 4 .
Mais uma vez, x 2 , x 4 so variveis livres, e qualquer soluo geral pode ser es-
crita como
x1 2 3 1
x 2 0 1 0

x = = + x2 + x4 1 .
x 3 1 0 3
x4 0 0 1
Esta uma soma do primeiro vetor com a soluo de Ax = 0. Toda soluo de
Ax = b a soma de uma soluo particular (obtida quando tomamos as vari-
veis livres todas iguais a zero) e de uma soluo do sistema homogneo Ax = 0.
Estas solues gerais esto em um conjunto que no em um subespao (pois
zero no est contido nele) mas paralelo ao espao nulo, transladado pela
soluo particular. Assim, o clculo da soluo do sistema acima envolve os
seguintes passos:

18
Reduzir Ax = b a Ux = c

Tomar todas as variveis livres (associadas a colunas sem pivs) como


zero e encontrar uma soluo particular de U x = c

Tomar c = 0 e dar a cada varivel livre, uma de cada vez, o valor 1 e zero
para todas as outras. Encontrar uma soluo homognea atravs deste
processo (ou seja, um vetor x no espao nulo).

Vemos ento que a eliminao nos revela o nmero de pivs, e consequen-


temente o nmero de variveis livres. Se r pivs so no nulos, ento existem r
variveis bsicas e n r variveis livres. Este nmero r chamado posto (rank)
da matriz A.

Resumo: Suponha que atravs da eliminao transformamos


Ax = b em Ux = c. Seja o nmero de pivs no nulos igual
a r , as ltimas m r linhas de U nulas. Ento, s existe so-
luo para o sistema se as ltimas m r componentes de
c tambm forem nulas. Se r = m, sempre existe soluo.

A soluo geral a soma de uma soluo particular (com todas as variveis


livres iguais a zero) e de uma soluo homognea (com as n r variveis livres
como parmetros independentes). Se r = n, no existem variveis livres e o
espao nulo contm somente o vetor x = 0.
Existem dois casos extremos:

Se r = n, ento no existem variveis livres para x. (N = {0})

Se r = m, ento no existem linhas nulas em U . (Im(A) = Rm )

A dimenso do espao coluna Im(A) igual ao posto r , e uma base de


Im(A) formada pelas r colunas de A que correspondem, em U , s colunas
contendo pivs.
Para ver isso com mais clareza, considere um exemplo:

d1
0 0 0 d2

U = .
0 0 0 0 0 d3
0 0 0 0 0 0

19
claro que esta matriz tem trs linhas independentes. Afirmamos que exis-
tem tambm apenas 3 colunas independentes, no mais, mostrando que as 3
colunas que contm pivs so L.I. Suponha que existam c 1 , c 2 , c 3 tais que

d1 0
0 d 2 0

c1 + c2 + c3 = .
0
0
d 3 0
0 0 0 0

Ento, como os pivs so diferentes de zero, claro que c 1 = c 2 = c 3 = 0. Por-


tanto, estas colunas so l.i. e formam uma base para o espao coluna de A.
O espao nulo esquerda de A, que o espao nulo de A T , um subespao
de Rm . A dimenso deste espao fcil de ser encontrada, j que o nmero de
variveis bsicas mais o nmero de variveis livres deve ser igual ao nmero
total de colunas: logo, N(A T ) tem dimenso m r , j que

dim(Im(A)) = dim(Im(A T )) = r.

Vamos ver a importncia deste espao mais frente.


O espao linha de A tem a mesma dimenso r do espao linha de U , e eles
tem a mesma base pois so o mesmo espao. Isto ocorre pois as linhas de U
so combinaes lineares das linhas de A, e portanto as operaes elementares
no alteram o espao, apenas revelam sua base, que formada pelas linhas no
nulas de U .
O espao nulo de A o espao nulo de U , pois as solues que satisfazem
Ax = 0 tambm satisfazem U x = 0. As restries aos vetores do espao nulo
so dadas pelas linhas no nulas de U , e assim o nmero de linhas nulas de U
indica a dimenso do espao nulo (n r , se tivermos r linhas no nulas). Esta
dimenso s vezes chamada de nulidade de A.
Resumindo todas estas consideraes, chegamos ao seguinte resultado.

Teorema 3 (Fundamental da lgebra Linear, Parte I). Seja A Rmn com r li-
nhas l.i. (ou r colunas l.i.). Ento,

(i) Im(A) tem dimenso r

(ii) N(A) tem dimenso n r

(iii) Im(A T ) tem dimenso r

(iv) N(A T ) tem dimenso m r .

20
1.6 Existncia de Inversas
Sabemos que se A tem uma inversa esquerda (B A = I ) e uma inversa di-
reita (AC = I ) ento as duas inversas so iguais. Agora, atravs do posto de uma
matriz, podemos decidir se ela tem tais inversas ou no: uma inversa existe
somente quando o posto da matriz o maior possvel. Sabemos que o posto
satisfaz r m e r n. Uma matriz m n no pode ter mais do que m linhas
l.i. ou n colunas l.i. Queremos mostrar ento que, quando r = n existe uma in-
versa direita, e que quando r = m existe uma inversa esquerda. No primeiro
caso, Ax = b sempre tem soluo; no segundo caso, se a soluo existir ela
nica. Somente uma matriz quadrada pode ter r = m = n, e assim somente
uma matriz quadrada pode definir um sistema com soluo nica e existncia
garantida.

? ?
? ? ? ? ? ? ? ?
=
? ? ? ? ? ? ? ?
? ?

O sistema Ax = b tem pelo menos uma soluo x para cada bse e so-
mente se as colunas de A geram Rm , ou seja, r = m. Neste caso, existe
uma inversa direita C Rnm tal que AC = I m , a matriz identidade de
ordem m. Isto s possvel se m n (caso contrrio, existiriam mais co-
lunas l.i. do que n, absurdo).

O sistema Ax = b tem no mximo uma soluo x para cada b se e so-


mente se as colunas de A forem linearmente independentes, ou seja,
r = n. Neste caso, o sistema homogneo s tem soluo trivial e a soluo
geral ser apenas uma soluo particular, que nica (no h variveis
livres). Assim, existe uma inversa esquerda B Rnm tal que B A = I n .
Isto s possvel se m n.
No primeiro caso, uma soluo possvel x = C b, j que assim teramos
Ax = AC b = b. Mas podem existir outras solues se existirem outras inversas
direita.
No segundo caso, se a soluo para Ax = b existir, ela tem que ser x = B Ax =
B b. Mas a soluo pode no existir.
Existem frmulas simples para as inversas direita e esquerda, se elas
existirem:
B = (A T A)1 A T e C = A T (A A T )1 .

21
O que pode falhar nestas frmulas a existncia das inversas de A T A e de A A T .
Vamos mostrar (mais frente) que estas inversas existem quando o posto de A
for n ou m, respectivamente. Note tambm que estas inversas ( direita e
esquerda) no so nicas.

Exemplo 1.11 (Strang, p. 97). Considere a matriz



4 0 0
A= .
0 5 0

Como o posto de A 2, nossa anlise acima sugere uma inversa direita C . De


fato, note que

1/4 0
4 0 0 1 0
AC = 0 1
/5 = .
0 5 0 0 1
c 31 c 32
De fato, existem infinitas inversas direita; a ltima linha de C totalmente
arbitrria. Por outro lado, no existe inversa esquerda, j que a ltima coluna
de B A ser nula para qualquer B , o que nos impede de obter a matriz identidade
com esse produto.
Para esse exemplo, se usarmos a frmula C = A T (A A T )1 , teremos
1
4 0 1 /4 0
/16 0
C = 0 5 = 0 1/5 .
0 1/25
0 0 0 0

Por outro lado, a transposta de A tem infinitas inversas esquerda:



1 4 0
/4 0 b 13
0 5 = I 22 .
0 1/5 b 23
0 0

Para uma matriz retangular, no possvel termos, ao mesmo tempo, exis-


tncia e unicidade. Se m 6= n, no podemos ter r = m e r = n. Para uma ma-
triz quadrada, vale o oposto: no possvel termos existncia sem unicidade.
Pode-se dizer que, para que uma matriz quadrada A Rnn seja no-singular,
cada uma das condies seguintes necessria e suficiente:

1. As colunas de A geram Rn , de modo que Ax = b tenha ao menos uma


soluo para cada b.

2. As colunas so independentes, de modo que Ax = 0 x = 0.

22
1.7 Transformaes lineares inversveis.
Primeiramente, vamos observar alguns exemplos.
Exemplo. A transformao linear definida pela diferenciao de um polinmio
de Pn e que resulta em um polinmio em Pn1 tem como ncleo o espao unidi-
mensional de polinmios constantes: ddax0 = 0. Sua imagem o espao n dimen-
sional Pn1 . A soma da dimenso do ncleo (1) e do posto (n) nos d a dimenso
do espao original.
Exemplo. A integrao de 0 a x, vista como transformao linear de Pn a Pn+1
tem ncleo {0}. Note que a integrao no produz polinmios constantes, e por-
tanto no gera todo o Pn+1 (ou seja, sua imagem no todo o espao de chegada).
Exemplo 1.12. A multiplicao por um polinmio fixo como 2+3x uma trans-
formao linear:

Ap = (2 + 3x)(a 0 + . . . + a n x n ) = 2a 0 + . . . + 3a n x n+1 .

Esta transformao leva Pn em Pn+1 , com ncleo contendo apenas p = 0.


Se quisermos investigar, agora de maneira terica, como decidir se uma
transformao linear possui inversa ou no, precisamos refinar alguns concei-
tos.
Definio 8. Seja T uma transformao linear de E em F .
Se Im(T ) = F , dizemos que T sobrejetora.

Se o ncleo de T contiver apenas o vetor nulo, dizemos que esta transfor-


mao injetora. Isto equivalente a dizermos que se T (u) = T (v) ento
T (u v) = 0 u v = 0.
Teorema 4. Para que T : E F seja inversvel, necessrio e suficiente que T
seja injetora e sobrejetora.
Demonstrao. Primeiramente, observe que T possui inversa direita Q : F
E se e somente se pudermos escrever

T (Q(v)) = v, v F. (2)

Alm disso, T possui inversa esquerda S : F E se e somente se pudermos


escrever
S(T (u)) = u, u E . (3)

23
Afirmao: T sobrejetora se e somente se possui inversa direita. Se
T for sobrejetora, ento Im(T ) = F . Desta forma, todos os vetores de F
podem ser escritos como resultado da aplicao de T em algum vetor de
E . Em particular, se tomamos uma base F , podemos escolher veto-
res u i em E tais que T (u i ) = v i , para cada v i F . Como vimos que
para definir uma transformao linear basta definirmos o resultado da
sua aplicao em elementos de uma base do domnio, basta escolhermos
a transformao Q que a cada v i associa u i como inversa direita de T ;
desta forma, T (Q(v i )) = T (u i ) = v i para todo v i F . Por outro lado, se T
admitir inversa direita Q : F E , ento para todo v F , T (Q(v)) = v, ou
seja, v = T (w) para todo v F (com w = Q(v)) e assim T sobrejetora (a
imagem de T todo o F ).

Afirmao: T injetora se e somente se possui inversa esquerda. Se T


injetora, ento ela leva um conjunto de vetores l.i. em um conjunto de
vetores l.i.: Sejam {u 1 , . . . , u n } E l.i. Ento,

1 T (u 1 ) + . . . + n T (u n ) = 0
T (1 u 1 + . . . + n u n ) = 0

Como T injetora, T (u) = 0 u = 0 e assim

1 u 1 + . . . + n u n = 0

Agora, como o conjunto {u 1 , . . . , u n } l.i., isso implica que 1 = . . . = n =


0. Logo, {T (u 1 ), . . . , T (u n )} formam um conjunto l.i. em F .
Assim, se tomarmos uma base {u i } E , podemos definir uma base para F
se tomarmos {T (u i ), v i }, onde os v i so acrescentados ao conjunto l.i. Av i
se necessrio para completar a base; logo, para definirmos uma inversa
esquerda basta tomarmos S : F E tal que S(T (u i )) = u i e S(v i ) = 0 para
todo i .
Finalmente, se T possui inversa esquerda S : F E , ento T (u) = 0
u = S(T (u)) = S(0) = 0, ou seja, T injetora.

Se T : E F inversvel, dizemos que ela uma bijeo ou um isomorfismo


entre E e F , e que E e F so isomorfos. Um isomorfismo T : E F transforma
uma base de E em uma base de F e se uma transformao linear leva uma base

24
de E numa base de F , ento ela um isomorfismo. Desta forma, dois espaos
vetoriais de dimenso finita isomorfos tem a mesma dimenso; por outro lado,
suponha que E um espao vetorial de dimenso n. Se fixarmos uma base
{v i } E , podemos definir T : Rn E tal que se u = (1 , . . . , n ) Rn , T (u) =
T (1 , . . . , n ) = 1 v 1 + . . . + n v n . Desta forma, Ae 1 = v 1 , . . . , Ae n = v n , em que
os e i Rn so os elementos da base cannica do Rn . Portanto, T transforma a
base cannica do Rn na base de E e portanto define um isomorfismo entre E e
Rn : em outras palavras, todo espao vetorial de dimenso n isomorfo a Rn .
Exemplo 1.13. O espao Pn tem dimenso n + 1 e portanto isomorfo a Rn+1 . O
espao das matrizes M(m p) isomorfo a Rmp .

1.7.1 Teorema do ncleo e da imagem de uma transformao linear.

Teorema 5 (do Ncleo e da Imagem). Sejam E , F espaos vetoriais de dimenso


finita. Para toda transformao linear T : E F temos que

d i m(E ) = d i m N(T ) + d i m Im(T ).

Demonstrao. Vamos mostrar que se {T (u i )} uma base de Im(T ) e {v i }


uma base de N(T ), ento {u i , v i } uma base de E .
Para isto, considere que se tivermos

1 u 1 + . . . + p u p + 1 v 1 + . . . + q v q = 0 (4)

ento aplicando T dos dois lados da equao, teramos que 1 T (u 1 ) + . . . +


p T (u p ) = 0, j que v i N(T ). Mas, como {T (u i )} uma base de Im(T ), es-
tes vetores so l.i., e assim i = 0. Portanto, em (4) teramos apenas 1 v 1 + . . . +
q v q = 0. No entanto, como {v i } base de N(T ), estes vetores so l.i. e logo
i = 0. Portanto, {u i , v i } so l.i.
Em seguida, considere um vetor arbitrrio w E . Como T (w) Im(T ), po-
demos escrever

T (w) = 1 T (u 1 ) + . . . + p T (u p )
T (w (1 u 1 + . . . + p u p )) = 0.

Logo, w (1 u 1 + . . . + p u p ) N(A), e portanto podemos escrever

w (1 u 1 + . . . + p u p ) = 1 v 1 + . . . + q v q ,

o que implica que w = 1 u 1 +. . .+p u p +1 v 1 +. . .+q v q , e assim estes vetores


geram E .

25
Corolrio 1. Sejam E , F espaos vetoriais de mesma dimenso finita n. Uma
transformao linear T : E F injetiva se e somente se sobrejetiva e portanto,
um isomorfismo.

Demonstrao. Com efeito, temos

n = d i m N(T ) + d i m Im(T ).

Logo, d i m N(T ) = 0 d i m Im(T ) = n.

Exemplo 1.14. Descrever a imagem e o ncleo de



1 1
A=
0 0

e
1 0 1
B = 5 4 9
2 4 6
Note que Im(A) = span{(1, 0)} e N(A) = span{(x 1 , x 1 )} = span{(1, 1)}. A di-
menso de cada um dos espaos 1 e sua soma 2.
Para B , lembre que N(B ) = N(U ) (em que U a matriz obtida depois que
escalonamos a matriz B ) e que Im(B ) no igual a Im(U ), mas as colunas
que geram a imagem de B so as colunas correspondentes s colunas em que
aparecem os pivs de U . Logo, para resolver este problema primeiro escalona-
mos a matriz B . Assim, N(B ) = span{(1, 1, 1)} = span{(1, 1, 1)} e Im(B ) =
span{(1, 0, 0), (0, 1, 1)}. Note ainda que d i m(N(B )) + d i m(Im(B )) = 1 + 2 = 3.

Exemplo 1.15.

1 3 3 2
A= 2 6 9 5
1 3 3 0

Observao Toda soluo de um sistema Ax = b soma de uma soluo par-


ticular (onde todas as variveis livres valem 0) e de uma soluo ao sistema
homogneo Ax = 0. Isto equivalente a dizermos que o ncleo e a imagem de
A se completam em dimenso para formar o espao de sada.

26
Exemplo 1.16.
x1
1 2 0 1 1
x 2
Ax = b : 0 1 1 0 = 2

x 3
1 2 0 1 1
x4
soluo geral = soluo particular + soluo homognea:

1 2 1
0 1 0

x = + x2 + x4
2 1 0
0 0 1

1.8 Mudana de base


Sejam U = {u 1 , . . . , u n } E e W = {w 1 , . . . , w m } F bases em relao s quais
a matriz da transformao linear T : E F definida. Isto significa que para
cada u j U definimos a transformao T como sendo T (u j ) = v j , em que v j
F . Assim, v j pode ser escrito como combinao linear dos elementos de W
(pois W base de F ) e assim existem a i j R tais que
m
X
T (u j ) = v j = ai j w i , ( j = 1, . . . , n).
i =1

Tomando novas bases U 0 = {u 10 , . . . , u n0 } E e W 0 = {w 10 , . . . , w m


0
} F , a transfor-
0
mao linear T tem uma nova matriz A definida por
m
T (u 0j ) = a r0 j w r0 ,
X
( j = 1, . . . , n). (5)
r =1

Para obtermos a relao entre as matrizes A e A 0 , consideramos as matrizes de


U0 W0
mudana de base P = IU Knn e Q = I W Kmm definidas pelas igualdades

n m
u 0j = w r0 =
X X
p k j uk e qi r w i .
k=1 i =1

27
Agora, podemos escrever cada um dos membros de (5) em termos da base W ,
fazendo
n n m
T (u 0j ) =
X X X
p k j T (u k ) = pk j ai k w i
k=1 k=1 i =1
Xn Xm
= p k j ai k w i
k=1 i =1
!
m X
X n
= ai k p k j w i ,
i =1 k=1

e
m m m
a r0 j w r0 = a r0 j
X X X
qi r w i
r =1 r =1 i =1
m X m
a r0 j q i r w i
X
=
r =1 i =1
m X m
0
X
= qi r ar j w i .
i =1 r =1

Igualando os coeficientes de w i , temos que


n m
q i r a r0 j ,
X X
ai k p k j =
k=1 r =1

ou seja, AP = Q A 0 .
Observe agora que toda matriz de mudana de base inversvel: leva uma
base numa base. Assim, podemos concluir que

A 0 = Q 1 AP.

til tambm observar que se U uma base de Rn , ento a matriz de mu-


dana de base da base cannica para U aquela cujas n colunas so os vetores
u1 , . . . , un .
No caso particular de um operador T : E E e de suas matrizes A e A 0
relativas s bases U e U 0 , temos uma nica matriz de mudana de base P , o
que nos d
A 0 = P 1 AP.

28
1.9 Soma direta
Como vimos que a imagem e o ncleo de uma transformao linear so com-
plementares com relao dimenso do espao vetorial em que esto contidos,
podemos imaginar uma decomposio do espao nestes dois subespaos.
Vimos anteriormente que se F 1 e F 2 so subespaos do espao vetorial E ,
o subespao vetorial de E formado pela conjuno dos elementos de F 1 e de
F 2 o conjunto F 1 + F 2 de todas as somas u + v, onde u F 1 e v F 2 . No caso
particular em que F 1 F 2 = {0}, escrevemos F 1 F 2 e chamamos esta operao
de soma direta.
Existe uma noo anloga de soma direta, que o produto cartesiano de
dois espaos vetoriais E 1 e E 2 . Estes dois espaos no precisam fazer parte
do mesmo espao E . Os elementos do conjunto E 1 E 2 so pares ordenados
(u, v), u E 1 , v E 2 . As operaes que tornam este novo espao um espao
vetorial so

(u, v) + (u 0 , v 0 ) = (u + u 0 , v + v 0 ),
(u, v) = (u, v).

O vetor nulo (0, 0) e o inverso aditivo (u, v).


Se {u 1 , . . . , u m } E 1 e {v 1 , . . . , v k } E 2 , imediato observarmos que

{(u 1 , 0), . . . , (u m , 0), (0, v 1 ), . . . , (0, v k )} E 1 E 2

uma base, de modo que d i m(E 1 E 2 ) = d i mE i + d i mE 2 .


Se F 1 , F 2 so subespaos de E com F 1 F 2 = {0}, ento a transformao linear

A : F1 F2 F1 F2

definida por A(u, v) = u + v, u F 1 , v F 2 um isomorfismo, pois se

{u 1 , . . . , u m } F 1

e
{v 1 , . . . , v n } F 2
so bases, ento a base

{(u 1 , 0), . . . , (u m , 0), (0, v 1 ), . . . , (0, v n )} F 1 F 2

transformada por A no conjunto

{u 1 , . . . , u m , v 1 , . . . , v n }

29
que , por sua vez, uma base de F 1 F 2 . Segue-se que d i m(F 1 F 2 ) = d i mF 1 +
d i mF 2 = m + n.
No caso mais geral, em que a interseo F 1 F 2 no se reduz necessaria-
mente ao vetor nulo, a soma F 1 + F 2 pode no ser mais uma soma direta, mas
ainda podemos definir a transformao linear

A : F1 F2 F1 + F2

de forma que A(u, v) = u + v. Obviamente, A sobrejetiva: todo elemento de


F 1 +F 2 pode ser representado como imagem por A de um vetor em F 1 F 2 . Seu
ncleo formado pelos pares (u, v) tais que u + v = 0, ou seja v = u. Neste
caso, ambos u, v F 1 F 2 . A correspondncia u 7 (u, u) um isomorfismo
entre F 1 F 2 e N(A). Pelo Teorema do Ncleo e da Imagem, temos ento que

d i mF 1 + d i mF 2 = d i m(F 1 F 2 )
= d i m N(A) + d i m(F 1 + F 2 )
= d i m(F 1 F 2 ) + d i m(F 1 + F 2 ).

Assim, enunciamos o seguinte teorema.

Teorema 6. Sejam F 1 , F 2 subespaos de dimenso finita de um espao vetorial


E . Temos que

d i mF 1 + d i mF 2 = d i m(F 1 F 2 ) + d i m(F 1 + F 2 ).

A noo de soma direta est intimamente ligada noo de projeo. Se


E = F 1 F 2 a decomposio do espao vetorial E como soma direta destes
subespaos, definimos o operador P : E E , projeo de E sobre F 1 paralela-
mente a F 2 da seguinte maneira: todo vetor w E se escreve, de modo nico,
como soma w = u + v de u F 1 , v F 2 . Escolha ento P w = u.
O operador linear assim definido tem imagem F 1 e ncleo F 2 . Alm disso
fcil ver que P idempotente (ou seja, P 2 = P ). Vamos mostrar a seguir que
todo operador linear idempotente uma projeo. Note primeiramente que se
P 2 = P , ento para todo w Im(P ), temos que P (w) = w pois w Im(P ) w =
P (v) P (w) = P (P (v)) = P (v) = w.

Teorema 7. Seja P : E E um operador linear. Se P 2 = P , ento E a soma


direta do ncleo com a imagem de P . Alm disso, P a projeo sobre Im(P )
paralelamente a N(P ).

30
Demonstrao. Todo v E se escreve como soma v = (v P (v)) + P (v), onde
P (v) Im(P ) e, como P (v P (v)) = P (v)P (P (v)) = P (v)P (v) = 0, vemos que
v P (v) N(P ). Portanto, E = N(P ) + Im(P ). Se w N(P ) Im(P ), por um lado
temos que P (w) = 0, e por outro P (w) = w; logo, w = 0. Assim, N(P ) Im(P ) =
{0} e temos que E = Im(P ) N(P ). O resto bvio.

Exemplo 1.17. Para todo operador linear T : E E num espao vetorial de


dimenso finita vale a relao d i m(E ) = d i m N(T ) + d i m Im(T ), mas no te-
mos sempre que esta soma direta: por exemplo, se T : R2 R2 definido por
T (x, y) = (xy, xy) ento tomando w = (1, 1) temos que w = T (v) com v = (2, 1)
e T (w) = 0, portanto w Im(T ) N(T ).

Definio 9. Uma involuo um operador linear S : E E tal que S 2 = I , ou


seja S(S(v)) = v para todo v E .

Em outras palavras, uma involuo um operador inversvel, igual ao seu


prprio inverso. Um exemplo a reflexo (ortogonal) no plano em torno de
uma reta que passa pela origem. Veremos agora que toda involuo a reflexo
em torno de um subespao, paralelamente a outro.

Teorema 8. Seja S : E E uma involuo. Os conjunto F 1 = {u E : S(u) = u} e


F 2 = {v E : S(v) = v} so subespaos vetoriais e E = F 1 F 2 . Para todo w = u+v
com u F 1 , v F 2 tem-se S(w) = u v. Alm disso, P = 21 (S + I ) a projeo sobre
F 1 paralelamente a F 2 .

Demonstrao. Para todo w E , podemos escrever w = u+v, onde u = (w+S(w)) 2


e v = (wS(w))
2
. Como S 2
= I , claro que S(u) = u e S(v) = v, ou seja, u F 1 ,v
F 2 . claro tambm que F 1 F 2 = {0}, e que w = u + v S(w) = u v se u F 1 e
v F 2 . Finalmente,
1 1
P = (S + I ) P 2 = (S 2 + 2S + I )
2 4
1
= (2S + 2I )
4
1
= (S + I ) = P.
2
Pode-se ver facilmente que o ncleo de P F 2 e a imagem de P F 1 .

O caso mais comum de reflexo aquele em que se tem d i m(E ) = n, d i m(F 1 ) =


n 1 e d i m(F 2 ) = 1, de modo que S a reflexo em torno do hiperplano F 1 pa-
ralelamente reta F 2 .

31

You might also like