You are on page 1of 23

NOTAS DE AULA

Forma de Jordan e Equaco


es Diferenciais Lineares
Aloisio Freiria Neves1

cio
1. Prefa
O objetivo deste texto e desenvolver de maneira completa a Forma de Jordan e os Sistemas
de Equacoes Diferenciais Lineares. A redacao busca utilizar a relacao entre esses temas
como forma de motivar e facilitar o aprendizado. Os conceitos e as demonstracoes sao
apresentadas de maneira rigorosa e detalhada.
O texto e dirigido `a alunos de Graduacao, que ja cursaram as disciplinas de calculo e que

tenham nocoes de Algebra


Linear, especificamente nocoes de bases do IRn e de matrizes de
transformacoes lineares. O texto trata em detalhes topicos como: multiplicidades algebrica
e geometrica de auto valores, polinomio minimal, exponencial de matrizes, teorema de existencia e unicidade, entre outros, topicos que, em geral, sao cobertos superficialmente nos
cursos de graduacao. O texto e u
til para leitores que pretendem aprofundar-se um pouco
neste topicos e tambem para aqueles interessados em areas como: Sistemas Dinamicos,
Equacoes Diferenciais de Evolucao e Teoria de Semi Grupos de Operadores Lineares.
A bibliografia, no final do texto, contem tres livros que foram escolhidos cuidadosamente
com o objetivo de direcionar o leitor.

o
2. Introduc
a
O tipo mais simples de equacao diferencial linear que podemos considerar e a equacao
do crescimento exponencial: a taxa de crescimento e proporcional `a quantidade presente
x = ax,

a = constante.

(2.1)

Quando nos deparamos pela primeira vez com uma equacao diferencial as perguntas
que aparecem naturalmente sao: Existe solucao? A solucao e u
nica? O que podemos
afirmar sobre as solucoes? Para a equacao acima e facil ver que a funcao x(t) = eat e
uma solucao, bem como qualquer de seus m
ultiplos x(t) = eat c, onde c e uma constante
arbitraria. Podemos mostrar que todas as solucoes sao desta forma. De fato, dada uma
solucao qualquer x(t) de (2.1), diferenciando a expressao eat x(t) e usando a equacao (2.1),
obtemos:
d at
(e x(t)) = aeat x(t) + eat x(t)

= aeat x(t) + eat ax(t) = 0


dt
1

Internet: http://www.ime.unicamp.br/aloisio

o que mostra que eat x(t) = c, ou seja x(t) = eat c. A expressao eat c e chamada de
Solucao Geral da equacao diferencial (2.1). Para termos unicidade de solucao precisamos
especificar uma condicao inicial, neste caso temos o que chamamos de Problema de Valor
Inicial (P.V.I.)
(
x = ax
(2.2)
x(0) = x0 .
Como (2.1) tem uma solucao geral, temos, conseq
uentemente, que a solucao deste P.V.I.
deve ser da forma eat c. Utilizando-se da condicao inicial determinamos a constante c:
x(0) = ea0 c = c
e assim a solucao do problema e u
nica e dada por
x(t) = eat x(0).
Observe que as solucoes sao funcoes definidas para todo t IR. Demonstramos, desta
forma, um Teorema de Existencia e Unicidade para o problema (2.2).
Para o problema nao homogeneo:
(

x = ax + h(t)
x(0) = x0 .

(2.3)

tambem temos existencia e unicidade de solucao. Neste caso a solucao e dada pela Formula
de variacao da Constantes, isto e, se x(t) e solucao de (2.5), entao
d at
(e x(t)) = aeat x(t) + eat (ax(t) + h(t)) = eat h(t),
dt
integrando esta igualdade de 0 a t, obtemos
at

x(t) x(0) =

Z t
0

eas h(s)ds

e portanto a solucao e dada por


x(t) = eat x(0) +

Z t
0

ea(ts) h(s)ds.

(2.4)

Esta expressao e conhecida na literatura como Formula de variacao das Constantes. Estamos supondo que a funcao h(t) esta definida e e contnua num intervalo que contem
o ponto t = 0, de modo que, a formula de variacao das constantes garante a existencia
e unicidade da solucao definida, e mostra ainda que a solucao esta definida no mesmo
intervalo que a funcao h(t).
Um dos objetivos deste texto e generalizar estes resultados para Sistema de Equacoes
Diferenciais Lineares

x1 (t)
(

x2 (t)
x = Ax

x(t) = ..
(2.5)

x(0) = x0 , ;

.
xn (t)
2

onde A e uma matriz constante n n e x e uma funcao diferenciavel de IR em IRn . Neste


caso nao temos uma solucao que salta aos olhos como no caso escalar (2.2). A intuicao
nos sugere definir a exponencial eAt de uma matriz At, e verificar se as propriedades desta
exponencial nos permite generalizar o caso escalar para sistemas. Este e outros resultados
serao obtidos atraves da teoria de Jordan para classificacao de matrizes. O texto esta
dividido da seguinte forma: o captulo 2 desenvolve a Forma de Jordan e o captulo 3
estuda os sistemas de equacoes diferencias lineares.

3. A Forma de Jordan
Neste captulo desenvolveremos a teoria de Jordan para classificacao de matrizes quadradas.
O objetivo e determinar uma base no IRn na qual a matriz A seja a mais simples possvel,
tenha o maior n
umero de zeros.
Defini
c
ao 3.1 Se existir um interio r > 0 tal que Ar = 0, entao a matriz A e chamadas
de Nilpotente e o menor valor de r tal que Ar = 0 e chamado de ndice de nilpot
encia
de A.
Vamos a um exemplo de matriz nilpotente, considere

0 0 0
1 0 0
0 1 0
..
..
.
.

0 0
0 0

0 0

..
..
.
.

0 0

1 0

kk

que e uma matriz formada por zeros com excecao da diagonal abaixo da diagonal principal,
que e formada por 1s. Quando calculamos A2 (faca como exerccio) a diagonal de ls
escorrega para a diagonal imediatamente abaixo, quando calculamos A3 a diagonal de 1s
vai mais uma para baixo e assim por diante. Como a matriz e de tamanho (ou ordem)
k temos que Ak1 possui zero em todas as posicoes exceto na posicao k1 (
ultima linha
com primeira coluna), que tem 1 (a diagonal de 1s esta quase saindo fora da matriz),
finalmente Ak = 0, isto e, a matriz acima e nilpotente de ndice k.
A pergunta que se coloca e a seguinte: Sera que podemos transformar uma matriz
qualquer (atraves de uma mudanca de base) numa expressao que envolva somente matrizes
diagonais e matrizes nilpotentes? Com esta pergunta queremos motivar o leitor a estudar
obvio que so o fato da
o objeto central deste captulo que e a Forma de Jordan. E
existencia de uma forma canonica envolvendo matrizes com estas propriedades ja e por
si so motivador e cativador. Alem disso, como veremos a seguir, a matriz na Forma de
Jordan possui muitos zeros o que certamente e muito mais operacional.

Proposic
ao 3.1 Se A e nilpotente de ndice r, entao:
i) = 0 e o u
nico auto valor de A.
r1
ii) Se A v0 6= 0, entao {v0 , Av0 , , Ar1 v0 } e LI.
Demonstrac
ao: i) Se Av = v, com v 6= 0, entao 0 = Ar v = r v, logo = 0.
ii) Seja 0 v0 + 1 Av0 + + r1 Ar1 v0 = 0. Suponha que exista escalar nao nulo, chame
de s o primeiro desses escalares, de modo que a soma acima possa ser escrita como
s As v0 + + r1 Ar1 v0 = 0
portanto, como s 6= 0, podemos escrever
r1 r1
s+1 s+1
A v0
A v0
s
s
s+1
r1 rs2
= As+1 (
v0
A
)
s
s

As v0 =

portanto As v0 = As+1 v, onde v e o vetor escrito entre parenteses na expressao acima, logo
temos que
Ar1 v0 = Ar1s (As v0 ) = Ar1s (As+1 v) = Ar v = 0
que e uma contradicao, logo nao existe escalar nao nulo, e portanto os vetores sao linearmente independentes.
Proposic
ao 3.2 Dada uma transformac
ao linear A : V V existem subespacos vetoriais
H e K, invariantes por A, tais que
V =H K
com A/H : H H nilpotente e A/K : K K inversvel
Demonstrac
ao: Temos que
KerA KerA2 ,
como V e de dimensao finita, estas inclusoes nao podem ser proprias, logo existe um menor
interio k tal que
KerAk = KerAk+1
e e facil verificar que (use inducao sobre j)
KerAk = KerAk+j

com j = 1, 2, 3,

Colocamos
H = KerAk

K = ImAk

temos que H K = {0}, pois se v H K entao Ak v = 0 e existe w V tal que Ak w = v,


portanto Ak (Ak w) = 0 w KerA2k = KerAk v = Ak w = 0.
Como dim(KerAk ) + dim(ImAk ) = dimV , temos que V = H K.
4

A verificacao que HeK sao A-invariantes, A/H e nilpotente de ndice k e A/K nversvel
pode (e deve) ser feita como exerccio.
A Forma de Jordan de um operador A pode ser obtida atraves das seguintes observac
oes:
1) O n
umero k dado acima satisfaz
k dimH.
O caso k = 0 acontece quando A e inversvel (KerAo = KerA), logo H = {0}. Quando
k > 0, basta notar que a sequencia KerA, KerA2 , KerA3 , ..., cresce de pelo menos 1 em
dimensao ate k, portanto k dim(KerAk ).
2) Se B e uma base de V formada pela uniao de bases de H e K, temos que a matriz de A
na base B e do tipo

!
[A/H ]
0
[A]B =
0
[A/K ]
portanto
det[A]B = det[A/H ] det[A/K ].
Como det[A/K ] 6= 0, pois A/K e inversvel, temos que a multiplicidade algebrica do zero (a
multiplicidade do zero como raiz do polinomio caracterstico de A), e igual a multiplicidade
algebrica do zero como raiz do polinomio caracterstico de A/H , que e igual a dim H, pois
A/H e nilpotente e portanto so possui o zero como auto valor, isto e
ma(0) = dimH = dimKerAk .

3) Se 1 e auto valor de A com multiplicidade algebrica, ma(1 ) = m1 , usando a proposicao


3.2 e as observacoes anteriores `a (A 1 I) : V V , temos que V = H1 K1 , com
dimH1 = m1 = dimKer(A 1 I)k1
onde k1 e o primeiro inteiro tal que
Ker(A 1 I)k1 = Ker(A 1 I)k1 +1
e ainda mais, (A 1 I)/H1 e nilpotente de ndice k1 com k1 m1 .
Como A : K1 K1 nao possui 1 como auto valor, pois det[(A 1 I)/K1 ] 6= 0, podemos
repetir o argumento acima para A : K1 K1 tomando um segundo auto valor 2 de
A e obtendo um segundo subespaco H2 no qual a restricao de A 2 I e nilpotente.
Assim sucessivamente, temos para o caso geral em que 1 , 2 , ..., ` sao os auto valores de
A : V V com multiplicidades algebricas respectivamente m1 , m2 , ..., m` , e portanto seu
polinomio caracterstico e igual a
P () = ( 1 )m1 ( ` )m`
5

(3.1)

que, existem subespacos invariantes H1 , H` tais que:

dimHi = mi

V = H1 H`
(A i I)/Hi nilpotente

(3.2)

Defini
c
ao 3.2 Os sub espacos Hi s
ao chamados de auto-espacos generalizados.

4) Com base nestes resultados basta analisarmos as transformacoes nilpotentes, pois se


dada uma transformacao nilpotente, soubermos encontrar uma base na qual a matriz da
transformacao e bastante simples, temos usando (3.2) que a matriz de uma transformacao
qualquer sera formada por esses blocos bastante simples, em diagonal.
Suponhamos entao que A : V V e nilpotente de ndice k, sabemos que {v, Av, ..., Ak1 v}
e LI, para algum vetor v. Se k = dimV entao esta otimo porque esses vetores formam
uma base de V e a matriz de A nessa base e do tipo Bloco de Jordan:

0 0 0
1 0 0
0 1 0
..
...
.

0 0
0 0

0 0

..
...
.

0 0

1 0

kk

Figure 1: Bloco de Jordan


Observe que os n
umeros 1s podem aparecer abaixo ou acima da diagonal, basta inverter
a ordem da base.
Para o caso em que k < dimV usaremos o seguinte resultado cuja demonstracao daremos
logo apos as observacoes:
Proposic
ao 3.3 Se A : V V e nilpotente de ndice k e Ak1 v0 6= 0, entao existe um
subespaco M , invariante por A, tal que
V =N M
onde N = [v0 , Av0 , , Ak1 v0 ]
Logo, quando k < dimV , consideramos a restricao de A ao subespaco invariante M ,
A : M M , que tambem sera nilpotente com ndicie de nilpotencia k 0 k, portanto

com o mesmo raciocnio obtemos um novo conjunto de vetores linearmente independentes,


0
{v 0 , Av 0 , , Ak 1 v 0 }. Se k 0 = dimM otimo, encerramos o processo e
0

{v, Av, , Ak1 v, v 0 , Av 0 , , Ak 1 v 0 }


e uma base na qual a matriz de A e formada por dois blocos de Jordan em diagonal.
Utilizando-se desse procedimento podemos concluir, de modo geral, que se A e nilpotentes
de ndice k, existe uma base na qual sua matriz e bastante simples, formada por blocos de
Jordan em diagonal, do tipo:

0
1 0
1 0
.. ..
. .

1 0 kk
0 0
1 0
.. ..
. .
1 0 k0 k0
..
.

Figure 2: Forma de Jordan de um Operador Nilpotente


onde k k 0 , isto e, os blocos em diagonal vao decrescento (em ordem) e sao todos
do tipo figura 1.
5) Conforme (3.2), temos que o operador (A i I)/Hi e nilpotente, logo sua matriz e do
tipo da figura 2, com ndice de nilpotencia ki . Como a matriz de A/Hi e a soma dessa
matriz com a matriz diagonal i I, temos que a matriz de A/Hi e do tipo figura 2, mas com
i na diagonal em vez de zeros.
Agora, como V e a soma direta dos subespacos Hi , temos que a matriz de A e uma matriz
formada por blocos em diagonal
onde cada bloco e do tipo figura 2 com o respectivo auto valor i na diagonal e sua ordem
e a multiplicidade algebrica de i , mi .
A forma matricial assim obtida e chamada de Forma de Jordan do operador A. Para
completarmos a sua justificativa falta apenas a demonstracao da proposicao 3.3. Daremos
uma demonstracao dessa proposicao logo a seguir e encerraremos essas notas com algumas
aplicacoes e mais algumas propriedades que certamente lhe serao muito u
teis
7

A/H1
A/H2
..

.
A/H`

Figure 3: Forma de Jordan


Demonstrac
ao da proposic
ao 3.3: Demonstraremos por inducao sobre o ndice k de
nilpotencia do operador A : V V .
Se k = 1, entao A = 0 e o resultado e imediato.
Suponhamos a proposicao verdadeira para k 1 e vamos demonstra-la para k. Temos que
ImA e um subespaco invariante e A/ImA e nilpotente de ndice k 1, pois
Ak1 (Av) = Ak v = 0 e Ak2 (Av0 ) = Ak1 v0 6= 0
portanto pela hipotese de inducao
ImA = N1 M1 com N1 = [Av0 , , Ak1 v0 ] = A(N ).
Colocando
M2 = {v V : Av M1 }
temos que
V = N + M2 ,

onde N = [v0 , Av0 , , Ak1 v0 ]

(3.3)

de fato, v V Av ImA = N1 M1 Av = n1 + m1 com n1 N1 e m1 M1


portanto n1 = An para algum n N , logo Av = An + m1 A(v n) = m1 M1 donde
concluimos que (v n) M2 e claramente v = n + (v n) N + M2 .
A soma em (3.3) nao e direta ja que
N M2 = [Ak1 v0 ] N1 .
Observe que M1 M2 , e logicamente N M2 M2 portanto
(N M2 ) M1 M2
logo podemos completar esse subespaco (N M2 ) M1 com um subespaco M3 de modo
a obter M2 , isto e,
(3.4)
M2 = (N M2 ) M1 M3 .
8

Colocamos entao
M = M1 M3
e temos:
i) M M2 , logo A(M ) A(M2 ) M1 M donde concluimos que M e invariante.
ii) N M = {0}, pois se v N M v N e v M M2 v N M2 portanto
v M (N M2 ) = {0}
por (3.4).
iii) V = N M porque V = N + M2 e M2 = N M2 M , logo v = n + (h + m) com
n N , h N M2 e m M , mas entao
v = (n + h) + m com (n + h) N,

mM

o que completa a prova.

Comentarios e propriedades complementares sobre a Forma de Jordan:

O objetivo aqui e como determinar a forma de Jordan de um operador arbitrario A.


Para cada auto valor i , de A vamos calcular a forma de Jordan do operador nilpotente
(A i I)/Hi , onde Hi = Ker(A i I)ki . Essa matriz possui o primeiro bloco de Jordan
de tamanho (ordem) ki ki , e possivelmente outros blocos menores ou iguais em diagonal;
a quantidade desses blocos e seus respectivos tamanhos depende logicamente do operador
A. A questao que queremos discutir aqui e: Como determinar essa quantidade e esses
tamanhos (ou ordens)?
Observe primeiramente que os n
umeros ki sao ndices de nilpotencia de (A i I), isto
e, o menor inteiro tal que (A i I)ki = 0 em Hi e ki mi . Portanto considerando o
polinomio
p() = ( 1 )k1 ( 2 )k2 ( ` )k`
temos que p() tem coeficiente principal igual a 1, tem grau menor ou igual ao polinomio
caracterstico (3.1) e p(A) = 0, porque se v V , v = v1 + + v` com vi Hi veja (3.2),
=0

}|

p(A) = (A 2 I)k2 . . . (A ` I)k` (A 1 I)k1 v1 +


+(A 1 I)k1 (A ` I)k` v` = 0
|

{z

=0

observe tambem que se diminuirmos um desses ki nao temos mais essa propriedade p(A) =
0, portanto p() e o polinomio minimal de A, isto e, o polinomio de menor grau com
coeficiente principal = 1 e tal que p(A) = 0.
Uma outra observacao importante e que na diagonal abaixo da diagonal principal da
9

Forma de Jordan do operador nilpotente (A i I)/Hi os 0s aparecem exatamente na


posicao de interseccao dos blocos de Jordan, veja a figura 2, logo se olharmos para as
colunas nulas dessa matriz (figura 2), temos tantas colunas nulas quantos forem os seus
blocos (a u
ltima coluna dessa matriz e nula, que corresponde ao u
ltimo bloco), portanto
para determinarmos o n
umero de blocos correspondentes a i devemos calcular o n
umero
de colunas nulas, mas esse n
umero e exatamente a dimensao de Ker(A i I).
Defini
c
ao 3.3 A dimensao de Ker(A i I) e chamada de multiplicidade geometrica de
i .
Temos portanto informacoes sobre a ordem do maior bloco de Jordan e sobre o n
umero
de blocos existentes para cada i . Falta somente informacoes sobre a ordem desses blocos.
Para isto chamaremos de N a dimensao do espaco V e colocaremos:
T = (A i I),
dj = dimKerT j = dimKer(A i I)j
e
nj = n
umero de blocos de Jordan de ordem j j.
Observe que devemos calcular as dimensoes dj ate obtermos o primeiro inteiro k tal que
dk = dk+1 , que e o ndice de nilpotencia do auto valor i , a partir desse ndice temos,
dj = dk , j k. Observe ainda que
d0 = dimKerI = 0.
Sabemos que o n
umero de blocos e igual a multiplicidade geometrica, logo
d1 = n1 + n2 + + nN
que sao todas as ordens possveis.
Agora, quando calculamos T 2 a diagonal de 1s escorrega para a diagonal imediatamente abaixo, veja figura 2, isto significa que nos blocos de Jordan de ordens 2 aumenta
uma coluna de zeros em cada um, logo
d2 = n1 + 2n2 + + 2nN .
Com o mesmo raciocnio concluimos para os subsequentes, isto e,
d3 =
..
.
dN 1 =
dN =
dN +1 =

n1 + 2n2 + 3n3 + + 3nN = n1 + 2n2 + 3(n3 + + nN ),


n1 + 2n2 + + (N 2)nN 2 + (N 1)(nN 1 + nN ),
n1 + 2n2 + + N nN ,
dN .
10

Os di s sao conhecidos (ja foram calculados), vamos resolver para os ni s. Subtraindo cada
equacao da anterior obtemos:
d1 d0 = n1 + + nN
d2 d1 = n2 + + nN
..
.
dN dN 1 = nN
dN +1 dN = 0.
Subtraindo cada equacao da subsequente, vem
d0 + 2d1 d2 = n1
..
.
dN 1 + 2dN dN +1 = nN .
Obtemos portanto a relacao
nj = dj1 + 2dj dj+1 ,

1jN

(3.5)

que fornece o n
umero de blocos de Jordan de ordem j j correspondentes ao auto valor
i .
Vamos a um exemplo: Suponhamos que 1 = 5 seja auto valor de um operador A que
satisfaz as seguintes condicoes:
multiplicidade algebrica = 10
multiplicidade geometrica = 6, isto e, d1 = dimKer(A 5I) = 6
ndice de nilpotencia = 3, isto e, dj = d3 = 10 para j 3
e d2 = 9.
portanto podemos tirar as seguintes conclusoes
O bloco tem o valor 5 na diagonal (5 e o auto valor).
A ordem do bloco e = 10 10 (10 e a multiplicidade algebrica).
O maior bloco de Jordan e 3 3 (3 e o ndice de nilpotencia).
Possui 6 blocos de Jordan (6 e a multiplicidade geometrica).

11

Falta somente as ordens dos blocos e a quantidade de cada um deles. Para isto usamos a
formula (3.5), e obtemos:
n1 = d0 + 2d1 d2 = 0 + 12 9 = 3,
n2 = d1 + 2d2 d3 = 6 + 18 10 = 2,
n3 = d2 + 2d3 d4 = 9 + 20 10 = 1.
Logo, o bloco correspondente ao auto valor 5 e:

1 5

1 5
0

0 5

1 5

0 5

1 5

0
0 5

0 5

0 5

Quando o operador A possui auto valores complexos, = +i a forma de Jordan obtida


pelo processo descrito acima e complexa e os auto valores sao complexos conjugados. Nesse
caso o operador A deve ser considerado sobre C N e a forma de Jordan pode ser utilizada
normalmente com os mesmos objetivos. Agora se isto lhe importunar e voce deseja obter
tambem nessa caso uma matriz real, podemos proceder da seguinte forma:
seu conjugado.
Vamos denotar por o auto valor com parte imaginaria positiva e por
Se
{v1 , , vk } onde vj = xj + iyj
denota a base do auto espaco generalizado correspondente a , temos que
{v1 , , vk }, = conjugado
logo esses 2k vetores sao linearmente independentes sobre o
e a base correspondente a ,
corpo dos n
umeros complexos C, e portanto
{y1 , x1 , yk , xk }
sao 2k vetores linearmente independentes sobre IR. Isto segue das seguintes igualdades:
a1 x1 + b1 y1 + + ak xk + bk yk
b1
ak
bk
a1
= (v1 + v1 ) + (v1 v1 ) + (vk + vk ) (vm vk )
2
2i
2
2i
ak bk
a1 b1
= ( + )v1 + + ( + )vk
2
2i
2
2i
ak bk
a1 b1
+( )v1 + + ( )vk .
2
2i
2
2i
12

Agora como {v1 , , vn } e a base do auto espaco generalizado na qual A esta na forma de
Jordan, temos, para 1 j < k, que
Avj = Axj + iAyj = vj + vj+1
= (xj yj + xj+1 ) + i(xj + yj + yj+1 )
portanto
Ayj = yj + xj + 1yj+1 + 0xj+1
Axj = yj + xj + 0yj+1 + 1xj+1 ,
podemos concluir portanto, que a matriz de A na forma de Jordan real (na base formada
por blocos de vetores do tipo {y1 , x1 , yk , xk }, nessa ordem), e uma matriz formada por
blocos em diagonal da forma (Verifique):

I D
..

..

ou

I D
onde

D=

I=

1 0
0 1

4. Sistemas Lineares 2 2
Podemos utilizar a Forma de Jordan que acabamos de justificar para classificar os sistemas 2 2 de equacoes diferenciais. Como vimos as matrizes 2 2 sao das seguintes
formas:

!
0
0
0

,
,
e
,
0
0
1

portanto resolvendo os sistemas correspondentes as estas matrizes estaremos conhecendo
todas as possveis solucoes. Faremos esta analise de maneira detalhada para que tenhamos
a nocao exata do comportamento dessas solucoes.
No primeiro caso temos e reais e distintos; as equacoes na base de Jordan ficam
desacopladas e sao dadas por
(
x = x
y = y
e portanto x(t) = c1 et e y(t) = c2 et , c1 e c2 sao constantes arbitrarias, sao as solucoes. As
curvas (x(t), y(t)), parametrizadas pelo parametro t, sao denominadas orbitas. Observe
13

que (x(t), y(t)) sao as coordenadas das solucoes na base de Jordan, que neste caso e
formada pelos auto vetores v e v da matriz A correspondentes aos auto valores e .
Portanto as solucoes em relacao `a base canonica sao dadas por
c1 v et + c2 v et .
Esta expressao justifica o metodo do auto valor e auto vetor utilizado para obtencao de
solucoes e estudado nos cursos de calculo.
A representacao grafica das orbitas, usualmente chamada de retrato de fase, e obtida
facilmente, depende dos auto valores e dos auto vetores. Quando os auto valores sao ambos
negativos, temos que as solucoes tendem `a origem quando t +, neste caso dizemos
que a origem e um ponto nodal estavel, e quando sao ambos positivos as solucoes tendem
a zero quando t e a origem e chamada de ponto nodal instavel. Nestes dois casos
o retrato de fases tem a forma

Na figura acima as curvas tangenciam o eixo horizontal, que e o eixo que esta na direcao
do auto vetor v . Para identificarmos esse eixo, isto e, se v corresponde ao maior ou ao
menor auto valor da matriz A, podemos analisar o que ocorre com o coeficiente angular
das tangentes `as orbitas. Supondo que x = x(t) pode ser invertida, de modo que
dy
y(t)

y(t)
=
=c
= c e()t ,
dx
x(t)

x(t)
onde c representa constantes arbitrarias. Quando os auto valores sao ambos negativos,
para dy/dx tender a zero quando t + como esta na figura, e preciso que < 0
ou || < ||, ou seja, o eixo de tangencia das solucoes e o eixo na direcao do auto vetor
correspondente ao menor auto valor (em valor absoluto). Esta conclusao vale tambem
para o caso em que os auto valores sao ambos positivos (verifique).
Desta forma podemos obter o retrato de fases do sistema somente conhecendo seus auto
valores e auto vetores, veja o exemplo a seguir
Exemplo: Considere o sistema 2 2

= 32 x + 12 y

1
x
2

14

23 y

Neste exemplo temos

3/2

1/2

1/2

3/2

A=

que possui auto valores 1 e 2, com auto vetores (1, 1) e (1, 1), respectivamente.
Portanto, o retrato de fase tem a forma abaixo; o eixo de tangencia e o eixo na direcao do
auto vetor associado ao 1, ou seja, o retrato de fases em relacao `a base canonica, tem a
seguinte forma

Quando os auto valores tem sinais distintos e facil ver que as orbitas sao da forma

Dizemos neste caso que a origem e um ponto de sela


No segundo caso tem multiplicidade algebrica e geometrica igual a dois. A Analise do
plano de fases e analogo ao caso anterior, as orbitas sao semi retas.

15

No terceiro caso tem multiplicidade algebrica 2 e geometrica 1. Neste caso as equacoes


sao
(
x = x
y = x + y.
Podemos resolver a primeira equacao x(t) = c1 et e substituir na segunda obtendo
y = y + c1 et .
Esta u
ltima equacao pode ser resolvida pela formula da variacao da constantes (2.4),
obtendo
Z t
t
y(t) = e c2 +
e(ts) es ds = (c1 t + c2 )et .
0

Portanto as solucoes tem a forma


(

x(t) = c1 et
y(t) = (c1 t + c2 )et .

Para determinarmos o formato dessas curvas, suponha que < 0 e que c1 > 0, os outros
casos seguem por simetria. Temos que x(t) > 0, isto e, as solucoes neste caso permanecem
no primeiro e no quarto quadrantes, se aproximam da origem quando t , e quando
t , temos que x(t) e y(t) . Temos ainda que y(t) > 0 para t > c2 /c1
e a curva tangencia o eixo y, pois x/
y = c1 /(c1 t + c2 ) 0, quando t , portanto o
retrato de fases tem a forma

O proximo caso e u
ltimo caso os auto valores sao complexos, = i o sistema se
torna
(
x = x y
y = x + y.
Neste caso e prefervel usar coordenadas polares
x = r cos ,
portanto

y = r sin

x = r cos r sin ,

y = r sin + r cos
16

(4.1)

que pode ser escrito na forma matricial como

x
y

cos r sin
sin r cos

invertendo a matriz obtemos

cos
1
sin
r

sin
1
cos
r

x
y

substituindo x e y pelos valores dados no sistema 4.1 e lembrando que x e y estao em


coordenadas polares, obtemos
(
r = r
=
e da
r(t) = r0 et ,

(t) = t + 0 ,

portanto, se = 0, temos que r e constante, a orbita e um crculo, a origem e chamada de


centro; se 6= 0 a orbita e uma espiral logartmica, a origem e chamada de ponto espiral. A
espiral tende `a origem se < 0 e se afasta da origem caso contrario. O sentido de rotacao
depende do sinal de , quando > 0 o sentido e horario (dextrogira) e quando < 0 o
sentido e anti horario (sinistrogira). As orbitas sao portanto das seguintes formas:

es Diferenciais Lineares
5. Sistemas de Equac
o
Motivados pelo caso escalar comentado na introducao, vamos iniciar este captulo definindo
a exponencial exp(A) = eA de uma matriz quadrada Ann = (aij ). A esperanca e que
com essa definicao possamos estender os resultados de existencia, unicidade e a formula de
variacao das constantes, para os sistemas de equacoes diferenciais. Em particular, mostrar
que x(t) = eAt x0 e a solucao do sistema de n-equacoes diferenciais lineares,
x(t)

= Ax(t)

(5.1)

x(0) = x0 IRn

(5.2)

que satisfaz a condicao inicial

17

Imitando o caso escalar


exp(a) = ea = 1 + a +

a2 a3
+
+
2!
3!

(5.3)

vamos definir a exponencial da matriz A por meio da serie


exp(A) = eA = I + A +

A2 A3
+
+
2!
3!

(5.4)

preciso mostrar que essa serie e convergente no espaco L(IRn ) das matrizes n n (ou
E
dos operadores lineares de IRn em IRn ). Para isto, vamos definir uma norma apropriada.
Se < , > e | | denotam, respectivamente, o produto interno e a norma usuais do IRn ,
isto e,
q

< x, y >= x1 y1 + + xn yn e |x| = < x, x > = x21 + + x2n .


se
x = (x1 , , xn )

e y = (y1 , . . . , yn )

IRn

definimos a norma de um operador linear A : IRn IRn por


kAk = sup
x6=0

|Ax|
x
= sup |A( )| = sup |Ax|.
|x|
|x|
x6=0
|x|=1

(5.5)

Para que essa definicao realmente defina uma norma, vamos primeiramente observar
que esse supremo e finito. Esta propriedade pode ser obtida utilizando-se do seguinte
resultado de Analise: toda funcao contnua definida num conjunto compacto e limitada; neste caso Ax e contnua (sua representacao matricial envolve somente expressooes
contnuas) e esta definida em {x : |x| = 1} que e compacto de IRn , e portanto o supremo
e finito; ou utilizando-se somente de argumentos de algebra linear da seguinte forma: Se
a1 = (a11 , a1n ), , an = (an1 , ann ) sao as linhas da matriz A, de modo que

a1
.

A=
..
an
temos que o produto da matriz A por um vetor x IRn e dado por

< a1 , x >

..

Ax =
.

< an , x >)
portanto, usando a desigualdade de Schwartz (| < x, y > | |x| |y| ), temos que
1

|Ax| = |(< a1 , x >, , < an , x >)| = (< a1 , x >2 + + < an , x >2 ) 2


1

(|a1 |2 + + |an |2 ) 2 |x|.


18

portanto

1
|Ax|
(|a1 |2 + + |an |2 ) 2
|x|

x 6= 0

(5.6)

o que justifica que o supremo e finito. A justificativa das demais propriedades necessarias
para que (5.5) seja uma norma,
(i) kAk 0, e kAk = 0 A = 0
(ii) kAk = ||kAk, IR
(iii) kA + Bk kAk + kBk,
serao deixadas para o leitor.
2

O Espaco vetorial das matrizes n n, L(IRn ), pode ser considerado como o espaco IRn
2
e a norma definida em (5.5) e equivalente a norma usual de IRn (dada pela raiz quadrada
dos quadrados de seus elementos), pois de (5.6) temos que
kAk = sup
x6=0

X
1
|Ax|
( a2ij ) 2 = |(aij )|
|x|

e, por outro lado, denotando por e1 , en a base canonica do IRn , temos que
1

|Aei | = (a21i + + a2ni ) 2


portanto

kAk = sup |Ax| (a21i + + a2ni ) 2 , i.


|x|=1

Somando, para i = 1, ..., n, obtemos


nkAk (

a2ij ) 2 = |(aij )|.,

(5.7)

que
aequivalencia das duas normas. Observe que usamos aqui a desigualdade

mostra
a + b a + b.
As desigualdades (5.6) e (5.7) mostram que a norma k k e equivalente `a norma usual
2
do IRn , isto e, temos que
1
|(aij )| kAk |(aij )|.
n
Temos que L(IRn ) e uma espaco vetorial completo e a vantagem em considerar a norma
k k em vez da norma usual e que nesta norma temos a desigualdade
kAxk kAk|x|,
a constante kAk e a menor constante tal que essa desigualdade e verdadeira.
Utilizando-se dessa desigualdade temos que
kABk kAkkBk
19

(5.8)

e particularmente,
kAn k kAkn ,

(5.9)

que e a desigualdade que iremos utilizar na justificativa da convergencia da serie da exponencial eA


Para que a serie (5.4) defina a matriz eA e preciso que seja convergente. Para isto observe
que usando a desigualdade (5.9) temos para p > 0 que:
k

An
An+p
kAkn
kAkn+p
+ +
k
+ +
n!
(n + p)!
n!
(n + p)!

e essa u
ltima espressao e formada por termos da serie da funcao exponencial (5.3) que
converge para todo real, em particular para a = kAk, portanto a serie exp(A) e uma serie
de Cauchy L(IRn ) e portanto convergente. Ainda mais, de modo analogo `as funcoes reais,
podemos justificar que a candidata `a solucao do sistema de equacoes lineares:
exp(At)x0 = eAt x0 = eAt x0 = x0 + Atx0 +

A2 t2
A3 t3
x0 +
x0 + ...
2!
3!

pode ser derivada em t, com derivada satisfazendo:


d tA
e x0 = AetA x0
dt
isto e, x(t) = eAt x0 , esta bem definida, satisfaz a equacao (5.1) e a condicao inicial (5.2),
temos entao, de modo analogo ao problema escalar, existencia, unicidade de solucao. Vale
tambem a formula de variacao das constantes, isto e, a solucao do sistema nao homogeneo
(

x = Ax + h(t)
x(0) = x0 ,

e dada por
At

x(t) = e x(0) +

Z t
0

eA(ts) h(s)ds.

(5.10)

(5.11)

A definicao da exponencial da matriz A resolveu o P.V.I. (5.1) - (5.2), porem a dificuldade


computacional permanece, pois dada uma matriz A para calcularmos eA atraves de (5.4)
precisamos conhecer todas as potencias de A, o que e impossvel de modo geral. Em casos
particulares, como por exemplo, quando A e uma matriz diagonal, nao e difcil verificar
que a exponencial de A tambem e diagonal, com diagonal formada pela exponencial dos
elementos da diagonal de A (verifique como exerccio), ou quando A e nilpotente, isto
e, existe r > 0 tal que Ar = 0, temos nesse caso que a serie (5.4) se torna uma soma
finita, e portanto podemos perfeitamente (se estivermos dispostos) calcularmos todos os
termos dessa soma. Desse modo podemos utilizar a Forma de Jordan para o calculo desta
exponencial
Temos que x(t) = eAt x0 e a solucao do problema de condicao inicial (5.1), (5.2). Para
calcularmos a expressao de eA , vamos primeiramente verificar algumas propriedade dessa
20

exponencial:
1. Se M e uma matriz inversvel entao
eM

1 AM

= M 1 eA M

isto decorre do fato que


(M 1 AM )j = M 1 Aj M.
2. e(A+B)t = eAt eBt t A comuta com B
Demonstrac
ao: () Se e(A+B)t = eAt eBt temos derivando ambos os lados que :
(A + B)e(A+B)t = AeAt eBt + eAt BeBt
derivando novamente e fazendo t = 0, obtemos
(A + B)2 = A2 + 2AB + B 2
que implica que AB = BA.
() Se A comuta com B e facil ver que X(t) = eAt eBt satisfaz a equacao diferencial

X(t)
= (A + B)X(t) com condicao inicial X(0) = I, entao pela unicidade de solucao
devemos ter X(t) = e(A+B)t , e a propriedade esta justificada.
Se M e a matriz de mudanca de base tal que M 1 AM esta na forma de Jordan
M 1 AM = diag[A1 , , A` ],

A i = i + Ri

onde Ri e do tipo figura 1, entao, como


M 1 eAt M = eM
temos que
eAt = M eM
Vamos portanto calcular a matriz eM
do tipo:

e(I+R)t ,

R=

1 AM t

1 AM t

1 AM t

M 1 .

. Temos que eM

1 AM t

0 0 0
1 0 0
0 1 0
..
...
.

0 0
0 0

0 0

..
...
.

0 0

1 0

e diagonal de blocos

kk

Como I comuta com R temos que


Rt
t Rt
eI+R)t = e(I)t
!
e = e e
R2 2
Rk1 k1
t
I + Rt +
t + +
t
= e
2!
(k 1)!

21

= et

1
t
..
.

1
t
..
.

tk1
(k1)!

tk2
(k2)!

t2
2!

1
..

..

t 1

kk

Observe que et esta multiplicando a matriz, portanto podemos concluir que:


1. Os auto valores da exponencial eAt sao todos do tipo et , com auto valor de A.
2. Os elementos de eAt sao combinacoes lineares de termos do tipo tj et , com j limitado
pelos ndices de nilpotencia, no caso acima j k, logo sao do tipo p(t)et , onde p(t) e um
polinomio em t.

6. Execcios
1. Encontre a Forma de Jordan das seguinte matrizes:

1 2
2 1

1 1
1 1

5 0 6

2 1 2 .
4 2 4

2. (a) Determine a exponencial das matrizes acima


(b) Faca o esboco do plano de fases dos sistemas dados por essas matrizes
3. Determine a solucao do Problema de Valor Inicial

x =

1 2
2 1

x+

cos t
sin t

x(0) =

3
2

4. Duas matrizes A, e B sao chamadas de similares de existe uma matriz inversvel M


tal que
A = M 1 BM
Mostre que:
(a) Duas matrizes sao similares se, e somente se, possuem forma de Jordan iguais
(b) Toda matriz e similar a sua transposta.
(c) Toda matriz real com determinante negativo e diagonalizavel (similar a uma
matriz diagonal)

22

5. Sejam h1 (t) e h2 (t) funcoes contnuas e periodicas de perodo 2. De uma condicao,


necessaria e suficiente, para que todas as solucoes do sistema
x = y + h1 (t)
y = x + h2 (t)
sejam periodicas de perodo 2.
Sugetao. Justifique
e use o seguinte resultado: se h e contnua e periodica
de perodo
Rt
R 2
2, entao H(t) = 0 h(s) ds e periodica de perodo 2 se, e somente se, 0 h(s)ds = 0
6. Seja A uma matriz n n e x(t), y(t) IRn , mostre que:
(a)
d
hx(t), y(t)i = hx(t),

y(t)i + hx(t), y(t)i

dt
(b)
hAx(t), y(t)i = hx(t), At y(t)i
onde h , i denota o produto interno usual do IRn , e at denota a matriz transposta
de A
7. Se A e uma matriz anti simetrica (isto e At = A), entao mostre que as solucoes do
sistema diferencial linear x = Ax, permanece em superfcies esfericas centradas na
origem.
Sugestao. Calcule a derivada de |x(t)|2 = hx(t), x(t)i.

Bibliografia
[1] Figueiredo, D. G.; Neves, A. F.; Equac
oes Diferenciais Aplicadas, 2 a edicao, Colecao
Matematica Universtaria, IMPA, 2001.
[2] Halmos, P. R.; Finite-Dimensional Vector Spaces, Van Nostrand Reinhold, 1958
[3] Hirsch, M. W.; Smale, S.; Differential Equations, Dynamical Systems, and Linear
Algebra, Academic Press, Inc, 1974

23

You might also like