You are on page 1of 51

ANÁLISE COMPLEXA E EQUAÇÕES DIFERENCIAIS,

aulas teóricas
PARTE II: EQUAÇÕES DIFERENCIAIS (Equações
diferenciais ordinárias)

Luı́s Sanchez
Faculdade de Ciências da Universidade de Lisboa, 2011

1 Introdução, revisão
Nesta secção recordamos exemplos simples de resolução de equações diferenciais e introduziremos
algumas ideias que terão desenvolvimento ao longo do curso.

Sempre que falamos de uma “solução”de alguma equação diferencial subentendemos que se
trata de uma função definida num intervalo de R que satisfaz a referida equação.

Exemplo 1.1 O problema de valor inicial


(1.1) y 0 = y 2 , y(0) = y0
tem a (única) solução
y0
y=
1 − xy0
como facilmente se vê usando “separação de variáveis”. Note-se que, se y0 6= 0, o domı́nio da
solução é um intervalo com um extremo finito (qual?).

Exemplo 1.2 O problema


p
(1.2) y 0 = |y|, y(0) = 0
tem as soluções positivas
(x + c)2
y=
4
em (−c, +∞) e as soluções negativas
(x + c)2
y=−
4
em (−∞, c), onde c é um número real qualquer. Assim, por exemplo, também é solução a seguinte
função
 2
x
4 x≥0

y(x) = 0, x ∈ [−5, 0]
 (x+5)2

− 4 x ≤ −5

1
Exemplo 1.3 O problema de valor inicial para uma equação geral de variáveis separáveis (onde
f e g são contı́nuas em intervalos dados)

(1.3) y 0 = f (x)g(y), y(ξ) = η

tem soluções y(x) definidas implicitamente por

H(y) = F (x)

onde H e F são as primitivas de 1/g e f , respectivamente, que se anulam em η e ξ. Se g(η) = 0,


há uma solução constante y ≡ η; e se g 6= 0 (digamos, g > 0 para fixar ideias) num intervalo do
tipo [η − δ, η), então o problema

(1.4) y 0 = f (x)g(y), ¯ =η−δ


y(ξ)

tem a solução definida implicitamente por


y(x) x
dy
Z Z
= f (t) dt
η−δ g(y) ξ̄
Rη dy
e esta solução não tomará o valor η desde que η−δ g(y)
= ∞.

Exemplo 1.4 Podemos resolver a equação y 0 = y(1 − y) explicitamente, mas podemos antever o
comportamento das soluções. Mais geralmente, podemos fazê-lo para a equação y 0 = f (y) onde f
é uma função real contı́nua com dois zeros dados a < b.

Exemplo 1.5 A equação y 0 = f (x, y) diz-se homogénea se o 2o membro pode ser expresso como
função unicamente de xy . A substituição y = vx conduz então a outra equação diferencial para a
função incógnita v = v(x) que tem variáveis separáveis.

Exemplo 1.6 A equação de Bernoulli y 0 = a(x) + b(x)y n com n 6= 0, 1 é transformável numa


equação linear com a substituição v = y 1−n . A nova função incógnita é v = v(x).

Exemplo 1.7 Uma equação diferencial de 1a ordem escrita simbolicamente na forma

g(x, y)dx + h(x, y)dy = 0 (ex)

(onde g e h são contı́nuas num domı́nio dado do plano) diz-se exacta se há uma função F de
classe C 1 tal que ∂F ∂F
∂x = g e ∂y = h. As soluções (y(x)) são então definidas implicitamente por
F (x, y) = 0. Uma equação escrita na forma (ex), não sendo exacta, por vezes pode transformar-se
noutra equivalente, exacta, multiplicando g e h por uma certa função não nula (”factor integrante”).

Exemplo 1.8 O sistema de 1a ordem


(
x0 = h(x, y)
(1.5)
y 0 = −g(x, y)

∂F ∂F
diz-se um sistema Hamiltoniano se há uma função F de classe C 1 tal que ∂x =g e ∂y = h. As
suas soluções (x(t), y(t)) verificam a ”lei de conservação”F (x, y) = const.

2
Exemplo 1.9 Um caso particular importante é o da equação autónoma de 2a ordem (que serve
de modelo a muitos problemas de dinâmica com um grau de liberdade)

u00 + v(u) = 0 (a)

onde V é de classe C 1 num intervalo dado. A equação reduz-se ao sistema equivalente


(
u0 = y
(1.6)
y 0 = −v(u)
2
e portanto, com F (u, y) = V (u) + y2 , onde V é uma primitiva de v, tem-se F (u(t), u0 (t)) = const
para qualquer solução u(t). também se chega rapidamente a esta conclusão multiplicando a equação
por u0 (t) e primitivando. À função F chamamos ”energia”e dizemos que o fenómeno a que (a)
serve de modelo tem ”conservação de energia”.

Exemplo 1.10 A determinação das soluções monótonas de y 00 = f (y, y 0 ) pode fazer-se através da
resolução de uma equação diferencial de 1a ordem, em que a incógnita é a nova função ϕ tal que
y 0 = ϕ(y), o que nos conduz a
dϕ f (y, ϕ)
= .
dy ϕ

3
2 Modelos matemáticos onde intervêm equações diferen-
ciais ordinárias de tipo simples
A. Velocidade de escape

Um projéctil de massa m é lançado da Terra verticalmente com velocidade inicial v0 ; a sua


velocidade v(t) é função do tempo e, de acordo com a lei de Newton, satisfaz a equação diferencial

dv gR2
=− 2
dt r
onde r (função do tempo) é a distância do projéctil ao centro da Terra e R o raio da Terra, e
g = GM/R2 , sendo G a constante de gravitação e M a massa da Terra. Como v = dr dt obtemos a
equação diferencial para v como função de r

dv gR2
v =− 2 .
dr r
Portanto,
2gR2
v2 = + v02 − 2gR. (a)
r
A condição para que v se mantenha sempre positiva é

v02 − 2gR ≥ 0.

Como g = 9.81m/seg 2 R = 6370km, tem-se v0 ≥ 11.18km/seg.

A equação (a) é válida para outro corpo esférico qualquer. Como, de acordo com a teoria da
relatividade, qualquer velocidade não pode exceder a velocidade c da luz, deduzimos a estimativa
para que um planeta de massa M admita velocidade de escape:
2GM
R>
c2
Este minorante do raio chama-se número de Schwarzschild (nome do fı́sico alemão que primeiro
estudou as propriedades dos buracos negros).

B. Fluxo de misturas

Um reservatório de grandes dimensões contém inicialmente 1000 L de água. No instante t = 0


começa a receber uma solução de sal com a concentração de 1 kg/L e ao ritmo constante de 6
L/min. A solução está constantemente a ser homogeneizada e sai do reservatório à razão de 5
L/min.
Pretende-se determinar a concentração de sal no reservatório em função do tempo.

Seja x(t) a massa de sal no reservatório em cada instante t ≥ 0. A razão à qual o sal sai do
reservatório, atendendo a que o volume total de fluido no reservtório ao fim de t minutos é, em
Litros, 1000 + (6 − 5)t = 1000 + t, é, em kg/min:

5 x(t)
.
1000 + t

4
Assim, x(t) satisfará o problema de valor inicial

dx 5 x(t)
=6− , x(0) = 0.
dt 1000 + t

C. Modelos populacionais simples

Consideremos uma população (de bactérias, por exemplo), que se reproduzem por divisão
celular, de modo que a taxa de crescimento é proporcional ao número de indivı́duos presentes em
cada instante; para simplificar supomos que há condições ambientais, no perı́odo em causa, para
garantir que a taxa de mortalidade é zero. O modelo para a evolução de uma tal população p(t) é

dp
= kp, p(0) = p0
dt
(modelo Malthusiano) onde k é uma constante positiva. Se houver a considerar taxa de mortalidade
devida apenas a causas naturais, a equação é formalmente a mesma, onde k = k1 − k2 corresponde
à diferença das duas taxas.

Um outro modelo considera outras causas de mortalidade devidas a falta de recursos ou com-
petição. Como numa população de dimensão p há p(p − 1)/2 interacções, assume-se então que a
taxa de mortalidade é proporcional a este número, o que conduz à equação do modelo logı́stico
dp
= ap − bp2 , p(0) = p0 .
dt

D. Evolução da temperatura em ambiente restrito, em função da temperatura exterior

De acordo com a lei de Newton do arrefecimento a temperatura num edifı́cio tem uma taxa
de variação proporcional à diferença entre as temperaturas exterior e a que se regista no próprio
edifı́cio, devendo contar-se ainda com efeitos adicionais devidos a actividades no interior e ao efeito
de aquecimento ou arrefecimento artificiais. Assim, se T (t) é a temperatura no edifı́cio, E(t) a
temperatura exterior, e H(t) a taxa resultante de haver a considerar efeitos adicionais, a equação
que traduz a evolução da temperatura é
dT
= k(E(t) − T (t)) + H(t).
dt
Notemos que H pode tomar valores positivos ou negativos.

E. Dinâmica de uma partı́cula

A segunda lei de Newton estabelece que a posição x(t) de uma partı́cula em movimento satisfaz
a equação diferencial de segunda ordem

mx00 = F (t, x, x0 )

onde m é a massa da partı́cula e F a força que lhe está aplicada.


Consideremos uma partı́cula de massa m que se desloca numa dada direcção por acção de
uma força exterior F (t) variável com o tempo e que está sujeita a uma mola elástica (Figura 1).
Pelo menos para deslocações de amplitude não muito grande, verifica-se experimentalmente que a

5
força devida à energia da mola é proporcional à deslocação x(t) da partı́cula. Assim, para muitos
sistemas deste tipo não é disparatado utilizar o modelo que corresponde à equação diferencial

mx00 = −kx + F (t).

Aqui k > 0, porque a reacção da mola é contrária ao sentido da deslocação. Pode haver necessidade
de juntar outro termo se, por exemplo, houver amortecimento causado por atrito ou imersão do
sistema num lı́quido viscoso. Nessa altura, é comum admitir que a força correspondente actua de
modo proporcional à velocidade; a equação que modeliza o fenómeno seria então

mx00 + cx0 + kx = F (t)

com k > 0 e c > 0.

F. Pêndulo simples.

Outro modelo particularmente importante é o do pêndulo simples, que é uma massa pontual m
suspensa de um ponto fixado O por um cabo rı́gido com massa desprezável e comprimento l (Fig.
2). Representaremos por ~e um vector unitário com a direcção da força gravı́tica que actua a massa
pontual, por ~r = ~r(t) o vector de posição da massa, com origem em O, e por θ = θ(t) o ângulo,
variável com o tempo, do cabo com a semi-recta definida por ~e.

O movimento é regido pela segunda lei de Newton, que escrevemos em forma vectorial,
2
d ~r
F~ = m 2 (∗)
dt
onde
F~ = mg~e − T ~r (∗∗)
e T é uma outra incógnita do problema, que representa a tensão do cabo (dividida pelo factor l),
também variável com o tempo, que mantém a massa sempre à distância l do ponto O.

Comecemos por mostrar que, se a velocidade inicial ~r0 (0) é complanar com ~e e ~r(0), então
o movimento é plano. Para isso fixemos um vector unitário f~ ortogonal a ~e e ~r(0). A função
h(t) = ~r(t) · f~ satisfaz, em virtude de (*) e (**):

T
h00 (t) = ~r00 (t) · f~ = g~e · f~ − ~r · f~
m
isto é:
T
h00 (t) = − h(t) (A)
m
e, pelas nossas hipóteses,
h(0) = 0, h0 (0) = 0.
Como a equação (A) é linear, a sua única solução com estas condições iniciais é h ≡ 0. Portanto
r(t) mantém-se sempre no plano perpendicular a f~ que passa por O.

Agora que sabemos que o movimento é plano, introduzamos nesse plano um referencial orto-
normado com primeiro eixo ~e e escrevamos a decomposição do vector ~r nesse referencial:

~r = l(cos θ, sin θ).

6
Derivando duas vezes em ordem ao tempo t obtemos
~r0 = l(− sin θ, cos θ)θ0 ,
~r00 = −θ02~r + lθ00 (− sin θ, cos θ).
Voltando à equação (*) vemos que se pode agora escrever:
T
−θ02~r + lθ00 (− sin θ, cos θ) = g~e − ~r.
m
Como ~e = cos θ(cos θ, sin θ) − sin θ(− sin θ, cos θ), resulta:
T
−lθ02 (cos θ, sin θ) + lθ 00 (− sin θ, cos θ) = (g cos θ − l)(cos θ, sin θ) − g sin θ(− sin θ, cos θ).
m
Igualando as segundas componentes obtemos
g
θ00 + sin θ = 0
l
que é a equação diferencial de segunda ordem que descreve o movimento. (Se determinarmos θ(t)
e igualarmos as primeiras componentes acabamos por determinar a tensão T .)

G. O modelo predador-presa de Lotka-Volterra.

Consideremos duas espécies, com populações: x(t) (presa) e y(t) (predador). Assumimos que,
havendo recursos de alimentação disponı́veis e ausência de predadores, a espécie presa evolui com
crescimento exponencial (taxa de crescimento, que é a diferença entre a taxa de natalidade e a taxa
de mortalidade, positiva), mas esta taxa é afectada pela presença de predadores podendo tornar-se
negativa. A espécie predador, ao contrário, por depender da outra como recurso alimentar, tem
taxa de crescimento negativa na ausência de presas, mas esta taxa aumenta na presença delas.
Assim, um modelo para a evolução de x e y com o tempo é dado pelo sistema de primeira ordem
(
x0 = x(a − by)
(2.1)
y 0 = y(−c + dx)
onde a, b, c, d são constantes positivas. Claro que apenas nos interessam soluções com valores não
negativos e é interessante observar (aplicando um argumento simples de unicidade) que qualquer
solução (x(t), y(t)) com um valor inicial (x(t0 ), y(t0 )) no 1o quadrante mantém-se no 1o quadrante
∀t ≥ t0 .
Apesar de (7.1) não ser um sistema Hamiltoniano, tem uma lei de conservação que permite
determinar as trajectórias das soluções no plano (x, y). Efectivamente, as soluções de (7.1) são
obviamente soluções de
y(c − dx)x0 + x(a − by)y 0 = 0
1
e esta equação tem, como imediatamente se reconhece, o factor integrante xy . Logo, com

F (x, y) = c ln x + a ln y − dx − by
resulta, para qualquer solução (x(t), y(t)) de (7.1) existe k ∈ R:
F (x(t), y(t)) = k.
Daqui concluimos imediatamente que as soluções são limitadas (e têm domı́nio R, por razões que
explicitaremos mais tarde). Há uma solução positiva constante, x0 ≡ dc , y0 ≡ ab . As trajectórias
correspondentes às soluções não constantes são curvas de Jordan que têm este ponto no seu interior.
Trata-se, portanto, de soluções periódicas, como também justificaremos.

7
3 Problemas de valor inicial: existência e unicidade
Lemma 3.1 Se h é uma função diferenciável em [a, b] e existe uma constante K ≥ 0 tal que

h0 (t) ≤ Kh(t) ∀t ∈ [a, b]

então
h(t) ≤ h(a)eK(t−a) ∀t ∈ [a, b].
d
Demonstração. Multiplicar por e−Kt . Obtém-se dt (e
−Kt
h(t)) ≤ 0 e portanto e−Kt h(t) ≤
−Ka
e h(a) ∀t ∈ [a, b].

Corolário 3.1 (Desigualdade de Gronwall) Seja g uma função contı́nua e não negativa em
[a, b] tal que existem c, d ≥ 0 verificando
Z t
g(t) ≤ c + d g(s) ds ∀t ∈ [a, b].
a

Então
g(t) ≤ ced(t−a) ∀t ∈ [a, b].
Rt
Demonstração. Aplicar o lema com h(t) = c + d a g(s) ds.

Começamos por considerar o problema de valor inicial

y 0 = f (x, y), y(x0 ) = y0 (P V I)

Suponhamos que f é contı́nua numa faixa I × R, tem valores em R, x0 ∈ I, y0 ∈ R, e ainda: existe


L ≥ 0 tal que
f (x, y) − f (x, ȳ) ≤ L(y − ȳ), ∀x ∈ I, ∀y ≥ ȳ (1)
(condição de Lipschitz unilateral).

Proposição 3.1 Sejam y(x) e z(x) duas soluções de y 0 = f (x, y) em I e suponha-se que f satisfaz
a condição de Lipschitz unilateral (1). Então

|y(x) − z(x)| ≤ eL(x−x0 ) |y(x0 ) − z(x0 )|, ∀x ≥ x0 .

Demonstração. Considerar a função h(x) = (y(x) − z(x))2 e aplicar o Lema: obtém-se


0
h (x) = 2(y(x) − z(x))(f (x, y(x)) − f (x, z(x)) ≤ 2Lh(x) (há que considerar separadamente os casos
y(x) > z(x) e y(x) ≤ z(x)).

Proposição 3.2 Sejam y(x) e z(x) duas soluções de y 0 = f (x, y) em I mas suponha-se agora que
f é y-Lipschitziana, isto é:

|f (x, y) − f (x, ȳ)| ≤ L|y − ȳ|, ∀x ∈ I, ∀y, ȳ ∈ R. (2)

Então
|y(x) − z(x)| ≤ eL|x−x0 | |y(x0 ) − z(x0 )|, ∀x ∈ I.

8
Demonstração. Como (2) implica (1), a desigualdade a demonstrar, para x ≥ x0 , resulta da
proposição anterior. Por outro lado, a cada solução y(x) de y 0 = f (x, y) corresponde a solução
y1 (x) := y(−x) de y10 = −f (−x, y1 ) que está definida no intervalo −I formado pelos simétricos dos
elementos de I. Como (2) também implica (1) para a função −f (−x, y), conclui-se a desigualdade
para x < x0 .

Observação. Se a condição (2) é válida apenas num rectângulo finito, produto de dois inter-
valos, I × J, (i.e. substituindo R por J) a conclusão da Proposição 3.2 é válida para soluções com
valores em J.

Observemos que a proposição anterior pode ser reenunciada do modo seguinte, evidenciando que
as soluções dependem continuamente dos dados iniciais. Mais precisamente, a norma da solução
em cada intervalo compacto depende de modo Lipschitziano do dado inicial:

Proposição 3.3 Sejam y(x) e z(x) duas soluções de y 0 = f (x, y) em I com f y-Lipschitziana,
isto é: verificando (2). Então para cada intervalo compacto K ⊂ I existe uma constante M > 0
tal que
sup |y(x) − z(x)| ≤ M |y(x0 ) − z(x0 )|.
x∈K

Proposição 3.4 Sob a condição (1), o problema (PVI) tem no máximo uma solução em cada
intervalo da forma [x0 , x0 + δ] ∩ I.

Proposição 3.5 Sob a condição (2), o problema (PVI) tem no máximo uma solução em cada
intervalo da forma [x0 − δ, x0 + δ] ∩ I.

Construção local de uma solução: equação escalar numa faixa. A solução de (PVI),
pelo menos num intervalo [a, b], com a ≤ x0 ≤ b, no caso em que se verifica a condição de Lipschitz
(2), pode ser determinada por aproximações sucessivas. Recordemos que y(x) é solução de (PVI)
se e só se é solução da equação integral
Z x
y(x) = y0 + f (s, y(s)) ds.
x0

Surge assim naturalmente a ideia de definir um operador T no espaço C[a, b] das funções contı́nuas
em [a, b] pela expressão Z x
T y(x) = y0 + f (s, y(s)) ds (t)
x0

e procurar um seu ponto fixo (isto é, uma função y ∈ C[a, b] tal que y = T y). Um tal ponto pode
ser determinado como limite do método iterativo

yn+1 = T yn

onde a escolha do termo inicial é arbitrária. O problema consiste em mostrar que esta sucessão
definida por recorrência tem efectivamente limite em C[a, b]. O operador T aplica, obviamente,

9
o espaço de Banach C[a, b] em si próprio e, definindo a norma (equivalente à norma usual do
supremo)
0
kyk = sup e−L |x−x0 | |y(x)| (n)
x∈[a,b]
0
(onde fixámos L > L) resulta que T é uma contracção de C[a, b].
Demonstremos esta afirmação: Dadas duas funções y, z ∈ C[a, b] tem-se
Z x
T y (x) − T z (x) = [f (s, y(s)) − f (s, z(s))] ds
x0

0
e, como |y(s) − z(s)| ≤ eL |s−x0 | ky − zk, obtemos
Z x Z x
0
|T y (x) − T z (x)| = | [f (s, y(s)) − f (s, z(s))] ds| ≤ L| eL |s−x0 | ky − zk ds| =
x0 x0
L0 |x−x0 |
e −1
= Lky − zk
L0
e por isso
0 L
kT y − T zk = sup e−L |x−x0 | |T y (x) − T z (x)| ≤ ky − zk.
x∈[a,b] L0
T é, pois, uma contracção com constante L/L0 < 1.
O teorema das contracções garante então a existência de um (único) ponto fixo que é limite do
referido método iterativo.

Observação. Seja f uma função das variáveis (x, y) definida num aberto D ⊂ R2 e (x0 , y0 ) ∈
D. Consideremos um rectângulo I × J ⊂ D que é vizinhança compacta de (x0 , y0 ). Precisamente,
ponhamos J = [y0 − β, y0 + β]. A restrição f |I×J pode ser estendida à faixa infinita I × R de
muitas maneiras. Uma extensão que nos é útil é a seguinte: defina-se f˜ : I × R → R pondo

f (x, y0 + β), if y > y0 + β

˜
f (x, y) = f (x, y), if y ∈ J

f (x, y0 − β), if y < y0 − β.

É então um exercı́cio de rotina verificar que: se f é contı́nua (respectivamente y-Lipschitziana com


constante L) em I × J, então f˜ tem essas mesmas propriedades em I × R.

Note-se que a definição de f˜ pode ser expressa do seguinte modo:

f˜(x, y) = f (x, ȳ), onde ȳ é o ponto de J mais próximo de y (f )

Construção local de uma solução: equação escalar num aberto. Quando f está definida
e é contı́nua num aberto D ⊂ R2 e é apenas localmente Lipschitziana, isto é, para cada rectângulo
compacto I × J ⊂ D existe L > 0 verificando a estimativa (2) ∀x ∈ I, y, ȳ ∈ J, o método iterativo
ainda produz uma solução de (PVI) mas apenas numa vizinhança de x0 convenientemente pequena.
Vamos explicar esta afirmação:
Escolha-se a vizinhança compacta I ×J de (x0 , y0 ), (digamos que J = [y0 −β, y0 +β]), estenda-se
f |I×J ao domı́nio I × R de acordo com a observação precedente, de modo que obtemos uma função

10
f˜ com a mesma constante de Lipschitz L, e limitada (porquê?). O método iterativo funciona para
o novo PVI com f˜,
y 0 = f˜(x, y), y(x0 ) = y0 ]
(P V I)
e produz uma solução ỹ(x) de (P V ˜ I) em I. Com M := sup |f˜|, e definindo α > 0 de modo que
α < β/M , imediatamente se comprova queR tal solução, restringida a [x0 − α, x0 + α] é solução da
x
equação original, visto que |ỹ(x) − y0 | ≤ | x0 f˜(s, ỹ(s)) ds| < M β/M se |x − x0 | ≤ α.

Construção local de uma solução: equação vectorial. Agora olharemos para a equação
que surge em (PVI) como sendo vectorial (sistema de primeira ordem), isto é, y ∈ Rn e f supõe-se
definida e contı́nua num domı́nio D ⊂ Rn+1 e com valores em Rn . O problema de valor inicial
envolve então n equações escalares onde figuram as componentes da função vectorial f :

y 0 = f1 (x, y1 , · · · , yn )
 1


..
. y(x0 ) = y0 . (P V I)

y 0 = f (x, y , · · · , y ),

n n 1 n

Aqui, (x0 , y0 ) ∈ D, de modo que x0 ∈ R e y0 ∈ Rn .

Os procedimentos anteriores mantêm-se nesta situação vectorial.

Caso 1: o domı́nio de f é uma faixa I × Rn onde I é intervalo real. Assumiremos que f é


y-Lipschitziana (a definição é a que está em (2), lendo normas em vez de módulos). Definimos
então o operador (t) e aplicamos o teorema da contracção no espaço das funções contı́nuas com
valores vectoriais: C([a, b], Rn ), (a ≤ x0 ≤ b) onde a norma é ainda definida por (n): apenas temos
de ler no sı́mbolo |y(x)| a (ou uma) norma usual de Rn . De acordo com a demonstração feita
anteriormente, que permanece válida com esta nova leitura dos sı́mbolos, concluimos:

Teorema 3.1 Se f : [a, b]×Rn → Rn é contı́nua e y-Lipschitziana e se (x0 , y0 ) ∈ [a, b]×Rn , (PVI)
tem uma única solução definida em [a, b]. Essa solução é o limite da sucessão, uniformemente
convergente em [a,b], de iteradas
Z x
yn+1 (x) = y0 + f (s, yn (s)) ds
x0

onde o ponto de partida y1 (x) é uma função arbitrária de C([a, b], Rn ) (que pode ser tomada como
a constante y0 ).

Caso 2: o domı́nio de f é um aberto D de Rn+1 e f é localmente y-Lipschitziana.1


Neste caso, a vizinhança compacta I × J de (x0 , y0 ), é substituı́da por I × B̄(y0 , β), sendo
B̄(y0 , β) a bola fechada de Rn centrada em y0 e de raio β.
Usamos depois a extensão f˜ de f a I × Rn definida por (f ). (Podemos dizer que, para cada
y 6∈ B̄(y0 , β), ȳ é o ponto do segmento de recta [y0 , y] tal que |ȳ − y0 | = β.)
Sem quaisquer alterações essenciais (basta ler normas onde antes figuravam módulos) o resul-
tado de existência e unicidade local mantém-se válido:
1 Em virtude do teorema do valor médio, uma função com derivadas parciais contı́nuas em ordem às variáveis y

é localmente y-Lipschitziana.

11
Teorema 3.2 (existência e unicidade local) Se f : D → Rn é contı́nua e localmente y-Lipschitziana
em D ⊂ Rn+1 , e se (x0 , y0 ) ∈ D, existe um número α > 0 tal que (PVI) tem uma única solução
definida em [x0 − α, x0 + α].

Demonstração: O argumento anterior, a respeito de (P ]V I), mostrou que existe uma solução y
de (PVI) num intervalo [x0 − α, x0 + α] com α suficientemente pequeno, de tal modo que o gráfico
de y está contido na vizinhança V = I × B(y0 , β) ⊂ D de (x0 , y0 ). (A escolha de α permite dizer
que se trata aqui da bola aberta!)
Para reconhecermos a unicidade, tomemos outra eventual solução z de (PVI) em [x0 −α, x0 +α].
Afirmamos que existe ε > 0 tal que z ≡ y em [x0 − ε, x0 + ε]. De facto, pela continuidade de z,
e por ser z(x0 ) = y0 , podemos escolher ε > 0 tal que z(x) ∈ B(y0 , β) ∀x ∈ [x0 − ε, x0 + ε]. Então
y e z são soluções de um PVI na faixa infinita [x0 − ε, x0 + ε] × Rn (porque podemos estender f |V
a esta faixa, como indicado atrás). Pelo teorema 3.2, a afirmação fica provada.
Para terminar a demonstração, suponhamos que z não coincide com y em [x0 − α, x0 + α].
Então, pela afirmação precedente, existe (por exemplo) x0 < x1 < x0 + α tal que y ≡ z em [x0 , x1 ]
mas para todo o δ > 0 as funções y e z não são iguais em [x1 , x1 + δ]. Argumentando com o ponto
(x1 , y(x1 )) tal como com (x0 , y0 ) podemos escolher δ tal que z(x) ∈ B(y0 , β) ∀x ∈ [x1 − δ, x1 + δ].
Então, invocando novamente o teorema 3.2 aplicado às condições iniciais (x1 , y(x1 )) e à faixa
[x1 − δ, x1 + δ] × Rn , obtemos um absurdo.

Facilmente se conclui então:

Teorema 3.3 (unicidade global) Com as mesmas hipóteses do teorema anterior, sejam y1 (x) e
y2 (x) duas soluções de (PVI), definidas respectivamente nos intervalos abertos I1 e I2 . Então
y1 (x) = y2 (x) ∀x ∈ I1 ∩ I2 .

Demonstração. Seja w = sup{t| y1 (x) = y2 (x) ∀x ∈ [x0 , t]}. Pelo teorema anterior, w > x0 .
Se w < sup I1 ∩ I2 , temos y1 (w) = y2 (w) e, pelo mesmo teorema, existe ε > 0 tal que y1 (x) =
y2 (x) ∀x ∈ [w, w + ε], o que contradiz a definição de w. Assim, as duas soluções coincidem em
[x0 , sup I1 ∩ I2 ). Analogamente se demonstra que coincidem em (inf I1 ∩ I2 , x0 ].

Este teorema significa que as possı́veis soluções de (PVI) concordam na parte comum dos
respectivos domı́nios e podem por isso ser utilizadas para definir uma solução cujo domı́nio é um
intervalo que não pode ser ampliado como domı́nio de uma solução de (PVI). Essa solução, definida
num “intervalo máximo”, diz-se não prolongável. Este conceito será estudado com algum detalhe
mais adiante.

Uma equação diferencial de ordem n na forma normal

u(n) = f (x, u, u0 , · · · , u(n−1) ) (3)

onde f é uma função real contı́nua num aberto D ⊂ Rn+1 , é equivalente ao sistema


 y10 = y2
 0

 y 2 = y3
. (4)
..



 0
yn = f (x, y1 , · · · , yn ),

12
no sentido em que u é uma solução (de classe C n ) de (3) se, e só se, o vector (u, u0 , · · · , u(n−1) ) é
solução de (4). Assim, naturalmente, o problema de valor inicial para (3) consiste em: dado um
ponto (x0 , u0 , u1 , · · · , un−1 ) ∈ D, determinar uma solução tal que

u(x0 ) = u0 , u0 (x0 ) = u1 , · · · , u(n−1) (x0 ) = un−1 (5)

e em consequência dos teoremas anteriores podemos afirmar:

Teorema 3.4 (existência e unicidade local) Se f : D → R é contı́nua e localmente y-Lipschitziana


em D ⊂ Rn+1 , e se (x0 , u0 , u1 , · · · , un−1 ) ∈ D, existe um número α > 0 tal que (3)-(5) tem uma
única solução definida em [x0 − α, x0 + α].

Teorema 3.5 (unicidade global) Com as mesmas hipóteses do teorema anterior, sejam u(x) e
v(x) duas soluções de (3)-(5), definidas respectivamente nos intervalos abertos I1 e I2 . Então
u1 (x) = u2 (x) ∀x ∈ I1 ∩ I2 .

Podemos por isso falar também de soluções não prolongáveis do problema (3)-(5).

Exemplos de argumentos que envolvem a unicidade. 1) Considere-se um problema de


valor inicial para um sistema autónomo, isto é, em que f não depende de x

y 0 = f (y) (6)

sendo f localmente Lipschitziana. (Analogamente, poderı́amos considerar uma equação de ordem


n autónoma.) É então evidente que y(x) é solução de (6) em (a, b) se e só se, para cada constante
real c, x 7→ y(x − c) é solução de (6) no intervalo (a + c, b + c).
Suponhamos agora que y(x) e z(x) são duas soluções de (6) que tomam um valor comum, isto
é:
∃t1 , t2 ∈ R tais que y(t1 ) = z(t2 ).
Então as soluções y(x) e z(x + t2 − t1 ) cumprem a mesma condição inicial em x = t1 e por isso
coincidem necessariamente na intersecção dos respectivos domı́nios. Dito de outro modo, y e z são
translacções uma da outra:

y(x) = z(x + t2 − t1 ) para todo o x que dê sentido a ambos os membros.

Assim, y e z descrevem a mesma trajectória (com um atraso no tempo) nos pontos em que ambas
existem.
Em particular, se t1 = t2 ,

y(x) = z(x) para todo o x na intersecção dos domı́nios.

2) Consideremos o PVI para a equação diferencial de 2a ordem

u00 = x sin u, u(0) = 0, u0 (0) = 0.

A solução deste problema determina-se facilmente sem cálculos: trata-se da função idênticamente
nula em R. Isto porque a função 0 cumpre as condições iniciais; a conclusão resulta da unicidade
de solução.

13
Teorema 3.6 Consideremos o sistema autónomo y 0 = f (y) onde f é localmente Lipschitziana em
Rn . Representemos por y(x, ξ) o valor em x da solução que satisfaz a condição inicial y(0) = ξ.
Suponhamos que qualquer destas soluções tem domı́nio (−∞, +∞). Então:
(i) ∀s, t ∈ R tem-se
y(t, y(s, ξ)) = y(t + s, ξ) (∗)
.
(ii) Se y(t) é solução e existe T > 0 tal que y(0) = y(T ) e f (y(0)) 6= 0, então y é solução
periódica (com perı́odo T ) e não constante.

Demonstração. (i) Fixado s, olhemos para os membros de (*) como funções de t. Trata-se de
soluções de y 0 = f (y) (no caso do 2o membro por causa do que dissemos no argumento 1 acima).
Ora, estas soluções tomam, para t = 0, o valor y(s, ξ). Logo são iguais para todo o t, pela unicidade.
(ii) y(t + T ) (função de t) é também solução e pela hipótese coincide com y(t) para t = 0.
Conclui-se como no caso anterior.

14
4 Norma de matriz
Dada uma matriz A = [aij ] (m × n), chama-se norma de A ao máximo das normas das imagens
por A de vectores da bola unitária de Rn :
|A| = max |Au| (1)
|u|≤1

Proposição 4.1 Tem-se


|Az| ≤ |A||z|, ∀z ∈ Rn .
Demonstração. Para z 6= 0, tem-se, por definição de |A|, |A(z/|z|)| ≤ |A|, donde a desigualdade.
Se z = 0 ambos os membros são nulos.

Proposição 4.2 Tem-se


X X
(mn)−1/2 ( a2ij )1/2 ≤ |A| ≤ ( a2ij )1/2 .
1≤i≤m, 1≤j≤n 1≤i≤m, 1≤j≤n

Demonstração. Segunda desigualdade: Dado qualquer vector u ∈ Rn , a componente-i de Au é o


produto interno do vector li = (ai1 , · · · , ain ) com u. Assim, aplicando Cauchy-Schwarz no seguinte
cálculo em que kuk ≤ 1,
m
X m
X m
X m X
X n
|Au|2 = (li · u)2 ≤ (|li |2 |u|2 ) ≤ |li |2 = a2ij .
i=1 i=1 i=1 i=1 j=1

Primeira desigualdade: Seja M = max1≤i≤m, 1≤j≤n |aij |. Obviamente


X
a2ij ≤ mnM 2 . (2)
1≤i≤m, 1≤j≤n

Por outro lado, escolhendo os ı́ndices i, j tais que M = |aij |, e considerando o vector ej da base
canónica, a componente i de Aej é precisamente aij . Logo, |Aej | ≥ M , e como |A| ≥ |Aej |, resulta,
utilizando (2), |A| ≥ M ≥ (mn)−1/2 ( 1≤i≤m, 1≤j≤n a2ij )1/2 , como se pretendia.
P

µ ¶
0 1
Exemplo: cálculo de uma norma de matriz. Seja A =
1 −1
Para cada vector u = (x, y) tem-se |Au|2 = x2 + 2y 2 − 2xy. Temos entãao de determinar o
máximo de x2 + y 2 − 2xy sob a condição x2 + y 2 ≤ 1. Como o único ponto crı́tico de x2 + y 2 − 2xy
no interior da bola unitária é (0, 0) e aı́ o valor da função é 0, não é aı́ que o máximo é atingido.
Pelo método dos multiplicadores de Lagrange, vemos que o máximo será atingido num ponto (x, y)
tal que x2 + y 2 = 1 e existe λ de modo que
x − y + λx = 0, 2y − x + λy = 0 (3)
Multiplicando a primeira equação por x, a segunda por y e adicionando, obtemos
x2 − 2xy + 2y 2 + λ = 0
pelo que o máximo procurado é −λ. Para que o sistema (3) tenha soluções não triviais (as que
2
procuramos) é necessário e suficiente que o seu determinante seja
qnulo:√λ + 3λ + 1 = 0. Portanto

o valor máximo procurado é (3 + 5)/2. A norma da matriz é (3 + 5)/2.

15
Proposição 4.3 Se A e B são matrizes m × n, tem-se |A + B| ≤ |A| + |B|.
A demonstração é imediata a partir da definição.

É também imediato que para todo o número real c se tem |cA| = |c||A|. Portanto, o conjunto
das matrizes n × n provido desta norma é um espaço normado (na verdade, um espaço de Banach)
isomorfo a Rmn ).

A norma que acabamos de introduzir é, em virtude da proposição 4.2, equivalente à norma
(k)
euclidiana usual para efeito de convergência. Isto é, uma sucessão de matrizes Ak = [aij ] converge
para uma matriz A = [aij ] no sentido desta norma (limk→∞ |Ak − A| = 0) se e só se para cada par
(k)
i, j limk→∞ aij = aij .

Proposição 4.4 Se A e B são matrizes n × n, tem-se |AB| ≤ |A| |B|.


Demonstração : Por definição, temos |Az| ≤ |A||z| para todo o vector z. Então |ABz| ≤
|A||Bz| ≤ |A| |B| |z| e concluimos novamente por definição.

5 Sistemas lineares
Consideramos nesta secção sistemas de equações diferenciais lineares de 1a ordem, isto é, da forma

(5.1) y 0 = A(x)y + b(x)

onde A(x) é uma matriz n × n e b(x) uma função com valores em Rn , ambas contı́nuas num
intervalo I. (Dizer que x 7→ A(x) é contı́nua equivale a dizer que as funções reais x 7→ aij (x) são
contı́nuas para i, j = 1, · · · , n, ou equivalentemente, em virtude do que vimos na secção anterior,
limx→x0 |A(x) − A(x0 )| = 0).

Como
|A(x)y − A(x)ȳ| ≤ |A(x)||y − ȳ|
e |A(x)| tem máximo em qualquer compacto⊂ I, vemos que o segundo membro do sistema (5.1)
é Lipschitziano em qualquer faixa [a, b] × Rn , com a < b, a, b ∈ I. Os resultados de existência e
unicidade que estudámos (ver págs 11-12) permitem-nos dizer:

Teorema 5.1 Dados α ∈ I e β ∈ Rn problema de valor inicial y 0 = A(x)y + b(x), y(α) = β tem
uma e uma só solução definida em todo o intervalo I. Além disso, em qualquer intervalo compacto
J ⊂ I a referida solução é o limite uniforme em J da sucessão de iteradas
Z x
yk+1 (x) = β + [A(t)yk (t) + b(t)] dt
α

iniciado com uma função arbitrária y0 ∈ C(J).

A solução do problema de valor inicial y 0 = A(x)y + b(x), y(α) = β será representada por
y(·, α, β).

Seja S o conjunto das soluções do sitema homogéneo

y 0 = A(x)y (h)

16
em I. É um subconjunto do espaço vectorial das funções (com valores em Rn ) definidas em I.
Imediatamente se reconhece que S é ele próprio espaço vectorial (verificações triviais) e, fixado α,
a aplicação
β 7→ y(·, α, β) : Rn → S
é isomorfismo de espaços vectoriais. Este facto é simples mas não banal: está envolvido o teorema
de existência e unicidade que acabamos de enunciar. Observe-se em particular que
y(·, α, 0) ≡ 0
e que podemos afirmar:

Teorema 5.2 S é um espaço vectorial de dimensão n.

A par de sistemas, podemos considerar equações lineares de ordem n na forma normal:


(5.2) u(n) + an−1 (x)u(n−1) + · · · + a1 (x)u0 + a0 (x)u = f (x)
(onde ai são funções contı́nuas no intervalo I e a incógnita u tem valores reais) as quais se reduzem
a um sistema da forma (5.1), com a substituição y1 = u:

0
y1 = y2


0
y2 = y3



(5.3) · · ·
0

yn−1

 = yn

y 0 = −a (x)y − · · · − a

n 0 1 n−1 (x)yn + f (x)

Os resultados obtidos para o sistema convertem-se imediatamente em resultados para a equação,


uma vez que há uma correspondência bijectiva entre soluções u desta e soluções (u, u0 , · · · , un−1 )
daquele.
Naturalmente, o problema de valor inicial para (5.2) consiste em determinar uma solução u tal
que
(5.4) u(α) = β0 , u0 (α) = β1 , · · · u(n−1) (α) = βn−1 .
Aqui, α ∈ I e os βi são números reais dados.

É imediato, a partir da redução da equação ao sistema, que:

Teorema 5.3 Dados α ∈ I e βi ∈ R (i = 0, · · · , n − 1 ) o problema de valor inicial (5.2)-(5.4)


tem uma e uma só solução definida em todo o intervalo I.

Dadas n soluções φ1 , · · · , φn de (h), abreviamos as n equações φ0i = A(t)φi introduzindo a


matriz
Y (x) = [φ1 (x), · · · φn (x)]
(que tem a função vectorial φi (x) na coluna-i): e podemos escrever, pela definição de produto de
matrizes,
Y 0 = A(x)Y.
Diremos que Y é matriz fundamental de (h) se as suas colunas constituem uma base de S. Do
teorema anterior resulta

17
Corolário 5.4 Y é matriz fundamental de S se, e só se, os vectores φi (α) constituem uma base
de Rn .

Em particular, podemos fixar a matriz fundamental tal que φi (α) é a base canónica qi , isto é:
Y (α) = I. Dizemos então que se trata da matriz especial de (h) relativa ao ponto α e representamo-
la por
X(x, α)
para indicar a dependência de α. Assim, X(x, α) é a solução do problema matricial de valor inicial

X 0 = A(x)X, X(α, α) = I.

Se C é uma matriz constante, e Y (x) é fundamental, Y (t)C é ainda matriz de soluções de (h):
basta observar que a sua coluna-(i) é combinação linear das de Y (t), com coeficientes iguais aos
da coluna-(i) de C. Reciprocamente, se Z(x) é outra fundamental, existe uma matriz constante C
tal que
Z(x) = Y (x)C.
Com efeito, verifica-se imediatamente que

(Y −1 Z)0 = Y −1 Z 0 − Y −1 Y 0 Y −1 Z = Y −1 AZ − Y −1 AY Y −1 Z = 0.

Em particular temos, ∀x, α, ᾱ ∈ I:

X(x, ᾱ) = X(x, α)X(α, ᾱ)

(porque ambos os membros representam matrizes-solução e coincidem para x = α).

Proposição 5.1 A solução do problema de valor inicial

y 0 = A(x)y, y(α) = β

é dada por y(x) = X(x, α)β.

Sistemas lineares autónomos. Exponencial de matriz. Quando a matriz A(x) é uma


matriz constante A, temos a considerar o sistema autónomo

y 0 = Ay

e podemos fixar α = 0 sem perda de generalidade. As aproximações sucessivas yk referidas no


teorema 5.1 calculam-se facilmente. O operador T cujo ponto fixo se procura é dado neste caso
por Z x
T y(x) = β + Ay(t) dt.
0
Partindo de y0 ≡ β, obtemos, por indução:

A2 x2 Ak xk
yk (x) = β + Axβ + β + ··· + β
2! k!
Podemos então concluir que a solução é

A2 x2 Ak xk
y(x) = lim [I + Ax + + ··· + ]β.
k→∞ 2! k!

18
Na verdade a sucessão de matrizes dentro do parêntesis recto é ela própria convergente. Com
k k
efeito, ela é a sucessão de somas parciais da série de termo geral Ak!x . Esta série converge porque
a série das normas é convergente em virtude de uma comparação:

Ak xk (|A||x|)k
| |≤ .
k! k!
A este limite
A2 x2 Ak xk
lim [I + Ax + + ··· + ]
k→∞ 2! k!
chamamos exponencial de Ax e representamo-lo por eAx :

A2 x2 Ak xk X Ak xk
eAx = I + Ax + + ··· + + ··· = .
2! k! k!
k=0

Em particular, com x = 1 obtemos a exponencial de A:



X Ak
eA = .
k!
k=0

Os casos mais simples em que se pode calcular eA : 1) Seja D = diag(µ1 , · · · , µn ) uma


matriz diagonal com os elementos diagonais µi . O cálculo das potências de D é simples:

Dk = diag(µk1 , · · · , µkn ), k∈N

e por isso obtemos



X diag(µk1 , · · · , µkn )
eD = .
k!
k=0

Lendo o segundo membro entrada a entrada reconhecemos que o que obtivemos pode escrever-se

eD = diag(eµ1 , · · · , eµn ).

2) Seja A uma matriz diagonalizável, isto é, que tem uma base de vectores próprios (os quais
podem ter multiplicidade algébrica > 1). Como sabemos da Álgebra Linear, isto quer dizer que
existem uma matriz invertı́vel T e uma matriz diagonal D tais que

A = T −1 DT.

Ora, facilmente se verifica que


Ak = T −1 Dk T, k ∈ N.
Logo, obtemos
∞ ∞
à !
A
X T −1 Dk T −1
X Dk
e = =T T
k! k!
k=0 k=0

ou, finalmente:
eA = T −1 eD T.

19
Observação. A relação A = T −1 DT é equivalente a D = S −1 AS com S = T −1 . É fácil ver
que podemos tomar para S a matriz que tem como colunas n vectores próprios ~vi de A linearmente
independentes. Com efeito, A~vi = λi~vi implica que AS é a matriz de colunas
[λ1 v1 , · · · , λn vn ].
Então S −1 AS tem as colunas
[λ1 S −1 v1 , · · · , λn S −1 vn ] = [λ1~e1 , · · · , λn~en ]
onde ~ei é a base canónica.

Proposição 5.2 Para quaisquer números s, t ∈ R tem-se


eA(t+s) = eAt eAs .
Demonstração: Observemos que eAs β é a solução de y 0 = Ay que satisfaz y(0) = β; port-
anto, com a notação do teorema 3.6, eAs β = y(s, β). Desse teorema resulta então imediatamente
eA(t+s) β = eAt (eAs β) para todo o β ∈ Rn , que é o que se pretende.

NOTA: esta proposição é caso particular de uma outra que estudaremos abaixo.

Dada uma matriz Y (x) cujas colunas são soluções de (h), chamamos Wronskiano dessa matriz
ao seu determinante W (x). Como função de x, o Wronskiano tem uma propriedade importante:

Proposição 5.3 Rx
tr A(t) dt
W (x) = W (x0 )e x0
, ∀x, x0 ∈ I
onde tr designa o traço de matriz.
Demonstração: Ponhamos Y (x) = [φ1 (x), · · · , φn (x)] onde os φi são soluções de (h), colocadas
em coluna. Pela regra de derivação do produto, a derivada do determinante de Y (x) é soma de n
determinantes
 0
φ11 (x) · · · φ0n1 (x)
  
φ11 (x) · · · φn1 (x)
 φ12 (x) · · · φn2 (x)   φ12 (x) · · · φn2 (x) 
W 0 (x) = det  . . . + · · · + det  . .. .. 
   
 .. .. ..   ..

. . 
φ1n (x) · · · φnn (x) φ01n (x) ··· φ0nn (x)
em que em cada parcela só uma das linhas foi diferenciada, restando as outras inalteradas.
Como φ0i (x) = A(x)φi (x), os elementos da primeira linha da primeira parcela são φ0i1 (x) =
P n
j=1 a1j (x)φij (x): a primeira linha é por isso combinação linear das linhas do determinante
original, sendo a11 (x) o coeficiente que afecta a primeira linha original. Pelas propriedades básicas
dos determinantes, a primeira parcela acima é então igual a
a11 (x)W (x)
. Analogamente se calculam as restantes, de modo que
W 0 (x) = tr A(x)W (x).
Resolvendo esta equação diferencial linear de primeira ordem obtém-se imediatamente o resultado.

20
Proposição 5.4 (fórmula de variação das constantes) Sendo X(x) a matriz especial de (h)
em α, a solução do problema
y 0 = A(x)y + b(x), y(α) = β
é Z x
ȳ(x) = X(x)β + X(x)X(t)−1 b(t) dt. (V C)
α

Demonstração. Procuremos uma solução da forma ȳ(x) = X(x)c(x) onde c é uma função
vectorial de classe C 1 a determinar. Introduzindo esta expressão na equação e atendendo a X 0 =
AX temos X(x)c0 (x) = b(x), ou c0 (x) =R X(x)−1 b(x). Como se pretende que c(α) = β, o teorema
x
fundamental do Cálculo dá c(x) = β + α X(t)−1 b(t) dt.

Observação. No 2o membro de (V C) a função


Z x
x 7→ X(x)X(t)−1 b(t) dt
α

é solução do sistema completo y 0 = A(x)y + b(x); é precisamente a solução que se anula em x = α.


Por outro lado,
x 7→ X(x)β
representa todas as possı́veis soluções do sistema homogéneo se fizermos β percorrer Rn . Por
isso esta proposição contém a informação que traduzimos dizendo: a solução geral do sistema
y 0 = A(x)y + b(x) obtém-se somando a solução geral do sistema homogéneo associado y 0 = A(x)y
com uma solução particular. Para obter a “solução geral”podemos utilizar uma qualquer “solução
particular”, obtida por qualquer outro processo.

Mais propriedades da exponencial de matriz. Quando introduzimos a exponencial de


uma matriz constante A vimos que, pela sua própria construção,
d Ax
e β = AeAx β, ∀x ∈ R, ∀β ∈ Rn .
dx
Em particular, se tomarmos para β, sucessivamente, os vectores da base canónica, verificamos
coluna a coluna que:
d Ax
e = AeAx , ∀x ∈ R.
dx
E como obviamente eAx = I para x = 0, resulta que:

eAx é a matriz especial do sistema y 0 = Ay (relativamente à tomada de valores iniciais em


α = 0).

Proposição 5.5 Sejam A e B matrizes constantes que comutam: AB = BA. Então

eA+B = eA eB .

Demonstração: Um cálculo simples, com atenção ao modo como se fazem as derivações, dá
sucessivamente
d Ax Bx d Ax Bx d
(e e ) = (e )e + eAx (eBx ) = AeAx eBx + eAx BeBx =
dx dx dx

21
= AeAx eBx + BeAx eBx = (A + B)eAx eBx
onde na penúltima passagem usámos o facto, simples de verificar a partir da definição de exponen-
cial, de que AB = BA implica eAx B = BeAx .
Por outro lado, para x = 0 tem-se eAx eBx = I. Assim, mostrámos que eAx eBx é a matriz
especial do sistema z 0 = (A + B)z. Logo, eAx eBx = e(A+B)x para todo o x. Com x = 1 obtém-se
o que se pretendia.

É fácil calcular pelo menos algumas soluções do sistema homogéneo com matriz constante
y 0 = Ay. Com efeito, um cálculo imediato mostra que, se λ é valor próprio de A com vector
próprio associado ~v , então eλt~v é solução: [eλt~v ]0 = λeλt~v = eλt λ~v = eλt A~v = A[eλt~v ]. No exemplo
a seguir utilizamos esta observaçãoµpara resolver ¶ um sistema linear no plano.
−5 2
Exemplo: Para a matriz A = facilmente se calculam os valores póprios λ1 = −3,
1 −4
λ2 = −6. Um outro cálculo simples mostra que podemos tomar como(vectores próprios associados
x0 = −5x + 2y
µ ¶ µ ¶
1 2
~v1 = e ~v2 = . Portanto uma base de soluções do sistema é formada
1 −1 y 0 = x − 4y
por: e−3t~v1 , e−6t~v2 . A solução geral deste sistema homogéneo é, pois, obtida considerando as
combinações lineares desta base:

x = αe−3t + 2βe−6t , y = αe−3t − βe−6t (∗)

onde α e β são constantes reais arbitrárias. As expressões (*) mostram que

lim x(t) = lim y(t) = 0,


t→+∞ t→+∞

e, se α e β não são ambos nulos,

lim |x(t)| = lim |y(t)| = +∞.


t→−∞ t→−∞

Para obtermos alguma informação suplementar sobre as trajectórias das soluções (isto é, as imagens
da aplicação
t 7→ (x(t), y(t))
de R em R2 ) é útil estudar os limites do declive

y(t) αe−3t − βe−6t


=
x(t) αe−3t + 2βe−6t

e facilmente confirmamos o seguinte:


y(t)
lim =1
t→+∞ x(t)
excepto se α = 0, caso em que o limite é − 21 ;

y(t) 1
lim =−
t→−∞ x(t) 2

excepto se β = 0, caso em que o limite é 1. A interpretação geométrica destes factos é a seguinte. As


diferentes trajectórias do sistema constituem curvas no plano que não se intersectam, em virtude
do exemplo 1 no final da secção 3 (ver “exemplos de argumentos que envolvem a unicidade”).

22
As trajectórias mais simples são a origem (solução nula, constante) e as semirectas das direcções
próprias, que contêm as imagens das soluções (*) em que um dos coeficientes α ou β é zero.
Quanto às restantes trajectórias, ocupam os ”quadrantes”determinados pelas direcções próprias.
Na aproximação à origem todas o fazem sendo tangentes à direcção própria que corresponde ao
valor próprio com menor módulo. Ao tenderem para infinito, todas o fazem de tal modo que o
declive do vector (x(t), y(t)) tende para o declive da outra direcção própria.
Observamos também que, tendo sido encontrada uma matriz de soluções (colunas) independen-
tes do sistema, µ −3t
2e−6t

e
X(t) = −3t
e −e−6t
podemos utilizar as considerações que antecedem a Proposição 5.1 para afirmar que
eAt = X(t)X(0)−1 .
Aproveitamos ainda este exemplo para observar que as direcções próprias de um sistema linear
no plano podem ser calculadas de outro modo. Basta atender a que as trajectórias são soluções da
equação de primeira ordem que resulta de dividir a segunda equação do sistema pela primeira:
dy x − 4y
=
dx −5x + 2y
(cujas soluções, recorde-se, podem ser determinadas com a substituição y = xu(x)). As direcções
próprias correspondem aos declives m tais que y = mx é solução desta equação, o que conduz a
1−4m
m = −5+2m , de onde m = 1 ou m = − 12 .

No caso de coeficientes constantes, várias técnicas para calcular eAx permitem obter a expressão
explı́cita das soluções de (h).
Vamos referir uma maneira de obter as soluções que, em vez de usar a forma canónica de
Jordan, utiliza em alternativa o seguinte resultado de Álgebra linear: se a matriz A tem os valores
próprios distintos λj , j = 1, · · · , k, com as respectivas multiplicidades algébricas nj , então o espaço
n-dimensional decompõe-se em soma directa de núcleos de potências das A − λj :

Rn (Cn ) = N (A − λ1 )p1 ⊕ · · · ⊕ N (A − λk )pk , pj ≤ nj , dim N (A − λj )pj = nj .


Assim, mesmo que não exista uma base de vectores próprios de A, todo o vector do espaço, β,
se decompõe numa soma de k “vectores próprios generalizados”:
β = β1 + · · · + βk , βj ∈ N (A − λj )pj .
Pk
Então eAx β = j=1 eAx βj e cada parcela tem o aspecto
pj −1
X xi (A − λj I)i
Ax λj x (A−λj I)x λj x
e βj = e e βj = e [ ]βj .
i=0
i!

Para a equação homogénea de ordem n pode fazer-se uma afirmação mais explı́cita: conside-
rando
u(n) + an−1 u(n−1) + · · · + a1 u0 + a0 u = 0 (eh)
se as raizes do seu polinómio caracterı́stico, λj , j = 1, · · · , k, têm as multiplicidades algébricas nj ,
então há uma base de soluções de (eh) formada por funções da forma
xi eλj x , i = 0, · · · , nj − 1, j = 1, · · · , k.

23
A expressão encontrada acima permite-nos:
1) observar que o sistema tem uma base de soluções da forma

eλj x (Pjl (x)), l = 1, · · · nj


onde cada Pjl (x) é um polinómio de grau < nj e cujos coeficientes são vectores do espaço
n−dimensional;

2) obter uma estimativa para a norma da matriz eAx em termos dos valores póprios de A, para
x ≥ 0.

Vamos então estabelecer a estimativa.


Renumeremos os valores próprios: µ1 , · · · , µn de modo que admitimos repetições. Então pode-
mos dizer que há uma base de soluções da forma

eµj x (Qj (x)), j = 1, · · · n (s)


onde os Qj são polinómios de grau < nj (multiplicidade de µj ) e cujos coeficientes são vectores
do espaço n−dimensional. Se designarmos por X(x) a matriz com as colunas assim construidas,
tem-se eAx = X(x)X(0)−1 . Então
X
|X(x)|2 ≤ |eµj x |2 |Qjk (x)|2
1≤j,k≤n

onde os escalares Qjk (x) são polinómios em x. Por isso,

e2(Re µj )x |Qjk (x)|2 .


X
|X(x)|2 ≤
1≤j,k≤n

Ponhamos agora:
θ = max Reµj .
1≤j≤n

Então, para x ≥ 0, X
|X(x)|2 ≤ e2θx |Qjk (x)|2 .
1≤j,k≤n

É um exercı́cio simples de Análise I verificar que


X
∀² > 0∃C > 0 tal que ∀x ≥ 0 e2θx |Qjk (x)|2 ≤ C e2(θ+²)x
1≤j,k≤n

de onde deduzimos, escrevendo ainda C em vez de C,

|X(x)| ≤ Ce(θ+²)x ∀x ≥ 0.

Finalmente, usando a proposição 4.4, temos, mudando ainda o significado de C,

|eAx | ≤ Ce(θ+²)x ∀x ≥ 0. (∗)

Provámos, portanto, o seguinte teorema

24
Teorema 5.5 Se A tem os valores próprios µj e θ = max1≤j≤n Reµj , então para todo o ² > 0
existe C > 0 tal que a estimativa (*) é válida.

Vejamos como a partir da mesma expressão se pode fazer o cálculo da exponencial em alguns
casos simples.
µ ¶
−1 −4
Exemplo: Seja A = . A tem um único valor próprio (λ = 5) de multiplicidade 2.
9 11
Então, como necessariamente R2 = N (A − 5)2 , temos ∀β ∈ R2

eAt β = e5t [I + t(A − 5)]β,

ou seja µ ¶
1 − 6t −4t
eAt = e5t
9t 1 + 6t
e a partir daqui podemos encontrar uma base de soluções do sistema y 0 = Ay, por exemplo eAt qi ,
i = 1, 2:
µ obtemos ¶ as funções
µ vectoriais

1 − 6t −4t
e5t , e5t .
9t 1 + 6t
Alternativamente, poderı́amos
µ ¶ ter procedido sem utilizar a exponencial. Depois de encontrado
2
um vector próprio ~v = , que como sabemos produz a solução e5t~v , ensaiamos uma segunda
−3
solução independente2 da forma
e5t (t~v + w)
~
onde o vector w é desconhecido. Substituindo esta expressão na equação imediatamente obtemos
µ ¶
2
(A − 5)w = ;
−3
µ ¶
0
o que conduz a w = , pelo que se obtém a base de soluções
−1/2
µ ¶ · µ ¶ µ ¶¸
2 2 0
e5t , e5t t + .
−3 −3 −1/2
Assim, a solução geral do sistema homogéneo com a matriz A é (usando por exemplo esta
última base)
1
x = 2ae5t + 2bte5t , y = (−3a − b)e5t − 3bte5t
2
onde a e b são constantes arbitrárias. Imediatamente se reconhece que para toda a solução não
nula
lim x(t) = lim y(t) = 0,
t→−∞ t→−∞

lim |x(t)| = lim |y(t)| = +∞


t→+∞ t→+∞

e ainda
y(t) y 0 (t) 3
lim = lim 0 =− .
t→±∞ x(t) t→±∞ x (t) 2
2 Esta
técnica é semelhante à de encontrar uma segunda solução para equações diferenciais escalares de segunda
ordem, quando o polinómio caracterı́stico tem raiz dupla.

25
y(t)
Além disso, quando t → −∞, x(t) tende para − 32 por valores maiores, como se vê analisando o
y(t)
sinal de x(t)+ 32 = 2(2a+2bt)
−b
. Isto mostra que, no esquema das trajectórias de soluções no plano
xy, as trajectórias ficam tangentes à recta 3x + 2y = 0 na aproximação à origem, que o seu declive
tende para o desta mesma recta quando consideramos pontos a tender para infinito, e de modo
tal que no 2o quadrante estão abaixo da recta e no 4o quadrante estão acima. Outra maneira de
chegar às mesmas conclusões seria observar como as trajectórias atravessam os eixos coordenados.
Esta informação é dada pela própria equação, que revela se a abcissa ou a ordenada cresem ou
decrescem numa vizinhança de um tal ponto.
Outro elemento de análise é dado pela ordenada na origem da recta paralela à direcção própria
que passa por cada ponto de uma dada trajectória: essa ordenada calcula-se em função de t por
3 1
y(t) + x(t) = − be5t .
2 2
As soluções com trajectória acima da recta y + 23 x = 0 são as dadas por alguma constante b < 0.
Finalmente, é fácil ver que cada recta paralela à direcção própria intersecta cada trajectória,
que se encontra no mesmo semiplano relativamente a esta, num único ponto.
µ ¶
4 −1
Exemplo: A matriz A = tem valores próprios 2 e −3, com direcções próprias
14 −5
y = 2x e y = 7x, respectivamente.
( Em virtude das observações já feitas, resulta que a expressão
x0 = 4x − y
da solução geral do sistema é
y 0 = 14x − 5y

x = αe2t + βe−3t , y = 2αe2t + 7βe−3t

(α e β constantes). Em particular, as soluções com trajectória nas direcções próprias são as que se
obtêm fazendo α = 0 ou β = 0. No primeiro caso obtém-se soluções que descrevem uma semirecta,
tendendo para a origem quando t → +∞; no segundo caso as soluções são “repelidas”pela origem,
isto é, tendem para a origem quando t → −∞. As restantes soluções ocupam os “quadrantes”entre
as rectas com aquelas direcções. Como facilmente se verifica, tem-se

lim |x(t)| = lim |y(t)| = +∞


t→±∞ t→±∞

e ainda
y(t) y(t)
lim = 7, lim = 2.
t→−∞ x(t) t→+∞ x(t)
O aspecto das soluções é o indicado na figura 5. A abcissa atinge um mı́nimo quando a recta y = 4x
é cruzada e a ordenada atinge um mı́nimo quando a recta y = (14/5)x é cruzada. Vemos, pois,
que a presença de valores próprios com sinais contrários implica que as trajectórias situadas nos
quadrantes não tendam para a origem quer em −∞ quer em +∞; têm, isso sim, os eixos próprios
como assı́ntotas.

Antes do próximo exemplo observamos que um sistema linear com matriz A admite, natural-
mente, soluções (definidas em R) com valores em C. Uma solução complexa y(t) = u(t) + iv(t) de
y 0 = Ay satisfaz u0 + iv 0 = Au + iAv. Daqui concluimos imediatamente:

Proposição 5.6 Se a matriz A é real, então y(t) = u(t) + iv(t) é solução de y 0 = Ay se, e só se,
u(t) = Re y(t) e v(t) = Im y(t) são também soluções.

26
µ ¶
1 1
Exemplo: Consideremos a matriz A = cujos vectores próprios são 1 ± 2i, tendo o
−4 1
µ ¶
i/2
valor próprio 1 − 2i como vector próprio. Então
1
µ1
sin 2t + 2i et cos 2t
t
µ ¶ ¶
i/2 2e
e(1−2i)t =
1 e cos 2t − iet sin 2t
t

(
x0 = x + y
é solução complexa do sistema . Imediatamente obtemos duas soluções reais
y 0 = −4x + y
linearmente independentes3 : µ1 t ¶ µ1 t ¶
2 e sin 2t , 2 e cos 2t .
et cos 2t −et sin 2t
A solução geral do sistema é
1 1
x = α et sin 2t + β et cos 2t, y = αet cos 2t − βet sin 2t.
2 2
Trata-se de trajectórias obtidas a partir da elipse
α β
x= sin 2t + cos 2t, y = α cos 2t − β sin 2t
2 2
estando o vector posição de cada ponto multiplicado pelo factor et . Assim, as trajectórias têm
o aspecto de uma espiral que tende para a origem quando t → −∞ e com norma a tender para
infinito quando t → +∞. (Figura 6.)

Exemplo: Seja A uma matriz 3 × 3 com um único valor próprio real λ. Da representação
acima resulta que
R3 = N (A − λ)3
visto que o valor de p que corresponde a λ é ≤ à multiplicidade (3). Logo, para todo o vector β
2
X xi (A − λI)i
eAx β = eλx [ ]β.
i=0
i!
µ¶
0 1
Exemplo: Para a matriz A = onde 0 < d < 1, que tem valores próprios
−1 −2d

λ = −d + ip e o seu conjugado λ̄ (onde p = 1 − d2 ), temos a decomposição

C2 = N (A − λ) ⊕ N (A − λ̄).

Como N (A − λ) é formado pelos vectores (u, v) tais que (d − ip)u = v e N (A − λ̄) é formado pelos
vectores (u, v) tais que (d + ip)u = v, a decomposição de um vector qualquer (x, y) para esta soma
directa é µ ¶ µ ¶ µ ¶
x u s
= +
y v t
3 É fácil constatar que uma solução do tipo eλt ~
v , com λ ∈ C \ R valor próprio e ~v vector próprio associado tem
sempre partes real e imaginária R-linearmente independentes.

27
com
(d + ip)x − y (d2 + p2 )x − (d − ip)y y − (d − ip)x (d + ip)y − (d2 + p2 )x
u= , v= , s= , t= .
2ip 2ip 2ip 2ip
à !
At
e−dt (cos pt + dp sin pt) 1 −dt
pe sin pt
Assim, conclui-se que e =
− p1 e−dt sin pt e−dt (cos pt − dp sin pt)

Comportamento assintótico das soluções de sistemas lineares:

Consideremos o sistema linear homogéneo (h), com a matriz A(x) definida e contı́nua em
I = [a, ∞).
Dizemos que a solução trivial (isto é, zero) é estável, assintoticamente estável, ou instável, se,
respectivamente:

todas as soluções são limitadas em I; todas as soluções têm limite 0 quando x → +∞; existe
pelo menos uma solução não limitada.

Se X(x) é uma matriz especial no ponto a, e se zero é estável, então claro que há uma constante
K > 0 tal que |X(x)| ≤ K ∀x ≥ a; qualquer solução y(x) satisfaz então |y(x)| = |X(x)β| ≤ K|β|;
assim, se zero é estável qualquer solução toma valores arbitrariamente pequenos (em norma) desde
que a sua condição inicial β seja suficientemente pequena.
Quando a matriz A é constante, o que observámos acima a respeito da forma das soluções do
sistema e a estimativa (*) permitem reconhecer imediatamente:

dizer que a origem é assintoticamente estável é o mesmo que dizer que todos os valores próprios
de A têm partes reais negativas;

dizer que a origem é estável é o mesmo que dizer que todos os valores próprios de A têm partes
reais ≤ 0 e se algum deles, λj , é imaginário puro, então correspondem-lhe nj vectores próprios
linearmente independentes, isto é, pj = 1 (de modo que na expressão de eAx βj os polinómios em
x são na realidade apenas vectores constantes);

dizer que a origem é instável significa que não se verifica nenhuma das condições anteriores, por
outras palavras, ou há um valor próprio com parte real positiva ou ou algum deles, λj , tem parte
real nula mas não possui nj vectores próprios linearmente independentes (o respectivo pj é > 1).

APÊNDICE 1: Redução de uma matriz real 2x2 à forma canónica real

Seja A uma matriz real 2x2. Se A tem valores próprios reais a e b, com a 6= b, os correspondentes
vectores próprios ~u, ~v formam umaµbase do¶plano. A aplicação linear representada por A tem,
a 0
na base {~u, ~v } a nova matriz X = e portanto há uma matriz invertı́vel P (matriz de
0 b
−1
mudança de base) tal que P AP = X. Mesmo que os valores próprios se reduzam a um só (a = b)
podem existir dois vectores próprios independentes (caso em que todos os vectores são próprios, já
que estamos em dimensão 2) e nesse caso vale a mesma conclusão.

28
Vejamos agora o que se passa quando a = b e há apenas um subespaço unidimensional com
vectores próprios, gerado, digamos, por ~u. Estamos no caso em que a equação det(A − λI) = 0
tem apenas a solução λ = a e por isso

det(A − λI) = (λ − a)2 . (a)

Proposição 5.7 Seja B uma matriz 2x2 tal que det(B − λI) = λ2 . Então B 2 = 0.

Demonstração. Simples exercı́cio de cálculo.

Para a matriz B nas condições da proposição, existe ~u 6= 0 tal que B~u = 0. Suponhamos que
B 6= 0, isto é que o núcleo de B é o subespaço unidimensional gerado por ~u. Vamos mostrar que:

Proposição 5.8 Nestas condições existe um vector w


~ tal que B w
~ = ~u.

Demonstração. Consideremos uma base do plano {~u, ~v } que inclui ~u. Existem números x e
y tais que B~v = x~u + y~v e, aplicando B a ambos os membros, resulta 0 = yB~v . Como, pela nossa
hipótese, B~v 6= 0, temos y = 0 e basta então tomar w
~ = (1/x)~v .

Voltando a (a), concluimos (considerando B = A − aI)que existe um vector w ~ tal que (A −


aI)w
~ = ~u. Assim, na base {~u, w}
~ a aplicação linear de matriz A é representada por
µ ¶
a 1
D= . (∗)
0 a

Observação. Seja S a matriz de colunas [~u, w]. ~ Então um cálculo semelhante ao que fize-
mos para as matrizes diagonalizáveis permite reconhecer imediatamente que S −1 AS é a matriz de
colunas [a~e1 a~e2 + ~e1 ], isto é, (*). Esta matriz D pode escrever-se como soma
µ ¶
0 1
D = diag(a, a) + N com N = .
0 0

N é nilpotente (N 2 = 0) e comuta com a identidade; assim

eA = SeD S −1 , eD = ea (I + N ).

Finalmente, consideremos o caso em que A tem valores próprios não reais (complexos conjuga-
dos). Considerando a extensão natural de A (como aplicação linear) a C2 podemos então afirmar
que existem um complexo x+iy e um vector ~u +i~v (~u, ~v ∈ R2 ) tais que A(~u, +i~v ) = (x+iy)(~u +i~v ).
É um exercı́cio simples reconhecer que ~u, ~v são R-linearmente independentes. Então, como

A~u = x~u − y~v , A~v = y~u + x~v


µ ¶
a −b
concluimos que, na base {~u, ~v } a aplicação linear de matriz A tem a forma .
b a
µ ¶
a −b
Cálculo da exponencial da matriz A = . Vimos na primeira parte do curso
µ ¶ b a µ ¶
x x
que, para todo o vector , identificado com o número z = x + iy ∈ C, temos A = wz,
y y

29
µ ¶
2 x
onde w = a + ib. Resulta A = w2 z, etc. Utilizando esta equivalência de cálculo temos,
y
pois:

A2 Ak w2 wk
µ ¶ µ ¶
A x x
e = lim [I + A + + ··· + ] = lim [z + wz + z + ··· + z]
y k→+∞ 2! k! y k→+∞ 2! k!
µ a
e cos b −ea sin b
¶µ ¶
w x
=e z=
ea sin b ea cos b y
e portanto
ea cos b −ea sin b
µ ¶
A
e = .
ea sin b ea cos b

APÊNDICE 2: Triangulação: um método alternativo para determinar a forma das


soluções do sistema y 0 = Ay

Os dois seguintes lemas demonstram-se facilmente como exercı́cio sobre a equação escalar y 0 =
ay + b(t).

Lemma 5.1 Sejam λ, µ dois números, λ 6= µ. Se p(t) é um polinómio de grau n, então a equação
escalar z 0 = λz + p(t)eµt tem uma solução da forma q(t)eµt , sendo q(t) outro polinómio de grau n.

Lemma 5.2 Sejam λ e p(t) é um polinómio de grau n, então a equação escalar z 0 = λz + p(t)eλt
tem uma solução da forma q(t)eλt , sendo q(t) um polinómio de grau n + 1.
.
O próximo resultado de Álgebra Linear é útil mas menos trivial.

Lemma 5.3 (Triangulação) Toda a matriz quadrada A é triangulável, isto é, existe uma matriz
(em geral complexa) invertı́vel T tal que T −1 AT = B é triangular superior (bij = 0 se i > j) e
em cuja diagonal aparecem os valores próprios de A: λj , j = 1, · · · , n, com as possı́veis repetições.
Além disso, dado ² > 0, podemos supôr |bij | < ² se i < j.

Demonstração. Para uma matriz 2 × 2 o problema é simples: escolhe-se um valor próprio λ1 com
vector próprio v1 , completa-se para uma base {v1 , v2 } e observa-se que ∀² > 0 a representação da
aplicação linear dada por A na base {v1 , ²v2 } é da forma pretendida, com o elemento b12 pequeno
desde que se tome ² pequeno. Por construção, a nova matriz é semelhante a A. A matriz T é a
matriz que muda a base canónica para a nova base.
Admitamos que o lema é válido para matrizes n × n e tomemos A matriz (n + 1) × (n + 1).
Escolhendo um valor próprio λ1 com vector próprio v1 e completando com n vectores para obter
uma base, concluimos, procedendo como no primeiro passo, que existe uma matriz T0 tal que
 
λ1 b1,2 · · · b1,n+1
0 
T0−1 AT0 =  .
 
 ..

C 
0

30
sendo os b1i , números reais ou complexos e C uma matriz n × n cujos valores próprios são, ne-
cessariamente, os restantes valores próprios de A, λ2 , · · · , λn+1 . Pela hipótese de indução existe
uma matriz n × n, S, tal que
 
λ2 · · · · · · ···
 0 λ3 · · · ··· 
S −1 CS =  . . .. 
 
 .. .. ..
. . 
0 0 ··· λn+1
Defina-se então
 
1 0 ··· 0
0 
T = .
 
 ..

S 
0
Imediatamente se reconhece que esta matriz tem como inversa a que se obtém pondo S −1 no lugar
de S e
 
λ1 · · · ··· ···
0 
T −1 T0−1 AT0 T =  .
 
 ..

S −1 CS 
0
Portanto
 
λ1 ··· ··· ···
0 λ2 ··· ··· 
T −1 T0−1 AT0 T =  . ..
 
 .. .. 
. . ··· 
0 0 ··· λn+1
Assim, a semelhança determinada pela matriz T0 T conduz a uma matriz triangular como se pre-
tendia, exceptuando a afirmação sobre os elementos acima da diagonal. Ora, a última matriz
representa uma aplicação linear L na base canónica qi ; imediatamente se reconhece que, se ² 6= 0,
a mesma aplicação linear é representada na base q1 , ²q2 , ²2 q3 , · · · , ²n qn+1 por uma matriz que
só difere desta porque os elementos acima da diagonal surgem multiplicados por potências de ².
Assim, a última matriz obtida é semelhante a uma com as propriedades desejadas e, como a relação
de semelhança é transitiva, a demonstração fica concluida.

O sistema
y 0 = Ay (1)
pode agora ser transformado num equivalente mas com matriz triangular. Com a mudança de
variável linear y = T z, em que T é a matriz referida no lema anterior, obtemos o sistema
z 0 = T −1 AT z (2)
que pode ser escrito por extenso como



 z10 = λ1 z1 + b12 z2 + · · · + b1n zn
0
z2 = λ2 z2 + b23 z3 + · · · + b2n zn



···
0

zn−1 = λn−1 1zn−1 + bn−1,n zn




z 0 = λ z

n n n

31
Começando a resolver as equações a partir da última, e tendo em conta os dois primeiros lemas,
vemos que cada zi (t) é soma de parcelas do tipo

pk (t)eλk t ,

onde pk é um polinómio de grau < mk se mk é a multiplicidade algébrica do valor próprio λk .


De facto, na matriz triangulada cada valor próprio surge na diagonal tantas vezes quanto a sua
multiplicidade algébrica. Passando às variáveis originais através da transformação linear T , vemos
que as componentes yi (t) de cada solução são somas de parcelas do mesmo tipo.

32
6 Soluções não continuáveis
Nesta secção consideramos uma equação y 0 = f (x, y) com segundo membro contı́nuo e y-localmente
Lipschitziano numa faixa infinita D = I × Rn , em que I é intervalo aberto real.

Proposição 6.1 Se y(x) é solução de y 0 = f (x, y) definida e limitada em [x0 , x1 ), com x1 ∈ I,


então y é prolongável a [x0 , x1 ] como solução da equação.

Demonstração. Tem-se M = supx0 ≤x<x1 f (x, y(x)) < +∞. Se tomarmos uma sucessão qualquer
tk ∈ [x0 , x1 ), com tk → x1 , e escrevermos a equação em forma integral, obtemos, a partir do
teorema de valor médio sob a forma de desigualdade, |y(ti ) − y(tj )| ≤ M |ti − tj |. O critério de
Cauchy implica que limx→x− y(x) existe. Chamemos-lhe y1 . Prolongando y(x) a [x0 , x1 ] com
1
o valor y1 em x = x1 obtemos uma função diferenciável em x1 (verificação simples,pela regra
de Cauchy) e imediatamente se comprova (por passagem ao limite) que ela satisfaz a equação
diferencial em [x0 , x1 ].

Uma solução y(x) de y 0 = f (x, y) definida num intervalo [x0 , x1 ) (respect. (x0 , x1 ]) ⊂ I diz-se
continuável à direita (respect à esquerda) se existe um prolongamento ỹ de y que ainda é
solução da equação diferencial e que está definida num intervalo [x0 , x2 ) (respect. (x2 , x1 ]) com
x2 > x1 (respect. x2 < x1 ). Por negação destas condições obtêm-se os conceitos de solução não
continuável à direita ou não continuável à esquerda.
Uma solução definida num subintervalo aberto de I diz-se não continuável se é não continuável
à direita e não continuável à esquerda.

Teorema 6.1 Seja y(x) uma solução de y 0 = f (x, y) definida no intervalo [x0 , x1 ) ⊂ I, não
continuável à direita. Então, se x1 < sup I, tem-se

lim |y(x)| = +∞.


x→x−
1

Demonstração. Admitamos, pois, que x1 < sup I. Em particular, x1 ∈ I.


Afirmação 1:
lim sup |y(x)| = +∞.
x→x−
1

Com efeito, se este limite superior for finito, e por ser x 7→ y(x) limitada nos intervalos compactos,
resulta que y(x) é limitada em [x0 , x1 ). Pela proposição acima, y prolonga-se como solução ao ponto
x1 , e portanto, pelo teorema de existência e unicidade, prolonga-se mesmo a um intervalo da forma
[x0 , x1 + δ) com δ > 0. Obtemos uma contradição com a hipótese.

Ora, para provarmos que o limite existe, temos de verificar que a condição

∃M > 0 tal que ∀ε > 0 ∃x ∈ (x1 − ε, x1 ) |y(x)| ≤ M (∗)

não pode ser verdadeira. Suponhamos que o é, com vista a uma contradição.
Consideremos as fronteiras SM , S2M das bolas de centro 0 e raios M e 2M , respectivamente.
Conjugando (*) e a Afirmação 1, construimos t1 < t2 tais que x0 < t1 < t2 < x1 , t1 tão próximo
de x1 quanto se pretenda, e

y(t1 ) ∈ SM , y(t2 ) ∈ S2M , M ≤ |y(t)| ≤ 2M ∀t ∈ (t1 , t2 ).

33
E na verdade podemos repetir este raciocı́onio construindo analogamente t3 < t4 tais que t2 <
t3 < t4 < x1 e t3 , t4 gozam exactamente da mesma propriedade. (Verificar com cuidado este
argumento.) Notemos ainda que t1 e t3 podem ser tomados tão próximos de x1 quanto quisermos.
Por indução, construimos uma sucessão

t1 < t2 < t3 < t4 < · · · , tn → x1 (a)

com a propriedade:

y(t2i−1 ) ∈ SM , y(t2i ) ∈ S2M , M ≤ |y(t)| ≤ 2M ; ∀t ∈ (t2i−1 , t2i ), i = 1, 2, · · ·

Ponhamos K = supx0 ≤x≤x1 , M ≤|z|≤2M |f (x, z)|. Teremos


Z t2i
M ≤ |y(t2i ) − y(t2i−1 )| = |f (s, y(s))| ds ≤ K(t2i − t2i−1 )
t2i−1

que implica que t2i − t2i−1 não tende para zero e portanto contradiz (a).

Demonstra-se analogamente:

Teorema 6.2 Seja y(x) uma solução de y 0 = f (x, y) definida no intervalo (x0 , x1 ] ⊂ I e não
continuável à esquerda. Então, se x0 > inf I, tem-se

lim |y(x)| = +∞.


x→x+
0

Este resultado tem consequências importantes para o estudo do domı́nio da solução do problema
de valor inicial
y 0 = f (x, y), y(x0 ) = y0 (P V I)
Vimos na secção 3 (ver considerações que seguem o teorema 3.4) que este problema tem uma
solução não continuável, única.

Corolário 6.3 Seja D = I ×Rn e y(x) a solução de (P V I) não continuável à direita. Suponhamos
que ∀b ∈ I tal que y está definida em [x0 , b) existe um número K (dependente possivelmente de x0
e b) tal que |y(x)| ≤ K ∀x ∈ [x0 , b). Então o domı́nio de y contém [x0 , sup I).

Demonstração. Seja [x0 , x1 ) o domı́nio de y, suposta não continuável à direita. Se x1 < sup I
o teorema anterior mostra que há uma contradição com a hipótese.

Corolário 6.4 Seja D = I × Rn e y(x) a solução de y 0 = f (x, y) não continuável à esquerda. Su-
ponhamos que para todo o b ∈ I tal que y está definida em (b, x0 ] existe um número K (dependente
possivelmente de x0 e b) tal que |y(x)| ≤ K ∀x ∈ (b, x0 ]. Então o domı́nio de y contém (inf I, x0 ].

Corolário 6.5 Seja D = I × Rn e y(x) solução não prolongável de y 0 = f (x, y). Suponhamos
que para todo o intervalo (a, b) tal que a, b ∈ I e y está definida em (a, b) existe um número K
(dependente possivelmente de a e b) tal que |y(x)| ≤ K ∀x ∈ (a, b). Então o domı́nio de y é I.

34
Para aplicar os corolários anteriores é conveniente dispor de técnicas que permitam estimar as
soluções. A desigualdade de tipo Gronwall fornece estimativas simples:

Corolário 6.6 Se D = I × Rn e existem funções contı́nuas não negativas h, j : I → R tais que

|f (x, y)| ≤ h(x)|y| + j(x), ∀(x, y) ∈ D (∗)

então qualquer solução não prolongável de y 0 = f (x, y) tem domı́nio I.

Demonstração. Sejam a, b ∈ I tais que o domı́nio de y contém (a, b). Fixemos c ∈ (a, b).
Ponhamos M = sup[c,b] h < ∞ e N = sup[c,b] j < ∞. Tem-se em [c, b]:
Z x
y(x) = y(c) + f (s, y(s) ds
c

e, por isso, usando a estimativa (*) da hipótese


Z x
|y(x)| ≤ |y(c)| + N (b − c) + M |y(s)| ds ∀x ∈ [c, b).
c

Da desigualdade de Gronwall deduzimos então que y é limitada em [c, b).


De modo análogo se prova que y é limitada em (a, c], utilizando a simetria de variável in-
dependente x 7→ −x, para a qual z(x) = y(−x) é solução, no intervalo simétrico, da equação
z 0 = −f (−x, z), à qual aplicamos o mesmo raciocı́nio.

OBSERVAÇÕES. 1) O caso particular em que f é linear em y (em que se verifica a hipótese


deste último corolário) já tinha sido estudado na secção anterior, onde vimos que todas as soluções
de um sistema linear estão definidas no intervalo I onde a equação tem sentido.
2) Para uma equação de ordem n, digamos

u(n) = f (x, u, u0 , · · · , u(n−1) ) (e)

obtemos enunciados correspondentes aos anteriores por redução a um sistema de n equações de


primeira ordem com variável dependente y = (u, u0 , · · · , u(n−1) ). Deve notar-se, pois, que tudo o
que envolva limitação ou limites se refere a esta função vectorial. Por exemplo:

Corolário 6.7 Seja D = I × Rn e u(x) solução de (e) não continuável à direita. Suponhamos que
∀b ∈ I tal que u está definida em [x0 , b) existe um número K (dependente possivelmente de x0 e
b) tal que max{|(u(x)|, |u0 (x)| , · · · , |u(n−1) (x)|} ≤ K ∀x ∈ [x0 , b). Então o domı́nio de u contém
[x0 , sup I).

Um exemplo. Seja f : R → R de classe C 1 , com dois zeros z1 < z2 . Então o problema de


valor inicial
y 0 = f (y), y(0) = y0 , (∗∗)
em que z1 < y0 < z2 , tem solução com domı́nio R. Esta afirmação resulta do seguinte

Facto: Se (a, b) é um intervalo qualquer onde a solução y(t) de (**) está definida, então z1 <
y(t) < z2 ∀t ∈ (a, b).

35
Justificação deste facto: Se existisse t1 ∈ (a, b) tal que y(t1 ) = z1 , terı́amos uma contradição
com o teorema de unicidade para o problema de valores iniciais, já que a constante z1 é solução
da equação diferencial e y 6= z1 . Do mesmo modo, não existe t2 ∈ (a, b) tal que y(t2 ) = z2 .

Como a solução toma o valor y0 e a sua imagem é um intervalo, resulta que só pode tomar
valores em (z1 , z2 ). A conclusão é então consequência do Corolário 6.5.

Exemplos de argumentos que envolvem soluções não prolongáveis e também a


dependência contı́nua dos dados iniciais. 1) Seja h(t) uma função periódica de perı́odo T e
tal que 0 < h < 1. Então a equação diferencial

u0 = (1 − u)2 − h(t) (p)

tem pelo menos uma solução T -periódica, isto é, uma solução u com u(0) = u(T ).
Para justificar esta afirmação seja uz a solução de (p) com condição inicial

uz (0) = z.

Então, afirmamos: 0 < uz (t) < 1 ∀z ∈ [0, 1] e ∀t > 0 tal que a solução esteja tenha sentido em t.
Começamos por ver que, se z ∈ [0, 1], a desigualdade 0 < uz (t) verifica-se ∀t > 0 tal que uz (t)
exista. De facto, se para algum t0 > 0 se tivesse uz (t0 ) = 0 poderı́amos supor que t0 era o menor
número positivo com essa propriedade e, como uz (t) > 0 numa vizinhança esquerda de t0 , viria
u0z (t0 ) ≤ 0, em contradição com a equação. De modo análogo se verifica que uz (t) < 1 para t > 0.
Em virtude da teoria anterior (corolário 6.3), por ser limitada a solução uz em qualquer eventual
intervalo [0, s) onde exista, então uz , suposta já não prolongável, está definida em [0, +∞).
Então a função z 7→ uz (T ) − uz (0) está bem definida e (pela proposição 3.3) é contı́nua no
intervalo [0, 1]. Pelo que acabamos de mostrar, esta função toma um valor positivo para z = 0
e um valor negativo para z = 1. O teorema do valor intermédio garante que existe z ∗ tal que
uz∗ (T ) − uz∗ (0) = 0. Como h é T -periódica, o mesmo sucede com uz∗ .

2) Sem resolver a equação


u0 = (1 + x2 )u(1 − u) (e)
podemos demonstrar que existe um número a > 0 tal que para cada b ∈ (0, a) a equação (e) tem
duas soluções tais que u(10) − u(0) = b.

Para isso, representemos por uλ a solução (suposta já não prolongável) de (e) com condição
inicial
uλ (0) = λ.
Tem-se, evidentemente, u0 ≡ 0 e u1 ≡ 1. Se 0 < λ < 1, uλ é crescente e só pode tomar valores em
(0, 1). Assim, uλ tem domı́nio R (corolário 6.3). A função

λ 7→ uλ (10) − uλ (0)

está bem definida e é contı́nua em [0, 1] (Proposição 3.3), positiva em (0, 1) e nula nos extremos.
A afirmação é então trivial desde que se tome a como o máximo desta função.

36
7 Sistemas não lineares I: o modelo de predador-presa de
Lotka-Volterra
Consideremos duas espécies, com populações: x(t) (presa) e y(t) (predador). Assumimos que,
havendo recursos de alimentação disponı́veis e ausência de predadores, a espécie presa evolui com
crescimento exponencial (taxa de crescimento, que é a diferença entre a taxa de natalidade e a taxa
de mortalidade, positiva), mas esta taxa é afectada pela presença de predadores podendo tornar-se
negativa. A espécie predador, ao contrário, por depender da outra como recurso alimentar, tem
taxa de crescimento negativa na ausência de presas, mas esta taxa aumenta na presença delas.
Assim, um modelo para a evolução de x e y com o tempo é dado pelo sistema de primeira ordem
(
x0 = x(a − by)
(7.1)
y 0 = y(−c + dx)

onde a, b, c, d são constantes positivas. Claro que apenas nos interessam soluções com valores não
negativos.
A primeira observação importante é que este sistema tem algumas soluções evidentes: as triviais
(constantes) (0, 0) e (x0 , y0 ), com x0 = c/d e y0 = a/b); e soluções com uma componente nula,
múltiplas respectivamente de
(0, e−ct ) e (eat , 0).
As respectivas trajectórias no plano (x, y) são dois pontos (a origem e (x0 , y0 )) e os semieixos
coordenados. Logo, por unicidade, qualquer solução (x(t), y(t)) com um valor inicial (x(t0 ), y(t0 ))
no interior do 1o quadrante mantém-se no 1o quadrante ∀t ≥ t0 .
Apesar de (7.1) não ser um sistema Hamiltoniano, tem uma “lei de conservação”que permite
determinar as trajectórias das soluções no plano (x, y). Efectivamente, as soluções de (7.1) são
obviamente soluções de
y(c − dx)x0 + x(a − by)y 0 = 0
1
e esta equação tem, como imediatamente se reconhece, o factor integrante xy . Quer dizer: multi-
1
plicando por xy reconhece-se imediatamente que para qualquer solução (x(t), y(t)) de (7.1) existe
k ∈ R tal que
F (x(t), y(t)) = k (∗)
onde
F (x, y) = c ln x + a ln y − dx − by.
Estudando a função F no 1o quadrante vemos que ela tem um máximo absoluto no ponto (x0 , y0 )
e tende para −∞ quando |(x, y)| → ∞ ou quando a distância de (x, y) a um dos eixos tende para
0. Em particular, as curvas de nı́vel (*) são necessariamente limitadas!
Daqui concluimos imediatamente que as soluções, consideradas já não prolongáveis, são limi-
tadas e têm domı́nio R. Isto é consequência do corolário 6.3.

Observemos seguidamente que o ponto (x0 , y0 ) determina no plano quatro quadrantes onde as
soluções (x, y) têm monotonia bem determinada, que se infere do próprio sistema (7.1). Portanto
o sentido das trajectórias nesses quadrantes é o que está esquematizado na Figura 7.
Vamos agora demonstrar o seguinte teorema, ilustrado na Figura 8.

Teorema 7.1 Toda a solução de (7.1) com uma condição inicial no 1o quadrante é periódica.

37
.
Demonstração. Consideremos a solução tal que

x(0) = p, y(0) = a/b

onde, para fixar ideias, supomos p > c/d.


Esta solução, para t > 0 numa vizinhança de 0, tem uma trajectória que curva “para cima”e
“para a esquerda”4
No que segue, quando nos referimos a quadrantes e eixos estamos a referir-nos aos quadrantes
com origem em (x0 , y0 ), sendo os eixos a horizontal e a vertical que passam por este ponto.
Afirmamos que existe T > 0 tal que (x(t), y(t) pertence ao 1o quadrante se t ∈ (0, T ),
x(T ) = c/d e (necessariamente) y(t) > a/b).
Com efeito, se tal não fosse o caso, (x(t), y(t) pertenceria ao 1o quadrante ∀t ≥ 0 e, tratando-se
então de funções monótonas limitadas, teriam limites:

x1 = lim x(t) ≥ c/d, y1 = lim y(t) > a/b.


t→+∞ t→+∞

Mas então a primeira equação de (7.1) implica que limt→+∞ x0 (t) = x1 (a − by1 ) < 0, pelo que
obterı́amos limt→+∞ x(t) = −∞, contrariando o facto de x(t) ser limitada. A afirmação fica assim
provada.
Repetindo este argumento três vezes, concluimos que a solução atinge sucessivamente os outros
semieixos; encontramos por fim um instante S tal que

x(S) > c/d, y(S) = a/b.

Mas como F (x(t), y(t)) é constante, temos F (x(0), a/b) = F (x(S), a/b). e como x 7→ F (x, a/b) é
estritamente decrescente em [c/d, +∞), concluimos x(0) = x(S). Então (x(0), y(0)) = (x(S), y(S)).
Pelo exercı́cio 7.4, concluimos que a solução é periódica com perı́odo S.
Se tomássemos como condição inicial um ponto fora dos semieixos, o mesmo argumento mo-
straria que a trajectória acabaria por atingir, em certo instante, um semieixo, e pelo que já de-
monstrámos concluirı́amos igualmente a periodicidade.

8 Sistemas não lineares II: equações conservativas de 2a or-


dem: soluções limitadas e periódicas
Comecemos por apresentar dois resultados de carácter geral sobre prolongamento de certas soluções
de equações diferenciais.

Proposição 8.1 Seja g uma função real contı́nua e y(t) uma solução de y 00 = g(y) definida em
[0, β] tal que y 0 (β) = 0. Então y(t) prolonga-se a [0, 2β] como solução da mesma equação, simétrica
a respeito da recta t = β.
Demonstração: Basta definir z(t) = y(2β − t) se β ≤ t ≤ 2β; facilmente se verifica (exercı́cio)
que a nova função (obviamente contı́nua)
(
u(t), 0 ≤ t ≤ β
w(t) =
z(t), β ≤ t ≤ 2β

é de classe C 2 e solução de y 00 = g(y) em [0, 2β] (Atenção ao comportamento de w no ponto t = β).


4 É fácil formalizar estas afirmações, e o próprio leitor poderá fazê-lo.

38
Proposição 8.2 Seja f : D → Rn uma função contı́nua no domı́nio D ⊂ Rn e y(t) uma solução
do sistema y 0 = f (y) em [0, β] tal que y(0) = y(β). Então y(t) tem extensão periódica a R com
perı́odo β, que ainda é solução do sistema.

Demonstração: Que y(t) tem extensão periódica de perı́odo β é trivial: para definir tal extensão
a R começa-se por definir em cada intervalo [nβ, (n + 1)β] (n ∈ Z) a função

yn (t) = y(t − nβ), t ∈ [nβ, (n + 1)β];

em seguida toma-se a função Y (t) cuja restrição a cada intervalo [nβ, (n + 1)β] é precisamente yn .
Facilmente se conclui que Y está bem definida, é de classe C 1 (isto é, tem derivadas também nos
pontos da forma nβ) e satisfaz a equação diferencial.

Corolário 8.1 Seja g uma função real contı́nua e y(t) uma solução de y 00 = g(y) definida em
[0, β] tal que y 0 (0) = y 0 (β) = 0. Então y(t) prolonga-se a R como solução periódica, de perı́odo 2β,
da mesma equação.

Demonstração Aplicar as duas proposições precedentes, utilizando o sistema em R2


(
y0 = z
z 0 = g(y)

(ou proceder directamente com a equação de 2a ordem).

OBSERVAÇÃO. Se, nos enunciados anteriores, g ou f são localmente Lipschitzianas, as ex-


tensões com as propriedades indicadas são únicas.

Vamos estudar um tipo importante de equações não lineares de 2a ordem que se reduzem a
equações de 1a ordem. Trata-se de equações que, escritas na forma normal, são autónomas e não
fazem intervir explicitamente a primeira derivada da função incógnita.
Tomemos como exemplo o problema de valor inicial:

u00 + u2 − 1 = 0, u(0) = a, u0 (0) = 0. (1)

Passo 1. Redução à 1a ordem. Dada uma solução qualquer u(t) da equação diferencial, multipli-
cando a equação por u0 = u0 (t) obtemos, em todo o domı́nio da solução

u00 u0 + (u2 − 1)u0 = 0

e, observando que agora o primeiro membro é reconhecı́vel como uma derivada em ordem a t,
podemos escrever também
d u02 u3
µ ¶
+ − u = 0.
dt 2 3
Como o domı́nio da solução é um intervalo, inferimos daqui que existe uma constante K tal que
u02 u3
+ −u=K
2 3
ou ainda, abreviando
2u3
− 2u =: V (u),
3

39
e escrevendo K em vez de 2K:
u02 + V (u) = K. (2)
A função V tem um papel decisivo no estudo que segue. Trata-se de uma função com um máximo
local V (−1) = 43 , um mı́nimo local V (1) = − 43 , e com limites no infinito V (−∞) = −∞, V (+∞) =
+∞ (ver figura A).

Passo 2. Cálculo de K. A constante K calcula-se a partir dos valores iniciais. Para o problema
(1) será
K = u0 (0)2 + V (u(0)) = V (a).
As propriedades da solução dependem, assim, de K. Exemplificamos com o estudo de dois casos.

Caso 1. a > 1 e K = V (a) < 34 . De (2) deduzimos, uma vez que um quadrado é não negativo,

V (u(t)) ≤ V (a), ∀t pertencente ao domı́nio de u. (3)

Assim, pelas propriedades de V , u(t) só pode tomar valores no conjunto

{x| V (x) ≤ V (a)} = [b, a] ∪ (−∞, c]

onde c < b < a são as raizes da equação V (x) = V (a). Mas como a imagem de u(t) é um intervalo
que contém a, deduzimos
b ≤ u(t) ≤ a ∀t.
Em particular, resulta:
(i) o valor máximo de u é a = u(0).
E, como de (2) se deduz que também u0 (t) é limitada,
(ii) a solução não continuável de (1) tem domı́nio R.
Como u00 (0) = 1 − a2 < 0, u0 (t) toma valores positivos numa vizinhança esquerda de 0, e a
equação (2) escreve-se, pelo menos para t nalgum “pequeno”intervalo do tipo [−δ, 0], como equação
de variáveis separáveis, p
u0 = V (a) − V (u)
que podemos resolver explicitamente por primitivação:
Z u
ds
p = t, b<u≤a
a V (a) − V (s)

Note-se que o integral (impróprio no extremo a) que surge nesta equação tem sentido para b < u ≤ a
porque é convergente. Na verdade, ele é da mesma natureza que o integral
Z a
ds
√ ,
a−δ a−s
porque p
V (a) − V (s) p 0
lim− √ = V (a) 6= 0.
s→a a−s
Mas o integral converge mesmo para u = b (onde é outra vez impróprio, porque V (b) = V (a)),
pelo mesmo argumento! De facto
p
V (a) − V (s) p 0
lim+ √ = |V (b)| =6 0.
s→b s−b

40
Ra ds
Assim, a solução u(t) toma o valor b para t1 = − b
√ . Em particular,
V (a)−V (s)
(iii) b é o valor mı́nimo de u(t); Ra ds
(iv) a solução não continuável de (1) é periódica de perı́odo 2t1 = 2 b √ .
V (a)−V (s)

O procedimento seguido mostra que podemos enunciar o seguinte teorema, cuja demonstração
se faz copiando os passos anteriores.

Teorema 8.2 Consideremos a equação

u00 + f (u) = 0 (4)

onde f ∈ C 1 (R). Seja u(t) solução não continuável de (3) com domı́nio I. Então, se V (u)
representa uma primitiva de 2f (u), existe uma constante K tal que

u02 (t) + V (u(t)) = K ∀t ∈ I. (5)

Se, além disso, existe um intervalo [b, a] tal que V (b) = V (a) = K, V (u) < K ∀u ∈ (b, a), e
V 0 (b) 6= 0, V 0 (a) 6= 0,
R a u(t) tem domı́nio R, valor mı́nimo b, valor máximo a e é periódica, de
perı́odo 2t1 com t1 = b √ ds .
V (a)−V (s)

Nota 1: se forem dadas condições iniciais u(0) = µ, u0 (0) = ν, calculamos K a partir de (5):

K = ν 2 + V (µ).

Nota 2: Nas condições do teorema, é óbvio que V atinge um mı́nimo em algum ponto d ∈]b, a[.
Então, f (d) = 0. Portanto existe um equilı́brio, isto é, uma solução constante de (4), em ]b, a[.

Caso 2. a = 3. Procedendo como no caso anterior encontramos a constante que corresponde a


esta solução: K = V (3) = 12. Por conseguinte, pela mesma linha de raciocı́nio,

V (u(t)) ≤ 12, ∀t pertencente ao domı́nio de u. (6)

Deduzimos que u(t) toma valores no intervalo (−∞, 3]: Mais uma vez,
(i0 ) o valor máximo de u é 3 = u(0).
Mas neste caso não temos minorante finito para u. Resolvendo a equação de variáveis separáveis
para t ≤ 0 temos Z u
ds
p = t, u ≤ 3.
3 V (3) − V (s)
Novamente, o integral tem sentido em u = 3 porque V 0 (3) 6= 0. Todos os valores u ≤ 3 são agora
admissı́veis. Como Z −∞ Z 3
ds ds
p =− p
3 V (3) − V (s) −∞ V (3) − V (s)
é convergente, a solução, não prolongável à esquerda, de (1) com a = 3 tem domı́nio limitado:
R3
(− −∞ √ ds , 0] ou aproximadamente (−3.32831, 0].
V (3)−V (s)
Refazendo este raciocı́nio para t ≥ 0 podemos verificar que o domı́nio da solução não prolongável
do mesmo problema é aproximadamente (−3.32831, 3.32831).

Exercı́cio: Estudar o comportamento da solução de (1) para a = 2.

41
9 Sistemas não lineares III: o pêndulo simples
Nota: esta secção foi escrita originalmente antes da precedente. Por isso encontrar-se-ão repetições
relativamente ao que já foi dito nessa secção.

Consideremos a equação do pêndulo escrita na forma


u00 + a sin u = 0. (p)
Multiplicando por u0 conclui-se que qualquer solução de (p) verifica a lei de conservação (“con-
servação da energia”)
u02
+ a(1 − cos u) = K
2
onde K é uma constante adequada, que podemos identificar se conhecermos, por exemplo, condições
iniciais u(t0 ), u0 (t0 ) num instante t0 . Se pusermos, para abreviar a notação
V (u) = 2a(1 − cos u)
então a equação anterior reescreve-se, com um novo significado de K:
u02 + V (u) = K. (1)
Observamos imediatamente que em (1) é necessariamente K ≥ 0 e que V (u) ≤ K. Dado que
V tem máximo 4a e atendendo ao comportamento de V (fig. 9) concluimos também que, se
0 < K < 4a, então a solução correspondente, se tomar, por exemplo, o valor 0, só pode tomar
valores no intervalo [−m, m] onde m ∈ (0, π) e V (m) = K.

O caso K = 0. Dá-nos em (1) as soluções constantes u ≡ 0, e de um modo geral u ≡ 2nπ com


n inteiro... (que representam a mesma solução “fı́sica”: o pêndulo imóvel na posição de repouso
“mais baixa”).

O caso 0 < K < 4a. Vamos mostrar que as soluções com tais valores de K são
periódicas e daremos uma expressão para o respectivo perı́odo. Procuremos condições
iniciais que produzam a solução de (1): consideremos por exemplo a solução do PVI com condições
iniciais √
u(0) = 0, u0 (0) = K.
Ponhamos V (m) = K (com m ∈ (0, π)) como há pouco.

Facto 1: A solução tem derivada positiva em (−α, α), onde


Z m
ds
α= p .
0 V (m) − V (s)

Demonstração: A solução verifica (1) e por isso, pelo menos em alguma vizinhança de zero
podemos resolver em ordem a u0 escolhendo a raiz positiva:
p
u0 = K − V (u) (2)
Observando que (2) tem variáveis separáveis, podemos proceder por primitivação, como recordámos
no inı́cio do curso: Z u
ds
p =t+c (3)
0 K − V (s)

42
onde c é uma constante, e como u = 0 corresponde a t = 0 vê-se que c = 0. Temos, pois,
Z u
ds
p = t, −m < u < m (4)
0 K − V (s)

Observemos em seguida que existe o número real5


Z m
ds
α= p . (5)
0 V (m) − V (s)

Por conseguinte, a solução u(t), definida implicitamente por (4), está definida em (−α, α)
mantendo-se válida neste intervalo a equação (2).
Derivando esta equação em ordem a t imediatamente se reconhece que se trata efectivamente
de uma solução de (p).

Facto 2: A solução prolonga-se, ainda como como solução, ao intervalo [−α, α]; sendo u(±α) =
±m e u0 (±α) = 0.

Demonstração: Considerando a equação como sistema plano

u0 = v, v 0 = −a sin u

e notando que (4) e (2) mostram que se trata de uma solução limitada, resulta da proposição 6.1
que o referido prolongamento existe. Os valores u(±α), u0 (±α) são os limites dados por aquelas
fórmulas quando t → ±α e por isso são os indicados.6

Facto 3: u é prolongável ao intervalo [−α, 3α] de modo que o seu gráfico fique simétrico em
relação à vertical t = α e u é ainda solução de (p).

Demonstração. Esta afirmação resulta da Proposição 8.1. Basta definir a nova função
(
u(t), −α ≤ t ≤ α
y(t) =
u(2α − t), α ≤ t ≤ 3α

A solução assim estendida, que continuaremos a representar por u(t), tem agora a propriedade

u(−α) = u(3α), u0 (−α) = u0 (3α).

Facto 4: u(t) é prolongável a R como função de perı́odo 4α que é solução de (p).

Demonstração: Esta afirmação resulta da proposição 8.2. Por exemplo, no intervalo [3α, 7α] a
expresão analı́tica do prolongamento é u(t − 4α), etc.

5 De facto, o integral converge porque, em virtude de ser V 0 (m) > 0, a integranda é majorada, numa
√ V (m)−V (s)
vizinhança esquerda de m, por uma função do tipo c/ m − u. De lims→m m−s
= V 0 (m) deduz-se

V (m)−V (s) 1
≤ √ 0 2√
p
lims→m √
m−s
= V 0 (m) e daı́ √ em certo intervalo (m − δ, m).
V (m)−V (s) V (m) m−u
6 Como estamos em presença de uma simetria (V é par) obtivemos uma solução u(t) ı́mpar; mas este facto não
tem um carácter essencial. Se estivéssemos a considerar uma equação análoga em que o gráfico de V é semelhante
mas não simétrico, neste passo terı́amos uma solução definida em certo intervalo [β, α], com β < 0 < α. Ver a Nota
4 mais à frente.

43
Assim, o gráfico de u tem o aspecto esquematizado na Figura 10.

Estimativas do perı́odo: Retomemos uma trajectória (1) com 0 < K < 4a. Como vimos, o
perı́odo é dado por Z m
du
T =4 p .
0 V (m) − V (u)
Notemos que V (0) = V 0 (0) = 0 e V 00 (0) = 2a > 0. Então, dado ² existe δ tal que 2a − ² ≤ V 00 (s) ≤
2a + ² if 0 ≤ s ≤ δ, e como Z m Z t
V (m − V (u) = dt V 00 (s) ds
u 0
obtemos
² ²
(a − )(m2 − u2 ) ≤ V (m − V (u) ≤ (a + )(m2 − u2 ), 0 ≤ u < m ≤ δ.
2 2
Concluimos m m
du du
Z Z
4 ≤T ≤4
(a + 2² )(m2 − u2 ) (a − 2² )(m2 − u2 )
p p
0 0

e portanto √
lim T = 2π/ a.
m→0

Nota 1. Como V (m) − V (u) = 4a(sin2 m 2 x


2 − sin 2 ), o perı́odo escreve-se
Z m
2 du
T =√ q .
a 0 sin2 m − sin 2 u
2 2

Fazendo a mudança de variável


sin u2
sin ϕ =
sin m2
um cálculo não muito complicado mostra que, finalmente,
π
4 dϕ
Z 2
T =√ q .
a 0 1 − sin2 m
sin2 ϕ
2

A função π

Z 2
K(z) = p
0 1 − z 2 sin2 ϕ
chama-se integral elı́ptico completo de primeira espécie. Portanto,
4 m
T = √ K(sin ).
a 2

Nota 2. Os cálculos para demonstrar o Facto 1 podem ser feitos, alternativamente, de


modo ligeiramente diferente: podemos resolver (2) resolvendo primeiro a equação diferencial para
a função inversa:
dt 1
=p , 0 ≤ u < m. (7)
du K − V (u)

44
que se resolve por simples primitivação:
u
ds
Z
t = t(u) = p . (8)
0 K − V (s)

É fácil verificar que a função u(t), inversa da que é dada por (8), verifica efectivamente (1) em
[−α, α], extremo direito incluı́do! Em particular:

u(α) = m, u0 (α) = 0. (9)

Nota 3. Os restante raciocı́nio poderia também ser construı́do repetindo cálculos análogos
ao do Facto 1. Com efeito, supondo provados os Factos 1 e 2, e como u00 (α) = −a sin u(α) =
−a sin m < 0, temos pelo menos numa vizinhança direita de α,
p
u0 = − K − V (u). (10)

De (9) e do teorema de unicidade resulta

u(t) = u(2α − t), α ≤ t ≤ 2α.

Tem-se portanto √
u(2α) = 0, u0 (2α) = − K. (11)
Utilizando ainda (10) e o mesmo cálculo que conduziu a (8), concluimos que u(t) é prolongável
pelo menos até t = 3α, com
u(3α) = −m, u0 (3α) = 0 (12)
porque o integral que surge no cálculo do intervalo de “tempo”necessário para que a solução passe
dos valores (11) aos valores (12) é exactamente igual ao que já surgiu em (8).
Finalmente, partindo desta condição inicial, e porque pela unicidade se deve ter u(t) = u(4α −
t), 3α ≤ t ≤ 4α, reconhecemos que a solução é na verdade prolongável até t = 4α e que

u(4α) = 0, u0 (4α) = K.

Concluı́mos que
u(4α) = u(0), u0 (4α) = u0 (0),
ou seja, que a trajectória da curva t 7→ (u(t), u0 (t)) volta ao ponto de partida após o tempo 4α.

Nota 4. Estes argumentos aplicam-se, mais geralmente, a equações redutı́veis à forma (1),
em que V é uma função C 1 que não precisa de ser par e tal que

{x| V (x) < K} = (n, m)

com n < 0 < m, V (n) = V (m) = K e V 0 (n) < 0), V 0 (m) > 0. Também neste caso se constrói uma
solução periódica, não necessariamente ı́mpar.

O caso K > 4a. Vamos mostrar que neste caso a solução é ilimitada e tem derivada
periódica.
Por (1), a derivada de u nunca se anula. Então é sempre positiva ou sempre negativa. Para
fixar ideias, suponhamos que é sempre positiva (o tratamento do outro caso é análogo). Resulta
que a equação pode escrever-se na forma equivalente (2) e em particular
√ √
0 < δ := K − 4a < u0 (t) < K, ∀t ∈ R.

45
Integrando obtemos
u(t) < δt, se t ≤ 0; u(t) > δt, se t ≥ 0.
Em particular,
lim u(t) = −∞, lim u(t) = +∞
t→−∞ t→+∞

e u é estritamente crescente e sobrejectiva. Em particular, existe um número T (dependente de K,


claro) tal que
u(T ) = 2π.
Vamos então mostrar que
u(t + T ) = u(t) + 2π ∀t ∈ R. (13)
Na verdade, para t = 0 esta igualdade é verdadeira (porque u(0) = 0). E notando que ambos os
membros representam soluções de (2) (o primeiro porque a equação é autónoma; o segundo porque
V tem perı́odo 2π) concluı́mos, invocando o teorema de existência e unicidade para o problema de
valor inicial, que de facto (13) se verifica. E de (13) resulta logo que u0 tem perı́odo T .

O caso K = 4a. Neste caso a solução ou é constante ou é estritamente crescente e


tem-se
lim u(t) = −π, lim u(t) = +π
t→−∞ t→+∞
ou é estritamente decrescente e tem-se
lim u(t) = π, lim u(t) = −π.
t→−∞ t→+∞

Sendo K = 4a podemos ter u ≡ 2(n + 1)π, com n ∈ Z e evidentemente


√ u0 ≡ 0; ou então u não é
constante. Suponhamos, para fixar ideias, que u(0) = 0, u (0) = 4a. Então u0 é novamente dada
0

por (2) e portanto u é dada implicitamente por (4), onde agora m = π. Ora, usando um critério
de comparação como atrás, verificamos que
Z π
ds
p = +∞
0 V (π) − V (s)
pelo que a solução u(t) é efectivamente definida por (4) para todo o t real e a afirmação sobre os
limites é correcta.
Uma solução deste tipo diz-se heteroclı́nica porque “liga”os equilı́brios ±π.

Nota. É útil estudar as trajectórias das curvas t → (u(t), u0 (t)) no plano (u, u0 ) (plano
de fases). As equações destas curvas são as da forma (1); porções delas são gráficos da função
com expressão designatória (2) onde u é vista como variável independente e u0 como a variável
dependente. As soluções periódicas correspondem então a curvas fechadas; o caso K > 4a dá o
gráfico de uma função periódica; as heteroclı́nicas são curvas que ficam num dos semiplanos u0 > 0
ou u0 < 0 e ligam (π, 0) a (−π, 0). O conjunto está esquematizado na Figura 11.

10 O pêndulo simples com atrito e o comportamento as-


sintótico de certas soluções de sistemas não lineares
Nesta secção estudamos a equação
u00 + cu0 + f (u) = 0 (∗∗)
onde c ∈ R e f é contı́nua em R. Equações deste tipo surgem em importantes modelos da Mecânica.

46
Teorema 10.1 Seja c > 0. Se u(t) é solução limitada de (**) em [0, ∞), então limt→+∞ u(t) = l
existe e f (l) = 0. Além disso limt→+∞ u0 (t) = 0.

Para a demonstração teremos em conta, sucessivamente, o seguinte.

Facto 1: u0 (t) é também limitada. Efectivamente, pondo v = u0 basta resolver a equação linear
0
v + cv = b(t) onde b(t) = −f (u(t)) é limitada.
R∞
Facto 2: 0
u0 (s)2 ds < ∞. Temos, multiplicando a equação por u0

d u02
[ + F (u)] + cu02 = 0
dt 2
de onde, para todo o T > 0
T
u02
Z
[ + F (u)]T0 + c u02 = 0
2 0
RT
e, em virtude da hipótese e do Facto 1, os integrais 0
u02 são majorados independentemente de
T.

Facto 3: limt→+∞ u0 (t) = 0. Como a partir do Facto 1 se deduz que u00 (t) é limitada em [0, ∞)
conclui-se a partir do Facto 2 (exercı́cio).

u02
Facto 4: limt→+∞ F (u(t)) existe. Com efeito, da demonstração do Facto 2 resulta que 2 +F (u)
é decrescente. Depois aplicar o Facto 3.

Para concluir a demonstração, suponhamos que lim inf t→+∞ u(t) 6= lim supt→+∞ u(t). Então
existem a < b tal que, dado um número qualquer r ∈ [a, b], existe t arbitrariamente grande tal que
u(t) = r.
Em virtude do Facto 4, temos F =constante em [a, b] e então f = 0 em [a, b]. Tomemos
r = (a + b)/2, δ > 0 tal que 2δ/c < (b − a)/4, e em seguida T > 0 de modo que

u(T ) = r e |u0 (t)| < δ ∀t ≥ T.

Para t ≥ T e pelo menos no intervalo [T, S) tal que t ∈ [T, S) ⇒ u(t) ∈ (a, b), temos

u00 + cu0 = 0

o que implica u = A + Be−ct , A + Be−cT = r e |B|ce−ct < δ. Mas então


1 2δ
|A + Be−ct − r| ≤ |cBe−cT − cBe−ct | ≤ < b − a)/4
c c
o que significa que para todo o t ≥ T a solução é de facto A + Be−ct e toma valores apenas em
[ 3a+b a+3b
4 , 4 ], uma contradição.
Assim, limt→+∞ u(t) = l existe. E agora a própria equação (**) mostra que limt→+∞ u00 (t)
existe, não podendo deixar de ser 0. Logo, f (l) = 0. A demonstração fica concluida.

Nota. Pensando na equação como o sistema de primeira ordem equivalente


(
u0 = v
v 0 = −c v − f (u)

47
que tem a solução constante (l, 0), o que mostrámos é que a trajectória de (u, u0 ) no plano de fases
tende para esta constante. As soluções constantes chamam-se “equilı́brios”do sistema.

Com base neste resultado, vamos apresentar um método directo para o estudo do comporta-
mento assintótico das soluções da equação do pêndulo simples com atrito7

u00 + cu0 + a sin u = 0 (1)

onde c e a são constantes positivas. Este exemplo serve de modelo para problemas análogos.
Usando a notação da secção 4, observamos que, dada uma solução arbitrária de (1), a função
(“energia”)

E(t) = u0 (t)2 + V (u(t)) (2)


é decrescente8 , visto que
E 0 (t) = −2cu02 (3).
Em particular,

E(t) ≤ E(0), ∀t ≥ 0 (4)


(o “tempo inicial”pode ser fixado no valor t = 0, já que a equação é autónoma).

Proposição 10.1 Se E(0) < 4a, a solução é limitada em [0, +∞) e por isso existe n ∈ Z, par, tal
que
lim u(t) = nπ.
t→+∞

Demonstração. A solução fica limitada em virtude de (4) e de o máximo de V ser 4a, como nos
argumentos da secção sobre o pêndulo simples. Em virtude do teorema anterior, a solução tende
para um equilı́brio de (1) quando t → +∞. Como E(t) é decrescente, temos limt→+∞ E(t) =
V (l) < 4a, e isso prova a última afirmação.

Asa soluções com energia inicial 4a ou são os equilı́brios 2(n + 1)π ou perdem efectivamente
energia logo nos instantes seguintes, em virtude de (3), e então caem no caso previsto na proposição
anterior.
Para termos uma ideia do comportamento das soluções perto de um equilı́brio nπ podemos
considerar a equação linearizada de (1) nesse equilı́brio:

z 00 + cz 0 + a(−1)n z = 0
onde z descreve aproximadamente o comportamento da diferença u − nπ. Vemos que esse com-
portamento depende de c, a e da paridade de n. Por exemplo, para pequenos valores de c, a
aproximação ao equilı́brio é em espiral, já que a equação linearizada tem raizes caractetrı́sticas
complexas.

Vejamos que há também soluções que tendem para os equilı́brios nπ, com n ı́mpar, quando
t → +∞.
7A força de atrito, que agora se supõe existir, e ser proporcional à velocidade, está representada pelo novo termo
cu0 .
8 Não há pois, “conservação de energia”neste caso.

48
Para isso, vamos reduzir a procura de certas soluções de (1) à das soluções de uma equação de
primeira ordem. Suponhamos, efectivamente, que temos em vista uma solução monótona crescente,
para fixar ideias. O gráfico da sua trajectória no plano (u, u0 ) é o de uma função ϕ tal que u0 = ϕ(u)
(significando u0 (t) = ϕ(u(t)) para todo o t do intervalo onde está definida). Introduzindo em (1),
vemos que ϕ verifica

ϕ0 (u)ϕ(u) + cϕ(u) + a sin u = 0


ou seja
d
ϕ(u)2 + cϕ(u) + a sin u = 0.
2 du
Pondo ϕ2 = ψ e como ϕ ≥ 0, vem finalmente a equação de primeira ordem
p
ψ 0 (u) + 2c ψ(u) + 2a sin u = 0. (5)

Consideremos o equilı́brio (π, 0). A solução de (5) tal que ψ(π) = 09 satisfaz

ψ(0) > 4a

como se conclui imediatamente integrando (5) no intervalo [0, π]. Atendendo ao significado de ψ,
isto quer dizer que no instante em que u = 0, a energia (ψ + V ) é > 4a. O valor da energia em
u = 0, dado pela resolução deste PVI, corresponde à solução que tende para π quando t → +∞.

11 Estabilidade exponencial
Vamos estudar o comportamento no infinito de certas soluções para um sistema da forma

y 0 = Ay + g(t, y) (1)
onde

(H) A é matriz constante, g está definida e é contı́nua em [0, +∞) × Rn , sendo y-localmente
Lipschitziana, e tem-se
g(t, x)
lim =0
x→0 |x|
uniformemente em t ≥ 0. (Em particular, g(t, 0) ≡ 0 e 0 é solução de (1)!)

No que segue representamos por y(·, β) a solução de (1) com valor inicial y(0, β) = β.

Teorema 11.1 (Estabilidade exponencial) Suponhamos que todos os valores próprios da matriz
A têm parte real negativa. Então sob a hipótese (H), ∃C > 0, ∃r > 0 e ∃² > 0 tais que ∀β ∈ Rn
com |β| < ² a solução y(·, β) de (1) está definida em [0, +∞) e

|y(t, β)| ≤ C²e−rt ∀t ≥ 0.


9 Uma tal solução existe, mas não decorre do teorema de existência e unicidade dado neste curso, porque a função

não é Lipschitziana na origem.

49
Demonstração. Sabemos que as soluções de (1) têm a representação (fórmula de variação das
constantes: proposição 5.4)
Z t
At
y(t, β) = e β + eA(t−s) g(s, y(s, β)) ds.
0

Utilizaremos agora a estimativa, que demonstrámos para a exponencial de uma matriz (teorema
5.5),
|eAt β| ≤ Ce−kt |β| ∀t ≥ 0 ∀β ∈ Rn
onde, de acordo com a hipótese, podemos fixar −k < 0 e, obviamente, C > 1. Em virtude de (H)
existe δ tal que
k
|z| < δ ⇒ |g(t, z)| ≤ |z| ∀t ≥ 0. (∗)
2C
δ
Escolhamos um número positivo ² < 2C .
Afirmamos então:
δ −kt
|β| < ² < ⇒ |y(t, β)| ≤ C²e 2 ∀t ∈ [0, b) (a)
2C
para qualquer intervalo [0, b) onde y(·, β) esteja definida. Vamos demonstrar (a) para concluir.
Ora, em virtude de (*), para todos os t ≥ 0 tais que |y(t, β)| < δ,
Z t
−kt k
|y(t, β)| ≤ C|β|e +C e−k(t−s) |y(s, β)| ds,
0 2C

k t ks
Z
kt
|y(t, β)|e ≤ C|β| + e |y(s, β)| ds.
2 0
Pela desigualdade de Gronwall, e porque estamos a considerar |β| < ²,
kt
|y(t, β)|ekt ≤ C²e 2

o que, de acordo com a nossa escolha de ², mostra que


−kt δ
|y(t, β)| ≤ C²e 2 < (∗∗).
2
Ora, se |β| < ², |y(t, β)| < 2δ pelo menos para t numa vizinhança de 0. Se existe um intervalo
[0, t0 ] tal que |y(t, β)| < 2δ ∀0 ≤ t < t0 e |y(t0 , β)| = 2δ , obtemos uma contradição com (**). Assim,
em qualquer intervalo onde y(·, β) esteja definida, os valores desta solução mantêm-se efectivamente
na bola de raio δ. Pelo corolário 6.3, a solução está definida em [0, ∞) e temos agora a garantia
de poder aplicar (*) em todo este intervalo. Portanto demonstrámos (a), como se pretendia.

O significado deste teorema é que, para um sistema que é perturbação de um sistema linear de
coeficientes constantes por meio de termos de ordem superior em y = 0, as soluções que partem
de “pequenas”condições iniciais têm um comportamento semelhante às soluções do sistema linear
subjacente.
Quando se verifica a conclusão deste teorema, dizemos que o equilı́brio 0 do sistema (1) é
exponencialmente estável.

50
Suponhamos agora que o sistema autónomo

y 0 = f (y) (2)

onde f é de classe C 1 num aberto de Rn , tem uma solução constante (“equilı́brio”) y0 , isto é,

f (y0 ) = 0.

Podemos utilizar o resultado anterior para estudar a estabilidade exponencial desta solução “linearizando”f
numa vizinhança de y0 . Com efeito, sendo Df (y0 ) =: A a matriz jacobiana de f nesse ponto, temos
(uma vez que f (y0 ) = 0)
f (y) = Df (y0 )(y − y0 ) + g(y)
g(y)
onde, por definição de derivada, limy→y0 |y−y 0|
= 0. Portanto, com a translacção u = y − y0 o
sistema (*) é equivalente a
u0 = Au + g(y0 + u) (∗ ∗ ∗)
e limu→0 g(y|u|
0 +u)
= 0. Diremos que y0 é exponencialmente estável para (*) se 0 é exponencialmente
estável para (***). Assim, o conhecimento dos valores próprios de Df (y0 ) dá uma condição
suficiente para a estabilidade exponencial. Mais precisamente, do teorema anterior obtemos por
translacção o seguinte

Teorema 11.2 (Estabilidade exponencial) Seja f é de classe C 1 num aberto de Rn e y0 solução


constante de (2). Suponhamos que todos os valores próprios da matriz A = Df (y0 ) têm parte real
negativa. Então ∃C > 0, ∃r > 0 e ∃² > 0 tais que ∀β ∈ Rn com |β − y0 | < ² a solução y(·, β) de
(2) está definida em [0, +∞) e

|y(t, β) − y0 | ≤ C²e−rt ∀t ≥ 0.

51

You might also like