You are on page 1of 63

Sistemas Dinâmicos Não-autônomos

Pedro Flavio Silva Othechar

S EMINÁRIO DE S ISTEMAS D INÂMICOS

Programa de Pós Graduação em Matemática


Universidade Estadual de Maringá

Maringá, Dezembro de 2017


SUMÁRIO

1 Introdução 5

2 Equações Diferenciais Não-autônomas 7

2.1 Soluções e problemas de valor inicial . . . . . . . . . . . . . . . . . . . . . 7

2.2 Existência e unicidade de soluções . . . . . . . . . . . . . . . . . . . . . . 8

2.3 Propriedades adicionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2.4 Equações lineares não-autônomas . . . . . . . . . . . . . . . . . . . . . . 22

2.5 Estabilidade de equações não-autônomas . . . . . . . . . . . . . . . . . . 26

2.6 Diferenciabilidade do fluxo de uma EDO autônoma . . . . . . . . . . . . 30

3 Sistemas Dinâmicos Não-Autônomos: Processos 35

3.1 Soluções inteiras e conjuntos invariantes . . . . . . . . . . . . . . . . . . . 37

3.2 Atratores para processos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

4 Sistemas Dinâmicos Não-Autônomos: Fluxos Skew Product 51

4.1 Atratores para fluxos skew product . . . . . . . . . . . . . . . . . . . . . . 55


CAPÍTULO 1

INTRODUÇÃO

No presente estudo desenvolveremos a teoria dos sistemas dinâmicos não-autônomos,


baseado nas referências [1], [2] e [3] para o estudo das equações diferenciais não-autônomas
e nas referências [4] e [5] para o estudo de processos e fluxos skew product. Iniciare-
mos o estudo pela teoria das equações diferenciais ordinárias não-autônomas, isto é,
equações da forma
0
x = F (t, x) (1.0-1)

onde F : U → E, com U um aberto de R × E, E um espaço normado de dimensão


finita e x : (a, b) → E. Para conseguir garantir algumas propriedades como existência
e unicidade das soluções de tais equações, propriedade esta que é fundamental para
garantir outras propriedades importantes, assumiremos que a função F é contínua
e localmente lipschitziana. Estudaremos também a estabilidade das soluções de tais
equações a fim de investigar o comportamento das soluções próximo de um ponto
de equilíbrio e exemplificaremos este conceito com resultados sobre estabilidade de
equações lineares.

Posteriormente, a fim de estudar estruturas mais gerais satisfazendo as mesmas


propriedades que as soluções de (1), investigaremos o fato de que as soluções de (1.0-
0
1), diferentemente das soluções da equação x = F (x), não satisfazem a propriedade
de fluxo. A partir daí veremos que as soluções satisfazem uma propriedade, garantida
pelo teorema de existência e unicidade, que dá origem ao conceito de processo.
Posteriormente, ampliaremos a generalidade das propriedades satisfeitas pelas equa-
ções não-autônomas obtendo o conceito de fluxos skew product, o qual será motivado
por um sistema com duas equações, uma não-autônoma com uma variável dependente
da solução da segunda equação, que é autônoma. Tendo em mãos as formalizações de
processos e fluxos skew product estudaremos os conceitos de invariância e atração.
CAPÍTULO 2

EQUAÇÕES DIFERENCIAIS NÃO-AUTÔNOMAS

2.1 Soluções e problemas de valor inicial

Nesta seção apresentaremos algumas noções básicas sobre equações diferenciais ordi-
nárias (EDO) tendo como motivação a completude do texto. Vamos iniciar introdu-
zindo a noção de solução de uma EDO. Dada uma função contínua F : U → E num
aberto U ⊂ R × E, consideramos a equação diferencial

0
x = F (t, x) (2.1-1)

A incógnita desta equação é a função x = x(t).

Definição 1. Dizemos que uma função x : (a, b) → E de classe C 1 é uma solução da equação
diferencial (2.1-1) se:

(i) (t, x(t)) ∈ U para cada t ∈ (a, b);


0
(ii) x (t) = F (t, x(t)) para cada t ∈ (a, b).

Definição 2. Para cada (t0 , x0 ) ∈ U , o problema de valor inicial



 x0 = F (t, x),
(2.1-2)
 x(t ) = x .
0 0

consiste em determinar um intervalo aberto (a, b) que contém o instante t0 e uma solução x :
(a, b) → E da equação (2.1-1) tal que x(t0 ) = x0 . Chamamos a x(t0 ) = x0 a condição inicial
do problema.

A proposição a seguir traz uma caracterização das soluções de uma equação dife-
rencial ordinária, a qual será bastante utilizada nas demonstrações de teoremas estu-
dados posteriormente.

Proposição 3. Seja F : U → E uma função contínua num aberto U ⊂ R × E. Dado (t0 , x0 ) ∈


U , uma função contínua x : (a, b) → E num intervalo aberto contendo t0 é uma solução do
problema de valor inicial (2.1-2) se, e somente se,
Z t
x(t) = x0 + f (s, x(s))ds (2.1-3)
t0

para qualquer t ∈ (a, b).

Demonstração: Note inicialmente que a função t 7−→ F (t, x(t)) é contínua, pois é uma
composição de funções contínuas e, portanto, integrável em qualquer intervalo limi-
tado. Suponhamos agora que x = x(t) é uma solução do problema de valor inicial
(2.1-2). Para t ∈ (a, b) temos
Z t Z t
0
x(t) − x0 = x(t) − x(t0 ) = x ds = F (s, x(s))ds,
t0 t0

o que estabelece (2.1-3). Reciprocamente, se a igualdade (2.1-3) é satisfeita para qual-


quer t ∈ (a, b), então claramente x(t0 ) = x0 e temos

0
x = F (t, x(t)) (2.1-4)

para t ∈ (a, b). Como a função t 7−→ F (t, x(t)) é contínua, concluímos de (2.1-4) que x
é de classe C 1 e portanto é uma solução do problema do valor inicial (2.1-2).

2.2 Existência e unicidade de soluções

Antes de provarmos o teorema de Picard-Lindelöf, que estabelece a existência e uni-


cidade das soluções do PVI (2.1-2), apresentaremos alguns conceitos e resultados que
serão utilizados na demonstração do teorema.
9

Definição 4. Dizemos que uma função F : U → E num conjunto aberto U ⊂ R × E é


localmente lipschitziana em x se para cada compacto K ⊂ U existe L > 0 tal que

||F (t, x) − F (t, y)|| ≤ L||x − y|| (2.2-5)

para quaisquer (t, x), (t, y) ∈ K

Definição 5. Dizemos que uma transformação T : X → X num espaço métrico (X, d) é uma
contração se existe λ ∈ (0, 1) tal que

d(T (x), T (y)) ≤ λd(x, y)

para quaisquer x, y ∈ X.

Um ponto x0 ∈ X se diz um ponto fixo de uma transformação T : X → X quando


T (x0 ) = x0 . O teorema a seguir estabelece uma propriedade das contrações com relação
ao ponto fixo. No que segue a notação T n é definida por T n+1 = T ◦T n para cada n ∈ N.

Teorema 6. Se T : X → X é uma contração num espaço métrico completo (X, d), então T
possui um único ponto fixo. Além disso, para cada x ∈ X a sequência (T n (x)) converge para o
único ponto fixo de T .

Demonstração: Dado x ∈ X, considere a sequência xn = T n (x) para n ∈ N. Dados


m > n, obtemos então

d(xm , xn ) ≤ d(xm , xm−1 ) + d(xm−1 , xm−2 ) + · · · + d(xn+1 , xn )

= d(T m (x), T m−1 (x)) + d(T m−1 (x), T m−2 (x)) + · · · + d(T n+1 (x), T n (x))

≤ λm−1 d(T (x), x) + λm−2 d(T (x), x) + · · · + λn d(T (x), x)

= (λm−1 + λm−2 + · · · + λn )d(T (x), x)


1 − λm−n
= λn d(T (x), x)
1−λ
λn
≤ d(T (x), x)
1−λ

Isto mostra que (xn ) é uma sequência de Cauchy em X e como o espaço é completo
a sequência possui limite, digamos x0 ∈ X. Note que

d(T (xn ), T (x0 )) ≤ λd(xn , x0 ) → 0


quando n → +∞ e, portanto, a sequência (T (xn )) converge para T (x0 ). Mas como
T (xn ) = xn+1 , a sequência (T (xn )) também converge para x0 . Pela unicidade do limite
concluímos que T (x0 ) = x0 e portanto x0 é um ponto fixo de T .

Agora suponha que y0 ∈ X também é um ponto fixo de T . Então

d(x0 , y0 ) = d(T (x0 ), T (y0 )) ≤ λd(x0 , y0 ).

Como λ < 1, a desigualdade acima é satisfeita se, e somente se, x0 = y0 . A última


propriedade segue diretamente da unicidade do ponto fixo, uma vez que foi mostrado
anteriormente que a sequência (T n (x)) converge para um ponto fixo de T .

Antes de provarmos o teorema de Picard-Lindelöf, vamos provar uma proposição


cujo corolário é um importante resultado para a demonstração do teorema.

Proposição 7. O conjunto X = C(a, b) das funções contínuas e limitadas x : (a, b) → E num


intervalo aberto (a, b) ⊂ R é um espaço métrico completo com a métrica

d(x, y) = sup {||x(t) − y(t)||; t ∈ (a, b)} (2.2-6)

Demonstração: É claro que d é uma métrica. Agora, seja (xn ) uma sequência de Cauchy
em X. Para cada t ∈ (a, b) temos

||xm (t) − xn (t)|| ≤ d(xm , xn ) (2.2-7)

e, portanto, (xn (t)) é uma sequência de Cauchy em E. Logo, essa sequência é conver-
gente e existe o limite
x(t) = lim xn (t).
n→+∞

Fica assim definida uma função x : (a, b) → E. Mostraremos agora que x ∈ X. Para
cada t, s ∈ (a, b), temos

||x(t) − x(s)|| ≤ ||x(t) − xn (t)|| + ||xn (t) − x(s)||. (2.2-8)

Por outro lado, resulta da equação (2.2-7) e do fato de (xn ) ser uma sequência de Cau-
11

chy, que dado  > 0 existe r ∈ N tal que


||xm (t) − xn (t)|| <
3

para quaisquer t ∈ (a, b) e m, n ≥ r. Fazendo n → +∞ na desigualdade anterior,


obtemos

||xm (t) − x(t)|| ≤ (2.2-9)
3
para quaisquer t ∈ (a, b) e m ≥ r. Resulta então de (2.2-8) que

2
||x(t) − x(s)|| ≤ + ||xr (t) − xr (s)|| (2.2-10)
3

para quaisquer t, s ∈ (a, b). Como a função xr é contínua, dado t ∈ (a, b) existe δ > 0
tal que

||xr (t) − xr (s)|| < para ||t − s|| < δ.
3
Resulta então de (2.2-10) que

||x(t) − x(s)|| <  para ||t − s|| < δ.

e assim x é contínua. Além disso, resulta de (2.2-9) que dado  > 0, existe r ∈ N tal que

||x(t)|| ≤ ||xm (t) − x(t)|| + ||xm (t)||



≤ + sup {||xm (t)|| : t ∈ (a, b)} < +∞
3

para qualquer m ≥ r e portanto a função x ∈ X. Temos também


d(xm , x) = sup {||xm (t) − x(t)|| : t ∈ (a, b)} ≤
3

para qualquer m ≥ r, assim d(xm , x) → 0 quando m → +∞. Portanto, X é um espaço


métrico completo.

Corolário 8. Seja X ⊂ C(a, b) o conjunto das funções contínuas x : (a, b) → E tais que

||x(t) − x0 || ≤ 

para todo t ∈ (a, b) e com x0 ∈ X fixo. Então X é um espaço métrico completo com a distância
d dada por (2.2-6).

Demonstração: Dada uma sequência de Cauchy (xn ) em X, da completude de C(a, b)


segue que essa sequência converge para uma função x ∈ C(a, b). Agora note que

||x(t) − x0 || = lim ||xn (t) − x0 || ≤ 


n→+∞

para todo t ∈ (a, b), pois ||xn (t) − x0 || ≤  para quaisquer t ∈ (a, b) e n ∈ N.

Agora estamos preparados para estabelecer o resultado que garante a existência e


unicidade das soluções do PVI (2.1-2) admitindo certas condições para a função F .

Teorema 9 (Picard-Lindelöf). Se F : U → E é uma função contínua e localmente lipschit-


ziana em x num conjunto aberto U ⊂ R × E, então para cada (t0 , x0 ) ∈ U existe uma única
solução para o problema de valor inicial (2.1-2) em algum intervalo aberto contendo t0 .

Demonstração: Segue da proposição 3 que o problema de valor inicial é equivalente a


determinar uma função x ∈ C(a, b) num intervalo aberto (a, b) contendo t0 tal que
Z t
x(t) = x0 + F (s, x(s))ds
t0

para qualquer t ∈ (a, b), onde C(a, b) é o conjunto das funções contínuas e limitadas
y : (a, b) → E. Determinaremos x como sendo um ponto fixo de uma contração.

Considere agora constantes a < t0 < b e  > 0 tais que

K = [a, b] × B[x0 , ] ⊂ U, (2.2-11)

onde
B[x0 , ] = {y ∈ E : ||y − x0 || ≤ }.

Considere o conjunto X ⊂ C(a, b) o conjunto das funções contínuas x : (a, b) → E tais


que
||x(t) − x0 || ≤ 

para todo t ∈ (a, b). Pelo corolário 8 X é um espaço métrico completo com a distância
dada por (2.2-6).

Afirmação: Não há perda de generalidade em procurar pontos fixos em X ao invés de


procurar em C(a, b).
13

De fato, se x : (a, b) → E é uma função contínua que satisfaz 2.1-3, então


Z t
||x(t) − x0 || ≤ || F (s, x(s))ds||
t0

≤ |t − t0 |M ≤ (b − a)M,

onde
M = max {||F (t, x) : (t, x) ∈ K||} < +∞, (2.2-12)

uma vez que F é contínua e K é compacto. Concluímos assim que se x ∈ C(a, b) satisfaz
a identidade 2.1 − 3, então está em X para algum .

Consideremos agora a transformação T definida para cada x ∈ X por


Z t
T (x)(t) = x0 + F (s, x(s))ds
t0

Notamos que t 7−→ T (x)(t) é contínua e que


Z t
||T (x)(t) − x0 || ≤ || F (s, x(s))ds|| ≤ (b − a)M.
t0

Para b − a suficientemente pequeno temos (b − a)M ≤  e portanto T (X) ⊂ X. Além


disso, dados x, y ∈ X, temos
Z t

||T (x)(t) − T (y)(t)|| ≤ [F (s, x(s)) − F (s, y(s))] ds

t
Z t0
≤ L||x(s) − y(s)||ds
t0
Z t
≤ Ld(x, y)ds
t0

≤ (b − a)Ld(x, y)

onde L é a constante em (2.2-5) para o compacto K em (2.2-11) e onde d é a métrica em


(2.2-6). Logo,
d(T (x), T (y)) ≤ (b − a)Ld(x, y)

para quaisquer x, y ∈ X. Para b − a suficientemente pequeno temos (b − a)L < 1, além


de (b − a)M ≤  e a transformação T é uma contração no espaço métrico completo X.
Pelo teorema 6, a transformação T possui um único ponto fixo x ∈ X, que é portanto a
única função contínua em (a, b) que satisfaz (2.1-3).

O seguinte teorema serve para estabelecermos um corolário do teorema de Picard-


Lindelöf.

Teorema 10. Toda função F : U ⊂ R × E → E de classe C 1 é localmente lipschitziana.

Demonstração: Dado (t, x0 ) ∈ U , escolha  > 0 tal que B[(t, x0 ), ] ⊂ U . Como


B[(t, x0 ), ] é compacta e (t, x) 7−→ dF(t,x) é contínua, então existe K > 0 tal que

kdF(t,x) k ≤ K, ∀(t, x) ∈ B[(t, x0 ), ].

Dados quaisquer (t, y), (t, z) ∈ B[(t, x0 ), ], então o segmento de reta

(t, y) + s((t, z) − (t, y)), 0≤s≤1

está contido em B[(t, x0 ), ]. Defina φ : [0, 1] −→ E por

φ(s) = F ((t, y) + s[(t, z) − (t, y)]) .

Então, φ é diferenciável e

φ0 (s) = dF(t,y)+s[(t,z)−(t,y)] (z − y).

Dessa forma Z 1
F ((t, z)) − F ((t, y)) = φ(1) − φ(0) = φ0 (s)ds
0

e disto
Z 1

kF ((t, z)) − F ((t, y))k =
dF (t,y)+s[(t,z)−(t,y)] (z − y)ds

0
Z 1

≤ dF(t,y)+s[(t,z)−(t,y)] (z − y) ds
Z0 1

≤ dF(t,z)−(t,y) · kz − yk ds
Z0 1
≤ Kk(t, z) − (t, y)kds = Kkz − yk
0
15

Corolário 11 (do Teorema de Picard-Lindelöf). Se F : U → E é uma função de classe C 1


num aberto U ⊂ R × E, então para cada (t0 , x0 ) ∈ U existe uma única solução do problema de
valor inicial (2.1-2) em algum intervalo aberto contendo t0 .

2.3 Propriedades adicionais

Nesta seção estudaremos propriedades adicionais das soluções de uma EDO não-autônoma.
Veremos como as soluções dependem das condições iniciais para funções contínuas F
que são localmente lipschitziana e o que acontece quando uma solução não pode ser
extendida a um intervalo aberto maior que aquele onde está definida.

Para o desenvolvimento da primeira parte desse estudo, estabeleceremos o seguinte


resultado auxiliar.

Proposição 12 (Lema de Gronwall). Sejam u, v : [a, b] → R funções contínuas com v ≥ 0 e


seja C ∈ R. Se Z t
u(t) ≤ C + u(s)v(s)ds (2.3-13)
a

para qualquer t ∈ [a, b], então


Rt
v(s)ds
u(t) ≤ Ce a

para qualquer t ∈ [a, b].

Demonstração: Consideremos as funções


Z t
r(t) = u(s)v(s)ds
a

e Z t
V (t) = v(s)ds
a

Notemos inicialmente que r(a) = 0 e que por hipótese temos

0
r (t) = u(t)v(t) ≤ (C + r(t))v(t)

Logo,
0
r (t) − v(t)r(t) ≤ Cv(t)
e, portanto,

d −V (t) 0
r(t) = e−V (t) (r (t) − v(t)r(t))

e
dt
0 d
= e−V (t) r (t) + (−V (t))r(t)
dt
≤ Cv(t)e−V (t)

Como R(a) = 0, concluímos que


Z t
−V (t)
e r(t) ≤ Cv(s)e−V (s) ds
a
s=t
= −Ce−V (s) = C 1 − e−V (t)
 
s=a

e assim
r(t) ≤ CeV (t) − C

Finalmente, de 2.3-13 temos que

u(t) ≤ C + r(t) ≤ CeV (t)

Agora estamos em condições de estabelecer a dependência Lipschitz das soluções


nas condições iniciais.

Teorema 13. Seja F : U → E uma função contínua e localmente lipschitziana em x num con-
junto aberto U ⊂ R × E. Dado (t0 , x0 ) ∈ U , existe uma constante  > 0 e um intervalo aberto
I contendo t0 tais que para x1 ∈ E com ||x0 − x1 || <  as soluções φ(t) e ϕ(t) respectivamente
dos problemas de valor inicial
 
 x0 = F (t, x)  x0 = F (t, x)
e (2.3-14)
 x(t ) = x  x(t ) = x
0 0 0 1

satisfazem
||φ(t) − ϕ(t)|| ≤ eL(t−t0 ) ||x0 − x1 || (2.3-15)

para todo t ∈ I e uma constante L > 0.

Demonstração: Pelo teorema de Picard-Lindelöf, os problemas de valor inicial em (2.3-


17

14) têm soluções únicas φ(t) e ϕ(t) em algum intervalo aberto I contendo t0 (que pode-
mos supor o mesmo). Além disso, pela proposição 3, temos que
Z t
φ(t) = x0 + F (s, φ(s))ds (2.3-16)
t0

e Z t
ϕ(t) = x1 + F (s, ϕ(s))ds (2.3-17)
t0

para todo t ∈ I. Suponhamos sem perda de generalidade que t ≥ t0 . Definimos uma


função ψ : I → E por
ψ(t) = φ(t) − ϕ(t).

Para t ≥ t0 , resulta de (2.3-16) e (2.3-17) que


Z t
||ψ(t)|| ≤ ||x0 − x1 || + ||F (s, φ(s)) − F (s, ϕ(s))||ds
t0
Z t
≤ ||x0 − x1 || + L ||φ(s) − ϕ(s)||ds
t
Z 0t
≤ ||x0 − x1 || + L ||ψ(s)||ds
t0

para alguma constante L. Tomando

u(t) = ||ψ(t)||, v(t) = L e C = ||x0 − x1 ||,

resulta do lema de Gronwall que

Rt
v(s)ds
||φ(t) − ϕ(t)|| = u(t) ≤ Ce t0
= ||x0 − x1 ||eL(t−t0 )

Teorema 14. Seja U ⊂ R × E um aberto e F, G : U → E. Suponha que para todo (t, x) ∈ U ,

||F (t, x) − G(t, x)|| < 

Seja L uma constante de Lipschitz em x para F (t, x). Se φ(t) e ϕ(t) são soluções para

0
x = F (t, x),
0
x = G(t, x),

respectivamente, em algum intervalo I, e φ(t0 ) = ϕ(t0 ), então

 L|t−t0 | 
||φ(t) − ϕ(t)|| ≤ e −1
L

para todo t ∈ I.

Demonstração: Para t ∈ I temos


Z t
0 0
φ(t) − ϕ(t) = [φ (s) − ϕ (s)]ds
t
Z 0t
= [F (s, φ(s)) − G(s, ϕ(s))]ds
t0

Portanto
Z t Z t
||φ(t) − ϕ(t)|| ≤ ||F (s, φ(s)) − F (s, ϕ(s))||ds + ||F (s, ϕ(s)) − G(s, ϕ(s))||ds
t t0
Z 0t Z t
≤ L||φ(s) − ϕ(s)||ds + ds
t0 t0

Fazendo u(t) = ||φ(t) − ϕ(t)||, temos


Z th
i
u(t) ≤ L u(s) + ds,
t0 L

Z th
  i
u(t) + ≤ + L u(s) + ds.
L L t0 L
Daí, segue da desigualdade de Gronwal que

 
u(t) + ≤ eL|t−t0 | ,
L L

o que prova o teorema.

Agora estamos interessados em investigar a possibilidade de estender, de forma


única, cada solução do PVI (2.1-2) dadas pelo teorema de Picard-Lindelöf a um inter-
valo máximo.

Teorema 15. Se F : U → E é uma função contínua e localmente lipschitziana em x num


conjunto aberto U ⊂ R × E, então para cada (t0 , x0 ) ∈ U existe uma única solução φ : J → E
19

do PVI (2.1-2) tal que, para qualquer solução x : Ix → E do mesmo problema, temos Ix ⊂ J e
x(t) = φ(t) quando t ∈ Ix .

S
Demonstração: Definimos J = x Ix . Notemos que J é necessariamente um intervalo
aberto contendo t0 , uma vez que é a união de intervalos abertos contendo t0 . Definimos
então uma função φ : J → E da seguinte maneira. Para cada t ∈ Ix tomamos φ(t) =
x(t). Note que a função φ está bem definida, isto é, que φ(t) não depende da função x.
De fato, seja x : Ix → E e y : Iy → E soluções para o PVI (2.1-2). Seja também I o maior
intervalo aberto contendo t0 onde x = y.

Mostraremos que, I = Ix ∩ Iy . Supondo que isso não seja verdade, então existe um
extremo s de I que não é extremo de Ix ∩ Iy . Pela continuidade de x e y no intervalo
Ix ∩ Iy temos
p = lim x(t) = lim y(t)
t→s t→s

Por outro lado, pelo teorema de Picard-Lindelöf, com (t0 , x0 ) substituído por (s, p),
existe aberto (s − δ, s + δ) ⊂ Ix ∩ Iy onde x = y. Como (s − δ, s + δ) − I 6= ∅, isto contradiz
o fato de I ser o maior intervalo aberto contendo t0 onde x = y. Logo, I = Ix ∩ Iy e
x = y em Ix ∩ Iy . É claro que a função φ : J → E é solução do PVI (2.1-2), e portanto
vale o resultado do enunciado.

Pelo teorema (2.1-3), podemos introduzir uma noção de intervalo máximo (de exis-
tência) de uma solução, também chamado de intervalo maximal.

Definição 16. Seja F : U → E uma função contínua e localmente lipschitziana em x num


conjunto aberto U ⊂ R × E. Chamaremos de intervalo máximo (ou intervalo maximal) de
0
uma solução x : I → E da equação x = F (t, x) ao maior intervalo aberto (a, b) onde existe
uma solução que coincide com x em I.

O exemplo a seguir mostra que nem sempre o intervalo máximo de uma solução é
R.
0
Exemplo: Consideremos a equação x = x2 . Vejamos que

0
0 2 x dx
x =x ⇒ 2 = 1 ⇒ 2 = dt
x x
Integrando, obtemos

(x(t))−1
Z Z Z Z
dx −2
= dt ⇒ x dx = dt ⇒ =t+c
x2 −1

Donde segue que


1
x(t) = −
t+c
Assim, se x0 = 0 o PVI, 
 x 0 = x2
 x(t ) = 0
0

tem como solução x(t) = 0, para todo t ∈ R, isto é, R é o intervalo máximo para esse
PVI. Agora, se x0 > 0, o PVI 
 x0 = x2
 x(t ) = x
0 0

tem como solução


1
x(t) = 1 (2.3-18)
t0 − t + x0

1
cujo intervalo máximo é (−∞, t0 + x0
) e, finalmente para x0 < 0 a solução é dada por
1
(2.3-18) mas cujo intervalo maximal é (t0 + x0
, +∞).

No teorema a seguir obtemos informações para entender o comportamento das so-


luções quando pelo menos um extremo do intevalo máximo é finito.

Teorema 17. Seja F : U → E uma função contínua e localmente lipschitziana em x num


0
conjunto aberto U ⊂ R × E. Se uma solução x(t) da equação x = F (t, x) tem intervalo
máximo (a, b), então para cada compacto K ⊂ U existe um  > 0 tal que (t, x(t)) ∈ U − K
para qualquer
t ∈ (a, a + ) ∪ (b − , b)

(quando a = −∞ temos (a, a + ) = ∅ e quando b = +∞ temos (b − , b) = ∅)

Demonstração: Faremos a demonstração considerando apenas o extremo b, uma


vez que o outro caso é análogo. Suponhamos por absurdo que uma solução x(t) da
0
equação x = F (t, x) tem intervalo máximo (a, b), mas existe um compacto K ⊂ U tal
que para todo  > 0 tem-se que (t, x(t)) ∈
/ U − K para todo t ∈ (a, a + ) ∪ (b − , b).
Em particular, para algum compacto K ⊂ U existe uma sequência (tn ). Com tn → b
21

quando n → +∞ tal que


(tn , x(tn )) ∈ K, ∀n ∈ N.

Como K é compacto, existe uma subsequência (tkn ) tal que (tkn , x(tkn )) converge
para um ponto de K quando n → +∞. Seja

(b, x0 ) = lim (tkn , x(tkn ))


n→+∞

tal limite. Consideremos agora a condição inicial x(b) = x0 e um compacto

Kµδ = [b − µ, b + µ] × B[x0 , δ] ⊂ U,

como na demonstração do teorema de Picard-Lindelöf, onde µ e δ são tais que 2M µ ≤


δ, com
M = sup{||F (t, x)|| : (t, x) ∈ Kµδ }.

Para cada n ∈ N, consideramos também o compacto

µ µ δ
Kn = [tkn − , tkn + ] × B[x(tkn ), ] ⊂ U
2 2 2

Para n suficientemente grande, como Kn ⊂ Kµδ temos

µ µ δ
2 sup{||F (t, x)|| : (t, x) ∈ Kn } ≤ 2M ≤ .
2 2 2

Logo, segue do teorema de Picard-Lindelöf e de sua demonstração que existe uma


única solução
µ µ
y : (tkn − , tkn + ) → E
2 2
0 µ
da equação x = F (t, x) com condições iniciais y(tkn ) = x(tkn ). Mas como tkn + 2
>
b para n suficientemente grande, obtemos uma extensão da solução x ao intervalo
(a, tkn + µ2 ), o que contradiz o fato de ser b extremo superior do intervalo máximo. Con-
cluímos assim que para cada compacto K ⊂ U existe um  > 0 tal que (t, x(t)) ∈ U − K
para qualquer t ∈ (b − , b).
2.4 Equações lineares não-autônomas

Nesta seção faremos um breve estudo sobre equações lineares não-autônomas moti-
vados pelo interesse em estabelecer um resultado sobre a diferenciabilidade do fluxo
de uma equação autônoma e resultados que servirão para exemplificar os conceitos de
estabilidade.

Sendo assim, nesta seção serão consideradas equações em E da forma

0
x = A(t)x, (2.4-19)

onde A(t) ∈ L(E). Dizemos que (2.4-19) é uma equação linear não-autônoma.

A proposição a seguir, que é na verdade um corolário do teorema de Picard-Lindelöf,


garante a existência e unicidade para as soluções de (2.4-19).

Proposição 18. Sejam A : (a, b) → L(E) uma aplicação contínua de um intervalo (a, b) no
espaço de operadores lineares sobre E e (t0 , x0 ) ∈ (a, b) × E. Então o problema de valor inicial

 x0 = A(t)x,
(2.4-20)
 x(t ) = x
0 0

possui uma única solução para todo t ∈ (a, b).

Demonstração: Como A(t) é um operador para qualquer t ∈ (a, b), então é claro que
A(t)x é contínua em (a, b) × E. Também, para cada t ∈ (a, b), x, y ∈ K, com K ⊂ U
compacto, temos
||A(t)x − A(t)y|| ≤ ||A(t)||||x − y||.

Fazendo ||A(t)|| = L, temos que A(t)x é localmente lipschitziana e pelo teorema de


Picard-Lindelöf segue a existência e unicidade da solução para o PVI do enunciado.

Proposição 19. Todas as soluções de (2.4-20), com A(t) definida para todo R, têm R como
intervalo maximal.

Demonstração: Suponhamos que t ≥ t0 . Se x(t) é uma solução de (2.4-20) então


Z t
x(t) = x(t0 ) + A(s)x(s)ds
t0
23

para t em algum intervalo contendo t0 , e portanto


Z t
||x(t)|| ≤ ||x(t0 )|| + ||A(s)||.||x(s)||ds (2.4-21)
t0

para t ≥ t0 nesse intervalo. Segue de (2.4-20) e do lema de Gronwall que

Rt
||A(t)||ds
||x(t)|| ≤ ||x(t0 )||e t0

para os mesmos valores de t. Uma vez que a função t 7−→ A(t) é contínua, a integral
Rt
t0
||A(t)||ds existe e é finita para quaisquer t0 , t. Logo, resulta do teorema 17 que o
intervalo máximo da solução x é R.

Proposição 20. Se φ1 , φ2 : R → E são soluções de (2.4-19), então para cada k1 , k2 ∈ R tem-se


que k1 φ1 + k2 φ2 é também uma solução de (2.4-19).

Demonstração: Temos que

0 0 0
(k1 φ1 + k2 φ2 ) = k1 φ1 + k2 φ2

= k1 A(t)φ1 + k2 A(t)φ2

= A(t)(k1 φ1 + k2 φ2 )

e, de fato, k1 φ1 + k2 φ2 é uma solução de (2.4-19).

A proposição a seguir generaliza a proposição anterior.

Proposição 21. O conjunto das soluções da equação (2.4-19) é um espaço vetorial com dimen-
são n.

Demonstração: Seja e1 , · · · , en uma base de E. Para cada i = 1, · · · , n seja xi = xi (t)


a solução do problema de valor inicial (2.4-20) com xi (t0 ) = ei . Para um x0 arbitrário
a solução pode ser obtida conforme descrevemos a seguir. Escrevendo x0 = ni=1 ci ei ,
P

definimos a função
n
X
x(t) = ci xi (t)
i=1
Vejamos que

n
0 0
X
x (t) = ci xi (t)
i=1
n
X
= ci A(t)xi (t)
i=1
" n
#
X
= A(t) ci xi (t)
i=1

Pn Pn
com x(t0 ) = i=1 ci xi (t0 ) = i=1 ci ei = x0 . Portanto, concluímos que o espaço de
soluções da equação (2.4-19) é gerado pelas funções x1 (t), · · · , xn (t). Para mostrar que
essas funções são LI supomos que c1 , · · · , cn ∈ R são tais que

n
X
ci xi (t) = 0
i=1

Pn
para todo t ∈ R. Fazendo t = t0 obtemos então i=1 ci ei = 0 e, portanto, c1 = c2 =
· · · = cn = 0. Logo, as funções x1 (t), · · · , xn (t) são linearmente independentes.

A seguir introduziremos o conceito de solução fundamental para a equação (2.4-


19), o qual é útil para podermos descrever todas as soluções da equação, bem como
para estabelecermos alguns resultados sobre estabilidade de equações lineares não-
autônomas.

Definição 22. Chama-se solução fundamental da equação (2.4-19) a qualquer aplicação X :


R → L(E), que satisfaz
0
X (t) = A(t)X(t), ∀t ∈ R (2.4-22)

com X(t) um isomorfismo para cada t ∈ R.

Seja X(t) uma solução fundamental de (2.4-19). Então, para cada c ∈ E e ∀t ∈ R,


temos que X(t)c é um isomorfismo e satisfaz

0 0
(X(t)c) = X (t)c

= A(t)X(t)c

= A(t)(X(t)c)

e, portanto, X(t)c é uma solução de (2.4-19).


25

Agora vamos mostrar que, dada uma base e1 , · · · , en ∈ E e definindo Y (t) =


X(t)X −1 (t0 ), temos que Y (t)ei = xi (t) para i = 1, · · · , n, isto é, Y (t)ei é solução para o
PVI (2.4-20), com Y (t0 )ei = ei . De fato, pelo que foi visto anteriormente

0 0
(Y (t)ei ) = ((X(t)X −1 (t0 ))ei )

= A(t)(X(t)X −1 (t0 )ei )

= A(t)(Y (t)ei )

e, além disso,
Y (t0 )ei = X(t0 )X −1 (t0 )ei = ei .

Mas a unicidade da solução garante que Y (t)ei = xi (t). Portanto, temos que toda
solução de (2.4-19) pode ser escrita na forma X(t)c, onde X(t) é uma solução funda-
mental qualquer e c ∈ E.

A proposição a seguir traz uma importante consequência da definição de solução


fundamental.

Proposição 23. A solução do problema de valor inicial (2.4-20) é dada por

x(t) = X(t)X −1 (t0 )x0 , t ∈ R, (2.4-23)

onde X(t) é qualquer solução fundamental da equação (2.4-19).

Demonstração: Por definição, X(t) é um isomorfismo para todo t ∈ R e portanto existe


a inversa X −1 (t), o que garante que a função x(t) em (2.4-23) está bem definida. Além
disso,
x(t0 ) = X(t0 )X −1 (t0 )x0 = x0

Também pela definição, temos que

0 0
x (t) = X (t)X −1 (t0 )x0

= A(t)X(t)X −1 (t0 )x0

= A(t)x(t)

Isto mostra que x(t) é a solução do problema (2.4-20).


Proposição 24. Se X(t) e Y (t) são soluções fundamentais da equação (2.4-19), então existe
um isomorfismo Z ∈ L(E) tal que Y (t) = ZX(t) para qualquer t ∈ R.

Demonstração: Como X(t) é uma solução fundamental, então para cada t ∈ R existe
o isomorfismo inverso X −1 (t). Assim, basta definir

Z = Y (t)X −1 (t)

e a proposição está demonstrada.

2.5 Estabilidade de equações não-autônomas

Nesta seção introduziremos a noção de estabilidade para uma solução da equação (2.1-
1). Essencialmente, uma solução x(t) diz-se estável se qualquer solução com condição
inicial suficientemente próxima de x(t) permanece próxima de x(t). Introduziremos
também a noção de estabilidade assintótica. Aqui x̄0 é um ponto de equilíbrio.

Definição 25. (i) Uma solução x(t, t0 , x̄0 ) da equação (2.1-1) definida para t > t0 diz-se está-
vel se dado  > 0 existe δ > 0 tal que se ||x0 − x̄0 || < δ, então:

• a solução x(t, t0 , x0 ) está definida para t > t0 ;

• ||x(t, t0 , x0 ) − x(t, t0 , x̄0 )|| <  para t > t0 .

Caso contrário, a solução x(t, t0 , x̄0 ) diz-se instável.

ii) Uma solução x(t, t0 , x̄0 ) da equação (2.1-1) definida para t > t0 diz-se assintoticamente
estável se:

• x(t, t0 , x̄0 ) é estável;

• existe δ > 0 tal que se ||x0 − x̄0 || < δ, então

||x(t, t0 , x0 ) − x(t, t0 , x̄0 )|| → 0 quando t → +∞.

Para exemplificar essas noções de estabilidade e estabilidade assintótica, apresen-


taremos dois resultados para o caso particular das equações lineares não-autônomas.
27

Proposição 26. Seja A : R → L(E) uma aplicação contínua. Para a equação (2.4-19), a
solução nula (com instante t0 arbitrário) é estável (respectivamente assintoticamente estável)
se, e somente se, todas as soluções são estáveis (respectivamente assintoticamente estável).

Demonstração: Faremos a demonstração em dois passos.

Passo 1: Redução à solução nula

Seja X(t) uma solução fundamental da equação (2.4-19). Pelas proposições 19 e 23,
a solução do PVI (2.4-20) tem intervalo máximo R e é dada por

x(t, t0 , x0 ) = X(t)X −1 (t0 )x0 (2.5-24)

segue de (2.5-24) que a solução nula (com instante inicial t0 ) é estável se, e somente se,
dado  > 0 existe δ > 0 tal que

||X(t)X −1 (t0 )x0 || <  quando ||x0 || < δ, (2.5-25)

para t > t0 . Como X(t)X −1 (t0 ) é uma transformação linear, isto é o mesmo que

||X(t)X −1 (t0 )(x0 − x̄0 )|| <  quando ||x0 − x̄0 || < δ,

ou ainda
||x(t, t0 , x0 ) − x(t, t0 , x̄0 )|| <  quando ||x0 − x̄0 || < δ,

para quaisquer t > t0 e x̄0 ∈ E. Concluímos assim que a solução nula (com instante
inicial t0 ) é estável se, e somente se, todas as soluções (com instante inicial t0 ) são
estáveis.

Para a estabilidade assintótica, novamente pelo fato de X(t)X −1 (t0 ) ser linear, no-
tamos que
lim ||X(t)X −1 (t0 )x0 || = 0 se ||x0 || < µ, (2.5-26)
t→+∞

é o mesmo que

lim ||X(t)X −1 (t0 )(x0 − x̄0 )|| = 0 se ||x0 − x̄0 || < µ, (2.5-27)
t→+∞

para x̄0 ∈ E arbitrário. Isto mostra que a solução nula (com instante inicial t0 ) é
assintoticamente estável se, e somente se, todas as soluções (com instante inicial t0 ) são
assintoticamente estáveis.

Passo2: Independência em relação ao instante inicial

Resta verificar que a estabilidade e estabilidade assintótica da solução nula são in-
dependentes do instante inicial t0 . Com efeito, consideramos t1 6= t0 e notamos que

X(t)X −1 (t1 ) = X(t)X −1 (t0 )X(t0 )X −1 (t1 ).

Resulta de (2.5-25) que dado  > 0 existe δ > 0 tal que

δ
||X(t)X −1 (t1 )x0 || <  quando ||x0 || < , (2.5-28)
||X(t0 )X −1 (t1 )||

para t > t0 . Se t1 ≥ t0 , então a propriedade (2.5-28) é satisfeita para t > t1 . Por outro
lado, para t1 < t0 a função t 7−→ X(t)X −1 (t1 ) é contínua em [t1 , t0 ]. Tomando

||X(t0 )X −1 (t1 )||


δ≤ ,
maxt∈[t1 ,t0 ] ||X(t)X −1 (t1 )||

obtemos
||X(t0 )X−1 (t1 )|| ≤ max ||X(t)X −1 (t1 )||||x0 || < δ ≤ 
t∈[t1 ,t0 ]

para t ∈ [t1 , t0 ] e x0 como em (2.5-28). Logo a propriedade de (2.5-28) é satisfeita para


t > t1 . Isto mostra que se a solução nula é estável com instante inicial t0 , então é estável
com qualquer instante inicial.

Suponhamos agora que a solução nula é assintoticamente estável com instante ini-
cial t0 . Resulta de (2.5-27) que
lim X(t) = 0
t→+∞

e, portanto,
lim X(t)X −1 (t1 )x0 = 0
t→+∞

para quaisquer t1 ∈ R e x0 ∈ E. Isto mostra que a solução nula é assintoticamente


estável com qualquer instante inicial.

Resulta da proposição anterior que para a equação (2.4-19) a solução nula é instá-
vel se, e somente se, as soluções são instáveis. Também devido a proposição anterior
podemos introduzir a seguinte definição.
29

Definição 27. Dizemos que a equação (2.4-19) é estável (assintoticamente estável ou instável)
se todas as soluções são estáveis (assintoticamente estável ou instável).

Agora daremos uma caracterização das noções de estabilidade para a equação li-
0
near não-autônoma x = A(t)x.

Teorema 28. Seja A : R → E uma aplicação contínua e seja X(t) uma solução fundamental
da equação (2.4-19). Então a equação é

i) estável se, e somente se, sup {||X(t)|| : t > 0} < +∞;

ii) assintoticamente estável se, e somente se,

||X(t)|| → 0 quando t → +∞.

Demonstração: Resulta da proposição 28 e de (2.5-25) que a solução nula é estável


(com instante inicial t0 arbitrário) se, e somente se, dado  > 0 existe δ > 0 tal que

||X(t)X −1 (0)x0 || ≤  quando ||x0 || ≤ δ,

para t > 0. Logo, se a solução nula é estável, então

||X(t)x−1 (0)x0 ||
||X(t)X −1 (0)|| = sup
x0 6=0 ||x0 ||
 
δx0
||X(t)X −1 (0) ||x 0 ||
||
= sup δx0
x0 6=0 || ||x 0 ||
||
||X(t)X −1 (0)y0 || 
= sup ≤
||y0 ||=δ ||y0 || δ

para t > 0 e portanto

sup {||X(t)|| : t > 0} ≤ sup {||X(t)X −1 (0)|| : t > 0}||X(0)|| (2.5-29)


||X(0)||
≤ < +∞ (2.5-30)
δ

Por outro lado, se o supremo em (2.5-30) é finito, então existe C > 0 tal que

||X(t)|| < C para t > 0,


e portanto

||X(t)X −1 (0)x0 || <  quando ||x0 || < ,
C||X −1 (0)||
para t > 0. Fica assim estabelecida (i).

Para (ii), notamos primeiro que se ||X(t)|| → 0 quando t → +∞, então

sup {||X(t)|| : t > 0} < +∞

e, portanto, pela primeira propriedade, a solução é estável.

Além disso,
||X(t)X −1 (0)|| → 0 quando t → +∞, (2.5-31)

para qualquer x0 ∈ E, e assim a equação (2.4-19) é assintoticamente estável. Por ou-


tro lado, se a equação é assintoticamente estável, então (2.5-31) é satisfeita para ||x0 ||
suficientemente pequeno, e portanto ||X(t)|| → 0 quando t → +∞.

2.6 Diferenciabilidade do fluxo de uma EDO autônoma

Nesta seção aplicaremos alguns resultados apresentados na seção anterior para mos-
0
trar que se na equação x = F (x), a função F é de classe C 1 então o fluxo da mesma
também será de classe C 1 .

Considere uma equação diferencial autônoma

0
x = F (x), (2.6-32)

com F : U → E definida no aberto U ⊂ E de classe C 1 .

Nosso objetivo é mostrar que o fluxo

(t, x) 7−→ φ(t, x) = φt (x)

∂φ
definido por (2.6-32) é uma função de duas variáveis C 1 , e identificar .
∂x
Para esse fim seja y(t) uma solução particular de (2.6-32) para t em algum intervalo
31

aberto J. Fixe t0 ∈ J e ponha y(t0 ) = y0 . Para cada t ∈ J defina

A(t) = DF (y(t));

assim A : J → L(E) é contínua. Definimos uma equação linear não-autônoma

0
u = A(t)u (2.6-33)

Esta é a equação variacional de (2.6-33) ao longo da solução y(t). Da proposição 19,


segue que (2.6-33) tem solução em todo intervalo J para toda condição inicial u(t0 ) =
u0 .

A importância de (2.6-33) é que se u0 é suficientemente pequeno, então a aplicação

t 7−→ y(t) + u(t)

é uma boa aproximação para a solução x(t) de (2.6-32) com valor inicial x(t0 ) = y0 + u0 .
Para estabelecer isso de um modo mais preciso, introduziremos a seguinte notação: se
ζ ∈ E, então considere a aplicação

t 7−→ u(t, ζ)

a solução de (2.6-33) que corresponde t0 com ζ. Se ζ, y0 + ζ ∈ U , então considere a


aplicação
t 7−→ y(t, ζ)

a solução de (2.6-32) que corresponde t0 com y0 + ζ. (Assim, y(t, ζ) = φt−t0 (y0 + ζ).)

Proposição 29. Seja J0 ⊂ J um intervalo compacto contendo t0 . Então

||y(t, ζ) − y(t) − u(t, ζ)||


→0
||ζ||

uniformente em t ∈ J0 quando ζ → 0.

Demonstração: Por simplicidade tomaremos t0 = 0. As equações integrais satisfeitas


por y(t, ζ), y(t) e u(t, ζ) são
Z t
y(t) = y0 + F (y(s))ds,
0

Z t
y(t, ζ) = y0 + ζ + F (y(s, ζ))ds,
0

e Z t
u(t, ζ) = ζ + DF (y(s))u(s, ζ)ds.
0

Para estas temos que


Z t
||y(t, ζ) − y(t) − u(t, ζ)|| ≤ F (y(s, ζ)) − F (y(s)) − DF (y(s))u(s, ζ)ds (2.6-34)
0

Uma expansão de Taylor para F dá

F (y) − F (z) = DF (x)(y − z) + R(z, y − z),

R(z,y−z)
com limz→y ||y−z||
= 0 uniformemente em y para y em um conjunto compacto dado.
Aplicamos essa expansão para y = y(s, ζ), z = y(s); daí da linearidade de DF (y(s)) e
de (2.6-34) obtemos
Z t
||y(t, ζ) − y(t) − u(t, ζ)|| ≤ DF (y(s))[y(s, ζ) − y(s) − u(s, ζ)]ds (2.6-35)
Z 0t
+ ||R(y(s), y(s, ζ) − y(s))||ds (2.6-36)
0

Denote a expressão a esquerda de (2.6-36) por g(t) e ponha

N = max {||DF (y, s)||; s ∈ J0 }.

Então de (2.6-36) obtemos


Z t Z t
g(t) ≤ N g(s)ds + ||R(y(s), y(s, ζ) − y(s))||ds (2.6-37)
0 0
33

Agora fixe  > 0 e escolha δ0 > 0 suficientemente pequeno tal que

||R(y(s), y(s, ζ) − y(s))|| ≤ ||y(s, ζ) − y(s)|| (2.6-38)

se ||y(s, ζ) − y(s)|| ≤ δ0 e s ∈ J0 .

Assim, pelo equivalente da proposição 13 para equações autônomas, existem cons-


tantes K ≥ 0 e δ1 tais que

||y(s, ζ) − y(s)|| ≤ ||ζ||eKs ≤ δ0 (2.6-39)

se ||ζ|| ≤ δ1 e s ∈ J0 .

Assuma agora que ||ζ|| ≤ δ1 . De (2.6-37), (2.6-38) e (2.6-39) encontramos, para t ∈ J0


Z t Z t
g(t) ≤ N g(s)ds + ||ζ||eKs ds,
0 0

e, portanto, Z t
g(t) ≤ N g(s)ds + C||ζ||,
0

para alguma constante C dependendo apenas de K e do comprimento de J0 . Apli-


cando o lema de Gronwall obtemos

g(t) ≤ CeN t ||ζ||,

se t ∈ J0 e ||ζ|| ≤ δ1 . Uma vez que  é um número positivo qualquer, isto mostra que
g(t)
||ζ||
→ 0 uniformemente em t ∈ J0 , o que prova a proposição.

Segue da proposição anterior que para todo  > 0, existe δ > 0 tal que se ||ζ|| ≤ δ,
então
||y(t, ζ) − (y(t) + u(t, ζ))|| ≤ ||ζ|| (2.6-40)

para todo t ∈ J0 . Assim, como ζ → 0, a curva t 7−→ y(t) + u(t, ζ) é uma melhor
aproximação para y(t, ζ).

∂φ ∂φ
Teorema 30. O fluxo φ(t, x) de (2.6-32) é C 1 , isto é, ∂t
e ∂x
existem e são contínuas em (t, x).

∂φ(t, x)
Demonstração: É claro que é exatamente F (φt (x)), que é contínua. Para cal-
∂t
∂φ
cular temos, para ζ suficientemente pequeno
∂t

φ(t, y0 + ζ) − φ(t, y0 ) = y(t, ζ) − y(t)

∂φ(t, y0 )
Pela proposição anterior, segue que ∈ L(E) é uma aplicação linear ζ 7−→
∂x
u(t, ζ).
∂φ
A continuidade de é uma consequência da continuidade na condição inicial e
∂x
da solução para a equação variacional (2.6-33).

Denotando o fluxo novamente por φt (x), notamos que para cada t a derivada Dφt (x)
∂φ(t, x)
da aplicação φt em x ∈ U é a mesma que . Calculamos Dφt (x) como a solução
∂x
para um problema de valor inicial no espaço vetorial L(E): para cada x0 ∈ U a derivada
no espaço do fluxo satisfaz

 d (Dφt (x0 )) = DF (φt (x0 ))(Dφt (x0 )),



dt (2.6-41)
 Dφ (x ) = I.
0 0

Aqui escolhemos x0 como um parâmetro.


CAPÍTULO 3

SISTEMAS DINÂMICOS NÃO-AUTÔNOMOS:


PROCESSOS

Consideremos um problema de valor inicial para uma equação diferencial ordinária


não-autônoma em E, 
 x0 = F (t, x),
(3.0-1)
 x(t ) = x .
0 0

Em contraste ao caso autônomo, as soluções podem agora depender separadamente


do instante atual t e do instante inicial t0 ao invés de depender apenas do intervalo de
tempo t − t0 .

Assumindo a existência e unicidade global da solução em tempo futuro, as soluções


formam uma aplicação contínua (t, t0 , x0 ) 7−→ x(t, t0 , x0 ) ∈ E para t ≥ t0 com t, t0 ∈ R e
x0 ∈ E satisfazendo a condição inicial e uma propriedade de evolução:

(i) x(t0 , t0 , x0 ) = x0 , ∀t0 ∈ R e x0 ∈ E,

(ii) x(t2 , t0 , x0 ) = x(t2 , t1 , x(t1 , t0 , x0 ), ∀t0 ≤ t1 ≤ t2 e x0 ∈ E.

A propriedade de evolução (ii) é uma consequência do fato que as soluções são


determinadas unicamente pelas suas condições iniciais, isto é, a solução iniciada em
(t1 , x1 ), onde x1 = x(t1 , t0 , x0 ) é única, e então temos

x(t2 , t0 , x0 ) = x(t2 , t1 , x1 ) = x(t2 , t1 , x(t1 , t0 , x0 )).


Esta propriedade é chamada de propriedade de semigrupo a 2-parâmetros.

Exemplo: Considere o problema escalar de valor inicial



 x0 = −2tx,
 x(t ) = x ,
0 0

que tem solução explícita

2 −t2 )
x(t) = x(t, t0 , x0 ) = x0 e−(t 0 , ∀t, t0 , x0 ∈ R

Agora note que t2 − t20 = (t − t0 )2 + 2(t − t0 )t0 não pode ser expresso apenas em termos
de t − t0 .

As soluções de equações diferenciais autônomas são uma das principais motivações


para a formulação do conceito de processo de um sistema dinâmico não-autônomo
abstrato em um espaço métrico (X, d) e R como o conjunto de tempo.

Definição 31 (Formulação de processo). Um processo é uma aplicação contínua (t, t0 , x0 ) 7−→


φ(t, t0 , x0 ) ∈ X para t, t0 ∈ R e x0 ∈ X com t ≥ t0 , que satisfaz as propriedades de valor inicial
e de evolução

(i) φ(t0 , t0 , x0 ) = x0 , ∀t0 ∈ R e x0 ∈ X,

(ii) φ(t2 , t0 , x0 ) = φ(t2 , t1 , φ(t1 , t0 , x0 )), ∀t0 ≤ t1 ≤ t2 e x0 ∈ X.

Agora veremos que um processo pode ser reformulado como um sistema semidinâ-
mico autônomo, que tem algumas implicações interessantes. Para isso, estenderemos
o espaço de fase e denotaremos X = R × X, e definimos a aplicação ψ : R+
0 ×X → X

por
ψ(t, (t0 , x0 )) = (t + t0 , φ(t + t0 , φ(t + t0 , t0 , x0 )))

para todo (t, (t0 , x0 )) ∈ R+


0 × X.

Note que a variável t em ψ(t, (t0 , x0 )) é o tempo decorrido desde o instante inicial
t0 , enquanto que o instante atual é t + t0 .

Teorema 32. ψ é um sistema semidinâmico autônomo em X .

Demonstração: Pela definição de ψ fica claro que essa aplicação é contínua. Além
disso,
ψ(0, (t0 , x0 )) = (t0 , φ(t0 , t0 , x0 )) = (t0 , x0 ).
37

Finalmente, temos que

ψ(s + t, (t0 , x0 )) = (s + t + t0 , φ(s + t + t0 , t0 , x0 ))

= (s + t + t0 , φ(s + t + t0 , t + t0 , φ(t + t0 , t0 , x0 )))

= ψ(s, (t + t0 , φ(t + t0 , t0 , x0 )))

= ψ(s, ψ(t, (t0 , x0 ))).

O que mostra que ψ satisfaz a propriedade de semigrupo a 1-parâmetro.

3.1 Soluções inteiras e conjuntos invariantes

Definição 33. Uma solução inteira de um processo φ em um espaço de estado X é uma


aplicação ξ : R → X com a propriedade

ξ(t) = φ(t, t0 , ξ(t0 )) (3.1-2)

para todo t, t0 ∈ R com t ≥ t0 .

As soluções estacionárias são soluções inteiras, mas pode existir outras soluções
inteiras limitadas interessantes.

Exemplo: Todas as soluções da EDO

dx
= −x + cos(t)
dt

são soluções inteiras, mas a única solução inteira limitada é

1 1
y(t) = cos(t) + sin(t).
2 2

Além disso, y(t) é uma solução periódica, na verdade, a única solução periódica. Esta
EDO não tem solução estacionária.

O análogo de um conjunto invariante para um sistema semidinâmico autônomo


para um processo é um subconjunto A de X tal que

φ(t, t0 , A) = A, ∀t, t0 ∈ R, com t ≥ t0 .


Tal subconjunto contém soluções estacionárias se houver alguma, mas exclui quase
todo resto, como as soluções periódicas no exemplo anterior.

A seguir vamos estudar como definir conjuntos invariantes para um processo não-
autônomo. Com essa finalidade consideraremos o sistema semidinâmico autônomo ψ
em X = R × X definido em termos de um processo φ em X por

ψ(t, (t0 , x0 )) = (t + t0 , φ(t + t0 , t0 , x0 )).

Seja U ⊂ X = R × X um conjunto invariante para o sistema semidinâmico ψ em X ,


isto é,
ψ(t, U) = U, ∀t ∈ R+

Então temos as seguintes propriedades para o sistema definido acima.

S
Propriedade 34. U = t∈R {t} × At , onde At é um subconjunto não-vazio de X para cada
t ∈ R.

Demonstração: O conjunto U ⊂ X = R × X é não-vazio por hipótese, então existe pelo


menos um ponto (t0 , a0 ) ∈ U, o que significa que a0 ∈ At0 . Portanto, At0 é não-vazio.

Então At1 é não-vazio para todo t1 > t0 , uma vez que φ(t1 , t0 , a0 ) ∈ At1 . De fato,
pela ψ-invariância de U, isto é, ψ(t1 − t0 , U) = U e do fato que

ψ(t1 − t0 , (t0 , a0 )) = (t0 + (t1 − t0 ), φ(t0 + (t1 − t0 ), t0 , a0 ))

= (t1 , φ(t1 , t0 , a0 )) ∈ U

então φ(t1 , t0 , a0 ) ∈ At1 . Portanto At1 é não-vazio para t1 > t0 .

Agora para t1 < t0 , pela invariância ψ(t0 − t1 , U) = U, então existe um (t∗ , a∗ ) ∈ U


tal que
ψ(t0 − t1 , (t∗ , a∗ )) = (t0 , a0 )

isto é, t0 − t1 + t∗ = t0 e φ(t0 − t1 + t∗ , t∗ , a∗ ) = a0 , o que significa que t∗ = t1 e


φ(t0 , t∗ , a∗ ) = a0 . Portanto a∗ ∈ At1 , então At1 é não-vazio para todo t1 < t0 .

Propriedade 35. φ(t, t0 , At0 ) = At para todo t, t0 ∈ R com t ≥ t0 .


39

Demonstração: Seja t1 > t0 e a0 ∈ At0 . Pela invariância ψ(t1 − t0 , U) = U temos

ψ(t1 − t0 , (t0 , a0 )) = (t1 , φ(t1 , t0 , a0 )) ∈ (t1 , At1 ),

o que significa que φ(t1 , t0 , a0 ) ∈ At1 . Portanto, φ(t1 , t0 , At0 ) ⊂ At1 .

Agora seja a1 ∈ At1 . Pela característica da invariância acima existe um (t∗ , a∗ ) ∈ U


tal que
ψ(t1 , (t∗ , a∗ )) = (t1 , a1 )

ou
(t1 − t0 + t∗ , φ(t1 − t0 + t∗ , t∗ , a∗ )) = (t1 , a1 ),

o que significa que t1 − t0 + t∗ = t1 e portanto t0 = t∗ . Além disso,

φ(t1 − t0 + t∗ , t∗ , a∗ ) = φ(t1 , t0 , a∗ ) = a1 .

Obviamente, a∗ ∈ At∗ = At0 uma vez que t∗ = t0 . Isto significa que At1 ⊂ φ(t1 , t0 , At0 ).
Portanto, temos que φ(t, t0 , At0 ) = At , para todo t, t0 ∈ R com t ≥ t0 .

A propriedade 2 nos dá uma ideia de como definir um conjunto invariante no caso


não-autônomo.

Definição 36. Uma família A = {At , t ∈ R} de subconjuntos não-vazios At de X é dita


invariante com relação ao processo φ ou φ-invariante se

φ(t, t0 , At0 ) = At , ∀t, t0 ∈ R, com t ≥ t0 .

Temos o seguinte resultado relacionando soluções inteiras e famílias φ-invariantes.

Lema 37. Seja A = (At )t∈R uma família φ-invariante de subconjuntos não-vazios de X de um
processo φ. Então para qualquer t0 ∈ R e a0 ∈ At0 , existe uma solução inteira ξ através de a0
que está contida em A, isto é, com ξ(t0 ) = a0 e ξ(t) ∈ At para todo t ∈ R.

Demonstração: Para o caso em que temos um instante futuro, isto é, t ≥ t0 , basta


definir ξ(t) = φ(t, t0 , a0 ) para t ≥ t0 , então em particular temos ξ(t0 ) = a0 . Para tempos
negativos, note que, uma vez que φ(t0 , t0 − 1, At0 −1 ) = At0 , existe um ponto a−1 ∈ At0 −1
tal que φ(t0 , t0 − 1, a−1 ) = a0 e definimos ξ(t) = φ(t, t0 − 1, a−1 ) para t ∈ [t0 − 1, t0 ] que
está em A pela invariância de A. Então repetimos esta construção em cada subintervalo
[tt0 − n − 1, t0 − n] para n ∈ N definindo ξ(t) = φ(t, t0 − n − 1, a−n−1 ) = a−n segue da
propriedade de semifluxo que ξ satisfaz (3.1-2) e da φ-invariância de A que ξ(t) ∈ At
para todo t ∈ R.

3.2 Atratores para processos

Agora trataremos da noção de atratores para um processo, mas antes faremos algumas
considerações sobre distâncias em espaços métricos. Sejam (X, d) um espaço métrico
completo e H(X) a coleção de todos os subconjuntos compactos não-vazios de X.

Definimos a distância entre um ponto a ∈ X e um subconjunto compacto não-vazio


B em X por
distX (a, B) = inf d(a, b)
b∈B

A aplicação b 7−→ d(a, b) é contínua para a fixo, de fato

0 0
|d(a, b) − d(a, b )| ≤ d(b, b )

0 0
daí, se b → b então d(a, b) → d(a, b ). Além disso, o subconjunto B é não-vazio e
compacto, então o ínfimo pode ser substituído pelo mínimo aqui, isto é, ele é realmente
atingido.

Então definimos a distância de um subconjunto compacto A a um subconjunto


compacto B por

distX (A, B) = sup distX (a, B) = sup inf d(a, b)


a∈A a∈A b∈B

A distância definida acima é chamada de separação de Hausdorff ou semi-distância


de A a B. Como a função a 7−→ distX (a, B) é contínua para B fixado e o conjunto A é
compacto, então o supremo aqui pode ser substituído pelo máximo.

Note que, em geral, distX (A, B) 6= distX (B, A). Por exemplo, seja A = {0} e B =
[0, 1] em R. Então
distX (A, B) = 0 6= 1 = distX (B, A).
41

Temos também que distX (A, B) satisfaz a desigualdade triangular

distX (A, B) ≤ distX (A, C) + distX (C, B)

Defina
HX (A, B) = max {distX (A, B), distX (B, A)}.

Esta é a métrica em H(X) chamada de métrica de Hausdorff.

Teorema 38. (H(X), HX ) é um espaço métrico completo.

Agora estamos em condições de estudar atratores para processo. Observemos inici-


almente que atratores para sistemas dinâmicos autônomos são dados pelos conjuntos
ω-limite, que são conjuntos invariantes. Uma vez que a solução de um processo de-
pende tanto de t0 quanto de x0 , conjuntos ω-limite para um processo deve depender
também de cada um desses dois parâmetros, mais especificamente

ω(t0 , x0 ) = {x ∈ X : lim ϕ(tn , t0 , x0 ) = x para alguma sequência tn → +∞}.


n→+∞

No caso autônomo, podemos mostrar que ω(t0 , x0 ) é um conjunto compacto não-vazio


S
quando, por exemplo, a trajetória forward t≥t0 ϕ(t, t0 , x0 ) = x0 é pré-compacta. En-
tretanto, ao contrário de sua análoga autônoma, um conjunto limite não-autônomo
ω(t0 , x0 ) pode não ser invariante para o processo.

Como exemplo, considere a equação diferencial não-autônoma

0
x = −x + e−t

que tem solução explícita

x(t, t0 , x0 ) = e−(t−t0 ) x0 + (t − t0 )e−t .

Isto implica que


lim x(t, t0 , x0 ) = 0
t→+∞

para todo (t0 , x0 ) ∈ R × R, então o conjunto ω-limite não-autônomo é dado por

ω(t0 , x0 ) = {0}.
No entanto, x(t, t0 , 0) = (t − t0 )e−t 6= 0 para todo t > t0 , isto é, o conjunto ω-limite não
é invariante no sentido de sistemas autônomos.

Para estudarmos atratores para processos e, mais geralmente, para sistemas dinâ-
micos não-autônomos devemos considerar uma família de subconjuntos φ-invariantes.
Mas para uma formulação mais compacta e elegante, definiremos o conceito de con-
junto não-autônomo. Dados um processo φ em um espaço métrico (X, d) e uma fa-
mília M̃ = (Mt )t∈R de subconjuntos de X, descreveremos tal família M̃ como sendo
equivalentes a subconjuntos de fase estendidos em R × X. Sendo assim, a família M̃
induz um subconjunto M ⊂ R × X, definido por

M = {(t, x) : x ∈ Mt }

e, por outro lado, um subconjunto M do espaço de fase estendido R×X conduz a uma
família de subconjuntos de X M̃ = (Mt )t∈R com

Mt = {x ∈ X : (t, x) ∈ M}

para todo t ∈ R.

A seguir damos a definição precisa de conjuntos não-autônomos, bem como a defi-


nição de conjunto invariante.

Definição 39 (Conjuntos não-autônomos para processos). Seja φ um processo em um


espaço métrico (X, d). Um subconjunto M do espaço de fase estendido R × X é chamado um
conjunto não-autônomo, e para cada t ∈ R, o conjunto

Mt = {x ∈ X : (t, x) ∈ M}

é chamado a t-fibra de M. Um subconjunto não-autônomo M é dito ser invariante se


φ(t, t0 , Mt0 ) = Mt para todo t ≥ t0 . Em geral, M é dito possuir uma propriedade topoló-
gica (tal como compacidade) se cada fibra de M tem esta propriedade.

Para definir atração de um conjunto não -autônomo compacto e invariante A de


um processo φ em um espaço métrico (X, d) temos basicamente dois caminhos. O
primeiro, e talvez mais óbvio, corresponde à atração no sentido da estabilidade assin-
tótica de Liapunov, é chamado de atração forward e envolve um alvo em movimento,
43

enquanto a outra, chamada atração pullback, envolve um alvo fixo com tempo de
início progressivamente anterior. Em geral, esses dois conceitos de atração são inde-
pendentes, enquanto que para o caso autônomo, eles são equivalentes.

Definição 40 (Atratividade não-autônoma). Seja φ um processo. Um conjunto não-autônomo


compacto, não-vazio e invariante A é dito

(i) forward atrativo se

lim distX (φ(t, t0 , x0 ), At ) = 0


t→+∞

para todo x0 ∈ X e t0 ∈ R,

(ii) e pullback atrativo se

lim distX (φ(t, t0 , x0 ), At ) = 0


t0 →−∞

para todo x0 ∈ X e t ∈ R.

Além disso, se a atração forward em (i) é uniforme com respeito a t0 ∈ R, ou equivalen-


temente, se a atração pullback em (ii) é uniforme com respeito a t ∈ R, então A é chamado
uniformemente atrativo.

Em um sistema dinâmico autônomo, as soluções dependem apenas do intervalo de


tempo t − t0 . Além disso, a relação de limite t − t0 → +∞ é válida quando t → +∞
com t0 fixo ou quando t0 → −∞ com t fixo, então as convergência forward e pullback
são equivalentes para um sistema autônomo.

Dois tipos de atratores não-autônomos para processos são possíveis, dependendo


de qual das atrações definidas acima é usada.

Definição 41 (Atratores não-autônomos). Seja φ um processo. Um conjunto não-autônomo,


invariante e não-vazio A é chamado

(i) um atrator forward se ele forward atrai subconjuntos limitados de X,

(ii) um atrator pullback se pullback atrai subconjuntos limitados de X, e

(iii) um atrator uniforme se ele atrai uniformente subconjuntos limitados de X.

Em geral esses conceitos são independentes e podem existir um sem o outro.


Exemplo: O conjunto não-autônomo R × {0}, ou seja, a solução trivial, é um atrator
foward mas não é um atrator pullback do sistema

0
x = −2tx (3.2-3)

2 −t2 )
com a solução geral x(t, t0 , x0 ) = x0 e−(t 0 , e um atrator pullback mas não um atrator
forward do sistema
0
x = 2tx (3.2-4)

2 −t2
com a solução geral x(t, t0 , x0 ) = x0 et 0 .

Este exemplo demonstra que a atração forward pode ser vista como um conceito de
atração para o futuro do sistema, uma vez que o coeficiente −2t em (3.2-3) é negativo
para t > 0. Por outro lado, a atração pullback significa basicamente atração para o
passado do sistema devido a negatividade de 2t para t < 0 em (3.2-4). O conceito de
atração uniforme, portanto, pode ser visto como atração para o tempo inteiro.

Exemplo: Considere a equação diferencial não-autônoma

0
x = −x + 2 sin t (3.2-5)

Se x1 (t) e x2 (t) são quaisquer duas soluções, então sua diferença z(t) = x1 (t) − x2 (t)
satisfaz a equação diferencial linear

0
z = −z

com a solução explícita z(t) = z(t0 )e−(t−t0 ) , então

|x1 (t) − x2 (t)| = |x1 (t0 ) − x2 (t0 )|e−(t−t0 ) → 0

quando t → +∞, donde segue que toda solução converge para toda outra no tempo.

A solução explícita da equação diferencial (3.2-5) com valor inicial x(t0 ) = x0 é


Z t
−(t−t0 ) −t
x(t, t0 , x0 ) = x0 e + 2e es sin sds
t0

= (x0 − (sin t0 − cos t0 ))e−(t−t0 ) + (sin t − cos t),


45

daí é claro que o limite forward limt→+∞ x(t, t0 , x0 ) não existe. Por outro lado, o limite
pullback existe para todo t e x0 , isto é,

lim x(t, t0 , x0 ) = sin t − cos t = ρ(t),


t→−∞

e é independente de x0 , isto é,

lim |x(t, t0 , x0 ) − ρ(t)| = 0


t→−∞

Portanto, o conjunto não-autônomo A tendo como fibras os conjuntos unitários


At = {ρ(t)} é pullback atraído para a solução do processo.

Além disso, é fácil mostrar que ρ(t) é a solução da equação diferencial não-autônoma
(3.2-5) e uma vez que todas as soluções converge para cada uma das outras no tempo
forward, a convergência forward

lim |x(t, t0 , x0 ) − ρ(t)| = 0


t→+∞

também vale.

Agora mostraremos a existência e unicidade dos atratores pullback, mas para uma
maior generalidade no manuseio de não-uniformidades na dinâmica, consideraremos
uma família de conjuntos de absorção pullback em vez de um único conjunto.

Definição 42. Uma família B = {Bt , t ∈ R} de subconjuntos compactos e não-vazios de X é


chamada uma família de absorção pullback para um processo φ em X se para cada t ∈ R e
todo subconjunto limitado não-vazio D de X existe um Tt,D ∈ R+ tal que

φ(t, t0 , D) ⊂ Bt

para todo t0 ≤ t − Tt,D . Para uma maior generalidade podemos trocar o conjunto limitado D
por uma família D = {Dt , t ∈ R} de um subconjunto não-vazio de X. Neste caso a propriedade
de absorção pullback toma a forma

φ(t, t0 , Dt0 ) ⊂ Bt

para todo t0 ≤ t − Tt,D .


Teorema 43 (Existência de um atrator pullback). Suponha que um processo φ em um espaço
métrico completo (X, d) tem uma família de absorção pullback B = {Bt , t ∈ R} positivamente
φ-invariante. Então φ tem um atrator pullback global A = {At , t ∈ R} com subconjuntos
componentes determinados por
\
At = φ(t, t0 , Bt0 ) (3.2-6)
t0 ≤t

para cada t ∈ R.

Demonstração: Note que At é não-vazio e compacto como interseção de subconjuntos


compactos
0 0 0
φ(t, t0 , Bt0 ) = φ(t, t0 , φ(t0 , t0 , Bt0 )) ⊂ φ(t, t0 , Bt0 ), t0 ≤ t0
0

Seja B = {Bt , t ∈ R} a família de absorção pullback e seja At definido por (3.2-6).


Claramente,
At ⊂ Bt

para todo t ∈ R. De fato, At ⊂ φ(t, t0 , Bt0 ) ⊂ Bt para qualquer t0 ≤ t.

Passo 1: Primeiro, vamos mostrar que para qualquer t ∈ R tal que

lim distX (φ(t, t0 , Bt0 ), At = 0


t→−∞

Suponha que isso não seja verdade. Então existem sequência k → +∞ e

x ∈ φ(t, tk , Btk ) ⊂ Bt

com tk → −∞ tal que


distX (xk , At ) ≥ 0

para todo k, para algum 0 > 0.

O subconjunto {xk }k∈N de Bt é relativamente compacto, então existe uma sequência


convergente kj → +∞ e um ponto x0 ∈ Bt tal que xkj → x0 quando kj → +∞. Agora,

xkj ∈ φ(t, tkj , Btkj ⊂ φ(t, tk , Btk )


47

para todo kj ≥ k e cada k. Isto implica que

x0 ∈ φ(t, tk , Btk )

para todo k ∈ N, então


\
x0 ∈ φ(t, tk , Btk )
k≥0

portanto x0 ∈ At , o que é um absurdo. Portanto vale a afirmação inicial.

Passo 2: Da convergência acima, para todo  > 0 e t ∈ R existe T,t tal que

distX (φ(t, t0 , Bt0 ), At ) < 

para todo t0 ≤ t − T,t .

Seja D um subconjunto limitado qualquer de X. Pela propriedade de absoluta-


mente pullback de B = {Bt , t ∈ R} temos

φ(t, t0 , D) ⊂ Bt

00 0
para todo t0 < t com t − t0 suficientemente grande. Seja t0 < t0 < t. Então pela
propriedade de semigrupo a 2-parâmetros

00 0 0 00 0
φ(t, t0 , D) = φ(t, t0 , φ(t0 , t0 , D)) ⊂ φ(t, t0 , Bt0 )
0

0 00
desde que t0 − t0 seja grande o suficiente.

Passo 3: Agora mostraremos a φ-invariância da família A = {At , t ∈ R}. Por (3.2-6) o


conjunto Ft0 (t) = φ(t, t0 , Bt0 ) ⊂ Bt para todo t0 ≤ t e pela definição

\
At = Ft0 (t).
t0 <t

T
Similarmente, Aτ = t0 <τ Ft0 (τ ) para qualquer τ < t. Claramente

\ \
φ(t, τ, Ft0 (τ )) ⊂ φ(t, τ, Ft0 (τ )).
t0 <τ t0 <τ
Para mostrar a inclusão contrária, seja

\
x∈ φ(t, τ, Ft0 (τ )).
t0 <τ

Então existe xm ∈ Ftm (τ ) ⊂ Bτ tal que x = φ(t, τ, xm ). Mas os conjuntos Ftm (τ ) são
compactos e monotonicamente decrescente com m crescente (isto é, com tm → −∞),
T
então o conjunto {xm } tem um ponto limite x̂ ∈ tm <τ Ftm (τ ). Pela continuidade de
φ(t, t0 , .) segue que x = φ(t, t0 , x̂). Assim,

\
x ∈ φ(t, τ, Ftm (τ )) = φ(t, τ, Aτ ).
tm <τ

Isto mostra que


\ \
φ(t, τ, Ftm (τ )) ⊂ φ(t, τ, Ftm (τ )).
tm <τ tm <τ

Disso, da compacidade de Ftm (τ ) e da continuidade de φ(t, τ, .) temos

\
φ(t, τ, Aτ ) = φ(t, τ, Ftm (τ ))
tm <τ
\
= φ(t, τ, φ(τ, tm , Btm ))
tm <τ
\
= φ(t, tm , Btm )
tm <τ
\
⊃ φ(t, tm , Btm ) ⊃ At .
tm <t

Assim, At ⊂ φ(t, τ, Aτ ) para todos t ≥ τ . Renomeando, temos

Aτ ⊂ φ(τ, tm , Atm )

para todo τ ≥ tm . Assim,

φ(t, τ, Aτ ) ⊂ φ(t, τ, φ(τ, tm , Atm ))

⊂ φ(t, τ, φ(τ, tm , Btm ))

= φ(t, tm , Btm )

⊂ U (At )
49

para todo tm com t − tm suficientemente grande (dependendo de  > 0). Como tm →


−∞ ou equivalentemente  → 0 temos

φ(t, τ, Aτ ) ⊂ At

Isto prova que A = {At , t ∈ R} é φ-invariante e portanto é um atrator pullback.

Teorema 44 (Unicidade de um atrator pullback). Suponha que um processo φ tem dois


S S
atratores pullback A e Ā tais que ambos os conjuntos t≤0 At e t≤0 Āt são limitados. Então
A = Ā.

S
Demonstração: A limitação de t≤0 At implica que para todo t ∈ R

distX (At , Āt ) = lim distX (φ(t, t0 , At0 ), Āt )


t0 →−∞
[
≤ lim distX (φ(t, t0 , Aτ ), Āτ ) = 0
t0 →−∞
τ ≤0

Analogamente, mostramos que distX (Āt , At ) = 0. Uma vez que os conjuntos Āt e At
são compactos, concluímos que Āt = At , para todo t ∈ R. Portanto, A = Ā.

Exemplo: Considere uma equação diferencial não-autônoma em Rn dada por

0
x = F (t, x), (3.2-7)

onde F é continuamente diferenciável e satisfaz a condição de dissipatividade uni-


forme
hx, F (t, x)i ≤ K − L||x||2 (3.2-8)

para todo x ∈ Rn e t ∈ R, com constantes positivas K e L. Sob essas hipóteses a


equação diferencial (3.2-7) gera um processo.

Além disso, qualquer solução de (3.2-7) satisfaz

d D 0
E
||x(t)||2 = 2 x(t), x (t)
dt
= 2 hx(t), F (t, x(t))i

≤ 2K − 2L||x(t)||2 ,
donde, integrando segue que

K
||x(t)||2 ≤ ||x(t0 )||2 e−2L(t−t0 ) + 1 − e−2L(t−t0 ) .

L

Suponha que para um subconjunto limitado D de Rn com ||D|| = supd∈D ||d|| > 1 e
x(t0 ) ∈ D, e definimos
1
T = t0 + ln(L||D||2 ).
2L

Então
1 K K +1
||x(t)||2 ≤ + =
L L L
para todo x(t0 ) ∈ D e t0 ≤ t − T . Assim, a bola fechada

h p i
B 0, (K + 1)/L = {x ∈ Rn : ||x||2 ≤ (K + 1)/L}

é pullback absorvente e positivamente invariante. Segue do teorema de existência que


o processo gerado pela equação diferencial (3.2-7) tem um atrator pullback em Rn com
subconjuntos componentes At ⊂ B.
CAPÍTULO 4

SISTEMAS DINÂMICOS NÃO-AUTÔNOMOS: FLUXOS


SKEW PRODUCT

Para motivar o conceito de fluxo skew product, consideraremos um sistema triangu-


lar de equações diferenciais em que a componente desacoplada pode ser considerada
como a força condutora na equação para a componente.

Seja então um sistema autônomo de equações diferenciais ordinárias da forma

0 0
z = f (z), x = g(z, x), (4.0-1)

onde z ∈ Rn e x ∈ Rm , isto é, com uma estrutura triangular.

Assumindo a existência global e unicidade das soluções em tempo futuro, o sistema


de equações diferenciais (4.0-1) gera um sistema semidinâmico autônomo ψ em Rn+m
que pode ser escrito na forma componente como

ψ(t, z0 , x0 ) = (z(t, x0 ), x(t, z0 , x0 ))

com condição inicial ψ(0, z0 , x0 ) = (z0 , x0 ).

Aqui existem dois pontos importantes a serem observados. Primeiro a z-componente


do sistema é um sistema autônomo independente, isto é, as aplicações soluções z =
z(t, z0 ) geram um sistema semidinâmico autônomo em Rn e, entre outras proprieda-
des, satisfaz a propriedade de semigrupo

z(s + t, z0 ) = z(s, z(t, z0 )), (4.0-2)

para todo s, t ≥ 0. Segundo, a propriedade de semigrupo para ψ em Rn+m pode ser


expandida da seguinte forma

ψ(s + t, z0 , x0 ) = (z(s + t, z0 ), x(s + t, z0 , x0 ))

= (z(s, z(t, z0 )), x(s + t, z0 , x0 ))

usando (4.0-2), e

ψ(s, ψ(t, z0 , x0 )) = (z(s, z(t, z0 )), x(s, z(t, z0 ), x(t, z0 , x0 )))

Estas duas expressões são idênticas para todo s, t ≥ 0 e todo (z0 , x0 ) ∈ Rn+m . Compa-
rando as segundas componentes temos

x(s + t, z0 , x0 ) = x(s, z(t, z0 ), x(t, z0 , x0 ))

que é uma generalização da propriedade de semigrupo e conhecida como propriedade


de coclico.

Dada uma solução z = z(t, z0 ) da z-componente do sistema triangular (4.0-2), a


x-componente torna-se uma equação diferencial na variável x em Rm da forma

0
x = g(z(t, z0 ), x), (4.0-3)

onde t ≥ 0 e x ∈ Rn . A função z = z(t, z0 ) pode ser considerada “conduzindo” o


sistema não-autônomo aqui, isto é, como responsável pela mudança no campo vetorial
com o passar do tempo.

A solução x(t) = x(t, z0 , x0 ) com valor inicial x(0) = x0 (que também depende
da escolha de z0 como parâmetro através da solução de condução) então satisfaz as
seguintes propriedades

(i) Condição inicial - x(0, z0 , x0 ) = x0 ,

(ii) Propriedade de Coclico - x(t + s, z0 , x0 ) = x(s, z(t, z0 ), x(t, z0 , x0 )),


53

(iii) Condição de continuidade - (t, z0 , x0 ) 7−→ x(t, z0 , x0 ) é contínua.

A aplicação x : R+
0 × R
n
→ Rm é chamada de aplicação cociclo. Ela descreve
a evolução da solução da equação diferencial não-autônoma (4.0-3) com respeito ao
sistema de condução.

Conforme mencionado anteriormente, o sistema produto ψ em Rn × Rm é um sis-


tema semidinâmico autônomo e é conhecido como o fluxo skew product devido aos
papéis assimétricos dos dois sistemas componentes. Isto motiva uma definição alter-
nativa de sistema dinâmico não-autônomo, chamado de formalismo de fluxo skew
product, onde, por várias razões, o sistema de condução z é usualmente tomado como
sendo um sistema dinâmico reversível, isto é, formando um grupo ao invés de um
semigrupo.

A formulação de processo de um sistema dinâmico não-autônomo definida pelas


aplicações soluções de uma equação diferencial não-autônoma é bastante intuitiva. No
entanto, a formulação de fluxos skew product é mais abstrata, mas contém mais in-
formações sobre como o sistema evolui no tempo, especialmente quando o sistema
condutor está em um espaço compacto Z.

Definição 45. Sejam (X, dX ) e (Z, dZ ) espaços métricos. Um sistema dinâmico não-autônomo
(θ, ϕ) é definido em termos de uma aplicação cociclo ϕ em um espaço de estado X que é con-
duzido por um sistema dinâmico autônomo θ agindo em uma base ou espaço de parâmetros Z
e o conjunto de tempo R. Mais especificamente, o sistema dinâmico θ em Z é um grupo de
homeomorfismos (θt )t∈R sobre a composição em Z com as propriedades

(i) θ0 (z) = z para todo z ∈ Z,

(ii) θt+s = θt (θs (p)) para todos s, t ∈ R,

(iii) a aplicação (t, z) 7−→ θt (z) é contínua,

e a aplicação cociclo ϕ : R+
0 × Z × X → X satisfaz

(i) ϕ(0, z, x) = x para todo (z, x) ∈ Z × X,

(ii) ϕ(t + s, z, x) = ϕ(t, θs (z), ϕ(s, z, x)) para todo s, t ∈ R+


0 , (z, x) ∈ Z × X,

(iii) a aplicação (t, z, x) 7−→ ϕ(t, z, x) é contínua.

A aplicação ψ : R+
0 × Z × X → Z × X definida por

ψ(t, (z, x)) = (θt (z), ϕ(t, z, x)) (4.0-4)


forma um sistema semidinâmico autônomo em X = Z × X. De fato,

ψ(0, (z, x)) = (θ0 (z), ϕ(0, z, x))

= (z, x),

ψ(t + s, (z, x)) = (θt+s (z), ϕ(t + s, z, x))

= (θt (θs (z)), ϕ(t, θs (z), ϕ(s, z, x)))

= ψ(t, (θs (z), ϕ(s, z, x)))

= ψ(t, ψ(s, (z, x))).

Também é claro que ψ é contínua, pois cada componente de (4.0-4) é contínua por
definição.

Definição 46 (Formulação skew product). O sistema semidinâmico autônomo ψ em X =


Z × X definido por (4.0-4) é chamado o fluxo skew product associado com o sistema dinâmico
não-autônomo (θ, ϕ).

Exemplo: A aplicação solução x(t) = x(t, t0 , x0 ) da equação diferencial não-autônoma


(4.0-1) com valor inicial x(t0 , t0 , x0 ) = x0 no tempo t0 define um processo. O teorema
32 mostra que tal processo pode ser reformulado como um fluxo skew product com a
aplicação cociclo ϕ no espaço de estado X = E definida por ϕ(t, t0 , x0 ) = x(t0 + t, t0 , x0 )
e o sistema de direção θ no espaço base (não-compacto) Z = R definido pelo operador
shift θt (t0 ) = t − t0 .

Exemplo: A formulação de skew product da equação diferencial não-autônoma (4.0-1)


está baseada no fato que sempre que x(t) é uma solução da equação diferencial, então a
solução deslocada no tempo xτ (t) = x(τ + t) (para t fixo) satisfaz a equação diferencial
não-autônoma
0
xτ (t) = Fτ (t, xτ (t)) = F (τ + t, x(τ + t)).

Considere o conjunto de funções {Fτ (., .) = F (τ + ., .) : τ ∈ R}, seu fecho F =


{Fτ (., .) = F (τ + ., .) : τ ∈ R} em uma topologia apropriada é chamada de envoltória
do campo de vetores dado pela equação diferencial não-autônoma (4.0-1). Por exem-
plo, F é um espaço métrico compacto para equações periódicas e quase-periódicas.
55

Introduziremos um grupo de operadores deslocamentos θτ : F → F por θτ (F ) = Fτ


para cada τ ∈ R, definina X = F × Rn e escreva ϕ(t, F, x0 ) para a solução de (4.0-1) com
valor inicial x0 no tempo inicial t0 = 0. Finalmente, definimos ψ : R+ × X → X por
ψ(t, x0 , F ) = (θt (F ), ϕ(t, F, x0 )). Então, ψ = (θ, ϕ) é um fluxo skew product de tempo
contínua, no espaço de fase X .

Para ver isso, observe que a segunda componente do semigrupo ψ(t + s, F, x0 ) =


ψ(t, ψ(s, F, x0 )) se expande como a propriedade cociclo

ϕ(t + s, F, x0 ) = ϕ(t, θs (F ), ϕ(s, F, x0 )).

4.1 Atratores para fluxos skew product

No contexto de fluxos skew product também podemos definir os conceitos de soluções


inteiras, conjuntos invariantes e atratores. Nesta seção, definiremos estes conceitos,
faremos um estudo sobre o conceito de atratores e provaremos a existência de atratores
pullback para fluxos skew product.

Definição 47 (Soluções inteiras de fluxos skew product). Uma solução inteira de um


fluxo skew product (θ, ϕ) em um espaço de fase métrico (X, d) e um conjunto base Z com
conjunto de tempo R é uma aplicação ξ : Z → X tal que

ξ(θt (z)) = ϕ(t − s, θs (z), ξ(θs (z)))

para todo z ∈ Z e s, t ∈ R com s ≤ t.

Assim como foi feito para processos, definiremos aqui o conceito de conjuntos não-
autônomos.

Definição 48 (Conjuntos não-autônomos para fluxos skew product). Seja (θ, ϕ) um fluxo
skew product com um conjunto base Z e um espaço de fase métrico (X, d). Um subconjunto
M do espaço de fase estendido P × X é chamado um conjunto não-autônomo, e para cada
z ∈ Z, o conjunto
Mz = {x ∈ X : (z, x) ∈ M}

é chamado uma z-fibra de M. Um conjunto não-autônomo M é dito invariante se ϕ(t, z, Mz ) =


Mθt (z) para todo t ≥ 0 e z ∈ Z. M é dito positivamente invariante se ϕ(t, z, Mz ) ⊂ Mθt (z) .
Em geral, M é dito possuir uma propriedade topológica se cada fibra de M possui esta proprie-
dade.

A seguir damos as definições de atratores forward e pullback para fluxos skew


product.

Definição 49 (Atratores foward e pullback para fluxos skew product). Seja (θ, ϕ) um
fluxo skew product. Um conjunto não-autônomo compacto e invariante A é chamado um atra-
tor pullback de (θ, ϕ) se a convergência pullback

lim distX (ϕ(t, θ−t (z), D), Az ) = 0


t→+∞

vale para todo subconjunto limitado não-vazio D de X e z ∈ Z, e é chamado um atrator


forward se a convergência forward

lim distX (ϕ(t, z, D), Aθt (z) ) = 0


t→+∞

vale para todo subconjunto limitado não-vazio D de X e z ∈ Z.

Assim como para processos, um teorema de existência e unicidade para atratores


pullback está baseado na existência de um conjunto de absorção, cuja definição precisa
é dada a seguir.

Definição 50 (Conjunto de absorção pullback para um fluxo skew product). Seja (θ, ϕ)
um fluxo skew product em um espaço métrico (X, d). Um subconjunto compacto e não-vazio
B de X é chamado absorvente pullback se para cada z ∈ Z e todo subconjunto limitado D de
X, existe um Tz,D > 0 tal que
ϕ(t, θ−t (z), D) ⊂ B

para todo t ≥ Tz,D .

Teorema 51 (Existência de um atrator pullback para fluxos skew product). Seja (θ, ϕ)
um fluxo skew product em um espaço métrico X com um conjunto de absorção pullback com-
pacto B tal que
ϕ(t, z, B) ⊂ B (4.1-5)

para todo t ≥ 0 e z ∈ Z. Então existe um único atrator pullback A com fibras em B unicamente
57

determinado por
\[
Az = ϕ(t, θ−t (z), B) (4.1-6)
τ ≥0 t≥τ

para todo z ∈ Z. Se, além disso, (Z, dZ ) é um espaço métrico compacto, então

lim sup distX (ϕ(t, z, D), A(Z)) = 0 (4.1-7)


t→+∞ z∈Z

S
para qualquer subconjunto limitado D de X, onde A(Z) = z∈Z Az ⊂ B.

Demonstração:

Parte 1: Seja B um conjunto de absorção pullback satisfazendo (4.1-5), e seja Az defi-


nido como em (4.1-6) para esse conjunto de absorção dado.

(i) Primeiramente, vamos mostrar que para qualquer z ∈ Z temos

lim distX (ϕ(t, θ−t (z), B), Az ) = 0 (4.1-8)


t→+∞

Supondo o contrário, então existem sequências tj → +∞ e xj ∈ ϕ(tj , θ−tj (z), B) ⊂ B


tal que distX (xj , Az ) >  para todo j ∈ N. O conjunto {xj : j ∈ N} ⊂ B é relativamente
0
compacto, então existe um ponto x0 ∈ B e uma subsequência de índices j → +∞ tal
S
que xj 0 → x0 . Agora xj 0 ∈ t≥τ ϕ(t, θ−t (z), B) para τ ≥ 0 com tj 0 ≥ τ , o que implica
que
[
x0 ∈ ϕ(t, θ−t (z), B)
t≥τ

para todo τ ≥ 0. Portanto, x0 ∈ At , e esta contradição prova (4.1-8).

(ii) Por (4.1-8), para todo  > 0 e z ∈ Z, existe um T,z ≥ 0 tal que

distX (ϕ(T,z , θT,z (z), B), Az ) < .

Seja D um subconjunto limitado de X. O fato que B é um conjunto de absorção


implica que ϕ(t, θ−t−T,z (z),D ) ⊂ B para todo t suficientemente grande. Portanto, pela
propriedade de cociclo, temos

ϕ(t + T,z , θ−t−T,z (z), D) = ϕ(T,z , θ−T,z (z), ϕ(t, θ−t−T,z (z), D))

⊂ ϕ(T,z , θ−T,z (z), B).


(iii) Agora mostraremos a ϕ-invariância do conjunto não-autônomo A. Por (4.1-
S
5), o conjunto Fτ (z) = s≥τ ϕ(s, θ−s (z), B) está contido em B para todo τ ≥ 0, e pela
T
definição, Aθ−t (z) = τ ≥0 Fτ (θ−t (z)). Primeiramente mostraremos que

\ \
ϕ(t, θ−t (z), Fτ (θt (z))) = ϕ(t, θ−t (z), Fτ (θ−t (z)) ) (4.1-9)
τ ≥0 τ ≥0

T
É claro que a inclusão “⊂” vale. Para provar a inclusão contrária, seja x ∈ τ ≥0 ϕ(t, θ−t (z), Fτ (θ−t (z)) ).
Então para algum τ ≥ 0, existe um xτ ∈ Fτ (θ−t (z)) ⊂ B tal que x = ϕ(t, θ−t (z), xτ ).
Uma vez que a família Fτ (θ−t (z)) é monotonicamente decrescente com τ crescente, o
T
conjunto {xτ : τ ≥ 0} tem um ponto limite x̂ ∈ τ ≥0 Fτ (θt (z)). Pela continuidade de
T
ϕ(t, θ−t (z), .), segue que x = ϕ(t, θ−t (z), x̂), e assim, x ∈ ϕ(t, θ−t (z), τ ≥0 Fτ (θt (z))) =
ϕ(t, θ−t (z), Aθ−t (z) ).

Portanto, a equação (4.1-9), a compacidade de Fτ (θ−t (z)) e a continuidade de ϕ(t, θ−t (z), .)
implicam que

\
ϕ(t, θ−t (z), Aθ−t (z) ) = ϕ(t, θ−t (z), Fτ (θ−t (z)) )
τ ≥0
\[
⊃ ϕ(t, θ−t (z), ϕ(s, θ−t−s (z), B))
τ ≥0 s≥τ
\[
= ϕ(t + s, θ−t−s (z), B)
τ ≥0 s≥τ
\[
= ϕ(s, θ−s (z), B) ⊃ Az ,
τ ≥t s≥τ

o que significa que


Az ⊂ ϕ(t, θ−t (z), Aθ−t (z) ) (4.1-10)

para todo t ≥ 0 e z ∈ Z. Substituindo z por θ−τ (z) em (4.1-10) e usando a propriedade


de cociclo temos

ϕ(τ, θ−τ (z), Aθ−τ (z) ) ⊂ ϕ(τ, θ−τ (z), ϕ(t, θ−τ −t (z), Aθ−τ −t (z) ))

= ϕ(t, θ−t (z), ϕ(τ, θ−τ −t (z), Aθ−τ −t (z) ))

⊂ ϕ(t, θ−t (z), ϕ(τ, θ−τ −t (z), B))

⊂ ϕ(t, θ−t (z), B) ⊂ B(Az , )


59

para toda -vizinhança B(Az , ) de Az ,  > 0, desde que t = t() seja suficientemente
grande. Portanto,
ϕ(τ, θ−τ (z), Aθ−τ (z) ) ⊂ Az

para todo τ ≥ 0 e z ∈ Z. Com τ substituindo por t, isso produz juntamente com (4.1-10)
a ϕ-invariância da família (Az )z∈Z .

(iv) Observe que o conjunto Az , z ∈ Z, são uniformente limitados, pois são subcon-
juntos de um mesmo conjunto compacto B para todo z ∈ Z. Assim formam um atrator
pullback, a unicidade segue igual no teorema 44.

Parte 2: Suponha que o espaço métrico (Z, dZ ) é compacto, e assuma que a convergên-
cia (4.1-7) não vale. Então existe um  > 0 e sequências tn → +∞, ẑn ∈ Z e xn ∈ B tais
que
distX (ϕ(tn , ẑn , xn ), A(Z)) > 0. (4.1-11)

Faça zn = θtn (ẑn ). Pela compacidade de Z, existe uma subsequência convergente


zn0 → z0 ∈ Z. Por causa da atração pullback, existe um τ > 0 tal que


distX (ϕ(τ, θ−τ (z0 ), B), Az0 ) < .
2

A propriedade de cociclo dá

ϕ(tn , θ−tn (zn ), xn ) = ϕ(τ, θ−τ (zn ), ϕ(tn − τ, θ−tn (zn ), xn ))

para qualquer tn > τ . Agora, pela invariância positiva de B, segue que

ϕ(tn − τ, θ−tn (zn ), xn ) ⊂ B,

00 0
e uma vez que B é compacto, existe também uma subsequência de índices n de n
(dependendo de τ ) tal que

sn00 = ϕ(tn00 − τ, θ−tn00 (zn00 ), xn00 ) → s0 ∈ B.

A continuidade de um fluxo skew product implica que


||ϕ(τ, θ−τ (zn00 ), sn00 ) − ϕ(τ, θ−τ (z0 ), s0 )|| <
2
00
quando n > n(). Portanto,

 > distX (ϕ(tn00 , θ−tn00 (z), xn00 ), Az0 ) = dist(ϕ(tn00 , ẑn00 , xn00 ), Az0 )

≥ dist(ϕ(tn00 , ẑn00 , xn00 ), A(Z)),

que contradiz (4.1-11), e assim, a convergência (4.1-7) é válida.

Exemplo: Considere uma equação diferencial não-autônoma em Rn dado por

0
x = F (z, x, ) (4.1-12)

com o sistema de condução θ em um espaço métrico compacto Z, dZ . Suponha que F é


suficientemente regular para garantir que a equação diferencial (4.1-12) gere um fluxo
skew product.

Além disso, suponha que F satisfaz a condição de dissipatividade uniforme

hx, F (z, x)i ≤ K − L||x||2 (4.1-13)

para todo z ∈ Z e x ∈ Rn , com constantes positivas K e L. De modo similar ao último


exemplo do capítulo 3, a solução x(t) satisfaz a inequação diferencial

d
||x(t)||2 ≤ K − L||x(t)||2 ,
dt

o que implica que a bola fechada

h p i 
B = B 0, (K + 1)/L = x ∈ Rn : ||x||2 ≤ (K + 1)/L

é pullback absorvente e positivamente invariante. Então, do teorema anterior, segue


que o fluxo skew product tem um atrator pullback em Rn com subconjuntos compo-
nentes Az ⊂ B, z ∈ Z.

O próximo resultado traz uma caracterização do atrator pullback da equação dife-


rencial (4.1-12) quando a função F satisfaz a condição dissipativa Lipschitz unilateral,
cuja definição é dada a seguir.

Definição 52. Dizemos que uma função F : Rm × Rn → Rn é dita satisfazer a condição


61

dissipativa Lipschitz unilateral se

hx1 − x2 , F (z, x1 ) − F (z, x2 )i ≤ −L||x1 − x2 ||2 (4.1-14)

para todo z ∈ Rm e x1 , x2 ∈ Rn com alguma constante L > 0.

Teorema 53. O atrator pullback A de um fluxo skew product (θ, ϕ) gerado pela equação dife-
rencial (4.1-12) consiste de fibras sendo conjuntos unitários Az = {az } para cada z ∈ Z quando
o campo de vetores F satisfaz a condição dissipativa Lipschitz unilateral (4.1-14). Além disso,
t 7−→ aθt (z) , t ∈ R, é uma solução inteira de (4.1-12) para cada z ∈ Z.

0
Demonstração: Uma vez que Az ⊂ B para todo z ∈ Z, definimos ||Az || = maxa∈Az ||a|| ≤
0
K +1
L0
= R para cada z ∈ Z. Agora considere um z ∈ Z fixo, e suponha que existe um
0 > 0 e pontos a1 , a2 ∈ Az tal que ||a1 − a2 || = 0 . Além disso, escolha T > 0 tal que
2Re−LT = 0 . A ϕ-invariante do atrator pullback dá ϕ(T, θ−T (z), Aθ−T (z) ) = Az , que
0 0
significa que existem a1 , a2 ∈ Aθ−T (z) tais que

0 0
ϕ(T, θ−T (z), a1 ) = a1 e ϕ(T, θ−T (z), a2 ) = a2

Então, a condição ( 4.1-14) nos garante que

0 0 0 0
||ϕ(T, θ−T (z), a1 ) − ϕ(T, θ−T (z), a2 )|| ≤ e−LT ||a1 − a2 ||

e daí segue que

0 0
0 < 0 = ||a1 − a2 || = ||ϕ(T, θ−T (z), a1 ) − ϕ(T, θ−T (z), a2 )||
0 0 1
≤ e−LT ||a1 − a2 || ≤ Re−LT = 0
2

o que não é possível. Portanto, a1 = a2 .

Finalmente, da ϕ-invariância do atrator pullback, ϕ(t, z, az ) = aθt (z) para todo t ∈ R


e z ∈ Z, então os conjuntos unitários que formam o atrator definem uma solução inteira
do sistema.
REFERÊNCIAS BIBLIOGRÁFICAS

[1] L. Barreira and C Valls. Equações diferenciais ordinárias: teoria qualitativa. Livraria da
Física, São Paulo, first edition, 2012.

[2] Jack K. Hale. Ordinary differential equations. Robert E. Krieger Publishing Co., Inc.,
Huntington, N.Y., second edition, 1980.

[3] Morris W. Hirsch, Stephen Smale, and Robert L. Devaney. Differential equations, dy-
namical systems, and an introduction to chaos. Elsevier/Academic Press, Amsterdam,
third edition, 2013.

[4] Peter E. Kloeden and Martin Rasmussen. Nonautonomous dynamical systems, vo-
lume 176 of Mathematical Surveys and Monographs. American Mathematical Society,
Providence, RI, 2011.

[5] Martin Rasmussen. Attractivity and bifurcation for nonautonomous dynamical systems,
volume 1907 of Lecture Notes in Mathematics. Springer, Berlin, 2007.

You might also like