Professional Documents
Culture Documents
Resumo
1 - Introdução
2 - Observadores determinı́sticos
6 - Conclusões
1 - Introdução
Sistema discreto linear e invariante no tempo descrito pelo modelo de estado:
2 - Observadores determinı́sticos
2 - Observadores determinı́sticos
+ Observador:
x̂(t + 1) = Ax̂(t) + Bu(t)
x(t + 1) − x̂(t + 1) = Ax(t) + Bu(t) − Ax̂(t) − Bu(t) = Ax(t) − Ax̂(t) = A [x(t) − x̂(t)]
2 - Introdução
2 - Observadores determinı́sticos
Exemplo 1
x1 (t + 1) = x1 (t) + x2 (t)
y(t) = x1 (t)
x1 − Posição
x2 − Velocidade
y = x1 − Posição
u − Tensão de entrada
2 - Observadores determinı́sticos
Equação Matricial:
x(t + 1) = Ax(t) + Bu(t)
Valores próprios de A
λA1 = 1, λA2 = 0.9
Dinâmica do erro é descrita por um sistema instável ⇒ Observador não converge (não funciona)
2 - Observadores determinı́sticos
Sinais do sistema
y(t) = x1 (t)
3000
2000
1000
−1000
0 200 400 600 800 1000
Tempo
x2 (t)
100
50
−50
−100
0 200 400 600 800 1000
Tempo
u(t)
0.5
−0.5
−1
0 200 400 600 800 1000
Tempo
2 - Observadores determinı́sticos
Observador (abordagem 1)
y(t) = x1 (t)
3000
2000
1000
−1000
0 200 400 600 800 1000
Tempo
$x_2(t)$
100
50
−50
−100
0 200 400 600 800 1000
Tempo
2 - Observadores determinı́sticos
Erro do observador (abordagem 1)
500
−500
0 200 400 600 800 1000
Tempo
x̃2 (t) = x2 (t) − x̂2 (t)
100
80
60
40
20
0
0 200 400 600 800 1000
Tempo
2 - Observadores determinı́sticos
Erro do observador (abordagem 1)
−500
0 20 40 60 80 100
Tempo
x̃2 (t) = x2 (t) − x̂2 (t)
100
80
60
40
20
0
0 20 40 60 80 100
Tempo
2 - Observadores determinı́sticos
+ Observador:
+ Erro do observador:
x̃(t) = x(t) − x̂(t)
2 - Observadores determinı́sticos
à O erro anula-se mesmo que o sistema seja instável (desde que os modos instáveis sejam acessı́veis).
à Consegue observar sistemas instáveis (desde que os modos instáveis sejam acessı́veis).
2 - Observadores determinı́sticos
Exemplo 2
Novamente o sistema:
x1 (t + 1) = x1 (t) + x2 (t)
y(t) = x1 (t)
Na forma matricial:
1 1 0
x(t + 1) = x(t) + u(t)
0 0.9 10
h i
y(t) = 1 0 x(t)
2 - Observadores determinı́sticos
+ equação caracterı́stica de A − LC :
ó
λ − (1 − `1 ) −1
A0 (λ) = det [λI2 − (A − LC)] = det
`2 λ − 0.9
= [λ1 − (1 − `1 )] (λ − 0.9) + `2 = λ2 − (1.9 − `1 ) λ + (1 − `1 ) 0.9 + `2
2 - Observadores determinı́sticos
ó
λ2 − (1.9 − `1 ) λ + (1 − `1 ) 0.9 + `2 = λ2 − (λ1 + λ2 ) λ + λ1 λ2
ó
1.9 − ` = λ + λ ` = 1.9 − (λ + λ )
1 1 2 1 1 2
⇒
(1 − `1 ) 0.9 + `2 = λ1 λ2 `2 = 0.81 − 0.9 (λ1 + λ2 ) + λ1 λ2
λ1 λ2 `1 `2
Observador 1 0.8100 0.8100 0.2800 0.0081
2 - Observadores determinı́sticos
Observador (abordagem 2)
Valor verdadeiro
Observador 1
Observador 2
Observador 3
Observador 4
x1 (t) = y(t)
3000
2000
1000
−1000
0 200 400 600 800 1000
x1 (t) = y(t) Tempo
200
−200
−400
−600
0 200 400 600 800 1000
Tempo
2 - Observadores determinı́sticos
Observador (abordagem 2)
Valor verdadeiro
Observador 1
Observador 2
Observador 3
x1 (t) = y(t) Observador 4
1000
500
−500
−1000
0 10 20 30 40 50
x2 (t) Tempo
200
−200
−400
−600
0 10 20 30 40 50
Tempo
2 - Observadores determinı́sticos
Erro do observador (abordagem 2)
Observador 1
Observador 2
Observador 3
Observador 4
x̃1 (t) = x1 (t) − x̂1 (t)
1000
500
−500
0 200 400 600 800 1000
Tempo
x̃2 (t) = x2 (t) − x̂2 (t)
600
400
200
−200
0 200 400 600 800 1000
Tempo
2 - Observadores determinı́sticos
Erro do observador (abordagem 2)
Observador 1
Observador 2
Observador 3
x̃1 (t) = x1 (t) − x̂1 (t) Observador 4
1000
500
−500
0 10 20 30 40 50
Tempo
x̃2 (t) = x2 (t) − x̂2 (t)
600
400
200
−200
0 10 20 30 40 50
Tempo
2 - Observadores determinı́sticos
É frequente considerar-se que as pertubações são aleatórias: Neste caso são modelizadas como
+ Funções aleatórias
+ Um processo estocástico v é função de dois argumentos:
- t, habitualmente o tempo.
+ Distribuição
+ Média:
R∞
µv (t) = E {v(t)} = −∞
pv(t) [v(t)] dv(t)
pv(t) − densidade de probabilidade de v(t).
+ Função de (auto)-covariância
© ª
λvv (t, s) = E {[v(t) − µv (t)] [v(s) − µv (s)]} = E v(t)v T (s) − µv (t)µv (s)
Processo estocástico estacionário: Processo cujas propriedades estatı́sticas não mudam com o
tempo.
Se v(t) for um processo estocástico estacionário, então:
+ Média:
µv (t) = µv , não é função do tempo.
+ Função de (auto)-covariância
+ Média:
XN
1
µv = lim v(t)
N →∞ 2N + 1
t=−N
+ Função de (auto)-covariância:
XN
1
λvv (τ ) = lim [v(t + τ ) − µv ] [v(t) − µv ]T
n→∞ 2N + 1
t=−N
+ Para τ = 0 e v(t) escalar (v(t) ∈ IR), λvv (τ ) é a variância de v(t) que pode ser calculada através
de Z π
1
σv2 = λvv (0) = Φvv (ω)dω.
2π −π
+ Podemos, então afirmar, que a densidade de espectral dum processo estocástico é a distribuição da
energia da sua componente alternada pelas diferentes frequências.
Ruı́do branco
+
E {v(t)} = µv
+ v(t) e v(s) forem independentes para qualquer t 6= s
E {v(t)} = 0n
© T
ª © T
ª V, τ =0
λvv (τ ) = E v(t + τ )v (t) = E v(t)v (t − τ ) = = V δ(τ )
0n×n , τ =
6 0
δ(τ ) − Impulso de Dirac.
Densidade espectral do ruı́do branco:
∞
X
Φv (ω) = λvv (τ )e−jωτ = V
τ =−∞
O espectro do ruı́do branco é plano. A sua energia distribui-se igualmente por todas as frequências (tal
como o espectro da luz branca e daı́ o nome de ruı́do branco).
v(t)
2.5
1.5
0.5
−0.5
−1
−1.5
−2
−2.5
0 20 40 60 80 100
Tempo
v(t)
3
−1
−2
−3
0 10 20 30 40 50 60 70 80 90 100
Tempo
Considera-se que as perturbações q(t) e r(t) dos modelos de estado são ruı́do branco:
E {q(t)} = 0n
E {r(t)} = 0`
© ª © ª
q(t) h i E q(t)q T (t − τ ) E q(t)rT (t − τ )
E q (t − τ ) r (t − τ )
T T = © ª © ª =
r(t) T T
E r(t)q (t − τ ) E r(t)r (t − τ )
Q S , τ = 0
= ST R
0(n+`)×(n+`) , τ 6= 0
Os ruı́dos q(t) e r(t) vão afectar o desempenho dos observadores pois o erro da estimativa de estado
passa a ser
x̃(t + 1) = (A − LC)x̃(t) + q(t) − Lr(t)
Exemplo 3
x1 (t + 1) = x1 (t) + x2 (t)
Observadores
λ1 λ2 `1 `2
Observador 1 0.8100 0.8100 0.2800 0.0081
Estimativas de estado
Valor verdadeiro
Observador 1
Observador 2
Observador 3
x1 (t) = y(t) Observador 4
4000
3000
2000
1000
−1000
0 200 400 600 800 1000
Tempo
x2 (t)
200
−200
−400
−600
0 200 400 600 800 1000
Tempo
Valor verdadeiro
Observador 1
Observador 2
Observador 3
x1 (t) = y(t) Observador 4
1200
1000
800
600
400
200 210 220 230 240 250
Tempo
x2 (t)
200
100
−100
−200
200 210 220 230 240 250
Tempo
Obsevador 1
Obsevador 2
Obsevador 3
x̃1 (t) Obsevador 4
1000
500
−500
0 200 400 600 800 1000
Tempo
x̃2 (t)
600
400
200
0
−200
−400
0 200 400 600 800 1000
Tempo
Observador 1
Observador 2
Observador 3
x̃1 (t) Observador 4
400
200
−200
−400
200 210 220 230 240 250
Tempo
x̃2 (t)
200
100
−100
−200
200 210 220 230 240 250
Tempo
Sejam
xd (t + 1) = Ax(t) + Bu(t)
Se definirmos
x(t) = xd (t) + xs (t)
xd (t)
xs (t)
xsd (t)
x1 (t)
4000
3000
2000
1000
−1000
0 200 400 600 800 1000
Tempo
x2 (t)
100
50
−50
−100
0 200 400 600 800 1000
Tempo
Exemplo 4 (continuação)
yd (t)
ys (t)
y(t) ysd (t)
3500
3000
2500
2000
1500
1000
500
−500
−1000
0 200 400 600 800 1000
Tempo
Suponhamos que conseguimos medir yd (t) sem qualquer erro. Podemos estimar xd (t) através do
observador (estável)
Erro de estimação:
x̃(t) = x(t) − x̂(t) = [xd (t) + xs (t)] − [x̂d t + x̂s (t)] = xd (t) − x̂d (t) + xs (t) − x̂s (t) =
| {z } | {z }
x̃d (t) x̃s (t)
• Minimizar a covariância do erro das estimativas do estado, ou seja, um ganho L tal que a variância
de x̃(t) seja mı́nima.
• induzidas: n o
kAkp = max kAxkp : kxkp = 1
• Norma max
kAkmax = max {|aij |}
• Norma de Frobenius: v
uX
u n X
n
kAkF = t a2ij = traço(AT A)
i=1 j=1
Função traço:
n
X
traço(M ) = mii
i=1
Soma de todos os elementos da diagonal principal.
AT A − Matriz definida positiva
¡ ¢ ⇒ Se M for semidefinida positiva então traço(M ) é uma norma de M .
kAk = traço AT A
F
+ Uma matriz simétrica M ∈ IRn×n é definida positiva e designa-se esse facto por M > 0n×n ou
M Â 0n×n , se e só
z T M z > 0, ∀z ∈ IRn tal que z 6= 0n
+ Uma matriz M ∈ IRn×n é semidefinida positiva e designa-se esse facto por M ≥ 0n×n ou
M º 0n×n , se e só
z T M z ≥ 0, ∀z ∈ IRn z 6= 0n
+ Uma matriz M ∈ IRn×n é definida negativa e designa-se esse facto por M < 0n×n ou M ≺
0n×n , se e só
z T M z < 0, ∀z ∈ IRn z 6= 0n
+ Uma matriz M ∈ IRn×n é semidefinida negativa e designa-se esse facto por M ≤ 0n×n ou
M ¹ 0n×n , se e só
z T M z ≤ 0, ∀z ∈ IRn z 6= 0n
+ Uma matriz simétrica M ∈ IRn×n é definida positiva (negativa) se e só se todos os seus valores
próprios forem positivos (negativos).
+ Uma matriz simétrica M ∈ IRn×n é semidefinida positiva (negativa) se e só se tiver, pelo menos,
um valor próprio nulo e todos os outros não negativos (não positivos).
Facto. Se M1 e M2 forem matrizes definidas positivas e M1 Â M2 (ou M1 º M2 ) então kM1 k > kM2 k
(ou kM1 k ≥ kM2 k).
Como, em regime permanente x̃(t) = x̃s (t), o ganho óptimo do observador do sistema deterministico-
estocástico é o mesmo do observador do sistema estocástico
+ Cálculo de P̃ (t):
ó Erro da estimativa:
x̃(t + 1) = Ax̃(t) + q(t) − K(t)ỹs (t)
ó Definir
ψ(K, t) = K(t)Λ0 (t) − G(t) ∈ IRn×`
ó Rescrever a equação de P̃ (t + 1)
£ ¤
P̃ (t + 1) = AP̃ (t)AT + Q − G(t)K T (t) + K(t)GT (t) + K(t)Λ0 (t)K T (t)
−G(t)Λ−1 T T
0 (t)G (t) + K(t)Λ0 (t)K (t)
° °
° °
+ Minimizar °P̃ (t)°
−1
Como ψ(K, t)Λ0 (t)ψ T (K, t) º 0n×n então
Logo
h i
min P̃ (t + 1) = AP̃ (t)AT + Q − G(t)Λ−1 T
0 (t)G (t)
K
e
ψ(K, t) = 0n×` ⇒ K(t)Λ0 (t) − G(t) = 0n×` ⇔
K(t) = G(t)Λ−1
0 (t)
Calculemos Λ0 (t):
Λ0 (t) = E{ỹs (t) ỹsT (t)} = E{[ ys (t) −C x̂s (t)][ys (t) − C x̂s (t)]T } =
|{z} |{z}
ys (t)−C x̂s (t) Cxs (t)+r(t)
n o
T
= E [Cxs (t) + r(t) − C x̂s (t)] [Cxs (t) + r(t) − C x̂s (t)] =
£ ¤
= E{ C(xs (t) − x̂s (t)) + r(t) [C (xs (t) − x̂s (t)) + r(t)]T } =
| {z }
x̃(t)
n o
T
= E [C x̃(t) + r(t)] [C x̃(t) + r(t)] =
© ª
= E C x̃(t)x̃T (t)C T + C x̃(t)rT (t) + r(t)x̃T (t)C T + r(t)rT (t)
© ª © ª © ª © ª
= C E x̃(t)x̃T (t) C T + C E x̃(t)rT (t) + E r(t)x̃T (t) C T + E r(t)rT (t) =
| {z } | {z } | {z } | {z }
P̃ (t) 0n×` 0`×n R
= C P̃ (t)C T + R
Calculemos G(t):
G(t) = E{[Ax̃(t) + q(t)] ỹsT (t) } = E{[Ax̃(t) + q(t)] [ ys (t) −C x̂s (t)]T } =
| {z } |{z}
T
[ys (t)−C x̂ (t)]T Cxs (t)+r(t)
n o
T
= E [Ax̃(t) + q(t)] [Cxs (t) + r(t) − C x̂s (t)] =
£ ¤T
= E{[Ax̃(t) + q(t)] C(xs (t) − x̂s (t)) + r(t) } =
| {z }
x̃(t)
n o
T
= E [Ax̃(t) + q(t)] [C x̃(t) + r(t)] =
© ª
= E Ax̃(t)x̃T (t)C T + Ax̃(t)rT (t) + q(t)x̃T (t)C T + q(t)rT (t)
© ª © ª © ª © ª
= A E x̃(t)x̃T (t) C T + A E x̃(t)rT (t) + E q(t)x̃T (t) C T + E q(t)rT (t) =
| {z } | {z } | {z } | {z }
P̃ (t) 0n×` 0n×n S
= AP̃ (t)C T + S
h ih i−1
K(t) = G(t)Λ−1
0 (t)
T T
= AP̃ (t)C + S C P̃ (t)C + R
Para calcular K(t) temos que determinar P̃ (t). Sabemos que K(t) minimiza P̃ (t + 1) e que, conse-
quentemente:
h i
P̃ (t + 1) = minK P̃ (t + 1) = AP̃ (t)AT + Q − G(t)Λ−1 T
0 G (t) =
h ih i−1 h i
T T T T
= AP̃ (t)A + Q − AP̃ (t)C + S C P̃ (t)C + R AP̃ (t)C + S
1 - Inicialização:
2 - Para t = 0, 1, . . .
2.1 - Calcular o ganho do previsor de Kalman:
h ih i−1
T T
K(t) = AP̃ (t)C + S C P̃ (t)C + R
OBSERVAÇÕES:
• Entradas do algortimo:
– y(t) - Saı́da do sistema.
– Π(0) - Covariância do erro da estimativa inicial do estado.
© ª
– Q = E q(t)q T (t) .
© ª
– S = E q(t)r T (t) .
© T
ª
– R = E r(t)r (t) .
Exemplo 5
x1 (t + 1) = x1 (t) + x2 (t)
Previsor de Kalman
Valor verdadeiro
Previsor de Kalman
x1 (t)
4000
3000
2000
1000
−1000
0 200 400 600 800 1000
Tempo
x2 (t)
100
50
−50
−100
0 200 400 600 800 1000
Tempo
Previsor de Kalman
Valor verdadeiro
Previsor de Kalman
x1 (t)
1000
900
800
700
600
200 210 220 230 240 250
Tempo
x2 (t)
40
20
−20
−40
200 210 220 230 240 250
Tempo
$\tilde{x}_1(t)$
200
−200
−400
−600
0 200 400 600 800 1000
Tempo
$\tilde{x}_2(t)$
150
100
50
−50
0 200 400 600 800 1000
Tempo
$\tilde{x}_1(t)$
60
40
20
−20
200 210 220 230 240 250
Tempo
$\tilde{x}_2(t)$
5
−5
−10
200 210 220 230 240 250
Tempo
Valor verdadeiro
Observador 1
Observador 2
Observador 3
Observador 4
Previsor de Kalman
x1 (t)
4000
3000
2000
1000
−1000
0 200 400 600 800 1000
Tempo
x2 (t)
200
−200
−400
−600
0 200 400 600 800 1000
Tempo
Valor verdadeiro
Observador 1
Observador 2
Observador 3
Observador 4
Previsor de Kalman
x1 (t)
1200
1000
800
600
100
−100
−200
200 210 220 230 240 250
Time
Observador 1
Observador 2
Observador 3
Observador 4
Previsor de Kalman
x̃1 (t)
1000
500
−500
0 200 400 Time 600 800 1000
x̃2 (t)
600
400
200
−200
−400
0 200 400 Time 600 800 1000
Observador 1
Observador 2
Observador 3
Observador 4
Previsor de Kalman
x̃1 (t)
400
200
−200
−400
200 210 220 230 240 250
Tempo
x̃2 (t)
200
100
−100
−200
200 210 220 230 240 250
Tempo
O Ganho do previsor
K1 (t)
1
0.5
0
0 200 400 600 800 1000
K2 (t) Tempo
0.3
0.2
0.1
0
−0.1
0 200 400 600 800 1000
Tempo
O Ganho do previsor
K1 (t)
1
0.8
0.6
0.4
0.2
0 10 20 30 40 50
K2 (t) Tempo
0.4
0.3
0.2
0.1
0
0 10 20 30 40 50
Tempo
4000 2000
3000 1500
2000 1000
1000 500
0 0
0 500 1000 0 500 Tempo 1000
Tempo
P̃21 (t) P̃22 (t)
2500 2500
2000 2000
1500 1500
1000 1000
500 500
0 0
0 500 Tempo 1000 0 500 Tempo 1000
4000 2000
2000 1000
0 0
0 20 Tempo 40 0 20 Tempo 40
P̃21 (t) P̃22 (t)
3000 3000
2000 2000
1000 1000
0 0
0 20 Tempo 40 0 20 Tempo 40
+ Nos sistemas LTI perturbados por ruı́do branco o erro do previsor de Kalman é um processo esta-
cionário.
FILTRO DE KALMAN:
Equação de actualização de x̂(t|t):
onde:
x̂(t) − Estimativa de x(t) produzida pelo filtro de Kalman
Kf (t) − Ganho do filtro de Kalman.
ỹ(t) = [ys (t) − C x̂(t)]
= x̃(t)x̃T (t) − x̃(t)ỹ T (t)KfT (t) − Kf (t)ỹ(t)x̃T (t) + Kf (t)ỹ(t)ỹ T (t)KfT (t)
+ Calcular P̃ (t|t):
© ª © ª © ª
P̃ (t|t) = E x̃(t)x̃T (t) − E x̃(t)ỹ T (t) KfT (t) − Kf (t) E ỹ(t)x̃T (t) +
| {z } | {z } | {z }
P̃ (t) Gf (t) GT
f (t)
© T
ª T
+Kf (t) E ỹ(t)ỹ (t) Kf (t) =
| {z }
Λ0 (t)
+ Definir
Φf (Kf , t) = Kf Λ0 (t) − Gf (t).
+ Calcular
T
Φf (Kf , t)Λ−1 T −1
0 (t)Φf (Kf , t) = [Kf (t)Λ0 (t) − Gf (t)] Λ0 (t) [Kf (t)Λ0 (t) − Gf (t)] =
£ ¤ T
= Kf (t) − Gf (t)Λ−10 (t) [K f (t)Λ0 (t) − Gf (t)]
+Gf (t)Λ−1 T
0 (t)Gf (t)
° °
° °
+ Minimizar °P̃ (t|t)°
−1
Como ψf (Kf , t)Λ0 (t)ψfT (Kf , t) º 0n×n então
º P̃ (t) − Gf (t)Λ−1 T
0 (t)Gf (t).
Logo
h i
min P̃ (t|t) = P̃ (t) − Gf (t)Λ−1 T
0 (t)Gf (t)
Kf
e
ψf (Kf , t) = 0n×` ⇒ Kf (t)Λ0 (t) − Gf (t) = 0n×` ⇔
Kf (t) = Gf (t)Λ−1
0 (t)
h i−1
Kf (t) = Gf (t)Λ−1
0 (t)
T T
= P̃ (t)C C P̃ (t)C + R
A covariância do erro x̃(t|t) = x(t) − x̂(t|t) é
P̃ (t|t) ¹ P̃ (t)
1 - Inicialização:
2 - Para t = 0, 1, . . .
2.1 - Calcular os ganho do previsor e do filtro de Kalman:
h ih i−1
T T
K(t) = AP̃ (t)C + S C P̃ (t)C + R
h i−1
T T
Kf (t) = P̃ (t)C C P̃ (t)C + R
OBSERVAÇÕES:
• Entradas do algortimo:
– u(t) - Entrada do sistema.
– y(t) - Saı́da do sistema.
– Π(0) - Covariância do erro da estimativa inicial do estado.
© T
ª
– Q = E q(t)q (t) .
© T
ª
– S = E q(t)r (t) .
© T
ª
– R = E r(t)r (t) .
– (A, B, C, D) - Parâmetros dos sistema.
• Saı́das do algoritmo:
– x̂(t) - Previsão do estado x(t) no instante t − 1.
– x̂(t|t) - Estimativa do estado x(t) no instante t.
– ŷ(t) - Previsão da saı́da y(t) no instante t − 1.
– ŷ(t|t) - Estimativa da saı́da y(t) no instante t.
– K(t) - Ganho do previsor de Kalman.
– Kf (t) - Ganho do filtro de Kalman.
Exemplo 6
x1 (t + 1) = x1 (t) + x2 (t)
Valor verdadeiro
Previsor de Kalman
Filtro de Kalman
x1 (t)
4000
3000
2000
1000
−1000
0 200 400 Tempo 600 800 1000
x2 (t)
100
50
−50
−100
0 200 400 600 800 1000
Tempo
Valor verdadeiro
Previsor de Kalman
Filtro de Kalman
x1 (t)
1000
900
800
700
600
200 210 220 230 240 250
Tempo
x2 (t)
40
20
−20
−40
200 210 220 230 240 250
Tempo
Previsor de Kalman
Filtor de Kalman
x̃1 (t)
200
−200
−400
−600
0 200 400 Tempo 600 800 1000
x̃2 (t)
150
100
50
−50
0 200 400 600 800 1000
Tempo
Previsor de Kalman
Filtro de Kalman
x̃1 (t)
60
40
20
−20
200 210 220 230 240 250
Tempo
x̃2 (t)
10
−5
−10
200 210 220 230 240 250
Tempo
Previsor de Kalman
Filtro de Kalman
K1
1
0.8
0.6
0.4
0.2
0
0 200 400 Tempo 600 800 1000
K2
0.4
0.3
0.2
0.1
0
0 200 400 600 800 1000
Tempo
Previsor de Kalman
Filtro de Kalman
K1
0.8
0.6
0.4
0.2
0
0 10 20 30 40 50
Tempo
K2
0.4
0.3
0.2
0.1
0
0 10 20 30 40 50
Tempo
Previsor de Kalman
Filtro de Kalman
P̃11 P̃12
5000 2500
4000 2000
3000 1500
2000 1000
1000 500
0 0
0 500 Tempo 1000 0 500 Tempo 1000
P̃21 P̃22
2500 2500
2000 2000
1500 1500
1000 1000
500 500
0 0
0 500 Tempo 1000 0 500 Tempo 1000
Previsor de Kalman
Filtro de Kalman
P̃ 11 P̃ 12
6000 3000
4000 2000
2000 1000
0 0
0 20 Tempo40 0 20 Tempo 40
P̃ 21 P̃ 22
3000 500
400
2000
300
200
1000
100
0 0
0 20 Tempo 40 0 20 Tempo 40
6 - Conclusões
+ Observadores são modelos de sistema que, a partir dos sinais de entrada e saı́da, fornecem esti-
mativas do estado.
+ Se o sistema for observável existe liberdade total na alocação dos valores próprios do observador.
+ Estes observadores permitem estimar o estado de sistemas instáveis desde que os modos instáveis
sejam acessı́veis.
6 - Conclusões
+ As perturbações podem ser ruı́do de processo ou ruı́do de medição: O ruı́do de processo é um sinal
que perturba o estado (entra na equação de estado) e o de medição perturba unicamente o sinal de
saı́da (entra na equação de saı́da).
+ Desde que se conheçam as caracterı́sticas das perturbações o projecto de observadores pode ser
encarado como um problema de optimização.