You are on page 1of 20

As premissas de Gauss-Markov

Curso de Introdução à Econometria usando o R

Vítor Wilher
analisemacro.com.br

10 de Outubro de 2016

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 1 / 20


Plano de Voo

1 O que vimos até aqui

2 O que veremos hoje

3 As premissas de Gauss-Markov

4 As propriedades do estimador de MQO

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 2 / 20


O que vimos até aqui

1 Apresentação do Curso
2 Apresentação do R
3 Introdução ao mundo da econometria
4 Mínimos Quadrados Ordinários (MQO) como uma ferramenta
algébrica
5 O modelo de regressão linear

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 3 / 20


O que veremos hoje

1 As premissas de Gauss-Markov
2 As propriedades do estimador de MQO

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 4 / 20


As premissas de Gauss-Markov

Independente do estimador de MQO b prover uma boa aproximação de um


desconhecido vetor de parâmetros β depende crucialmente das premissas
que são feitas sobre a distribuição de εi e sua relação com xi . Um caso
padrão sobre o qual o estimador de MQO possui boas propriedades é
caracterizada pelas condições de Gauss-Markov. Mais para frente, nós
consideráremos condições mais relaxadas sobre as quais o estimador de
MQO ainda possui propriedades atrativas. Por agora, é importante realizar
que as condições de Gauss-Markov não são estritamente necessárias em sua
totalidade para justicar o uso do estimador de mínimos quadrados
ordinários. Eles apenas constituem um caso simples no qual as
propriedades de uma amostra pequena de b são facilmente derivadas.

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 5 / 20


As premissas de Gauss-Markov

Para o modelo linear de regressão dado por


0
yi = xi β + εi (1)

as condições de Gauss-Markov são

E (εt ) = 0, i = 1, ..., N (2)


E (εi |xi ) = 0 (3)
2
V (εi ) = σ , i = 1, ..., N (4)
cov (εi , εj ) = 0, i, j = 1, ..., N, i 6= j. (5)

A premissa (21) diz que o valor esperado do termo de erro é zero, o que
signica que, na média, a reta de regressão deve estar correta.

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 6 / 20


As premissas de Gauss-Markov

A premissa (23) estabelece que todos os termos de erro possuem a mesma


variância, o que é referido na literatura como homocedasticidade,
enquanto a premissa (24) implica em correlação nula entre diferentes
termos de erro. Isso exclui qualquer forma de autocorrelação. Tomadas em
conjunto, (21), (23) e (24) implicam que os termos de erro são extraídos
de forma não correlacionada de uma distribuição com valor esperado nulo e
variância constante σ 2 . Usando a notação matricial, é possível reescrever
essas três condições como

E (ε) = 0, V (ε) = σ 2 IN (6)

onde IN é a matriz identidade NxN . ISso implica que a matriz de


covariância do vetor de termos de erro ε é uma matriz diagonal com σ 2
na diagonal.

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 7 / 20


As premissas de Gauss-Markov

A premissa (22), por sua vez, implica que X e ε são independentes. De


forma isolada, isso signica que a matriz X conhecida não diz nada sobre a
distribuição dos termos de erro em ε. Repare que essa é uma suposição
bastante forte. Isso implica que

E (ε|X ) = E (ε) = 0 (7)

e
V (ε|X ) = V (ε) = σ 2 IN (8)
Isto é, a matriz de regressores X não provê nenhuma informação sobre o
valor esperado dos termos de erro ou da sua covariância. As duas
condições, (26) e (27), combina os elementos necessários das premissas de
Gauss-Markov para que os resultados que veremos a seguir se mantenham.
Pelo condicionamento em X , nós podemos agir como se X fosse não
estocástico.

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 8 / 20


As premissas de Gauss-Markov

A razão para isso é que os resultados na matriz X podem ser tomadas


como dadas sem afetar as propriedades de ε, isto é, alguém pode derivar
todas as propriedades condicionais sobre X . Por simplicidade, nós usaremos
essa abordagem nessa seção e quando falarmos de teste de hipóteses mais
à frente. A propósito, sob as premissas (21) e (22), o modelo linear pode
ser interpretado como a esperança condicional de yi dado xi , isto é,
0
E (yi |xi ) = x β . Isso é uma implicação direta de (26).

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 9 / 20


As propriedades do estimador de MQO

Sob as premissas de Gauss-Markov, dadas por (21) a (24), o estimador de


MQO b para β possui diversas propriedades desejáveis. Em primeiro lugar,
ele é não viesado. Isso signica que, em amostras repetidas, nós podemos
esperar que o estimador de MQO é na média igual ao verdadeiro valor de
β . Nós formulamos isso como E (b) = β . É instrutivo ver a prova disso:

E (b) = E (X X )−1 X y = E (β + (X X )−1 X ε


0 0 0 0

= β + E ((X X )−1 X ε) = β.
0 0

O último passo é essencial e segue-se disso que

E ((X X )−1 X ε) = E ((X X )−1 X )E (ε) = 0,


0 0 0 0

porque, da premissa (22), X e ε são independentes e, de (21), E (ε) = 0.

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 10 / 20


As propriedades do estimador de MQO

Note que nós não usamos as premissas (23) e (24) na prova. Isso mostra
que o estimador de MQO é não viesado enquanto os termos de erro
possuírem média zero e forem independentes das variáveis explanatórias,
mesmo se heterocedasticidade e autocorrelação estiverem presentes.Nós
voltaremos a isso na seção 11 do curso. Se o estimador é não viesado, isso
signica que sua distribuição de probabilidades tem um valor esperado que
é igual ao verdadeiro mas desconhecido parâmetro que está sendo estimado.

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 11 / 20


As propriedades do estimador de MQO

Em adição ao fato que nós estarmos, na média, corretos, nós podemos


também querer fazer declarações sobre quão (im)provável é estar longe em
uma data amostra. Isso signica que gostaríamos de conhecer a distribuição
de b. Em primeiro lugar, a variância de b (condicionada a X ) é data por
N
V (b|X ) = σ 2 (X X )−1 = σ 2 ( xi xi )−1 ,
0 0
(9)
X

i=1

o qual, por simplicidade, nós denotaremos por V (b). A matriz KxK V (b) é
a matriz variância-covariância, contendo a variância de b1 , b2 , ..., bK na
diagonal, e suas covariâncias nas demais posições.

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 12 / 20


As propriedades do estimador de MQO

A prova pode ser mostrada como segue:

V (b) = E ((b − β)(b − β) ) = E ((X X )−1 X εε X (X X )−1 )


0 0 0 0 0

= (X X )−1 X (σ 2 IN )X (X X )−1 = σ 2 (X X )−1 .


0 0 0 0
(10)

O que requer todas as premissas de Gauss-Markov. O último resultado é,


por suposto, chamado de Teorema de Gauss-Markov, o que signica que
sob as premissas (21) a (24) o estimador de MQO é o melhor estimador
linear não viesado para β .1

1
Na literatura costuma-se apresentar esse resultado como Best Linear Unbiased
estimator (BLUE).
Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 13 / 20
As propriedades do estimador de MQO

Para avaliar esse resultado, considere a classe dos estimadores lineares não
viesados. Um estimador linear nada mais é do que uma função linear dos
elementos contidos em y e pode ser escrito como b̃ = Ay , onde A é uma
matriz KxK . O estimador é não viesado se E (Ay ) = β . Assim, o teorema
declara que a diferença entre as matrizes de covariância de b̃ = Ay e o
estimador de MQO b é sempre positiva semi-denida. O que isso signica?
Suponha que nós estamos interessados em alguma combinação linear de β
0
coecientes, dado por d β , onde d é um vetor de dimensão K .

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 14 / 20


As propriedades do estimador de MQO

Assim, o resultado de Gauss-Markov implica que a variância do estimador


0 0
de MQO d b para d β não será maior do que a variância de qualquer outro
0
estimador linear não viesado d b̃. Assim, sob as premissas de
Gauss-Markov, o estimador de MQO é o mais acurado estimador (linear)
não viesado para β .

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 15 / 20


As propriedades do estimador de MQO

Para estimar a variância de b nós precisamos substituir a variância


desconhecida σ 2 por uma estimativa. Um candidato óbvio é a variância
0
amostral dos resíduos ei = yi − xi b, isto é,
N
1
s̃ 2 = ei2 (11)
X
N −1
i=1

Entretanto, porque ei é diferente de εi pode ser mostrado que esse


estimador é viesado para σ 2 . Assim, um estimador não viesado será dado
por
N
1 X 2
s2 = ei (12)
N −K
i=1

Esse estimador possui correção de graus de liberdade dado que ele é


dividido pelo números de observações menos o números de regressores K ,
incluindo o intercepto.
Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 16 / 20
As propriedades do estimador de MQO

A variância de b pode ser então estimada por


N
Ṽ (b) = s 2 (X X )−1 = s 2 ( xi xi )−1
0 0
(13)
X

i=1

A variância estimadaPde um elemento bk é dada por s 2 ckk , onde ckk é o


elemento (k, k) em i xi xi )−1 . A raiz quadrada dessa variância estimada
0

é, a propósito, usualmente chamada de erro padrão de bk . Nós


denotaremos isso por se(bk ). Isso é o desvio-padrão estimado de bk e é
uma medida de acurácia do estimador.

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 17 / 20


As propriedades do estimador de MQO


Sob as premissas (21) a (24), observa-se que se(bk ) = s ckk . Quando os
termos de erro são não homocedásticos ou exibem autocorrelação, o erro
padrão do estimador de MQO bk terá de ser computado de uma forma
diferente. Veremos isso mais à frente.

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 18 / 20


As propriedades do estimador de MQO

Por m, as premissas (21) a (24) exprimem que os termos de erro εi são
mutuamente não correlacionados, são independentes de X , possuem média
zero e tem uma variância costante, mas não especicam a forma da
distribuição. Para uma inferência estatística exata de uma dada amostra
com N observações, é preciso fazer uma suposição explícita sobre a
distribuição. A suposição mais comum é que os erros são conjuntamente e
normalmente distribuídos. Nesse caso, a premissa (24) é equivalente à
independência de todos os termos de erro. Isto é,

ε ∼ N(0, σ 2 IN ), (14)

signicando que o vetor de termos de erro ε possui uma distribuição normal


com vetor médio zero e matriz de covariância σ 2 IN . A premissa (33)
substitui, assim, as premissas (21), (23) e (24).

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 19 / 20


Referências

Vítor Wilher (analisemacro.com.br) As premissas de Gauss-Markov 10 de Outubro de 2016 20 / 20

You might also like