Professional Documents
Culture Documents
1 Inferncia Estatstica 1
1.1 Conceitos Bsicos em Inferncia . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Estudo Inferencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Amostragem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Amostragem e Inferncia . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Distribuio Amostral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.4 Funes de Variveis Aleatrias . . . . . . . . . . . . . . . . . . . . . . 5
1.2.4.1 Mtodo da Funo Distribuio . . . . . . . . . . . . . . . . . . . 5
1.2.4.2 Mtodo do Jacobiano . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.4.3 Mtodo da Funo Geradora de Momentos . . . . . . . . . . . . . 5
1.2.5 Momentos Amostrais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Desigualdade de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Lei Fraca dos Grandes Nmeros . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Teorema do Limite Central . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Distribuies Amostrais 8
2.1 Desigualdade de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Lei dos Grandes Nmeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Teorema do Limite Central . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3 Mtodos de Estimao 16
3.1 Estimao Pontual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.1.1 Mtodo da Mxima Verossimilhana . . . . . . . . . . . . . . . . . . . . 17
3.1.1.1 Mtodo da Mxima Verossimilhana -caso multiparamtrico . . . 19
3.2 Mtodo dos Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3 Mtodo dos Mmimos Quadrados . . . . . . . . . . . . . . . . . . . . . . . . . 24
5 Estimao Intervalar 37
5.1 Quantidade Pivotal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.1.1 Mtodo da Quantidade Pivotal . . . . . . . . . . . . . . . . . . . . . . . 39
5.1.2 Intervalos para Populaes Normais - uma amostra . . . . . . . . . . . . 40
5.1.3 Intervalos para Populaes Normais - duas amostra . . . . . . . . . . . . 42
6 Teste de hiptese 47
6.1 Teoria da Deciso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6.2 Teste de Hiptese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6.2.1 Testando hipteses simples . . . . . . . . . . . . . . . . . . . . . . . . . 55
1
INFERNCIA ESTATSTICA
Latim: INFERENTIA. Ato de inferir (tirar por concluso). Admite-se uma proposio como
verdadeira, que no seja conhecida diretamente, atravs da relao dela com outras proposies
j sabidamente verdadeiras.
Inferncia estatstica o processo pelo qual pode-se tirar concluses acerca de um conjunto
maior (a populao) usando informao de um conjunto menor (a amostra). O objetivo prin-
cipal da Inferncia estatstica, estimar os parmetros populacionais (mdia, varincia etc),
deduzidos a partir da estatstica amostral correspondente.
Os procedimentos mais usuais para inferir algo sobre estes parmetros so:
Definio 1.1 (Inferncia Estatstica): Seja X uma varivel aleatria com funo de den-
sidade de probabilidade (ou de probabilidade) que abreviamos por f.d.p (f.p) e denotamos por
f (x| ), em que um parmetro desconhecido. Chamamos de inferncia estatstica o pro-
blema que consiste em especificar um ou mais valores de , baseado em um conjunto de valores
de X
Definio 1.3 (Amostra Aleatria): Uma sequncia X1 , ..., Xn de n variveis aleatrias in-
dependentes e identicamente distribudas (i.i.d.) com funo de densidade (f.d.p.) ou, no caso
discreto, funo de probabilidade (f.p.) f (x| ) dita ser uma amostra aleatria de tamanho n
Inferncia Estatstica 2
Exemplo 1.1: Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X N(, 2 ).
Assim,
= {(, 2 )| < < , 2 > 0}
Exemplo 1.2: Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X, com f.d.p. ou
f.p. f (x| ). A funes abaixo so estatsticas:
ni=1 xi
iii) X =
n
Para estudar alguma caracterstica da populao o ideal seria estudar cada indivduo da
populao. Entretanto entrar em contato com toda a populao seria caro e demorado. A
amostragem torna-se uma boa alternativa para estudar alguma caracterstica da populao. Os
mtodos inferncias so baseado em amostras aleatrias.
Populao / Amostra
Parmetros o Estatsticas
Populacionais Inferncia da Amostra
1.2.1 Amostragem
A amostragem naturalmente usada em nossa vida diria. Exemplos:
Amostragem o processo de seleo de uma amostra, que possibilita o estudo das caracte-
rsticas da populao. Os objetivos principais de amostragem so fornecer dados que permitam
fazer inferncias para uma populao com base na anlise de uma amostra. Em se tratando de
amostra, a preocupao central que ela seja representativa. Para obter informaes atravs de
um levantamento amostral, temos imediatamente dois problemas:
Amostragem no-probabilsticas:
Amostragem probabilsticas:
Cada unidade amostral tem probabilidade igual de ser selecionada (base da amostra alea-
tria)
Amostragem no-probabilsticas:
Amostra de convenincia
Amostra intencional
Amostragem probabilsticas:
Inferncia Estatstica 4
Amostra sistemtica
Amostra estratificada
Entretanto quase sempre recolhido s uma amostra para estudar uma caracterstica X da
populao. Em uma amostra pode-se obter n observaes x1 , x2 , .., xn . Assim as observaes
x1 , x2 , .., xn so realizaes de n variveis aleatria X1 , X2 , ..., Xn que so "cpias"da varivel X.
Antes do processo de amostragem ser realizado temos n variveis aleatrias X1 , X2 , ..., Xn .
Depois de efetuado a amostragem temos um conjunto de dados que constituem a amostra ob-
servada x1 , x2 , .., xn . Assim temos que as variveis aleatrias X1 , X2 , ..., Xn so identicamente
distribudas e possuem a mesma distribuio de probalidade da caracterstica X em estudo da
populao.
Seja X uma varivel aleatria, com funo de distribuio FX (x). Qualquer funo Y = g(X)
tambm uma varivel aleatria.
f (x| ) = e x , x > 0
Teorema 1.1: Seja X1 , ..., Xn uma amostra aleatria da varivel aleatria X, com f.d.p. ou
f.p. f (x| ). Ento o valor esperado esperado do k-simo momento amostral igual ao k-simo
momento populacional.
E[Mk0 ] = k0
Definio 1.13 (Varincia Amostral): Seja X1 , ..., Xn uma amostra aleatria da varivel
aleatria X, com f.d.p. ou f.p. f (x| ), ento
n
(Xi Xn)2
i=1
Sn2 = para n > 1
n1
definido como varincia amostral
Teorema 1.2: Seja X1 , ..., Xn uma amostra aleatria da varivel aleatria X, com f.d.p. ou
f.p. f (x| ), com mdia e varincia 2 ento
2
E[Xn ] = Var[Xn ] =
n
Teorema 1.3: Seja X1 , ..., Xn uma amostra aleatria da varivel aleatria X, com f.d.p. ou
f.p. f (x| ), com mdia e varincia 2 ento
1 n3 4
E[Sn2 ] = 2 Var[Sn2 ] = 4
n n1
Inferncia Estatstica 7
Teorema 1.4 (Desigualdade de Chebyshev): Seja X uma varivel aleatria com E[X] =
e varincia finita. Ento, para > 0
V (X) V (X)
P(|X | ) ou P(|X | < ) 1
2 2
Teorema 1.5 (Lei Fraca dos Grandes Nmeros): Seja X1 , ..., Xn uma amostra aleatria da
varivel aleatria X, com f.d.p. ou f.p. f (x| ), com mdia e varincia 2 e seja X n a mdia
amostral ento para cada > 0
lim P |X n | < = 1
n
Teorema 1.6 (Teorema do Limite Central): Seja X1 , ..., Xn uma amostra aleatria da va-
rivel aleatria X, com f.d.p. ou f.p. f (x| ), com mdia e varincia 2 e seja X n a mdia
amostral, considere:
X n E[X n ] X n
Zn = p =
var[X n ] / n
Ento a distribuio de Zn aproxima-se da normal padro quando n
2
DISTRIBUIES AMOSTRAIS
Definio 2.1 (Distribuio amostral): Sejam X1 , ..., Xn uma amostra aleatria da varivel
aleatria X, com f.d.p. ou f.p. f (x| ) e seja T = T (X1 , ..., Xn ) uma estatstica. A distribuio
de probabilidade de T denominada distribuio amostral
Teorema 2.1 (Distribuio da mdia amostral de uma populao normal): Seja X1 , X2 , ..., Xn
uma amostra aleatria de tamanho n de uma populao normal com mdia e varincia 2 e
seja X n a mdia amostral. Ento, X n tem distribuio normal com mdia e varincia 2 /n.
2t 2
Mx (t) = et+ 2
Temos que
n 22
22
n
nt + 2t nt + t2 2t 2
MX n (t) = e n 2 = e 2n = = et+ 2n
i=1
Teorema 2.2: Seja X1 , X2 , ..., Xn uma amostra aleatria de tamanho n de uma populao
normal com mdia e varincia 2 e seja X n a mdia amostral e S2 a varincia amostral.
Ento X n e S2 so independentes.
Distribuies Amostrais 9
n 2
Xi i
U=
i=1 i
Mas
Z Z Z
tz2 1 1 1 (12t)z2 1
h 2i
21 z2 1 2
E etZ
= e e dz = e 2 dz = 2 e 2 (12t)z dz
2 2 2
0
Fazendo a substituio
r
z2 2u
u = (1 2t) z =
2 1 2t
du
du = (1 2t)zdz dz = p
2u(1 2t)
Assim,
Z
h 2i 1 1 1
E etZ
= p u 2 eu du
(1 2t)
0
1
1 1 1 1 1
= p =p =p
(1 2t) 2 (1 2t) (1 2t)
Desta forma
!n n
n n
h 2i
tZi 1 1 1 2
MU (t) = E e =p = p =
i=1 i=1 (1 2t) (1 2t) (1 2t)
Demonstrao.
n n
(Xi Xn )2
i=1 (Xi X n )2
(n 1)S2 (n 1) n1 i=1
U = = =
2 2 2
n
(Xi )2 n(X n )2
i=1
=
2
2 !2
n
Xi Xn
=
i=1 n
n
= Zi2 Z 2
i=1
Assim temos:
n
Zi2 n2
i=1
Z 2 12
Distribuio de S2
S2 uma funo linear de U, assim a densidade de S2 pode ser obtida da densidade de U
n1
n1 2 1 n3 (n1)y
fS2 (y) = n1 y 2 e 2 2 I(0,) (y)
2 2 2
Teorema 2.4 (Distribuio t-student): Seja Z um varivel aleatria com distribuio nor-
mal com mdia 0 e varincia 1 e U uma varivel aleatria com distribuio Qui-quadrado com
Distribuies Amostrais 11
Z
t=p
U/k
1 1 2 1 k u
fZ,U (z, u) = e 2 z k u 2 1 e 2
2 2 2k
2
1 1 k 1 2
= k u 2 1 e 2 (u+z ) I[0,) (u)I(,) (z)
2 2 2 2k
Seja t = z e w = u. Ento:
u/k
r
w
z=t w=u
k
Fazendo a substituio
t2
1 2x
x = 1+ ww=
2 k 1+ kt2
t2
1 2dx
dx = 1+ dw dw =
2 k 1+ t
2
k
Distribuies Amostrais 12
Assim
k+1 1
2
1 1 1 2x 2dx
Z
fT (t) = k+1
ex
k 2 2 2k
t2 2
0 1+ k 1 + tk
k+1
t2
2 Z
1 1 k+1
= k
1+ x 2 1 ex dx
k 2 k 0
k+1
2
k+1
t2
2
= 1+
k 2k k
Logo t Tk
Corolrio 2.2 (Distribuio t-student): Seja X1 , X2 , ..., Xn uma amostra aleatria de tama-
nho n de uma populao normal com mdia e varincia 2 e seja X n a mdia amostral e S2
a varincia amostral, ento
X
t=
S/ n
tem distribuio t de Student com n 1 graus de liberdade.
X (n 1)S2 2
Z= N(0, 1) U = n1
/ n 2
Ento
X X
Z / n / n
t = p =q = q
U/n 1 (n1)S2
/n 1 S2
2 2
X
/ n X
= S
=
S/ n
Assim
X
t= tn1
S/ n
U/m
X=
V /n
Distribuies Amostrais 13
1 m u 1 n v
fU,V (u, v) = m m
u 2 1 e 2 nn
v 2 1 e 2
2 2
2 2 2
2
1 m n u+v
= m+n m
n
u 2 1 v 2 1 e 2 I[0,) (u)I[0,) (v)
2 2 2 2
Seja
U/m mXY
X = U =
V /n n
Y = V
Fazendo a substituio
1 mx 2w
w = + 1 y y = mx
2 n n +1
1 mx 2dw
dw = + 1 dy dy = mx
2 n n + 1
Assim
! m+n 1
mm 2
1 2w 2dw
Z
2 m
fX (x) = x 2 1 ew
m+n mx mx
m n n
2 2 2 2
0 n + 1 n +1
m
2 1
1 mm x
Z
m+n
2
= w 2 1 ew dw
m
2 n
n m
m+n
2 0
2 n x+1
m+n m
x 2 1
mm
2
= m
2 n
m+n I[0,) (x)
2 2
n m
x + 1 2
n
Distribuies Amostrais 14
Logo X Fm,n
Demonstrao. Seja
(m 1)SX2 2 (n 1)SY2 2
U= m1 V = n1
2 2
Ento 2
(m1)SX
2 SX2
U/(m 1)
m1 2 SX2
X= = = =
V /(n 1) (n1)SY2 SY2 SY2
2 2
n1
Logo F Fm1,n1
Teorema 2.7 (Desigualdade de Chebyshev): Seja X uma varivel aleatria com E[X] =
e varincia finita. Ento, para > 0
V (X) V (X)
P(|X | ) ou P(|X | < ) 1
2 2
Teorema 2.8 (Lei Fraca dos Grandes Nmeros): Seja X1 , ..., Xn uma amostra aleatria da
varivel aleatria X, com f.d.p. ou f.p. f (x| ), com mdia e varincia 2 e seja X n a mdia
amostral ento para cada > 0
lim P |X n | < = 1
n
Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X variveis aleatrias indepen-
dentes com a mesma distribuio, que se admite ter varincia finita (quase todas as distribuies
com interesse prtico tm varincia finita, pelo que esta condio no particularmente restri-
tiva).
Teorema 2.9 (Teorema do Limite Central): Seja X1 , ..., Xn uma amostra aleatria da va-
rivel aleatria X, com f.d.p. ou f.p. f (x| ), com mdia e varincia 2 e seja X n a mdia
amostral, considere:
X n E[X n ] X n
Zn = p =
var[X n ] / n
Ento a distribuio de Zn aproxima-se da normal padro quando n
3
MTODOS DE ESTIMAO
Estimao o processo que consiste em utilizar dados amostrais para estimar valores para
os parmetros populacionais desconhecidos. Assumindo que uma caracterstica dos elementos
numa populao pode ser representada por uma varivel aleatria X cuja funo de densidade
ou probabilidade f (x| ), , temos que:
um parmetro com valores desconhecidos. f (x| ) tem uma forma conhecida, exceto
pelo parmetro Como , sendo o espao paramtrico, temos uma familia de densida-
des, sendo cada valor de correspondente a um membro da familia.
Considerando x1 , ..., xn valores de uma amostra aleatria X1 , ..., Xn da varivel aleatria X,
com f.d.p. ou f.p. f (x| ) O objetivo a partir dos dados observados estimar um valor parmetro
.
As estatsticas amostrais so utilizadas como estimativas de um parmetro pode ser feita
por duas maneiras
Definio 3.2 (Estimador): Um estimador uma estatstica (i.e. funo da amostra) que
fornece estimativas pontuais.
Seja uma amostra aleatoria X1 , ..., Xn com f.d.p. ou f.p. f (x| ) O problema definir uma
estatstica T = T (X1 , ..., Xn ) de tal modo que, aps observarmos X1 = x1 , ..., Xn = xn , T =
T (X1 , ..., Xn ) seja uma boa estimativa pontual de Para definir a estatstica T = T (X1 , ..., Xn ),
utilizado mtodos de estimao, sendo os principais:
l( ; x) = lnL( ; x)
x
f (x| ) = e , x = 0, 1, 2, 3, ..., 0
x!
Distribuio Normal
1 (x)2
f (x|, 2 ) = e 2 2 , < x <
2 2
10
L( |X = 10) = e
10!
Distribuio Normal - considerando X = 2, 5
1 (2,5)2
L(, 2 |X = 2, 5) = e 2 2
2 2
Definio 3.5 (Funo Escore): A funo escore, denotada por U( ), definida como a
primeira derivada da funo de log-verossimilhana em relao
l( ; x)
U( ) =
2 l( ; x)
I( ) =
2
Definio 3.7 (Estimador de Mxima Verossimilhana): O estimador de mxima verossi-
milhana de o valor que maximiza a funo de verossimilhana L( ; x)
Exemplo 3.1 (Bernoulli): Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X
Bernoulli( ). Obter o estimador de mxima verossimilhana para .
Funo de probabilidade
n n
L( ; x) = i=1 xi (1 )ni=1 xi
!
n n
l( ; x) = xiln + n xi ln(1 )
i=1 i=1
Funo escore
n n
xi n xi
l( ; x) i=1 i=1
U( ) = =
1
Mtodos de Estimao 19
Funo de Informao
n n
xi n xi
2 l( ; x) i=1 i=1
I( ) = = 2 + >0
2 (1 )2
Funo de probabilidade
1
f (x) = I (x), a x b
b a [a,b]
Funo de verossimilhana
n n
L( ; x) = I[ 12 , + 12 ](xi) = I[x(n) 12 ,x(1)+ 21 ]( )
i=1 i=1
1
= x(n)
2
1
= x(1) +
2
x(n) + x(1)
=
2
Definio 3.8 (Vetor Escore): O vetor escore, denotada por U( ), definida como as de-
rivadas parciais de primeira ordem da funo de log-verossimilhana em relao a cada i
l( ; x) l( ; x)
U( ) = , ...,
1 k
Mtodos de Estimao 20
L( ; x)
=0
i
Para verificar a condio ii, suficiente que U( ) = 0 e que a matriz de informao de fisher
I( ) seja positiva definida
a11 a12 ... a1n
a21 a22 ... a2n
Uma matriz A = .. .. . . positiva definida se as submatrizes A1 , A2 , A3 , ...An
..
. . . .
an1 an2 ... ann
tm determinantes forem positivos.
" # a11 a12 a13
a11 a12
Sendo: A1 = [a11 ], A2 = , A3 = a21 a22 a23 ,..., An = A
a21 a22
a31 a32 a33
Exemplo 3.3 (Normal): Vetor Escore
n
1
" l(, 2 ;x) # 2 (xi )
i=1
U(, 2 ) = =
l(, 2 ;x)
n
2 2n 2 + 2(12 )2 (xi )2
i=1
n
Igualando o vetor score a zero e resolvendo em relao 2
1 n
xi e , temos
i=1
(xi ) = 0 =
2 i=1 n
=X
n
n 1 n (xi X)2
i=1
+ (xi )2 = 0 2 =
2 2 2( 2 )2 i=1 n
Mtodos de Estimao 21
Matriz de Informao
n
(xi )
n i=1
2 l(, 2 ;x) 2 l(, 2 ;x)
2 ( 2 )2
2 2
I(, 2 ) = 2 l(,
2 ;x) 2 l(, 2 ;x)
=
2 ( 2 )2
n n
2
(xi ) (x )
i
i=1
( 2 )2
2(n2 )2 + i=1 ( 2 )3
n
(n1) (xi )2 2
i=1
|A1 | = n2 > 0 |A2 | = ( 2 )4
2(n 2 )3 > 0
Assim, o estimador de maxima verossimilhana dador por:
n
xi
i=1
= =X
n
n
(xi X)2
i=1
2 =
n
Teorema 3.1 (Princpio da invarincia): SejamX1 , ..., Xn uma amostra aleatria da varivel
aleatria X com funo de densidade (ou de probabilidade) f (x| ). Se um estimador de
mxima verossimilhana de , ento g( ) um estimador de mxima verossimilhana de g( ).
Demonstrao. Seja g(.) uma funao 1:1, ou seja g(.) inversvel, de modo que = g1 (g( )).
Seja L( |x) uma funo de verossimilhana. Assim
L( |x) = L g1 (g( )) |x
Portanto
d) = g( )
g(
Exemplo 3.4: Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X N(, 2 ),
n
(xi X)2
i=1
ento o estimador 2 = 2 = n . Assim, o estimador do desvio padro = 2
v
u n
u (x X)2
t i
dado por = i=1 n
Mtodos de Estimao 22
r = E[X r ]
Definio 3.11 (Momentos Amostrais): Seja X1 , ..., Xn uma amostra aleatria da varivel
aleatria X, com f.d.p. ou f.p. f (x| ). Ento o r-simo momento amostral, denotado por mr ,
definido por:
n
Xir
i=1
mr =
n
Definio 3.12 (Estimador pelo Mtodo dos Momentos): O estimador pelo mtodo dos
momento de o valor se ele for soluo das equaes
r = mr , r = 1, 2, 3, ..., k
Exemplo 3.5 (Bernoulli): Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X
Bernoulli( ). Obter o estimador pelo mtodo dos momentos para .
Funo de probabilidade
Momentos populacionais
E[X] = 1 =
Assim,
n
Xi
i=1
u1 = m1 =
n
Exemplo 3.6 (Normal): Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X
N(, 2 ). Obter o estimador pelo mtodo dos momentos para e 2 .
Funo de densidade
1 (x)2
2
f (x|, ) = e 2 2 , x R, R, 2 > 0
2 2
Mtodos de Estimao 23
Momentos populacionais
E[X] = 1 =
V (X) = 2 E[X 2 ] (E[X])2 = 2
E[X 2 ] = 2 + (E[X])2 2 + 2
2 = 2 + 12
Assim,
n
Xi
i=1
1 = m1 = =X
n
ni=1 Xi2
2 = m2 2 + 12 =
n
n
(Xi X)2
i=1
2 =
n
Mtodo dos Momentos
Exemplo 3.7 (Gama): Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X
Gama( , r). Obter o estimador pelo mtodo dos momentos para e r.
Funo de densidade
f (x| , r) = ( x)r1 e x x 0, > 0, r > 0
(r)
Momentos populacionais
r r
E[X] = 1 =
r r
V (X) = 2
E[X 2 ] (E[X])2 = 2
r r r 2
E[X 2 ] = + (E[X])2 = 2 +
2
r r 2
2 = +
2
Assim,
Mtodos de Estimao 24
r
Xi
i=1
1 = m1 =
n
r
= X r = X
n
r
2
r
Xi2
i=1
2 = m2 + =
2 n
2
X X
= n r = n
2
(xi X) (xi X)2
i=1 i=1
n
n
Neste caso a mdia de cada Yi uma funo do parmetro e a varincia constante. Uma forma
equivalente
Yi = g( ) + ei
Assim
E(ei ) = 0 e V (ei ) = 2
SQE( )
=0
Exemplo 3.8 (Regresso Linear): Sejam X1 , ..., Xn e Y1 , ...,Yn amostras aleatrias e sabe-
se que os valores de Y so afetados linearmente pelos valores da X. Assim o modelo linear
Mtodos de Estimao 25
Existem vriose estimadores para um certo parmetro. Assim surge as seguintes perguntas:
Quais sero os critrios usados para comparar estimadores e caracterizar os bons estima-
dores?
Definio 4.4 (Erro Quadrtico Mdio (EQM)): O erro quadrtico mdio de um estimador
dado por:
EQM[ ] = E ( )2
Propriedades dos Estimadores 27
EQM[ ] = V ( )
EQM[1 ] EQM[2 ]
Exemplo 4.1 (Normal): Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X
N(, 2 ). Temos que o estimador de maxima verossimilhana de e 2 so dados por:
n n
xi (xi X)2
i=1 i=1
= =X 2 =
n n
Para o estimador de mu temos que
n
Xi
i=1
E X = E
=
n
1 n 2
V X = V [Xi ] =
n2 i=1 n
" # " #
n n
1 1
= 2E
n (Xi X)2 = 2E
n (Xi )2 n(X )2 =
i=1 i=1
! !
n n
1 1
E (Xi )2 nE (X )2 = n2
= 2
n V (Xi) nV (X)
i=1 i=1
2
1 2 n1 2
= 2 n n =
n n n
Propriedades dos Estimadores 28
n1 2 2
B( 2 ) = 2 =
n n
4 (n 1)S2
= V
n2 2
Como
(n 1)S2 2
2
n1
Ento
4 (n 1)S2
= V
n2 2
4
= 2(n 1)
n2
2(n 1) 4
=
n2
Assim o EQM dado por:
2
2
2 2(n 1) 4 2n 1 4
EQM[ ] = 2
+ =
n n n2
(n 1) 2 2 4 (n 1)S2
2
V [S ] = V S = V
(n 1) 2 (n 1)2 2
4 2 4
= 2(n 1) =
(n 1)2 n1
4.1 CONSISTNCIA
Definio 4.5 (Estimador Consistente): Sejam X1 , ..., Xn uma amostra aleatria da varivel
aleatria X que depende do parmetro . Um estimador = (X1 , ..., Xn ) dito consistente
para o parmetro se
lim P | | = 0
n
lim E[ ] = lim V [ ] = 0
n n
Exemplo 4.2 (Normal): Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X
N(, 2 ). Considerando X e S2 estimadores para e 2 ,verificar a consistncia dos estimado-
res
Pela desigualdade de Chebychev, temos que:
V (X) 2
P |X | =
2 n 2
2
lim P |X | lim 2 = 0
n n n
V (S2 ) 2 4
P |S2 2 |
=
2 (n 1) 2
2 4
lim P |S2 2 | lim
=0
n n (n 1) 2
4.2 EFICINCIA
Z Z
E[ ] = L( |X)dx1 . . . dxn =
Propriedades dos Estimadores 31
Z Z
E[ ]
= L( |X)dx1 . . . dxn =
Z Z
L( |X)
= dx1 . . . dxn = 1
Z Z
= U( )L( |X)dx1 . . . dxn = 1
= E[U( )] = 1
Mas como
E[U( )] = 0
V [U( )] = IF ( )
Temos que:
2 ( ,U( )) 1
Cov( ,U( ))
2 ( ,U( )) =
V ( )V (U( ))
1
=
V ( )IF ( )
1
1
V ( )IF ( )
1
V ( )
IF ( )
Se V [ ] = LI( ) ento e( ) = 1
Exemplo 4.3: Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X Bernoulli( ),
n
xi
i
e seja = n um estimador para .
A Varincia do estimador
n n
xi n xi
l( ; x) i=1 i=1
V [ ] = =
1
Funo escore
n n
xi n xi
l( ; x) i=1 i=1
U( ) = =
1
Funo de Informao
n n
xi n xi
2 l( ; x) i=1 i=1
I( ) = = +
2 2 (1 )2
Propriedades dos Estimadores 33
Informao de Fisher
n
n
i xi n i=1
xi
n
IF I( ) = E[I( )) = 2 +
2
=
(1 ) (1 )
1
V [ ] =
IF I( )
T (X1 , ..., Xn ) suficiente para , ento qualquer inferncia sobre depender apenas da
amostra X1 , ..., Xn somente atravs de T (X1 , ..., Xn ).
Isto dadas duas realizaes amostrais distintas X1 , ..., Xn e X10 , ..., Xn0 , tais que
Definio 4.11 (Estatstica suficiente): Dizemos que a estatstica T (X1 , ..., Xn ) suficiente
para , quando a distribuio condicional de X1 , ..., Xn dado T for independente de
Exemplo 4.4: Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X Bernoulli( ).
n
Verificar se T = Xi suficiente para
i=1
P[X1 = x1 , ..., Xn = xn , T = t]
f (X1 , ..., Xn = xn |T = t) =
P[T = t]
P[X1 = x1 , ..., Xn = xn ]
= n t nt
t (1 )
t (1 )nt
= n t nt
t (1 )
1
= n
t
n
Assim, T = Xi suficiente para
i=1
Propriedades dos Estimadores 34
P[X1 = 0, X2 = 0, X3 = 0, T = 0]
f (X1 = 0, X2 = 0, X3 = 0|T = 0) =
P[T = 0]
p(1 p)3
=
(1 p)3 + 2(1 p)2 p
Sendo
Assim
(X1 , X2 , X3 ) T f (X1 , X2 , X3 |T )
1 p
(0, 0, 0) 0
1+ p
1 p
(0, 0, 1) 1
1 + 2p
p
(0, 1, 0) 0
1+ p
p
(1, 0, 0) 0
1+ p
p
(0, 1, 1) 1
1 + 2p
p
(1, 0, 1) 1
1 + 2p
p
(1, 1, 0) 1
1 + 2p
(1, 1, 1) 2 1
Teorema 4.2 (Critrio da Fatorao): Sejam X1 , ..., Xn uma amostra aleatria da distribui-
o da varivel aleatria X com funo de densidade (ou de probabilidade) f (x| ), em que e a
funo de verosimilhana L( |x). Temos, ento, que a estatstica T = T (X1 , ..., Xn ) suficiente
para , se e somente se pudermos escrever
em que h(x1 , ..., xn ) uma funo que s depende de x1 , ..., xn e g (T (x1 , ..., xn )) uma funo
que depende de e de x1 , ..., xn somente atravs da funo t. As funes h e g so funes
no-negativas.
Propriedades dos Estimadores 35
g (T (x1 , ..., xn )) = P [T = t]
h(x) = P[X = x|t = t]
L( |X) = P [X = x] = f (X| )
P [X = x] = P [T = t]P[X = x|t = t]
L( |X) = g (T (x1 , ..., xn ))h(x)
Tomando
n
1 nx
h(x1 , ..., xn ) = e g (T (x1 , ..., xn )) = en i=1 i
i=1 xi !
n
Temos, pelo critrio da fatorao, temos que T = Xi suficiente para .
i=1
Teorema 4.3 (Critrio da Fatorao - caso multiparamtrico): Sejam X1 , ..., Xn uma amostra
aleatria da distribuio da varivel aleatria X com funo de densidade (ou de probabili-
dade) f (x| ), em que pode ser um vertor, e a funo de verosimilhana L( |x). Seja as
estatstica Ti = ti (X1 , ..., Xn ), com i = 1, 2, ..., r. Ento a estatstica T = (T1 , T 2, ...Tr ) conjun-
tamente suficiente para , se e somente se pudermos escrever
em que h(x1 , ..., xn ) uma funo que s depende de x1 , ..., xn e g (T1 (x), ..., Tr (x) uma funo
que depende de e de x1 , ..., xn somente atravs das funes t1 , ...,tn . As funes h e g so
funes no-negativas.
Exemplo 4.7: Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X N(, 2 ).
Temos, ento que = (, 2 ). Nesta caso, a funo de verossimilhana pode ser escrita como:
Propriedades dos Estimadores 36
n n
2 1 (x )2
2 1 2 2 i=1 i
L(, ; x) = e
2 2
n n n 2
1 2 1 21 2 xi2 + 2 xi2 n 2
= n e
i=1 i=1
2 2
com < < e 2 > 0
Sendo
n 1 n 2 n 2 2
1 2 x + x n 2
2 2 i=1 i 2 i=1 i
h(x1 , ..., xn ) = g (t1 (x),t2 (x)) = e
2
Assim, pelos critrio da fatorao temos que a estatstica T = (ni=1 Xi , ni=1 Xi2 ) conjun-
tamente suficiente para = (, 2 ).
5
ESTIMAO INTERVALAR
A Inferncia Estatstica tem como objetivo obter informaes para uma populao a partir
do conhecimento de uma amostra. Uma caracterstica dos elementos numa populao pode ser
representada por uma varivel aleatria X cuja funo de densidade ou probabilidade f (x| ).
A partir de uma amostra aleatria X1 , ..., Xn da varivel aleatria X, possvel obter estimativas
pontuais para o parmetros . A estimao pontual tem a restrio de no apresentar a mag-
nitude do erro cometido ao atribuirmos ao parmetros a estimativa observada. Na estimao
importante que se d alguma informao sobre a possvel variabilidade do estimador. Assim,
razovel estabelecermos um intervalo que contenha, com uma certa confiana, o verdadeiro
valor do parmetro desconhecido. Um intervalo de confiana (IC) um intervalo estimado de
um parmetro de interesse de uma populao. Intervalos de confiana so usados para indicar a
confiabilidade de uma estimativa.
Definio 5.1 (Intervalo de Confiana): Sejam X1 , ..., Xn um amostra aleatria com funo
de densidade ou de probabilidade f (x| ). Sejam T1 = T1 (X1 , ..., Xn ) e T2 = T2 (X1 , ..., Xn ) duas
estatsticas, tal que T1 T2 e P (T1 g( ) T2 ) = 1 , em que 1 no depende de .
Ento,
Seja T1 = T1 (X1 , ..., Xn ) uma estatstica, tal que P (g( ) T1 ) = 1 . Ento, T1 cha-
mado de limite unilateral inferior de confiana para g( ).
Seja T2 = T2 (X1 , ..., Xn ) uma estatstica, tal que P (g( ) T1 ) = 1 . Ento, T2 cha-
mado de limite unilateral superior de confiana para g( ).
Estimao Intervalar 38
Assim com 95, 44% de confiana o verdadeiro valor do parmetro est no intervalo [16, 5; 19, 5]
Definio 5.3 (Quantidade Pivotal): Sejam X1 , ..., Xn um amostra aleatria com funo de
densidade ou de probabilidade f (x| ). Seja Q = q(X1 , ..., Xn ; ), isto , Q um funo de
X1 , ..., Xn e . Se a distribuio de Q no depende de , ento Q uma quantidade pivotal.
X
Seja Q2 = , ento Q2 uma quantidade pivotal com distribuio N(0, 1)
3
n
X
Seja Q3 = , ento Q3 no uma quantidade pivotal pois sua distribuio depende de ,
Q3 N 0, 92 n
Definio 5.4 (Familia de locao e escala): Seja f0 uma classe funes de densidade de
probabilidade. Ento:
um parmetro de escala
A classe de modelos da forma f (x|1 , 2 ) = 12 f0 (x
2
1)
chamado de familia de loca-
o e escala.
Estimao Intervalar 39
P (q1 Q q2 ) =
Se para cada possvel amostra existirem T1 = T1 (X1 , ..., Xn ) e T2 = T2 (X1 , ..., Xn ), tais que:
q1 Q q2 se e somente se T1 T2
P (q1 Q q2 ) = 1
P (q1 Q q2 ) = [P (T1 T2 ) = 1
n
Como X exp( ), ento Xi Gama(n, ). Assim Q Gamma(n, n)
i=1
Assim
X
z = N(0, 1)
/ n
X
t = tn1
S/ n
(n 1)S2 2
U = n1
2
X
Q(X; ) = N(0, 1)
/ n
Estimao Intervalar 41
Assim
X
P q1 q2 = 1
/ n
P X q2 X q1 = 1
n n
X
Q(X; ) = tn1
S/ n
Assim
X
P q1 q2 = 1
S/ n
S S
P X q2 X q1 = 1
n n
(n 1)S2
Q(X; 2 ) = 2
n1
2
Assim
(n 1)S2
P q1 q2 = 1
2
(n 1)S2 (n 1)S2
2
P = 1
q2 q1
2
Considerando o intervalo simtrico temos que q1 = n1, 2
e q2 = . Desta forma
2 n1,1 2
!
(n 1)S2 2 (n 1)S2
P 2
2
= 1
n1,1 n1,
2 2
(X n Y m ) (1 2 )
z= q tem distribuio N(0, 1)
1n + m1
Temos que
(n 1)SX2 2 (m 1)SY2 2
n1 m1
2 2
Estimao Intervalar 43
Assim
(n 1)SX2 + (m 1)SY2 2
U= 2
n+m2
Temos que
(X n Y q
m )(1 2 )
1 1
n+m
T = s tn+m2
2 +(m1)S2
(n1)SX Y
12
n+m2
1 (X n Yq
m )(1 2 )
1 1
n+m
= q
1 (n1)SX2 +(m1)SY2
n+m2
(X n Y m ) (1 2 ) 1
= q q
1 1 (n1)SX2 +(m1)SY2
n+m n+m2
Assim
(X n Y m ) (1 2 )
T= q tn+m2
1 1
Sp n+m
Sendo: s
(n 1)SX2 + (m 1)SY2
Sp =
n+m2
Sejam X1 , ..., Xn e Y1 , ...,Ym duas amostras aleatrias independentes com Xi N(1 , 2 ) e
Yi N(2 , 2 ). Sendo 2 conhecido temos um quantidade pivotal para D = 1 2 dados por:
(X n Y m ) (1 2 )
Q(X; D) = q
1n + m1
Assim
(X n Y m ) (1 2 )
P q1 q q2 = 1
1 1
n+m
r r !
1 1 1 1
P (X n Y m ) z 2 + 1 2 (X n Y m ) + z 2 + = 1
n m n m
por:
(X n Y m ) (1 2 )
Q(X; D) = q tn+m2
1 1
+ S 2
n m p
s
(n 1)SX2 + (m 1)SY2
Sendo Sp =
n+m2
Assim
(X n Y m ) (1 2 )
P q 1 q q2 = 1
1 1
2
n + m Sp
s s !
1 1 1 1
P (X n Y m ) tn+m2, 2 S p + 1 2 (X n Y m ) + tn+m2, 2 S p + = 1
n m n m
Assim
(X n Y
rm )(1 2 )
12 22
Z n + m
T = q = v
2 S2
!
U u SX Y
n + m
u
u
12 22
t
n + m
(X n Y m ) (1 2 )
T = q t
SX2 SY2
n + m
Estimao Intervalar 45
12
Seja R = 22
a razo entre as varincias, temos que:
(n 1)SX2 (m 1)SY2
12 = 2
n1 22 = 2
m1
12 22
12
n1 SX2 22
F= = F(n1;m1)
22 SY2 12
m1
(X n Y m ) (1 2 )
Q(X; D) = q t
SX2 SY2
n + m
SY2 2
2
SX
n + m
sendo = 2 2 2 2
SX SY
n m
n1 + m1
Assim
(X n Y m ) (1 2 )
P q 1 q q2 = 1
SX2 SY2
n + m
2
SX SY2
2
SX SY2
P (X n Y m ) t, 2 + 1 2 (X n Y m ) + t, 2 + = 1
n m n m
SX2 22
P q1 2 2 q2 = 1
SY 1
2 12 1 SX2
1 SX
P 2 = 1
q2 SY2 2 q1 SY2
Teremos
q1 = F(n1;m1); 2 q2 = F(n1;m1);1 2
Assim !
1 SX2 12 1 SX2
P = 1
F(n1;m1);1 2 SY2 22 F(n1;m1); 2 SY2
Sejam (X1 ,Y1 ), ..., (Xn ,Yn ) uma amostra aleatria com distribuio normal bivariada 1 , 2 , 12 , 22
)
e = Cov(X,Y
2 2
. Seja Di = Xi Yi , i = 1, ..., n em que Di iid com distribuio N(1 2 , 12 +
1 2
22 21 2 ), assim
2 + 22 21 2
D tem distribuio N 1 2 , 1
n
Considerando a estimao D = 1 2 com a estimao de uma mdia populacional
com varincia desconhecida, temos:
SD SD
P D tn1, 2 D + tn1, 2 = 1
n n
v
n u n
Di u (Di D)2
u
i1 t i1
sendo D = SD =
n n1
6
TESTE DE HIPTESE
Teoria da deciso, como o nome diz, trata do problema de tomada de decises. A Teoria da
deciso estatstica se preocupa em tomada de decises na presena de conhecimento estatstico
que tenta controlar algumas das incertezas envolvidas no problema de deciso. A tomada de
deciso sob incerteza baseia-se em teoria da probabilidade. A maioria das situaes de tomada
de decises ocorre em situao de incerteza porque baseada nos dados de uma amostra pro-
veniente de uma populao. Assim, possvel a partir do uso de informaes de amostras fazer
inferncias sobre as quantidades desconhecidas (parmetros).
Os elementos bsicos de um problema de deciso so:
a) `( , a) 0, para todo e a A
b) `( , a) = 0, quando a =
Definio 6.2 (Funo Risco): A funo risco ou perda esperada correspondente ao pro-
cedimento (funo de deciso) d dada por:
Z
R( , a) = E[l( , a)] = `( , a) f (x| )d
ou ainda como
R( , a) = E[l( , a)] = `( , a) f (x| )
x
Exemplo 6.1: Suponha que uma moeda apresenta cara com probabilidade igual a 13 ou
2
1 2
3 , ou seja, = 3 , 3
Para obter informao sobre , o estatstico faz um lanamento da moeda e observa a va-
rivel aleatria X que denota o nmero de caras obtidas no lanamento. O espao amostral
associado ao experimento , portanto, = {0, 1}. Sendo 0 se coroa e 1 se cara. Nesse caso,
podemos definir ento quatro funes de deciso, d1 , d2 , d3 e d4 , que so dadas por
1 1 2 2
d1 (0) = , d2 (0) = , d3 (0) = , d4 (0) =
3 3 3 3
2 1 2 1
d1 (1) = , d2 (1) = , d3 (1) = , d4 (1) =
3 3 3 3
R( , d) = `( , d(0))P [X = 0] + `( , d(1)P [X = 1]
O princpio minimax compara o mximo dos riscos dos procedimentos, sendo o melhor o
que tiver o menor mximo.
Exemplo 6.2: No exemplo da moeda temos:
1 2
d = 3 = 3 maxR( , d)
1 1 1
d1 9 9 9
1 1
d2 0 3 3
1 1
d3 3 0 3
2 2 2
d4 9 9 9
Assim, o procedimento d1 tem o menor risco mximo, nesse caso o procedimento mini-
max.
Exemplo 6.3: Seja X uma nica observao de uma varivel aleatria X com distribuio
de Poisson com parmetro . Considerando A = = (0, ), = {0, 1, 2, ...} , a classe das
funes de deciso D = {d; d(X) = cX}, onde c uma constante, e funo de perda dada por
( a)2
`( , a) =
Assim
( a)2
R( , d) = E[`( , d(X))] = E = c2 + (c 1)2
Assim, a funo risco uma funo linear em :
D = {d; d(X) = X}
Seja X1 , ..., Xn uma amostra aleatria da varivel aleatria X, com f.d.p. ou f.p. f (x| ),
em que um parmetro desconhecido, definido em um espao paramtrico . Assim, as
hipteses podem ser definidas como
H0 : 0
H1 : 1
H0 : = 0 H1 : = 1
H0 : = 0 H1 : 6= 0
H0 : = 0 H1 : > 0
H0 : = 0 H1 : < 0
H0 : 0 H1 : < 0
H0 : 0 H1 : > 0
Definio 6.5 (Teste de hiptese): Chamamos de teste de uma hiptese estatstica a funo
de deciso d : {a0 , a1 }, em que a0 corresponde ao de considerar a hiptese H0 como
verdadeira e a1 corresponde ao de considerar a hiptese H1 como verdadeira.
A0 A1 = e A0 A1 = 0
Teste de hiptese 51
H0 : p = 0, 5
H1 : p = 0, 6
Seja Xi a varivel de Bernoulli que assume o valor 1 se ocorre cara no isimo lanamento
3
e 0 caso contrrio, i = 1, 2, 3. Considere a estatstica de teste W (X1 , ..., X3 ) = Xi
i=1
Assim,
(X1 , X2 , X3 ) X1 + X2 + X3
(0, 0, 0) 0
(0, 0, 1) 1
(0, 1, 0) 1
(1, 0, 0) 1
(0, 1, 1) 2
(1, 0, 1) 2
(1, 1, 0) 2
(1, 1, 1) 3
Podemos considerar,
Sendo A0 A1 = e A0 A1 = .
Em um teste de hiptese
H0 : A0 H1 : A1
H0 : A0 H1 : A1
Definio 6.6 (Funo Poder): A funo poder de um teste de hiptese com regio crtica
A1 dada por
( ) = P[X A1 | A1 ] = 1
A funo poder por de descrita com a funo que associa a cada valor de a probabilidade
de rejeitar H0
Exemplo 6.5: Seja X um varivel aleatria com distribuio binomial(5, ). Suponhamos
que as hipteses de interesse so
H0 : 0, 5
H1 : > 0, 5
Assim, temos
As probabilidades e no so complementares.
Em geral tenta-se minimizar a probabilidade
Assim, mais usual fixar a probabilidade e escolher um teste que minimize tambm a
probabilidade
sup ( ) =
A0
sup ( )
A0
Teste de hiptese 54
Exemplo 6.6: Sejam X1 , ..., Xn um amostra aleatria da distribuio N(, 25). Suponhamos
que as hipteses de interesse so
H0 : 17
H1 : > 17
5
( ) = P(X > 17 + | > 17)
n
5 !
17 + n
= 1 5
n
17 + 5n
" !#
sup ( ) = sup 1
A0 17 5
n
17 + 5n 17
" !#
= 1 = 1 (1) = 0, 159
5
n
Como em geral o interesse em valores muito pequenos de , fixando um valor para esta
probabilidade, teremos fixado a mxima probabilidade de se cometer o erro tipo I. Fixando
um valor de possvel construir uma regra de deciso, e desta ser estabelecido o nvel de
significncia do teste.
Exemplo 6.7: Um fornecedor garante que apenas 10% de sua produo apresenta defeito.
Para testar esta afirmao selecionado ao acaso 10 itens de um lote e contamos o nmero de
defeituosos. Seja Xi a varivel de Bernoulli que assume o valor 1 se o item for defeituoso no
10
isimo e 0 caso contrrio, i = 1, 2, ..., 10. Considerando a estatstica W (X1 , ..., X10 ) = Xi ,
i=1
Teste de hiptese 55
H0 : = 0, 10
H1 : < 0, 10
Considerando = 0, 025, a partir desse valor vamos estabelecer a nossa regra de deciso.
Calculando a probabilidade para diferentes regies crticas,
Portanto, devemos rejeitar H0 se o numero de itens defeituosos for maior ou igual a 4, nesse
caso quando a probabilidade inferior a .
A escolha do nvel de significncia do teste completamente arbitrria e a a deciso de
aceitar ou rejeitar H0 claramente depende desta escolha. Um enfoque alternativo consiste em
calcular uma quantidade chamada valor-p.
Definio 6.9 (valor-p): Seja W uma estatstica de teste e w o valor dessa estatstica obtido
a partir da amostra, ento um valor-p a probabilidade dada por:
P(W > w| 0 )
Se o valor-p for grande ento ele fornece envidncia de que H0 verdadeira. Se o valor-p
for pequeno indica que evidncia nos dados contra H0 . Assim, a idia comparar o valor-p com
, se valor p < deve-se rejeitar H0 .
H0 : = 0 H1 : = 1
Teste de hiptese 56
= P(Rejeitar H0 | = 0 )
= P(Aceitar H0 | = 1 )
Se k Rejeita H0
Se > k Aceita H0
n
Em que f (xi |0 )
i=1 L(0 |x)
= (x1 , ...xn ) = n =
L(1 |x)
f (xi |1 )
i=1
Definio 6.11 (Teste Mais Poderoso (TMP)): Sejam X1 , ..., Xn um amostra aleatria pro-
veniente de uma funo de densidade ou de probabilidade f (x|0 ) ou f (x|1 ). Um teste de
H0 : = 0 H1 : = 1 definido como sendo um teste mais poderoso de tamanho , se e
somente se:
i) (0 ) =
Se k (x1 , ..., xn ) A1
Se > k (x1 , ..., xn ) A0
Teste de hiptese 57
em que A0 A1 =
Exemplo 6.8: Sejam X1 , ..., Xn um amostra aleatria com distribuio exponencial( ). Pretende-
se testar
H0 : = 0 H1 : = 1
Assim,
n n
xi (1 0 )
1
ei=1 k
0
n n
1
xi(1 0) ln k 0
i=1
n
xi < k1
i=1
h n i
ln k 10
k1 =
(1 0 )
n
Desta forma uma regra de deciso pode ser: Rejeita H0 se xi k1
i=1
n
Como se X exp( ) e Y = Xi Gama(n, )
i=1
!
n
= P xi k1| = 0 = Fy (k1 |n, 0 )
i=1
H0 : = 1 H1 : = 2
n
e = 0, 05 e n = 5, temos k1 = 1, 9701, isso implica que deve-se rejeitar H0 se xi <
i=1
1, 9701, ou se < 229, 4961
Teste de hiptese 58
Exemplo 6.9: Sejam X1 , ..., Xn um amostra aleatria com distribuio bernoulli ( ). Pretende-
se testar
H0 : = 0 H1 : = 1
Assim
n
xi k1
i=1
h n i
ln k 1 1
10
k1 = h i
ln 0 (1 1)
(1 )
1 0
n
Como se X bernoulli( ) e Y = Xi Bin(n, )
i=1
!
n
= P xi k1| = 0 = 1 Fy (k1 |n, 0 )
i=1
1 3
H0 : = H1 : =
4 4
= 0, 05 e n = 10 no h nenhuma regio crtica A1 e constante k da forma dada no Lema de
Neyman Pearson
Teste de hiptese 59
k1 F(k1 ) 1 F(k1 )
0 0,056314 1,000000
1 0,244025 0,943686
2 0,525593 0,755975
3 0,775875 0,474407
4 0,921873 0,224125
5 0,980272 0,078127
6 0,996494 0,019728
7 0,999584 0,003506
8 0,999970 0,000416
9 0,999999 0,000030
10 1,000000 0,000001
Considerando 0, 05, pode-se trabalhar com k1 = 6, isso implica que deve-se rejeitar H0
n
se xi 6
i=1