Professional Documents
Culture Documents
FORMULARIO
ESTADÍSTICA DESCRIPTIVA
Población
N n M m
x
i 1
i x
i 1
i ( xi μ ) 2 n i ( x x ) i
2
ni
i 1 i 1
μ= x= σ =
2 2
S =
N n N n -1
n n
n
( x i μ )3
n(n 1)
( x i μ)4
(n - 1) 2
3 = i 1 ; 4 = i 1
-3
(n - 1)(n - 2) s3 (n - 1)(n - 2)(n - 3) s4 (n - 2)(n - 3)
PROBABILIDADES
CASO: Fórmula
Regla de probabilidad total (marginal) P(B) = P(E1)P(B/E1) +P(E2)P(B/E2) + . . . + P(En)P(B/En)
Teorema de Bayes P(Ei/B)=p(Ei)p(B/Ei)/p(B)
Caso continuo
Otra notación: 𝑓𝑋 (𝑥) = ∫𝑅𝑥 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑦 Rx: puntos (X,Y) para los que X=x
𝑓(𝑥,𝑦) 𝑏
Condicional: 𝑓𝑋|𝑌 (𝑥|𝑦) = 𝑓𝑌 (𝑦)
donde: 𝑓𝑌 (𝑦) = ∫𝑎 𝑓(𝑥, 𝑦)𝑑𝑥
+∞
𝐹𝑋|𝑌 (𝑥|𝑦) = ∫𝑎 𝑓𝑋|𝑌 (𝑥|𝑦)𝑑𝑥
+∞
DISTRIBUCIONES DE PROBABLIDAD
Modelo Función de densidad f(x)=P(X=x) Media E(x) Varianza V(x)
Bernoulli 1 p
𝑓(𝑥) = {
0
Binomial f(x)= nCxpx(1-p)n-x, X=0,…n) np npq
Poisson eλ λ x
f(x) P(X x λ) x = 0, 1, 2,...
x!
Hipergeométrico Cx C n x np np(1-p)(N-n)/(N-
f(x) p(X x) r Nr
1)
N Cn
Uniforme discreta 1 ab (b a 1) 2 1
f(x)
n 2 12
Geométrica f(x) = (1 – p)x-1p, x=1,2,… 1/p (1 – p)/p2
Distribución Exponencial: Propiedad de carencia de memoria.- Para una v.a. exponencial X, se cumple que:
P(X< t1+t2X> t1) = p(X< t2).
Este resultado se explica por la independencia de los eventos, en el sentido de que el resultado de un evento anterior
no influye en el resultado de un evento futuro.
3
TÉCNICAS DE MUESTREO
Parámetros Varianza estimada de la media Varianza estimada de la Tamaños de muestra
x̅ proporción p̂
M. Aleatorio S2 N n p̂q̂ N n Nσ 2
simple Var( x) Var( p̂) n
n N n 1 N B2
(N - 1) σ2
4
M. n n
Nσ c2
conglomerados
N n i 1
(x i xm i ) 2
N n i 1
(a i p̂m i ) 2 n
B M2
2
V̂(x) V̂(p̂) N σ c2
NnM
2
n 1 NnM
2
n 1 4
M. Sistemático Para estimar la media y la proporción usar las mismas fórmulas del muestreo aleatorio simple.
Si N es desconocido tomar un valor aproximado. Una vez determinados N y n, entonces k ≤ N/n
Muestreo Estratificado
Estimación de parámetros
Descriptivas Estimadores los parámetros Varianzas estimadas Límite para el error de
estimación e I.C.
Media
1 L 1 L Si2 Ni n i 2 B 2 V(yst )
yst Ni yi ;
N i1
V̂(yst ) 2
N i1 n i Ni
Ni
y st 2 V(y st )
(y ik y i )
ni ni 2
y ik
donde yi Si2
k 1 n i k 1 n i 1
1 L p̂ i q̂ i N i n i 2
Proporción
1 L p̂st 2 V(p̂st )
p̂st Ni p̂i
N i1
V̂(p̂ st )
N 2 i 1 n i 1 N i
N i
p̂1 p̂ 2 2 V(p̂1 ) V(p̂ 2 )
ni
y ik S p̂i * q̂ i
2
B 2 V(p̂st )
p̂ i
i
1 exito
y ik
k 1 n i 0 fracaso
Si2 Ni n i 2
Total
B 2 V(τ̂st )
L
τ̂st Nyst Ni yi
L
V̂(τ̂st ) V̂(Nyst ) N 2 V̂(yst ) Ni
i1 i1 n i Ni
(y ik y i ) 2
ni
S
2
n i 1
i
k 1
L
N σ /w 2
i
2
i i
Tamaño de muestra para estimar u y p: Fórmula general: n i 1
2 L
B
N2 D N i σ i2
4 i
s s p̂q̂ p̂q̂
x t α/2,n 1 μ x t α/2,n 1 (n<30)
p̂ Zα/2 p p̂ Zα/2
n n n n
x1 x 2 Zα/2Sx1x2 μ1 μ 2 x1 x 2 Zα/2Sx1x2 p̂1 p̂ 2 Zα/2Sp̂1p̂2 p p̂ Zα/2Sp̂1p̂2
m
Z σ 2 2 ( x x )i
2
ni
n α/2
, donde: S2 =
2
i 1 cuando se va a estimar u; pero 2 = pq; cuando se va a estimar p
e n -1
2;
To
σ
muestras pequeñas, 2 2
s2
s 2 2
/ n1 σ / n2 2
σ12 σ 22 1
2 1
2
n1 n 2 n1 1 n2 1
Varianza (n 1)S 2 g.l. = n – 1
χ 20
σ 20
Igualdad de Varianzas s 12
Fo ; g.l. numerador = n1 –1; g.l. denominador = n2 –1
s 22
Datos pareados n n
d
d i (di - d) 2
To ; d i 1 ; Sd2
j1 ; g.l. = n-1
sd / n n n 1
Proporción p̂ p 0
Zo
p 0 (1 p 0 )/n
donde: p̂ x 1 x 2
Diferencia de
p̂1 p̂ 2 ; o p̂1 p̂ 2
proporciones Zo Zo n1 n 2
p̂1q̂1 p̂ 2 q̂ 2
1 1
p̂(1 p̂)
n1 n2
n1 n 2
Chi – cuadrado de (Oij E ij ) 2 (Oi E i ) 2
independencia y 02 02
Bondad de Ajuste E ij Ei
REGRESIÓN SIMPLE
Modelos de regresión simple, ecuaciones de predicción, parámetros y cambios de variables:
n X i Yi X i Y i n x i .lny i - x i . lny i
R R
[n X X ] *[n Y
2
i i
2
i
2
Yi ]
2
n x 2
i
- x i n (lny i ) 2 -
2
lny
i
2
; n x i .lny i - x i . lny i
β1
n X i Yi X i Y i n x i2 - x i
2
β̂1
X
;
n X i2
2
1
i lnyi β1 xi
β̂ 0
1
n
Y β̂ X
i 1 i
β0 e n
1
logyβ1 logx
β 0 yi β1 lnx i
1
β 0 10 n
n
El cambio en Y implica cambio en 0
SSE
Varianza Residual: σ2 = n−p−1
̂ p es el número de variables independientes
Error estándar de
estimación ̂2 cjj
Se (βj ) = √σ
Estadístico de prueba 𝛽̂j
To =
√𝜎̂ 2 cjj
Intervalo de confianza β̂j ∓ t α,n−p−1 ∗ Se (β̂j )
para los i 2
7
ANOVA DE UN FACTOR
1. Ho: u1 = u2 = … = uk
H1: al menos una media difiere de las demás
2. Fcrítico = F, k – 1, n – k =
3. Fo = (ver Tabla Anova de un factor)
4. Ho se rechaza si Fo > Fcrítico
̅i∗ = 1 ∑ni Y
̅ = ∑ni k Yij 1 k
̅
Yi∗ = ∑ni
j=1 Yij Y Y = nii∗ Y j=1 ∑i=1 n = n ∑i=1 ni ∗ Yi∗
ni j=1 ij
2
k ni
1
CM = (∑ ∑ Yij )
n
i=1 j=1
k ni k ni
2
SSTotal = ∑ ∑(Yij − ̅
Y) = ∑ ∑ Yij2 − CM
i=1 j=1 i=1 j=1
Y2i∗
SST = ̅i∗
∑ki=1 ni (Y −Y ̅) 2 = ∑ki=1 − CM
ni
SSE= SStotal – SST,
2
̅) = ∑ki=1 ∑ni
SSTotal = ∑ki=1 ∑bj=1(Yij − Y 2
j=1 Yij − CM =SSB+SST+SSE
2 Y2∗j
̅∗j − Y
SSB = k ∑bj=1(Y ̅) = ∑bj=1 − CM
k
Y2i∗
̅i∗ − ̅
SST = b ∑ki=1(Y Y)2 = ∑ki=1 − CM
b
8
̅ = 1 ∑ni
Y ∑k Y
bk j=1 i=1 ij
2
k ni
1
CM = (∑ ∑ Yij )
bk
i=1 j=1
2
̅∗j − Y
Y ̅∗j′ ± t α √σ2
Bloques: ,(k−1)(b−1) ∗ ̂ (k)
2
̅i −y
y ̅i′ ̅j −y
y ̅j′
ToT = 1 1
ToB = 1 1
̂2( + )
√σ ̂2( + )
√σ
ni ni′ nj nj′
Covarianza
Cov(X, Y) = E[(X – E(X))(Y – E(Y)] = E(XY) – E(X)E(Y); Si X, Y son independientes, Cov(X, Y) = 0
PROCESO ESTOCÁSTICOS
Un proceso estocástico X(t), tT, es de segundo orden si E[X2(t)] < ∞ tT
Sea X(t), tT, se dice que es un proceso de segundo orden, entonces
1.1. µx(t) = E[X(t)]
1.2. rx(s, t) = cov (X(s), X(t)) = E[X(s) – E(X(t))*(Y(s) – E(Y(t))] = E[X(s)X(t)] – E[X(s)]E[X(t)]
Cov[ X (t ), X ( s)]
Autocorrelación: x (t ) : T T (t , s) x (ts )
(t ) (s)
X(t), es un p.e.s.o., si , el p.s.o. Y(t) = X(t + ), tiene la misma media y covarianza que X(t)
9
VARIOS
∞
1
∑ 𝑍𝑛 = = 1 + 𝑧 + 𝑧2 + ⋯ + 𝑧𝑛
1−𝑍
𝑛=0
∞ 𝑘
λ
∑ =𝑒 λ
𝑘!
𝑛=0
𝑛
λ
(1 − ) ≈ 𝑒 − λ
𝑛
Desigualdad de Markov
Si X es v.a. de valores no negativos, luego a>0, entonces:
𝐸(𝑋)
𝑝(𝑋 ≥ 𝑎) ≤
𝑎
Desigualdad de Chebyshev
Si X es v.a. con media u y varianza 2 para algún k >0, entonces:
𝜎2
𝑝(|𝑋 − 𝜇| ≥ 𝑘) ≤
𝑘
Ley fuerte de los grandes números
Sea X1, X2, …, Xn, v.a. i.i.d., y sea E(Xi) = , con probabildad 1. Entonces:
𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
𝑋̅ = → 𝜇 𝑠𝑖 𝑛 → ∞
𝑛
Teorema del límite central
Sea X1, X2, …, Xn, v.a. i.i.d., con media , y varianza 2, entonces:
𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 − 𝑛𝜇
𝜎√𝑛
Tiene distribución normal estándar cuando n∞