You are on page 1of 11

Tablas y Fórmulas Estadísticas 1

TABLAS Y FORMULAS
ESTADISTICAS

Carlo Magno Araya


Profesor de Estadística
Sede de Occidente
Universidad de Costa Rica
Tablas y Fórmulas Estadísticas 2

MEDIDAS DE POSICION

Datos sin agrupar Datos agrupados

Promedio aritmético de muestras


n k
∑ xi fi
∑ xi i=1
i =1 x =
x= k
∑ fi
n i =1
Promedio ponderado Mediana
n n 
∑ x i wi  - F i-1 
2
i =1 M e = Li +  *c
x= n
 f i 
 
∑ wi
i =1

Mediana para n impar Moda


M e = X  n +1   d1 
  M o = Li +  *c
 2   d 1+ d 2 
d 1 = f i − f i −1
d 2 = f i − f i +1

Mediana para n par Percentiles


X  n + X  n   m.n 
   +1  - F i-1 
 2 2  100
Me = P m = Li +  *c
2  fi 
 
Percentiles
Pm = X  m 
 100 ( n + 1) 
 

Media geométrico Media armónica


n n
x g = x 1 . x 2 .... x n xa =

n 1
i=1 xi
Tablas y Fórmulas Estadísticas 3

MEDIDAS DE VARIABILIDAD

Datos sin agrupar Datos agrupados


Variancia de una muestra
1 n 2 1 k
sx2 = ∑( i ) ∑ ( xi − x ) 2 . f i
2
x − x s x =
n − 1 i =1 n − 1 i =1

  k  
2
n  
2
n k  ∑ xi f i  
∑  
x 1   i=1  
2 1  2  i =1 i   sx2 = . ∑ x2 f -
sx = ∑ xi − n - 1 i=1 i i n 
n − 1 i =1 n   
   
 
Variancia de la población
2
1 k
1 N
σ x2 = ∑ ( xi − µ )
2 σ 2x =
N i =1
(
∑ xi − µ . f i )
N i =1
 N  
2
N  ∑ xi    k  
2

1    k  ∑ xi f i  
σ x2 = .  ∑ xi2 - i=1 1  i=1  

N i=1 N  σ 2x = .  ∑ xi2 f i -
  N i=1 N 
   
 

Coeficiente de variación de una Coeficiente de variación de


población una muestra
σx sx
CV x = * 100 CV x = * 100
µ x
Desviación media
n k
∑ | xi - x| ∑ | xi - x|. f i
i=1 i=1
D. M.= D. M.= k
n ∑ fi
i=1
Medida de variabilidad para muestras Variancia para variables
pareadas dicotómicas
1  n 2 σ 2 = PQ s 2 = pq
$$
s2d = . ∑ di di = X 1i - X 2i
n -1 i=1 
Tablas y Fórmulas Estadísticas 4

INDICE DE PRECIOS

Relativo simple de precios Agregado simple de precios


k
p
I = n ⋅ 100 ∑ pn
p0 I= i =1
⋅ 100
k
∑ p0
i =1
Promedio de los relativos simples de precios

k  p 
∑ n 
i =1 p 0 
I = ⋅ 100
k

Índices de precios ponderados


Laspeyres Paasche
∑ pn q o ∑ pn q n
I PL = ⋅ 100 I PP = ⋅ 100
∑ po q o ∑ po q n

Índices de cantidades ponderados


Laspeyres Paasche
∑ po q n ∑ pn q n
I QL = ⋅ 100 I QP = ⋅ 100
∑ po q o ∑ pn q o

Indice de precio de Fischer

 ∑ pn q0   ∑ pn qn 
I PF =    ⋅ 100
 ∑ p0 q0   ∑ p0qn 
Tablas y Fórmulas Estadísticas 5

MUESTREO ALEATORIO SIMPLE

Población finita Población infinita


Variancia del promedio
N - n s 2x s2x
s2x = . s2x =
N -1 n n

2 N - n σ 2x σ 2x
σx = . σ 2x =
N -1 n n
Variancia de una proporción
$$
N - n pq $$
pq
s 2p$ = . s2p$ =
N -1 n n
N - n PQ PQ
σ 2p$ = . σ 2p$ =
N -1 n n
Tamaño de muestra para la estimación
De un promedio y una proporción poblacional
2 2
n1  Zα / 2 σ  Z σ
n= donde n1 =   n =  α/2 
n d   d 
1+ 1
N
2
 Z α / 2 PQ  2
n=
n1
donde n1 =    Z α / 2 PQ 
n  d 
 n =  

1+ 1  d 
N
Intervalos de confianza para el promedio cuando
la variancia de la población es conocida
N -n σx σx
Li = x ± Z α / 2 * * Li = x ± Zα /2*
N -1 n n
Intervalos de confianza para el promedio cuando la variancia
de la población es desconocida y n≤≤30
N - n sx sx
Li = x ± t α / 2(n-1)gl * * Li = x ± t α / 2(n-1)gl *
N -1 n n
Intervalos de confianza para una proporción si np>5 y nq>5
N -n $$
pq $$
pq
Li = p$ ± Z α / 2 * * L i = $ ± Zα / 2*
p
N -1 n n
Tablas y Fórmulas Estadísticas 6

ESTADISTICO PARA PRUEBA DE HIPOTESIS

Promedios Proporciones

Para un promedio: variancia conocida Para una proporción


x-µ p$ - P
Zc = Zc =
σ PQ
n
n

Para un promedio: variancia


Diferencia de proporciones
desconocida
x-µ p$ 1 − p$ 2
tc = Zc =
s
n p$ 1 q$1 p$ 2 q$ 2
+
n1 n2

Diferencia de dos promedios: variancia Otra alternativa de cálculo:


conocida x1 x 2

n1 n2
x1 - x 2 Zc =
Zc =  1 1
σ 12 σ 22 p(1 − p) − 
+  n1 n 2 
n1 n2
x1 + x 2
p=
n1 + n2

Diferencia de dos promedios: variancia desconocida


x1 - x 2 n1 n2 ( n1 + n2 - 2)
tc = *k donde k=
( n1 - 1) S 12 + ( n2 - 1) S 22 n1 + n 2

Estadístico de prueba de independen- Estadístico de prueba para muestras


cia y de homogeneidad Ji-Cuadrada pareadas

2
χ =∑ ∑
r c (Oij - E ij )2 tc =
d
i=1 j=1 E ij Sd / n
Ni N j
E ij =
N
Tablas y Fórmulas Estadísticas 7

ANALISIS DE REGRESION LINEAL SIMPLE

Constante de regresión Coeficiente regresión lineal


n n n
n ∑ xi yi - ∑ xi ∑ yi
a = y − bx b= i=1 i=1 i=1
2
n  n
n ∑ xi2 -  ∑ xi
i=1  i=1 
Intervalos de confianza para el Intervalos de confianza para una
promedio de y dado un x0 observación de y dado un x0
2 2
1 x0 - x ( ) Li = y$ ± tα / 2(n-2)gl * S e
1
1+ +
x0 - x ( )
Li = y$ ± t α / 2(n-2)gl * S e +
n
n SC x SC x
Error estándar de estimación Suma de cuadrados de x
2
n
2
n n  n 
∑ yi - a ∑ y i - b ∑ xi yi  ∑ xi 
i=1 i=1 i=1
n  i=1 
Se = SC x = ∑ xi2 -
n-2 i=1 n
Inferencia sobre la constante y coeficiente de regresión
Intervalos de confianza Estadístico de prueba de hipótesis
a
1 x2 tc =
a ± t ( n− 2 ) gl S e + 1 x2
n SCx Se +
n SC x
Se
b ± t ( n−2 ) gl b
SC x tc =
Se / SC x

ANALISIS DE CORRELACION LINEAL SIMPLE

Coeficiente de correlación lineal


n n n
n ∑ xi yi - ∑ xi ∑ y i
i=1 i=1 i=1
r=
 n n  
2  n  n  
2
n ∑ xi2 -  ∑ x i  *  n ∑ y i2 -  ∑ yi 
 i=1  i=1    i=1  i=1  
 

Estadístico para prueba de hipótesis sobre Coeficiente de correlación parcial


el coeficiente de correlación r12 − r13 r23
r−ρ r12.3 =
tc =
1− r 2 (1 − r )(1 − r )
2
13
2
23

n−2
Tablas y Fórmulas Estadísticas 8

MUESTREO ALEATORIO ESTRATIFICADO

Afijación de la muestra Afijación de la muestra


proporcional óptima o Neyman
 
Nh  
nh = n ⋅ L nh = n ⋅  Nhσh 
∑ Nh  L 
 ∑ Nhσ h
h=1  h=1 

Promedio aritmético estratificado Proporción estratificada


1 L L 1 L L
y st = ∑ N h yh = ∑ Wh xh p$ st = ∑ N h p$ h = ∑ Wh p$ h
N h=1 h =1 N h=1 h =1

N
Wh = h
N
Variancia del promedio estratificada Variancia de la proporción estratificada
l l
Var ( y st ) = ∑ Wh2 ⋅Var ( yh )
y =1
Var ( p$ st ) = ∑ Wh2 ⋅Var p$ h
y =1
( )
Tamaño de la muestra para la Tamaño de la muestra para
estimación de la media de la población proporciones

Wh2 sh2 Proporcional:



wh n0 ∑ Wh ph qh
n= n= donde n0 =
1 W 2 s2 n V
V+ ∑ h h 1+ 0
N wh N

Optimo supuesto:
1 Wh2 sh2 1 n0
V = ∑ − ∑ Wh sh2 n=
n wh N 1
1+ ∑ Wh ph qh
NV

n0 =
(∑ W h ph qh ) 2

V
Tablas y Fórmulas Estadísticas 9

MUESTREO POR CONGLOMERADOS

Estimación del promedio Estimación de una proporción


A A
∑ yi ∑ ai
i=1 i =1
y = A
p$ = A
∑ mi ∑ mi
i=1 i =1

MODELOS DE CRECIMIENTO
Modelo aritmético Modelo geométrico

N t = N 0 (1 + rt ) t
N t = N 0 (1+ r )
1 N - N0
r= ⋅ t 1/ t
t N0 N 
r= t -1
 No
Modelo exponencial
1  
N t = N 0 e rt r = ln  N t 
t  N0 

DISTRIBUCIONES DE PROBABILIDADES
Distribución binomial Distribución de Poisson
 n x −λ
λe
f ( x ) =   p x q n − x x=0, 1,..., n
 x f ( x) = x=0, 1,...
x!

Distribución hipergeométrica Distribución geométrica


 D  N − D 

f ( x) =
 


x  n − x  x=0, 1, 2,..., min(n,D) f ( x ) = q x −1 p x=1, 2,...
N
 
n
TEOREMA DE BAYES
P( A) P( D / A)
P( A D ) =
P( A) P( D / A) + P( B) P( D / A)
TECNICAS DE CONTEO
Permutaciones Combinaciones
n! n!
n Pr = nCr =
(n − x)! r!(n − x)!
Tablas y Fórmulas Estadísticas 10

ANALISIS DE VARIANCIA A UNA VIA: DISEÑO


COMPLETAMENTE ALEATORIZADO

Media total Suma de cuadrados total


r c r c
∑ ∑ xij SCT = ∑ ∑ ( xij − x ) 2
i =1 j =1 i =1 j =1
x=
n
Suma de cuadrados de los tratamientos Suma del cuadrado de error
c r c
SCTR = ∑ rj ( x j − x ) 2
SCE = ∑ ∑ ( xij − x j ) 2
j =1 i =1 j =1

Prueba para diferencias entre pares de medias


Diseños balanceados Diseños no balanceados

Criterio de Tukey Diferencia mínima significativa

CME 1 1
T = qα , c , n − c DMS J , K =  + (CME ) Fα , c −1,n − c
 rj rk 
R
Diferencia mínima significativa
2( CME ) Fα ,1,n − c
DMS =
r

ANALISIS DE VARIANCIA A DOS VÍAS: DISEÑO


ALEATORIZADO EN BLOQUES

Suma de cuadrados de bloques Suma de cuadrados del error


r SCE = SCT − SCTR − SCBL
SCBL = ∑ ci ( xi − x ) 2
i =1
Tablas y Fórmulas Estadísticas 11

PRUEBAS NO PARAMETRICAS

Prueba U de Mann-Whitney Media y desviación estándar de la


distribución muestral para la prueba
n1 ( n1 + 1) U de Mann-Whitney
U1 = n1n2 + − ∑ R1
2 n1n2
µu =
2
n2 ( n2 + 1)
U 2 = n1n2 + − ∑ R2
2 n1n2 ( n1 + n2 + 1)
σu =
12
Valor Z para normalizar la prueba U de Prueba de independencia Chi-
Mann-Whitney Cuadrada

Z=
U i − µu
2
χ obs
rc
=∑
( Oi − E i ) 2
σu Ei
i =1
Coeficiente de correlación de Spearman Desviación normal para la prueba de
rangos de Spearman
6∑ di2
rs = 1 − Z = rs n − 1
(
n n2 − 1 )
Prueba de Kruskal-Wallis

12  Ri2 
K= ∑  − 3( n + 1)
n( n + 1)  ni 

Valor crítico para la prueba de Kruskal-Wallis

 n( n + 1)  1 1
Ck = 2
χα , k −1    + 
 12   ni n j 

You might also like