You are on page 1of 316

ESCUELA T

ECNICA SUPERIOR DE INGENIEROS AERON

AUTICOS
ESTAD

ISTICA
Marta Cordero Gracia
Jose Olarrea Busto
Dpto. de Matematica Aplicada y Estadstica

Indice general
1. Estadstica descriptiva 1
1.1. Notacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Formas de agrupar los datos de una muestra . . . . . . . . . . . . . . . . . 3
1.3. Representaci on gr aca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Medidas numericas descriptivas . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.1. Medidas de posicion . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.2. Medidas de dispersi on . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.3. Medida de asimetra . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.4. Medida de apuntamiento . . . . . . . . . . . . . . . . . . . . . . . . 9
2. Analisis combinatorio 11
2.1. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. Variaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.

Algebra de sucesos 19
3.1. Experimento aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.2. Sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3. Operaciones con sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.1. Union de sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.2. Interseccion de sucesos . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.3. Propiedades de la union y la interseccion . . . . . . . . . . . . . . . 21
3.3.4. Diferencia de sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.5. Suceso complementario . . . . . . . . . . . . . . . . . . . . . . . . . 22
4. Teora de la probabilidad 23
4.1. Concepto de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.1.1. Probabilidad clasica . . . . . . . . . . . . . . . . . . . . . . . . . . 24
i
4.1.2. Probabilidad frecuentista . . . . . . . . . . . . . . . . . . . . . . . . 24
4.1.3. Axiom atica del calculo de probabilidades . . . . . . . . . . . . . . . 26
4.1.4. Axiom atica de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . 28
4.2. Teoremas del calculo de probabilidades . . . . . . . . . . . . . . . . . . . . 29
4.3. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.3.1. Regla de la multiplicaci on . . . . . . . . . . . . . . . . . . . . . . . 32
4.3.2. Teorema de la probabilidad total . . . . . . . . . . . . . . . . . . . 33
4.3.3. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.4. Independencia de sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5. Variable aleatoria unidimensional 37
5.1. Variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.1.1. Denicion matem atica . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.1.2. Denicion intuitiva . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.2. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.2.1. Funcion de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . 40
5.2.2. Funcion de distribucion . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.3. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.3.1. Funcion de distribucion y funcion de densidad . . . . . . . . . . . . 42
5.4. Variable aleatoria mixta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.5. Transformaciones de variables aleatorias . . . . . . . . . . . . . . . . . . . 46
5.5.1. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . 46
5.5.2. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . 48
5.5.3. Transformaci on integral . . . . . . . . . . . . . . . . . . . . . . . . 49
5.6. Distribuciones truncadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
6. Momentos de una variable aleatoria unidimensional 53
6.1. Esperanza matem atica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.2. Momento de orden k de una variable aleatoria . . . . . . . . . . . . . . . . 55
6.3. Varianza y desviaci on tpica . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.4. Otros valores tpicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.5. Coecientes de asimetra y curtosis . . . . . . . . . . . . . . . . . . . . . . 58
6.6. Teorema de Markov. Desigualdad de Chebychev . . . . . . . . . . . . . . . 60
6.7. Funcion generatriz de momentos . . . . . . . . . . . . . . . . . . . . . . . . 61
6.8. Funcion caracterstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.8.1. Cambio de variable en la funcion caracterstica . . . . . . . . . . . . 64
ii
7. Variable aleatoria bidimensional y n-dimensional 65
7.1. Variable aleatoria bidimensional . . . . . . . . . . . . . . . . . . . . . . . . 66
7.2. Variable aleatoria bidimensional discreta . . . . . . . . . . . . . . . . . . . 66
7.2.1. Funcion de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . 67
7.2.2. Funcion de distribucion . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.3. Variable aleatoria bidimensional continua . . . . . . . . . . . . . . . . . . . 69
7.3.1. Funcion de distribucion y funcion de densidad . . . . . . . . . . . . 69
7.4. Variable aleatoria bidimensional condicional . . . . . . . . . . . . . . . . . 72
7.4.1. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . 72
7.4.2. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . 73
7.5. Variables aleatorias bidimensionales independientes . . . . . . . . . . . . . 75
7.6. Momentos de una variable aleatoria bidimensional . . . . . . . . . . . . . . 76
7.6.1. Propiedades de las varianzas y la covarianza . . . . . . . . . . . . . 78
7.6.2. Coeciente de correlaci on lineal . . . . . . . . . . . . . . . . . . . . 80
7.7. Funcion caracterstica de una variable aleatoria bidimensional . . . . . . . 81
7.8. Transformaci on de variables aleatorias bidimensionales . . . . . . . . . . . 82
7.8.1. Una funcion de dos variables aleatorias . . . . . . . . . . . . . . . . 82
7.8.2. Dos funciones de dos variables aleaorias . . . . . . . . . . . . . . . . 82
7.8.3. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . 83
7.8.4. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . 83
7.9. Variable aleatoria n-dimensional . . . . . . . . . . . . . . . . . . . . . . . . 84
8. Distribuciones de probabilidad discretas 85
8.1. Distribuci on de Bernoulli, B(1, p) . . . . . . . . . . . . . . . . . . . . . . . 86
8.2. Distribuci on Binomial, B(n, p) . . . . . . . . . . . . . . . . . . . . . . . . 86
8.2.1. Teorema de adicion para distribuciones Binomiales . . . . . . . . . 88
8.2.2. Distribuci on de la proporci on . . . . . . . . . . . . . . . . . . . . . 89
8.3. Distribuci on de Poisson, P() . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.3.1. Teorema de adicion para distribuciones de Poisson . . . . . . . . . . 90
8.3.2. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . 91
8.3.3. Aproximacion de una Binomial por una Poisson . . . . . . . . . . . 92
8.4. Distribuci on Hipergeometrica, H(n, N, A) . . . . . . . . . . . . . . . . . . 92
8.5. Distribuci on Geometrica, G(p) . . . . . . . . . . . . . . . . . . . . . . . . 94
8.6. Distribuci on Binomial Negativa, BN(r, p) . . . . . . . . . . . . . . . . . . 95
8.6.1. Teorema de adicion para distribuciones Binomiales Negativas . . . . 96
iii
9. Distribuciones de probabilidad continuas 99
9.1. Distribuci on Uniforme, U(a, b) . . . . . . . . . . . . . . . . . . . . . . . . 100
9.2. Distribuci on Normal, N(, ) . . . . . . . . . . . . . . . . . . . . . . . . . 101
9.2.1. Teorema de adicion para distribuciones Normales . . . . . . . . . . 103
9.2.2. Distribuci on Normal estandar . . . . . . . . . . . . . . . . . . . . . 104
9.3. Distribuci on Log-Normal, Log-N(, ) . . . . . . . . . . . . . . . . . . . 105
9.4. Distribuci on
2
de Pearson,
2
n
. . . . . . . . . . . . . . . . . . . . . . . . 107
9.4.1. Teorema de adicion para distribuciones
2
de Pearson . . . . . . . 108
9.5. Distribuci on t-Student, t
n
. . . . . . . . . . . . . . . . . . . . . . . . . . . 109
9.6. Distribuci on F-Snedecor, F
n,m
. . . . . . . . . . . . . . . . . . . . . . . . . 110
9.7. Distribuci on Exponencial, Exp() . . . . . . . . . . . . . . . . . . . . . . 111
9.7.1. Teorema de adicion para distribuciones Exponenciales . . . . . . . . 113
9.8. Distribuci on de Erlang Er(n, ) . . . . . . . . . . . . . . . . . . . . . . . 113
9.8.1. Teorema de adicion para distribuciones de Erlang . . . . . . . . . . 115
9.9. Relaci on entre las distribuciones de Poisson, Exponencial y Erlang . . . . . 115
9.10. Distribuci on de Weibull, W(r, ) . . . . . . . . . . . . . . . . . . . . . . . 117
9.11. Distribuci on Gamma, G(p, q) . . . . . . . . . . . . . . . . . . . . . . . . . 118
9.11.1. Teorema de adicion para distribuciones Gamma . . . . . . . . . . . 119
9.12. Distribuci on Beta, B(p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
9.12.1. Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
9.13. Relaciones entre distribuciones continuas . . . . . . . . . . . . . . . . . . . 121
9.14. Distribuci on Normal Bidimensional . . . . . . . . . . . . . . . . . . . . . . 123
10.Convergencia de sucesiones de variables aleatorias 127
10.1. Convergencia en ley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
10.2. Problema central del lmite . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
10.2.1. Teorema de Levy-Lindeberg . . . . . . . . . . . . . . . . . . . . . . 129
10.2.2. Teorema de Lindeberg . . . . . . . . . . . . . . . . . . . . . . . . . 129
10.3. Aproximaciones a la distribucion Normal . . . . . . . . . . . . . . . . . . . 130
10.3.1. Distribuci on Binomial . . . . . . . . . . . . . . . . . . . . . . . . . 130
10.3.2. Distribuci on de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 131
10.3.3. Distribuci on
2
de Pearson . . . . . . . . . . . . . . . . . . . . . . 132
10.3.4. Distribuci on t-Student . . . . . . . . . . . . . . . . . . . . . . . . . 132
11.Regresion y correlacion 133
11.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
iv
11.2. Regresion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
11.2.1. Metodo de los mnimos cuadrados . . . . . . . . . . . . . . . . . . . 134
11.2.2. Metodo de la distribucion condicional . . . . . . . . . . . . . . . . . 136
11.2.3. Regresion Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
11.3. Correlacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
11.3.1. Coeciente de correlaci on lineal . . . . . . . . . . . . . . . . . . . . 140
12.Distribuciones de muestreo 143
12.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
12.2. Denicion de estadstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
12.3. Estadstico media muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
12.3.1. Poblacion Madre Normal . . . . . . . . . . . . . . . . . . . . . . . . 145
12.3.2. Poblacion Madre no Normal . . . . . . . . . . . . . . . . . . . . . . 146
12.4. Estadstico
(n 1)s
2

2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
12.5. Estadstico
x
s/

n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
12.5.1. Poblacion Madre Normal . . . . . . . . . . . . . . . . . . . . . . . . 147
12.5.2. Poblacion Madre no Normal . . . . . . . . . . . . . . . . . . . . . . 148
12.6. Estadstico varianza muestral . . . . . . . . . . . . . . . . . . . . . . . . . 148
12.6.1. Poblacion Madre Normal . . . . . . . . . . . . . . . . . . . . . . . . 148
12.6.2. Poblacion Madre no Normal . . . . . . . . . . . . . . . . . . . . . . 149
12.7. Estadstico desviaci on tpica muestral . . . . . . . . . . . . . . . . . . . . . 150
12.8. Estadstico diferencia de medias muestrales . . . . . . . . . . . . . . . . . . 152
12.9. Estadstico cociente de varianzas muestrales . . . . . . . . . . . . . . . . . 153
12.10.Estadstico proporci on muestral . . . . . . . . . . . . . . . . . . . . . . . . 154
12.11.Estadstico elemento que ocupa el lugar r . . . . . . . . . . . . . . . . . . 155
12.11.1.Estadstico m aximo valor de una muestra . . . . . . . . . . . . . . . 155
12.11.2.Estadstico mnimo valor de una muestra . . . . . . . . . . . . . . . 156
12.11.3.Estadstico recorrido de una muestra . . . . . . . . . . . . . . . . . 156
12.11.4.Estimacion de cuantiles . . . . . . . . . . . . . . . . . . . . . . . . . 157
13.Estimaci on puntual y estimacion por intervalo 159
13.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
13.2. Propiedades deseables de los estimadores puntuales . . . . . . . . . . . . . 163
13.2.1. Estimador suciente . . . . . . . . . . . . . . . . . . . . . . . . . . 163
13.2.2. Estimador consistente . . . . . . . . . . . . . . . . . . . . . . . . . 164
13.2.3. Error cuadratico medio . . . . . . . . . . . . . . . . . . . . . . . . . 165
v
13.2.4. Estimador insesgado . . . . . . . . . . . . . . . . . . . . . . . . . . 166
13.2.5. Estimador eciente . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
13.3. Metodos de estimaci on puntual . . . . . . . . . . . . . . . . . . . . . . . . 170
13.3.1. Metodo de m axima verosimilitud . . . . . . . . . . . . . . . . . . . 170
13.3.2. Propiedades de los estimadores de m axima verosimilitud . . . . . . 172
13.3.3. Metodo de los momentos . . . . . . . . . . . . . . . . . . . . . . . . 173
13.4. Estimacion por intervalo de conanza . . . . . . . . . . . . . . . . . . . . . 174
13.4.1. Intervalo de conanza para la media . . . . . . . . . . . . . . . . . 176
13.4.2. Intervalo de conanza para la varianza . . . . . . . . . . . . . . . . 179
13.4.3. Intervalo de conanza para la diferencia de medias . . . . . . . . . 180
13.4.4. Intervalo de conanza para el cociente de varianzas . . . . . . . . . 182
13.4.5. Intervalo de conanza para la proporci on poblacional . . . . . . . . 183
13.5. Intervalo de conanza asintotico . . . . . . . . . . . . . . . . . . . . . . . . 185
14.Teora de muestras de poblacion nita 187
14.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
14.2. Distribuciones de muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
14.2.1. Estadstico media muestral . . . . . . . . . . . . . . . . . . . . . . . 189
14.2.2. Estadstico varianza muestral . . . . . . . . . . . . . . . . . . . . . 191
14.2.3. Estadstico proporci on muestral . . . . . . . . . . . . . . . . . . . . 193
14.3. Intervalos de conanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
14.3.1. Intervalo de conanza para la media poblacional . . . . . . . . . . . 194
14.3.2. Intervalo de conanza para la proporci on poblacional . . . . . . . . 195
15.Contraste de hipotesis 197
15.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
15.2. Las hipotesis nula y alternativa . . . . . . . . . . . . . . . . . . . . . . . . 199
15.3. Metodologa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
15.4. Nivel de signicaci on y regi on crtica . . . . . . . . . . . . . . . . . . . . . 204
15.5. Valor-p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
15.6. Potencia de un contraste . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
15.7. Contrastes para la media de una poblacion . . . . . . . . . . . . . . . . . . 209
15.7.1. Varianza conocida . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
15.7.2. Varianza desconocida . . . . . . . . . . . . . . . . . . . . . . . . . . 211
15.8. Comparacion de medias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
15.8.1. Varianzas conocidas . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
vi
15.8.2. Varianzas desconocidas e iguales . . . . . . . . . . . . . . . . . . . . 213
15.8.3. Varianzas desconocidas y distintas . . . . . . . . . . . . . . . . . . . 213
15.8.4. Muestras apareadas . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
15.9. Pruebas sobre proporciones . . . . . . . . . . . . . . . . . . . . . . . . . . 214
15.9.1. Diferencia de dos proporciones . . . . . . . . . . . . . . . . . . . . . 215
15.10.Pruebas sobre varianzas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
15.10.1.Una poblacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
15.10.2.Comparacion de varianzas . . . . . . . . . . . . . . . . . . . . . . . 215
16.Contrastes no parametricos 219
16.1. Contraste
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
16.1.1. Prueba de bondad del ajuste . . . . . . . . . . . . . . . . . . . . . . 221
16.1.2. Prueba de homogeneidad . . . . . . . . . . . . . . . . . . . . . . . . 222
16.1.3. Prueba de independencia . . . . . . . . . . . . . . . . . . . . . . . . 223
16.2. Contraste de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . . 223
16.3. Otros contrastes no parametricos . . . . . . . . . . . . . . . . . . . . . . . 224
16.3.1. Contrastes de posicion . . . . . . . . . . . . . . . . . . . . . . . . . 224
16.3.2. Contrastes de independencia . . . . . . . . . . . . . . . . . . . . . . 228
16.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
17.Regresion lineal simple 251
17.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
17.2. Modelo lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
17.3. Metodo de mnimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . 254
17.4. Propiedades de los estimadores de mnimos cuadrados . . . . . . . . . . . . 256
17.4.1. Propiedades generales . . . . . . . . . . . . . . . . . . . . . . . . . 256
17.4.2. Condiciones de normalidad . . . . . . . . . . . . . . . . . . . . . . . 257
17.5. Varianza residual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
17.6. Inferencias respecto a los par ametros . . . . . . . . . . . . . . . . . . . . . 258
17.7. Predicci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
17.7.1. Estimacion de la respuesta media . . . . . . . . . . . . . . . . . . . 259
17.7.2. Predicci on de una observacion . . . . . . . . . . . . . . . . . . . . . 260
17.8. An alisis de la varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
17.9. Coeciente de correlaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
17.9.1. Inferencias sobre el coeciente de correlaci on . . . . . . . . . . . . . 264
17.10.Contraste de linealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
vii
A. Tablas estadsticas 271
B. Resumen de distribuciones 303
viii
1
Estadstica
descriptiva

Indice
1.1. Notaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Formas de agrupar los datos de una muestra . . . . . . . . . . 3
1.3. Representaci on graca . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Medidas numericas descriptivas . . . . . . . . . . . . . . . . . . 5
1.4.1. Medidas de posici on . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.1.1. Medidas de tendencia central . . . . . . . . . . . . . . 6
1.4.1.2. Cuantiles . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.2. Medidas de dispersi on . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2.1. Varianza y desviacion tpica . . . . . . . . . . . . . . 8
1.4.2.2. Desviacion media . . . . . . . . . . . . . . . . . . . . 8
1.4.2.3. Coeciente de variaci on de Pearson . . . . . . . . . . 8
1.4.2.4. Recorrido . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.3. Medida de asimetra . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.4. Medida de apuntamiento . . . . . . . . . . . . . . . . . . . . . 9
1
2 Estadstica
La estadstica descriptiva tiene por objeto describir y analizar un determinado con-
junto de datos sin pretender sacar conclusiones de tipo m as general.
El conjunto de datos en cuestion representa una muestra de los distintos valores que
puede tomar una poblacion (e.g. estatura de los alumnos de la Escuela, ingresos familiares
de una unidad familiar, estado civil, n umero de grietas en las alas de un determinado
modelo de avion)
Las variables se pueden clasicar en:
Cuantitativas: variables en las que los datos dieren en magnitud (e.g. estaturas, ingresos
anuales, etc)
Cualitativas: variables en las que los datos dieren en tipo (e.g. estado civil, nacionalidad,
etc)
En este captulo se tratara unicamente con variables cuantitativas.
Para obtener una muestra de valores de una variable cuantitativa es necesario realizar
medidas con una determinada escala y unidad de medida. La unidad de medida puede
ser innitamente divisible (e.g. km, m, cm, mm, . . . ) o indivisible (e.g. tama no de una
unidad familiar). Cuando la unidad de medida es innitamente divisible, la variable se
dice que es continua. En el caso de unidad de medida indivisible, se dice que la variable
es discreta. En otras palabras,
Variable continua: aquella que puede tomar un n umero innito no numerable de valores.
Variable discreta: aquella que puede tomar un n umero nito o innito numerable de va-
lores.
1.1. Notacion
La notacion que vamos a utilizar a lo largo de este captulo es la siguiente:
Disponemos de N observaciones, r de las cuales son distintas {x
1
, x
2
, . . . , x
r
}.
Las observaciones estan ordenadas en forma creciente x
1
< x
2
< < x
r
.
Cada observacion x
i
ha aparecido n
i
veces.
Se llama frecuencia absoluta de la observacion x
i
al valor n
i
, siendo
r

i=1
n
i
= N
1 Estadstica descriptiva 3
Se llama frecuencia absoluta acumulada de la observacion x
i
, al valor
N
i
=
i

k=1
n
k
siendo N
r
= N
Se llama frecuencia relativa de la observacion x
i
al valor
f
i
=
n
i
N
siendo
r

i=1
f
i
= 1
Se llama frecuencia relativa acumulada de la observacion x
i
, al valor
F
i
=
i

k=1
f
k
siendo F
r
= 1
1.2. Formas de agrupar los datos de una muestra
Tabla Tipo I. Se utiliza cuando el n umero de observaciones es reducido (N es
peque no), y cada valor distinto ha aparecido una sola vez (todas las frecuencias
absolutas valen uno).
x
i
n
i
x
1
1
x
2
1
.
.
.
.
.
.
x
N
1
Tabla Tipo II. Se utiliza cuando el n umero de observaciones es grande (N es gran-
de), pero el n umero de valores distintos que han aparecido es peque no (algunas
frecuencias absolutas son distintas de uno).
4 Estadstica
x
i
n
i
x
1
n
1
x
2
n
2
.
.
.
.
.
.
x
r
n
r
Tabla Tipo III. Se utiliza cuando tanto el n umero de observaciones como el n umero
de valores distintos que han aparecido es grande. En este caso, elegiremos unos
intervalos, L
i1
L
i
, de amplitud, a
i
= L
i
L
i1
, ja o variable, que contengan
a la totalidad de los valores observados.
[L
0
,L
1
)
..
x
1
, x
2
, x
3
, x
4
,
[L
1
,L
2
)
..
x
5
, x
6
, x
7
, x
8
, x
9
, x
10
,
.
.
.
x
82
, x
83
, x
84
,
. .
[L
r2
,L
r1
)
x
85
, x
86
, x
87
, x
88
, x
89
, x
90
. .
[L
r1
,Lr)
L
i1
L
i
n
i
L
0
L
1
n
1
L
1
L
2
n
2
.
.
.
.
.
.
L
r1
L
r
n
r
En las tablas tipo III, se sugieren las siguientes normas :
Se debe intentar que los intervalos sean de amplitud constante.
Los intervalos se deben tomar semiabiertos, [L
i1
, L
i
).
Para facilitar los calculos, se denen las marcas de clase como
x
i
=
L
i1
+ L
i
2
convirtiendolas en tablas tipo II.
1.3. Representacion graca
Hay muchas formas de representar gr acamente una tabla, aqu veremos solo algunas
de ellas.
1 Estadstica descriptiva 5
Diagrama de barras
-
x
6
n
x
1
n
1
x
2
n
2
x
r
n
r
Polgono de frecuencias
-
x
6
n

x
1
n
1

-
-
-
x
2
n
2

.
.
.
.
.
.
x
3
n
3

x
4
n
4
Histograma
-
x
6
h
L
0
L
1
h
1
n
1
L
2
h
2
n
2
L
3
h
3
n
3
Histograma
-
x
6
n
L
0
L
1
n
1
A
1
L
2
n
2
A
2
L
3
n
3
A
3
a
i
= L
i
L
i1
, h
i
=
n
i
a
i
A
i
= a
i
n
i
1.4. Medidas numericas descriptivas
Una vez que se han recogido y gracado los datos, es conveniente denir algunas
medidas numericas para describirlos. Existen dos medidas de especial interes para cual-
quier conjunto de datos: la localizacion de su centro y su variabilidad. Adem as, hay otras
medidas tambien importantes como la localizacion de los extremos y la forma en que se
distribuyen los datos.
6 Estadstica
1.4.1. Medidas de posicion
1.4.1.1. Medidas de tendencia central
Estas medidas indican donde se encuentra el centro de los datos
Media muestral ( x)
La medida de tendencia central m as utilizada es la media muestral o simplemente
media,
x =
x
1
n
1
+ x
2
n
2
+ + x
r
n
r
n
1
+ n
2
+ + n
r
=
1
N
r

i=1
x
i
n
i
Otros tipos de medias
Media geometrica
x
G
= (x
1
n
1
x
2
n
2
x
r
nr
)
1/N
Media cuadratica
x
Q
=
_
x
2
1
n
1
+ x
2
2
n
2
+ + x
2
r
n
r
N
Media armonica
x
A
=
N
n
1
x
1
+
n
2
x
2
+ +
n
r
x
r
Media ponderada
x
p
=
x
1
p
1
+ x
2
p
2
+ + x
r
p
r
p
1
+ p
2
+ + p
r
Se cumple: x
A
x
G
x x
Q
Mediana (Me)
La mediana es la medida de tendencia central que, supuestos los valores de la muestra
ordenados en forma creciente, deja igual n umero de observaciones por debajo y por
encima de ella. As, suponiendo que los valores de la muestra son x
1
x
2
x
N
1 Estadstica descriptiva 7
Me =
_

_
x
[
N
2
]+1
Si
N
2
/ N
1
2
_
xN
2
+ xN
2
+1
_
Si
N
2
N
donde los corchetes, [ ], indican la parte entera.
Moda (Mo)
La moda se dene como el valor de la muestra que tiene m axima frecuencia. La
moda no siempre es unica. As, si una muestra tiene dos modas se llamar a bimodal,
si tiene tres modas trimodal, etc.
1.4.1.2. Cuantiles
Ya hemos visto que la mediana divide el conjunto de datos en dos partes de igual
tama no. Para obtener medidas de localizacion m as nas, solo es cuestion de dividir el
conjunto de datos en m as de dos partes. De esta forma se denen los p-cuantiles, siendo p
la proporci on de datos que deja el cuantil a su izquierda. Si tenemos la muestra ordenada
de forma creciente, x
1
x
2
x
N
, el p-cuantil viene dado por
x
p
=
_

_
x
[Np]+1
Si Np / N
1
2
(x
Np
+ x
Np+1
) Si Np N
donde los corchetes, [ ], indican la parte entera. Los casos particulares de cuantiles m as
utilizados son
Cuartiles (Q
1/4
, Q
2/4
, Q
3/4
)
Son los 3 valores de la muestra que dividen las observaciones en 4 partes iguales.
Deciles (D
1/10
, D
2/10
, . . . , D
9/10
)
Son los 9 valores de la muestra que dividen las observaciones en 10 partes iguales.
Centiles o percentiles (P
1/100
, P
2/100
, . . . , P
99/100
)
Son los 99 valores de la muestra que dividen las observaciones en 100 partes iguales.
8 Estadstica
1.4.2. Medidas de dispersi on
1.4.2.1. Varianza y desviaci on tpica
Las medidas de dispersi on m as utilizadas son la varianza y la desviacion tpica. La
varianza muestral, s
2
, es un tipo de promedio de las desviaciones de los valores observados
respecto de su media, y se dene como
s
2
=
(x
1
x)
2
n
1
+ + (x
r
x)
2
n
r
(n
1
+ n
2
+ + n
r
) 1
=
1
N 1
r

i=1
(x
i
x)
2
n
i
La desviaci on tpica se dene como la raz cuadrada de la varianza y tiene las mismas
dimensiones que los datos originales.
s =

s
2
=

_
1
N 1
r

i=1
(x
i
x)
2
n
i
1.4.2.2. Desviaci on media
Se dene la desviaci on media respecto de un par ametro cualquiera, p, como
DM
p
=
1
N
r

i=1
|x
i
p| n
i
donde, generalmente, como par ametro p se utiliza la media o la mediana.
1.4.2.3. Coeciente de variaci on de Pearson
El coeciente de variacion de Pearson, denido como el cociente
C.V. =
s
x
( x = 0)
mide la dispersi on de la distribucion, al igual que la desviaci on tpica o la varianza, con
la ventaja de ser un coeciente adimensional.
1.4.2.4. Recorrido
Es la diferencia entre el valor m aximo y el valor mnimo que toma la muestra
R = m ax{x
i
} mn{x
i
}
Adem as, se dene
1 Estadstica descriptiva 9
Rango intercuartlico
R
I
= Q
3/4
Q
1/4
Rango semicuartlico
R
SI
=
Q
3/4
Q
1/4
2
=
R
I
2
1.4.3. Medida de asimetra
En un conjunto de datos simetricos respecto a su media, x, la suma

(x
i
x)
3
sera nula, mientras que con datos asimetricos esta suma crecera con el grado de asimetra.
Para obtener una medida adimensional del grado de asimetra se dene el coeciente de
asimetra o deformacion como
CA =
n

(x
i
x)
3
(n 1)(n 2)s
3
(n 3 y s = 0)
donde s es la desviaci on tpica de la muestra. Valores grandes y negativos de CA son
indicativos de asimetra hacia la izquierda ( x <Me<Mo) mientras que valores grandes y
positivos son indicativos de asimetra hacia la derecha ( x >Me>Mo).
1.4.4. Medida de apuntamiento
Para medir si una distribucion de datos es m as puntiaguda o m as achatada de lo
normal, se dene el coeciente de apuntamiento o curtosis como
CAp =
n(n + 1)

(x
i
x)
4
(n 1)(n 2)(n 3)s
4

3(n 1)
2
(n 2)(n 3)
(n 4 y s = 0)
donde s es la desviaci on tpica de la muestra. Si CAp> 0 indica que la distribuci on es
puntiaguda, mientras que si CAp< 0 indica que es achatada.
10 Estadstica
2
Analisis
combinatorio

Indice
2.1. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.0.1. Sin repeticion . . . . . . . . . . . . . . . . . . . . . . 13
2.1.0.2. Con repeticion . . . . . . . . . . . . . . . . . . . . . . 14
2.2. Variaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.0.3. Sin repeticion . . . . . . . . . . . . . . . . . . . . . . 14
2.2.0.4. Con repeticion . . . . . . . . . . . . . . . . . . . . . . 15
2.3. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.0.5. Sin repeticion . . . . . . . . . . . . . . . . . . . . . . 15
2.3.0.6. Con repeticion . . . . . . . . . . . . . . . . . . . . . . 16
11
12
El principal objetivo de la combinatoria o, por lo menos en el que estamos aqu m as
interesados es el de hallar el cardinal de un conjunto nito o, dicho de otro modo, contar.
Una posible denici on matem atica de la acci on que supone contar es la de establecer una
biyeccion entre el conjunto que se desea contar y los n umeros naturales, de modo que
podamos enumerar los elementos como el uno, el dos, etc.
Es f acil, por ejemplo, contar el n umero de cuadrados perfectos que hay entre 100
y 1000. Basta observar que 100 = (9 + 1)
2
y que el mayor cuadrado perfecto menor que
1000 es 961 = 31
2
= (9 + 22)
2
. Hemos establecido una biyecci on entre el conjunto que
deseabamos contar y los naturales entre el 1 y el 22. Hay, por tanto, 22 cuadrados perfectos
entre 100 y 1000.
Sin embargo, la mayor parte de las veces, no es evidente o siquiera posible como
establecer tal biyecci on. Un primer procedimiento accesible en estos casos es el denominado
constructivo. Se trata de recorrer los pasos necesarios para formar todos los elementos del
conjunto anotando las alternativas que puedan elegirse en cada uno.
Veamos un ejemplo: De cu antas maneras se pueden sentar tres chicas y tres chicos
en seis butacas consecutivas de un cine de forma que no haya dos chicas ni dos chicos
seguidos?
Hay que ocupar seis sitios. Los indicaremos gr acamente as:
La primera butaca puede ser ocupada por cualquiera de las seis personas.
..
6
Elegida la primera persona hay 3 elecciones posibles, entre las personas de sexo
contrario, para ocupar el segundo lugar.
..
6
..
3
La tercera butaca ha de ser ocupada por una de las 2 personas que quedan del mismo
sexo de la primera y la cuarta por una de las dos del sexo de la segunda.
..
6
..
3
..
2
..
2
Y, para terminar, las dos ultimas personas no tienen elecci on.
..
6
..
3
..
2
..
2
..
1
..
1
2 Analisis combinatorio 13
En total hay, por tanto, 6 3 2 2 = 72 ordenaciones posibles.
La intuitiva multiplicaci on que proporciona el resultado nal puede expresarse como
una regla general matem atica:
Si los conjuntos A
1
, A
2
,. . .,A
k
tienen n
1
, n
2
, . . .,n
k
elementos respectivamente,
el producto cartesiano A
1
A
2
A
k
tiene n
1
n
2
n
k
elementos.
En algunas ocasiones hay que resolver problemas que pueden reducirse a un peque no
n umero de patrones o formas de contar. Estos patrones se estudian en la educacion secun-
daria y haremos aqu solamente un breve recordatorio. Sin embargo, la mayor parte de las
veces tendremos problemas que no corresponden exactamente a alguno de estos patrones.
Lo m as recomendable suele ser recurrir antes a la l ogica y al metodo constructivo que a
buscar hipoteticas formulas que resuelvan nuestro problema concreto.
Entre estos patrones fundamentales que pueden resumirse esquem aticamente en la
tabla del nal del captulo se encuentran los siguientes:
2.1. Permutaciones
Supongamos un conjunto de n elementos. Se llaman permutaciones de estos n ele-
mentos a las distintas ordenaciones que podemos hacer con ellos.
2.1.0.1. Sin repetici on
El metodo anterior nos da facilmente el n umero de permutaciones P
n
que existen en
el conjunto si no se repite ning un elemento (es decir, si son todos distintos o distinguibles):
El primer elemento puede ser cualquiera de los n, el segundo cualquiera de los n1
restantes, el tercero cualquiera de los n 2 restantes y as sucesivamente.
..
n
..
n 1
..
n 2
. . .
..
3
..
2
..
1
El total de permutaciones de n elementos es, entonces:
P
n
= n (n 1) (n 2) 3 2 1 = n!
14 Estadstica
2.1.0.2. Con repetici on
Supongamos ahora que no todos los n elementos del conjunto son distintos, sino que
hay r grupos de elementos iguales entre s (o indistinguibles), digamos n
1
de una clase,
n
2
de otra, hasta n
r
de la ultima clase. Est a claro que n
1
+ n
2
+ . . . + n
r
= n. Cu antas
ordenaciones podramos distinguir?
Un ejemplo tpico de este problema podra ser el siguiente: disponemos de una bolsa
en la que hay 11 bolas iguales; cuatro de ellas tienen un 1 escrito, otras tres un 2 y las
cuatro restantes un 3. Sacando las once bolas una tras otra y anotando las cifras que
aparecen Cuantos n umeros distintos podemos obtener?
Otro ejemplo clasico: Cuantas palabras distintas pueden formarse empleando las 8
letras del vocablo CASCARAS?
Pensemos en el problema general. Si los n elementos fueran distintos tendramos n!
permutaciones posibles. Dada una cualquiera de ellas, podramos sacar de la ordenaci on
los n
1
elementos del primer grupo, reordenarlos arbitrariamente y volver a rellenar los
huecos que hubieran dejado libres sin que fueramos capaces de distinguir la permutaci on
original del resultado nal de esta operacion. Lo mismo es cierto para los n
2
elementos del
segundo grupo, los n
3
del tercero, hasta los n
r
del ultimo. Puesto que hay n
i
! ordenaciones
parciales posibles de los elementos del grupo i-esimo, tenemos que:
PR
n
1
,n
2
,...,nr
n
=
n!
n
1
! n
2
! n
r
!
2.2. Variaciones
2.2.0.3. Sin repetici on
Sea ahora un conjunto de n elementos distintos. Se llama variacion de r elementos
tomados de entre los n (V
n,r
) a una ordenaci on de un subconjunto de tama no r.
Una variacion de 3 elementos tomados de entre 7 es, por ejemplo, el podio (los 3
primeros clasicados) de una carrera con 7 inscritos.
Es muy facil calcular el n umero de variaciones V
n,r
. Basta observar que hay que
elegir r elementos de modo que el primero puede ser uno cualquiera de los n, el segundo
uno cualquiera de los n 1 restantes y as sucesivamente:
..
n
..
n 1
. . .
..
n r + 2
..
n r + 1
. .
r
2 Analisis combinatorio 15
Y aplicando la regla del producto cartesiano:
V
n,r
= n (n 1) (n r + 2) (n r + 1) =
n!
(n r)!
2.2.0.4. Con repetici on
Supongamos ahora que cada elemento del conjunto original pueda ser repetido al
crear una ordenaci on de tama no r. Se hablar a entonces de variaciones con repeticion de
r elementos tomados de entre n, V R
n,r
.
Pensemos, por ejemplo, en las palabras de 8 letras que pueden formarse con el
alfabeto espa nol. Hay que tomar 8 decisiones (cual es la primera letra, cu al la segunda,
etc.) teniendo 27 posibilidades de elecci on cada vez (las 27 letras del alfabeto). El n umero
total de palabras es, entonces 27 27 27 27
. .
8veces
= 27
8
.
Es facil observar que, en general:
V R
n,r
= n
r
2.3. Combinaciones
Una combinaci on de r elementos tomados de entre n es cualquier subconjunto de
tama no r de un conjunto de n elementos. Es importante resaltar que en una combinacion
no interviene el orden de los elementos: si sacamos tres bolas de una bolsa que contiene
diez, numeradas del uno al diez, podemos obtener las permutaciones distintas {1, 2, 7} y
{7, 1, 2} que, sin embargo, son un mismo subconjunto de tama no 3 (el obtenido por uni on
de {1}, {2} y {3}). Son, por tanto, la misma combinacion.
2.3.0.5. Sin repetici on
Siguiendo la idea del ejemplo anterior, una manera sencilla de contar las combina-
ciones de r elementos tomados entre n (C
n,r
) es observar que, de las n!/(nr)! variaciones
posibles, r! de ellas son ordenaciones distintas de los mismos elementos y, por tanto, la
misma combinacion. El n umero total de combinaciones sera entonces:
C
n,r
=
n!
(n r)! r!
=
_
n
r
_
16 Estadstica
2.3.0.6. Con repetici on
Supongamos ahora que tenemos la libertad de repetir los elementos del conjunto
para formar un subconjunto de tama no r, obtendremos una combinacion con repeticion
de r elementos tomados de entre n. En una de estas combinaciones cada uno de los n
elementos del conjunto puede aparecer 0, 1, 2, 3, . . ., hasta r veces. Cada combinacion
puede ser descrita por una n-upla de n umeros que indica cu antas veces aparece el elemento
1, el 2, y as hasta el n. Evidentemente, la suma de las cifras de cada n-upla es r, puesto
que cada combinacion consta de r elementos. El n umero total de n-uplas tales que la
suma de sus elementos sea r es el n umero de posibles combinaciones con repeticion y lo
que deseamos calcular.
Olvidemonos por el momento de las combinaciones y pensemos en los siguientes
problemas:
Introducimos r bolas identicas en n cajas. Cuantas conguraciones nales distintas
podramos reconocer?
Cuantas soluciones distintas tiene la ecuacion k
1
+k
2
+ +k
n
= r si cada k
i
debe
ser un n umero natural o 0?
Estos dos problemas aparentemente distintos son, en realidad, equivalentes. Supon-
gamos r bolas iguales y n cajas. Las introducimos y contamos cu antas bolas han cado en
la primera caja, cu antas en la segunda, la tercera y la cuarta. Cada conguraci on nos da
una n-upla de n umeros (k
1
, k
2
, . . . , k
n
) que resuelve el segundo problema.
Observese, llegados a este punto, que el n umero de conguraciones distintas que
obtenemos al introducir r bolas en n cajas y el n umero de combinaciones que buscabamos
coinciden: ambas son el n umero de n-uplas (k
1
, k
2
, . . . , k
n
) tales que la suma

n
i=1
k
i
= r.
Vamos a calcular este n umero empleando un sencillo y original argumento para el problema
de las bolas y las cajas.
Supongamos las n cajas colocadas una a continuacion de la otra y pegadas entre s.
Representaremos las bolas mediante asteriscos y las cajas como los n espacios comprendi-
dos entre n+1 barras (las paredes de las cajas). Por ejemplo, la secuencia | |||| || |
indica una manera de introducir 6 bolas en 7 cajas con el resultado de 3 en la primera,
2 en la quinta y 1 en la septima. Cada secuencia que representemos empieza y termina
por una barra vertical, pero las restantes n1 barras y r asteriscos aparecen en un orden
arbitrario. Por lo tanto, el n umero de conguraciones distinguibles es igual al n umero de
formas de seleccionar r lugares de n + r 1 posiciones posibles, es decir:
2 Analisis combinatorio 17
CR
n,r
=
(n + r 1)!
(n 1)! r!
=
_
n + r 1
r
_
Otro ejemplo clasico que puede reducirse al de introducir r bolas en n cajas: Cu antas
derivadas parciales de orden r diferentes existen para una funcion analtica de n variables
f(x
1
, x
2
, . . . , x
n
)?
Por ser una funcion analtica, las derivadas parciales de orden r no dependen del
orden de la derivacion, sino solo del n umero de veces que cada variable aparece. Si identi-
camos cada variable con una celda, cada conguracion obtenida al introducir r bolas nos
da, de nuevo, una derivada posible de orden r. Hay, por tanto CR
n,r
derivadas distintas
de f.
18 Estadstica
C
O
M
B
I
N
A
T
O
R
I
A
/
/
/
/
/
/
/
/
/
/
/
/
\
\
\
\
\
\
\
\
\
\
\
\1
i
n
t
e
r
v
i
e
n
e
e
l
o
r
d
e
n
.
.
.
.
`
`
`
`
p
u
e
d
o
r
e
p
e
t
i
r
/
/
/
/
/
/
/
/
`
`
`
`
`
`
`
`*
p
u
e
d
o
r
e
p
e
t
i
r
.
.
.
.
`
`
`
`
c
o
j
o
t
o
d
o
s
m
e
d
i
c
e
n
c
u
a
n
t
a
s
v
e
c
e
s
s
e
r
e
p
i
t
e
c
a
d
a
u
n
o
.
.
.
.
`
`
`
`
n
o
s
i
n
o
s
i
n
o
s
i
n
o
s
i
n
o
s
i
C
n
,
r
=
_
n r
_
=
n
!
r
!
(
n

r
)
!
C
R
n
,
r
=
_
n
+
r

1
r
_
=
(
n
+
r

1
)
!
r
!
(
n

1
)
!
V
n
,
r
=
n

(
n

1
)

(
n

r
+
1
)
P
n
=
n
!
V
R
n
,
r
=
n
r
P
R
n
1
,
n
2
,
.
.
.
,
n
r
n
=
n
!
n
1
!

n
2
!

n
r
!
3

Algebra
de sucesos

Indice
3.1. Experimento aleatorio . . . . . . . . . . . . . . . . . . . . . . . 20
3.2. Sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3. Operaciones con sucesos . . . . . . . . . . . . . . . . . . . . . . 21
3.3.1. Union de sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.2. Intersecci on de sucesos . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.3. Propiedades de la uni on y la intersecci on . . . . . . . . . . . . 21
3.3.4. Diferencia de sucesos . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.5. Suceso complementario . . . . . . . . . . . . . . . . . . . . . . 22
19
20 Estadstica
3.1. Experimento aleatorio
Por experimento entenderemos cualquier acci on que pueda dar lugar a resultados
identicables. Suponemos que podemos repetir el experimento gran n umero de veces bajo
las mismas condiciones, y que todos los posibles resultados son conocidos antes de la
realizaci on del mismo.
Si los resultados del experimento pueden ser distintos y no se sabe cu al de ellos
aparecer a al nal, el experimento se llamar a aleatorio. Si el resultado del experimento es
conocido de antemano, se llamar a determinista.
3.2. Sucesos
Llamaremos sucesos elementales de un experimento a un conjunto de resultados
posibles que cumplen:
1. Siempre ocurre alguno de ellos
2. Son mutuamente excluyentes, es decir, la ocurrencia de uno de ellos implica la no
ocurrencia de los demas
Llamaremos espacio muestral, E, al conjunto de todos los posibles resultados de un
experimento aleatorio. Si, por ejemplo, el experimento consiste en lanzar una moneda dos
veces, el espacio muestral lo forman cuatro sucesos elementales, E = {c c, c +, +c, ++}.
En un experimento aleatorio podemos estar interesados no en un suceso elemental,
sino en un conjunto de sucesos elementales, conjunto que llamaremos suceso compuesto,
es decir, un subconjunto del espacio muestral (que se obtiene mediante la uni on de sucesos
elementales). En el ejemplo anterior, un suceso compuesto sera obtener exactamente una
cara, S = {c +, +c}
Si el unico resultado que interesa del experimento es el mismo espacio muestral E,
estamos ante el suceso seguro; mientras que si el resultado deseado es no obtener ninguno
de los sucesos contenidos en E, tenemos el suceso imposible.
3

Algebra de sucesos 21
3.3. Operaciones con sucesos
3.3.1. Union de sucesos
Dados n sucesos S
1
, S
2
, . . . , S
n
, la operacion union de ellos
_
n
_
i=1
S
i
_
es otro suceso
constituido por los elementos comunes y no comunes a los sucesos S
1
, S
2
, . . . , S
n
. Es decir,
un suceso que aparece cuando tiene lugar S
1
o S
2
o o S
n
.
3.3.2. Interseccion de sucesos
Dados n sucesos S
1
, S
2
, . . . , S
n
, la operacion interseccion de ellos
_
n

i=1
S
i
_
es otro
suceso constituido por los elementos comunes a los sucesos S
1
, S
2
, . . . , S
n
. Es decir, un
suceso que aparece cuando tiene lugar S
1
y S
2
y y S
n
.
Cuando n sucesos no tienen ning un elemento com un, su interseccion es igual al
suceso vaco
_
n

i=1
S
i
=
_
, y se dice que los sucesos son disjuntos o incompatibles. Como
caso particular, n sucesos son disjuntos dos a dos si S
i
S
j
= i = j.
Si n sucesos son disjuntos dos a dos y la union de todos ellos es el espacio muestral,
_
n
_
i=1
S
i
= E
_
, se dice que los sucesos S
i
forman una particion del espacio muestral E.
La denici on de partici on se puede ampliar a un conjunto numerable de sucesos disjuntos
dos a dos y tales que

_
i=1
S
i
= E.
3.3.3. Propiedades de la uni on y la interseccion
Conmutativa
S
1
S
2
= S
2
S
1
S
1
S
2
= S
2
S
1
Asociativa
S
1
(S
2
S
3
) = (S
1
S
2
) S
3
S
1
(S
2
S
3
) = (S
1
S
2
) S
3
Distributiva
S
1
(S
2
S
3
) = (S
1
S
2
) (S
1
S
3
)
S
1
(S
2
S
3
) = (S
1
S
2
) (S
1
S
3
)
22 Estadstica
3.3.4. Diferencia de sucesos
Dados dos sucesos S
1
y S
2
, la operacion diferencia (S
1
S
2
) es el suceso integrado
por los elementos de S
1
que no pertenecen a S
2
. Es decir, el suceso que tiene lugar cuando
sucede S
1
y no sucede S
2
. La operacion diferencia no goza de la propiedad conmutativa,
pues, en general, S
1
S
2
= S
2
S
1
.
3.3.5. Suceso complementario
El complementario de un suceso S, que notaremos por

S, es la diferencia entre el
espacio muestral, E, y el suceso S, es decir

S = E S. Es el suceso compuesto por los
elementos de E que no pertenecen a S.
Se comprueba facilmente que S

S = E, S

S = y

S = S
Leyes de De Morgan
_
n
_
i=1
S
i
_
=
n

i=1

S
i
_
n

i=1
S
i
_
=
n
_
i=1

S
i
4
Teora de
la probabilidad

Indice
4.1. Concepto de probabilidad . . . . . . . . . . . . . . . . . . . . . 24
4.1.1. Probabilidad clasica . . . . . . . . . . . . . . . . . . . . . . . . 24
4.1.2. Probabilidad frecuentista . . . . . . . . . . . . . . . . . . . . . 24
4.1.3. Axiom atica del calculo de probabilidades . . . . . . . . . . . . 26
4.1.3.1.

Algebra de sucesos . . . . . . . . . . . . . . . . . . . . 26
4.1.4. Axiom atica de Kolmogorov . . . . . . . . . . . . . . . . . . . . 28
4.2. Teoremas del calculo de probabilidades . . . . . . . . . . . . . 29
4.3. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . 31
4.3.1. Regla de la multiplicaci on . . . . . . . . . . . . . . . . . . . . . 32
4.3.2. Teorema de la probabilidad total . . . . . . . . . . . . . . . . . 33
4.3.3. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.4. Independencia de sucesos . . . . . . . . . . . . . . . . . . . . . . 34
23
24 Estadstica
4.1. Concepto de probabilidad
4.1.1. Probabilidad clasica
Laplace dene la probabilidad de un suceso como el cociente entre el n umero de casos
favorables y el n umero de casos posibles, siempre que todos sean igualmente posibles.
De la denici on clasica de probabilidad se desprenden una serie de propiedades (S
denota cualquier suceso ya sea compuesto o elemental):
P(S) 0
P(S) 1
Si tenemos dos sucesos disjuntos S
1
y S
2
, y su union es S = S
1
S
2
, entonces
P(S) = P(S
1
S
2
) = P(S
1
) + P(S
2
)
Si

S es el suceso complementario de S, entonces P(

S) = 1 P(S)
La probabilidad clasica supone que el n umero de casos posibles sea nito.
4.1.2. Probabilidad frecuentista
Esta teora se basa en dos aspectos fundamentales :
La estabilidad de las frecuencias o regularidad estadstica :
En un experimento aleatorio, a pesar del comportamiento irregular de los
resultados individuales, los resultados promedios, en largas sucesiones de
experimentos aleatorios, muestran una sorprendente regularidad.
La objetividad de la probabilidad
La probabilidad es una propiedad fsica de los objetos como la densidad,
la temperatura, etc, y por tanto, medible.
4 Teora de la probabilidad 25
Si realizamos un experimento N veces, el n umero de veces, n, que ocurre un suceso
particular, S, es su frecuencia absoluta, mientras que la frecuencia relativa se dene como
f(S) = n/N. As, la teora frecuentista dene la probabilidad del suceso S como el lmite
P(S) = lm
N
f(S) = lm
N
n
N
Las frecuencias relativas verican una serie de propiedades f acilmente demostrables:
0 f(S) 1
Sean S
1
, S
2
, . . . , S
n
sucesos disjuntos dos a dos y S =
n
_
i=1
S
i
, entonces
f(S) =
n
N
=
1
N
n

i=1
n
i
=
n

i=1
n
i
N
=
n

i=1
f(S
i
)
Por todo ello, al identicar la probabilidad de un suceso con el valor tomado en el
lmite por la frecuencia relativa, se admite que
0 P(S) 1 y P(S) =
n

i=1
P(S
i
)
Para poder denir la probabilidad frecuentista, debemos imponer dos condiciones
1. En la secuencia de observaciones, existe el lmite de las frecuencias relativas (prin-
cipio de existencia del lmite).
2. Considerada aleatoriamente cualquier subsecuencia dentro del colectivo, existe en
ella el lmite de la frecuencia relativa y es igual al obtenido en todo el colectivo
(principio de aleatoriedad).
Al igual que la teora clasica, esta teora tambien tiene sus inconvenientes :
Del principio de existencia del lmite se deduce que esta teora de la probabilidad
no puede aplicarse a sucesos que no puedan repetirse.
Es necesario realizar el experimento para obtener la frecuencia relativa corres-
pondiente al suceso en cuestion.
Habra que realizar el experimento innitas veces para calcular el lmite, pues las
reglas del calculo de lmites solo son aplicables a sucesiones no aleatorias, donde
se supone que existe un termino general.
26 Estadstica
4.1.3. Axiomatica del calculo de probabilidades
Las limitaciones de las teoras clasica y frecuentista de la probabilidad hacen im-
posible la formalizacion matem atica de la asignaci on de un modelo matem atico a la pro-
babilidad, consiguiendose este con el planteamiento axiom atico de Kolmogorov (1933), al
poner en relaci on la teora de la probabilidad con la de conjuntos y con la teora de la
medida.
El planteamiento de Kolmogorov presenta la limitacion de no proporcionar un meto-
do pr actico de obtencion de probabilidades de sucesos en el mundo real. Para salvar esta
importante limitacion, Kolmogorov establece la conexi on del modelo matem atico con el
mundo real recurriendo a la base emprica de la teora frecuentista, al considerar que si un
experimento aleatorio se repite gran n umero de veces, la frecuencia relativa de un suceso
diferir a ligeramente de la probabilidad del suceso.
4.1.3.1.

Algebra de sucesos
En el experimento del dado, el espacio muestral es el conjunto E = {1, 2, 3, 4, 5, 6},
pudiendo plantearse preguntas como : que probabilidad hay de obtener el n umero 5 en
una tirada? En la pregunta, el suceso es 5, uno de los sucesos elementales constitutivos del
espacio muestral E. Sin embargo, existen otras muchas preguntas en las que se formulan
sucesos compuestos, como la obtencion de : {n umero par}, {n umero distinto de 5}, etc.
Todos estos sucesos compuestos tienen un denominador com un : no guran explcitamente
en el espacio muestral E, aunque proceden de los elementos constitutivos de el. Esto tiene
como consecuencia que el n umero de sucesos que pueden plantearse en un experimento
aleatorio es superior al de sucesos elementales integrantes de E, y son generados desde
E mediante las operaciones de union, interseccion y complementariedad, constituyendo
todos ellos un nuevo conjunto denominado algebra.
Lo anterior puede formalizarse de la siguiente manera : sea E el espacio muestral in-
tegrado por sucesos elementales. Sea A una coleccion de subconjuntos de E, cumpliendose
las siguientes condiciones :
1. El espacio muestral, E, pertenece a A.
2. Si un suceso S pertenece a A, tambien pertenece su complementario

S. Como
consecuencia, el conjunto vaco, , pertenece a A.
4 Teora de la probabilidad 27
3. Si S
1
y S
2
son dos subconjuntos de A, su union, S
1
S
2
, pertenece a A; y por
tanto tambien su interseccion, S
1
S
2
.
La coleccion de sucesos que cumple las tres condiciones se denomina algebra de
Boole, siendo extensible a cualquier n umero nito de sucesos, sin m as que reiterar las
operaciones de union e interseccion.
Si en vez de tener n sucesos tenemos una sucesion numerable, S
1
, S
2
, . . . , S
n
, . . . ,
pertenecientes a A, entonces

_
i=1
S
i
y

i=1
S
i
tambien pertenecen a A, la colecci on recibe
el nombre de -algebra, que representaremos por . El par (E, ) recibe el nombre de
espacio probabilizable o medible.
Mediante dos ejemplos podremos apreciar con claridad la formaci on de una -algebra
de sucesos, , a partir de los elementos de un espacio muestral, E.
En el primer caso tenemos el espacio muestral E = {1, 2, 3} y como -algebra , la
-algebra completa que puede generarse desde el :
E
1
2
3

{ning un elemento}={}
{1}
{2}
{3}
{no obtener el 1}={{2} {3}}
{no obtener el 2}={{1} {3}}
{no obtener el 3}={{1} {2}}
{cualquier elemento}={E}
En el segundo ejemplo hemos elegido como -algebra de interes el n umero de
caras resultante de lanzar una moneda dos veces :
E
c c
c +
+c
++

{ning un elemento}={}
{2 caras}={c c}
{como mnimo una cara}={{c c} {c +} {+c}}
{como m aximo una cara}={{c +} {+c} {++}}
{1 cara}={{c +} {+c}}
{no obtener una cara}={{c c} {++}}
{0 caras}={++}
{cualquier elemento}={E}
28 Estadstica
4.1.4. Axiomatica de Kolmogorov
El sistema axiom atico de Kolmogorov consta de tres axiomas :
A1. Si S es un suceso de una -algebra, , existe un n umero P(S) 0, denominado
probabilidad del suceso S
A2. P(E) = 1
A3. Dada una sucesion numerable de sucesos S
1
, S
2
, . . . , S
n
, . . ., disjuntos dos a dos,
se verica que
P(

_
i=1
S
i
) =

i=1
P(S
i
)
La tripleta (E, , P) se conoce como espacio probabilstico.
Ampliamos el doble ejemplo de espacio probabilizable (E, ) para disponer del es-
pacio probabilstico (E, , P).
En el primer caso, suponemos que P(1) = 3/12, P(2) = 4/12 y P(3)=5/12
E P
1
2
3

{ning un elemento}={}
{1}
{2}
{3}
{no obtener el 1}={{2} {3}}
{no obtener el 2}={{1} {3}}
{no obtener el 3}={{1} {2}}
{cualquier elemento}={E}

0
3/12
4/12
5/12
9/12
8/12
7/12
1
4 Teora de la probabilidad 29
En el segundo ejemplo, se supone que P(c c) = P(c +) = P(+c) = P(++) = 1/4
E P
c c
c +
+c
++

{ning un elemento}={}
{2 caras}={c c}
{como mnimo una cara}={{c c} {c +} {+c}}
{como m aximo una cara}={{c +} {+c} {++}}
{1 cara}={{c +} {+c}}
{no obtener una cara}={{c c} {++}}
{0 caras}={++}
{cualquier elemento}={E}

0
1/4
3/4
3/4
2/4
2/4
1/4
1
4.2. Teoremas del calculo de probabilidades
TEOREMA 1.
La probabilidad del suceso imposible es cero : P() = 0
Sea una sucesion de sucesos disjuntos dos a dos S
1
, . . . , S
n
, . . . , todos ellos iguales
al suceso imposible (S
i
= ). Seg un el tercer Axioma P
_

_
i=1
S
i
_
=

i=1
P(S
i
), es decir
P() =

i=1
P(), y por el Axioma 1, debe ser P() = 0
TEOREMA 2.
La probabilidad de la union de n sucesos disjuntos dos a dos, S
1
, . . . , S
n
,
es igual a la suma de las probabilidades :
P
_
n
_
i=1
S
i
_
=
n

i=1
P(S
i
)
Consideremos la sucesion numerable S
1
, . . . , S
n
, S
n+1
, S
n+2
, . . . , siendo los sucesos
S
n+1
= , S
n+2
= , . . . Seg un el tercer Axioma
P
_

_
i=1
S
i
_
=

i=1
P(S
i
)
es decir,
P
_

_
i=1
S
i
_
= P
__
n
_
i=1
S
i
_

_

_
i=n+1
S
i
__
= P
__
n
_
i=1
S
i
__
=

i=1
P(S
i
) =
n

i=1
P(S
i
)
TEOREMA 3.
La probabilidad de la union de dos sucesos cualesquiera, S
1
y S
2
viene
dada por P(S
1
S
2
) = P(S
1
) + P(S
2
) P(S
1
S
2
)
Descomponemos los sucesos S
1
S
2
, S
1
y S
2
en uniones de sucesos disjuntos :
30 Estadstica
S
1
S
2
= (S
1


S
2
) (

S
1
S
2
) (S
1
S
2
)
S
1
= (S
1


S
2
) (S
1
S
2
)
S
2
= (

S
1
S
2
) (S
1
S
2
)
por el teorema 2,
P(S
1
S
2
) = P(S
1


S
2
) + P(

S
1
S
2
) + P(S
1
S
2
)
P(S
1
) = P(S
1


S
2
) + P(S
1
S
2
)
P(S
2
) = P(

S
1
S
2
) + P(S
1
S
2
)
por tanto,
P(S
1
S
2
) = P(S
1
) + P(S
2
) P(S
1
S
2
)
Para n sucesos :
P
_
n
_
i=1
S
i
_
=
n

i=1
P(S
i
)
n

i<j
P(S
i
S
j
) +
n

i<j<k
P(S
i
S
j
S
k
) +
+ + (1)
n+1
P(S
1
S
2
S
n
)
TEOREMA 4.
Si un suceso S
1
esta contenido en otro S, (S
1
S), se verica que
P(S
1
) P(S)
Descomponemos el suceso S en la union de dos sucesos disjuntos
S = (S
1
S) (

S
1
S)
por el teorema 2,
P(S) = P(S
1
S) + P(

S
1
S)
Por el Axioma 1, P(

S
1
S) 0, por tanto P(S) P(S
1
S), pero S
1
S = S
1
,
con lo que P(S
1
) P(S)
TEOREMA 5.
La probabilidad de cualquier suceso es menor o igual que la unidad :
P(S) 1
Todo suceso, S, esta contenido en el suceso seguro (S E), por tanto P(S)
P(E) 1
TEOREMA 6.
La probabilidad del suceso complementario

S es P(

S) = 1 P(S)
Siendo S y

S disjuntos y tales que S

S = E, se tiene que
P(E) = P(S) + P(

S) = 1 P(

S) = 1 P(S)
4 Teora de la probabilidad 31
4.3. Probabilidad condicional
Consideremos las dos situaciones siguientes : acertar si la puntuaci on resultante de
lanzar un dado perfecto es 2, o acertarla sabiendo que ha salido un n umero par. No cabe
duda que las dos situaciones son distintas en cuanto a nuestra certidumbre de ganar, pues
parece m as facil lograrlo en la segunda que en la primera. Este planteamiento conduce a un
nuevo tipo de sucesos denominados condicionados, y de aqu a la probabilidad condicional.
En el ejemplo anterior, la probabilidad de obtener un 2 es 1/6. Si sabemos que ha
salido un n umero par, la probabilidad de que sea 2 es 1/3. La diferencia en el valor de
la probabilidad se debe a que tenemos m as informacion en el segundo caso. El efecto
de la informacion se centra en el espacio muestral. Si no existe ninguna informacion, el
espacio muestral es E = {1, 2, 3, 4, 5, 6}, y si existe informacion, el espacio muestral se
reduce a E = {2, 4, 6}. En esta situaci on, el conocimiento del suceso {par} condiciona la
probabilidad de obtener el suceso {n umero 2}, denominando al primero condicionante y
al segundo condicionado, y designandolo por {n umero 2/par}. Establecida la existencia
de los sucesos condicionados, pasamos a su estudio.
Dados dos sucesos S
1
y S, el suceso S
1
esta condicionado por el suceso S si la proba-
bilidad de que suceda S
1
depende de que haya sucedido S, y la probabilidad condicional
se dene como
P(S
1
/S) =
P(S
1
S)
P(S)
siempre que P(S) > 0.
Hemos visto que la consecuencia de disponer de la informacion proporcionada por el
conocimiento de la presencia del suceso S, radica en la modicaci on del espacio muestral
E, dando lugar a un nuevo espacio muestral E
S
= E S. Este espacio muestral genera, a
su vez, una nueva -algebra
S
= S y teniendo, por ultimo, una nueva probabilidad
sobre
S
, que denominaremos P
S
y que ya hemos denido como P
S
(S
1
) = P(S
1
/S). El
espacio probabilstico resultante es (S,
S
, P
S
), siempre que P(S) > 0.
Para concluir que P
S
es realmente una probabilidad, debemos comprobar que verica
los tres axiomas de Kolmogorov.
1 P
S
(S
1
) 0
Seg un la denici on de probabilidad condicional,
P
S
(S
1
) = P(S
1
/S) =
P(S
1
S)
P(S)
y por el Axioma 1, P(S
1
S) 0 y P(S) > 0, por tanto, P
S
(S
1
) 0
32 Estadstica
2 P
S
(E
S
) = 1
P
S
(E
S
) = P(E
S
/S) =
P(E
S
S)
P(S)
=
P(S)
P(S)
= 1
3 P
S
_

_
i=1
S
i
_
=

i=1
P
S
(S
i
) siendo los S
i
disjuntos dos a dos
Por la propiedad distributiva,
_

_
i=1
S
i
_
S =

_
i=1
(S
i
S)
por tanto,
P
S
_

_
i=1
S
i
_
= P
_

_
i=1
S
i
/S
_
=
P
__

_
i=1
S
i
_
S
_
P(S)
=
P
_

_
i=1
(S
i
S)
_
P(S)
=
=

i=1
P(S
i
S)
P(S)
=

i=1
P(S
i
S)
P(S)
=

i=1
P(S
i
/S) =

i=1
P
S
(S
i
)
La denici on de probabilidad condicional se extiende facilmente a mas de dos suce-
sos. Por ejemplo, para tres sucesos S
1
, S
2
y S
3
, tenemos
P(S
1
/S
2
S
3
) =
P(S
1
S
2
S
3
)
P(S
2
S
3
)
P(S
1
S
2
/S
3
) =
P(S
1
S
2
S
3
)
P(S
3
)
4.3.1. Regla de la multiplicaci on
Dados n sucesos, S
1
, . . . , S
n
, se verica
P
_
n

i=1
S
i
_
= P(S
1
)P(S
2
/S
1
)P(S
3
/S
1
S
2
) P(S
n
/S
1
S
2
S
n1
)
Demostramos este teorema por inducci on. Comenzamos con dos sucesos S
1
y S
2
P(S
2
/S
1
) =
P(S
1
S
2
)
P(S
1
)
P(S
1
S
2
) = P(S
1
)P(S
2
/S
1
)
Pasamos a tres sucesos S
1
, S
2
y S
3
P(S
3
/S
1
S
2
) =
P(S
1
S
2
S
3
)
P(S
1
S
2
)
=
P(S
1
S
2
S
3
)
P(S
1
)P(S
2
/S
1
)

4 Teora de la probabilidad 33
P(S
1
S
2
S
3
) = P(S
1
)P(S
2
/S
1
)P(S
3
/S
1
S
2
)
y as sucesivamente
4.3.2. Teorema de la probabilidad total
Dados un suceso A y n sucesos, S
1
, . . . , S
n
, disjuntos dos a dos, S
i
S
j
= , tales que
n
_
i=1
S
i
= E, y A S
i
= i, se verica
P(A) =
n

i=1
P(A/S
i
)P(S
i
)
Para la demostracion de este teorema, descomponemos el suceso A de la siguiente
forma
A = A E = A
_
n
_
i=1
S
i
_
=
n
_
i=1
(A S
i
)
Tomando probabilidades, y teniendo en cuenta que los sucesos {AS
i
} son disjuntos dos
a dos,
P(A) = P
_
n
_
i=1
(A S
i
)
_
=
n

i=1
P(A S
i
) =
n

i=1
P(A/S
i
)P(S
i
)
4.3.3. Teorema de Bayes
Dados un suceso A y n sucesos, S
1
, . . . , S
n
, disjuntos dos a dos, S
i
S
j
= , tales que
n
_
i=1
S
i
= E, y A S
i
= i, se verica
P(S
i
/A) =
P(A/S
i
)P(S
i
)
n

i=1
P(A/S
i
)P(S
i
)
Por la denici on de probabilidad condicional
P(A/S
i
) =
P(A S
i
)
P(S
i
)
P(S
i
/A) =
P(A S
i
)
P(A)
Por tanto,
P(A S
i
) = P(S
i
/A)P(A) = P(A/S
i
)P(S
i
) P(S
i
/A) =
P(A/S
i
)P(S
i
)
P(A)
34 Estadstica
y, del teorema de la probabilidad total resulta
P(S
i
/A) =
P(A/S
i
)P(S
i
)
n

i=1
P(A/S
i
)P(S
i
)
4.4. Independencia de sucesos
Consideremos el siguiente ejemplo. Una urna contiene 8 bolas blancas y 4 bolas
negras. Se extraen consecutivamente dos bolas, y queremos determinar la probabilidad de
que la segunda bola sea blanca. Para calcular esta probabilidad, debemos diferenciar los
dos tipos de extracci on, con o sin reemplazamiento.
Cuando realizamos la extracci on sin reemplazamiento, la probabilidad buscada es-
tar a condicionada por el color de la primera bola. Es decir, si la primera bola sacada
es blanca, la probabilidad de que la segunda tambien lo sea es 7/11, mientras que si la
primera bola es negra, la probabilidad de que la segunda sea blanca es 8/11.
Si realizamos la extracci on con reemplazamiento, la probabilidad de que la segunda
bola sea blanca es 8/12, sea cual sea el color de la primera bola sacada.
En el primer caso, el color de la segunda bola esta condicionado por el color de la
primera bola (sucesos condicionados), mientras que en la extraccion con reemplazamien-
to, el color de la segunda bola es independiente del color de la primera bola (sucesos
independientes).
Dos sucesos, S
1
y S
2
, son independientes si
P(S
1
S
2
) = P(S
1
)P(S
2
)
es decir, cuando P(S
1
/S
2
) = P(S
1
) y P(S
2
/S
1
) = P(S
2
)
En el caso de tres sucesos, S
1
, S
2
, S
3
, para que sean independientes, han de cumplirse
las cuatro condiciones siguientes
P(S
1
S
2
) = P(S
1
)P(S
2
)
P(S
1
S
3
) = P(S
1
)P(S
3
)
P(S
2
S
3
) = P(S
2
)P(S
3
)
P(S
1
S
2
S
3
) = P(S
1
)P(S
2
)P(S
3
)
El cumplimiento de las tres primeras condiciones no implica el de la cuarta. Los
sucesos que cumplen solo las tres primeras condiciones reciben el nombre de sucesos
independientes dos a dos.
4 Teora de la probabilidad 35
Propiedad. Si S
1
y S
2
son dos sucesos independientes. Entonces,
S
1
y

S
2
son independientes (

S
1
y

S
2
son independientes)
Descomponemos el suceso S
1
en union de dos sucesos disjuntos,
S
1
= (S
1


S
2
) (S
1
S
2
)
entonces
P(S
1
) = P(S
1


S
2
) + P(S
1
S
2
) = P(S
1


S
2
) + P(S
1
)P(S
2
)
P(S
1


S
2
) = P(S
1
) P(S
1
)P(S
2
) = P(S
1
)[1 P(S
2
)] = P(S
1
)P(

S
2
)
36 Estadstica
5
Variable aleatoria
unidimensional

Indice
5.1. Variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.1.1. Denici on matem atica . . . . . . . . . . . . . . . . . . . . . . . 38
5.1.2. Denici on intuitiva . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.2. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . 40
5.2.1. Funci on de probabilidad . . . . . . . . . . . . . . . . . . . . . . 40
5.2.2. Funci on de distribucion . . . . . . . . . . . . . . . . . . . . . . 41
5.3. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . 42
5.3.1. Funci on de distribucion y funcion de densidad . . . . . . . . . . 42
5.4. Variable aleatoria mixta . . . . . . . . . . . . . . . . . . . . . . 44
5.5. Transformaciones de variables aleatorias . . . . . . . . . . . . 46
5.5.1. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . 46
5.5.2. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . 48
5.5.3. Transformacion integral . . . . . . . . . . . . . . . . . . . . . . 49
5.6. Distribuciones truncadas . . . . . . . . . . . . . . . . . . . . . . 50
37
38 Estadstica
5.1. Variable aleatoria
5.1.1. Denicion matematica
Dado un espacio probabilstico, (E, , P), pretendemos asignar un n umero a cada
uno de los sucesos elementales, A
i
, del espacio muestral. Es decir, creamos una funcion
X, llamada variable aleatoria, denida en E, que toma valores en R, con la condici on de
que
X
1
(b) = {A
i
E/X(A
i
) b}
siendo b = (x, y) o [x, y] o (x, y] o [x, y) o [x, x] con x, y + es decir, b es un
subconjunto de la -algebra completa de R, llamada -algebra de Borel.
Veamos un par de ejemplos. Consideremos el experimento de lanzar una moneda
dos veces. Entonces
E = {{c, c}, {c, +}, {+, c}, {+, +}} = {A
1
, A
2
, A
3
, A
4
}
= {, A
1
, A
4
, A
2
A
3
, A
1
A
2
A
3
, A
4
A
2
A
3
, A
1
A
4
, E} = {S
1
, . . . , S
8
}
Y : E R
A
1
2
A
2
1
A
3
5
A
4
0
X : E R
A
1
2
A
2
1
A
3
1
A
4
0
En el primer caso,
Y
1
((4, 5]) = {A
i
E/4 < Y (A
i
) 5} = A
3
/
por tanto, Y no es una variable aleatoria de este espacio probabilstico (E, , P). En
cambio, si consideramos la algebra completa, Y s es una variable aleatoria para este
nuevo espacio probabilstico.
En el segundo caso, es facil comprobar que
X
1
(b) = {A
i
E/X(A
i
) b} b B
El hecho de que X sea una v.a. de (E, , P) esta directamente relacionado con la
intencion con la que se creo el algebra . Al tomar como sucesos que denen los
sucesos A
1
, A
4
y A
2
A
3
, estamos diciendo que lo que nos interesa del experimento es el
n umero de caras, lo que esta de acuerdo con la losofa de X.
Si el n umero de valores que toma la variable aleatoria es nito o innito numerable,
se dice que es una variable aleatoria discreta. Si toma un n umero innito no numerable
5 Variable aleatoria unidimensional 39
de valores se dice que es continua. Adem as, una v.a. puede ser discreta en un conjunto
numerable de puntos y continua en el resto. En este caso, se dice que es mixta.
5.1.2. Denicion intuitiva
Una variable aleatoria es una regla que asigna a cada suceso un n umero real. Se
puede interpretar, por tanto, como una funcion que toma valores en el espacio muestral E
y devuelve n umeros reales. El uso de variables aleatorias permite, como veremos, cambiar
el algebra de sucesos por el calculo con n umeros reales, facilitando enormemente el manejo
de probabilidades asociadas a experimentos aleatorios.
Al denir una variable aleatoria cada suceso se convierte en un subconjunto de la
recta real (en general un intervalo o un punto). En este sentido, uno de los conceptos
fundamentales es el de sucesos generados por variables aleatorias. Supongamos un ex-
perimento aleatorio con espacio muestral E. Si asignamos a cada suceso elemental un
n umero real (en principio de manera arbitraria) hemos denido una variable aleatoria X.
Manejaremos la notacion
{X x} conjunto union de todos los sucesos de E a los que X asigna un
n umero menor o igual que x.
De la misma manera se pueden denir los conjuntos {x
1
< X x
2
} o {x
1
X x
2
}
o {X x} o {X = x}. Observese que en cada caso hemos convertido un determinado
suceso (puesto que cualquier union de sucesos elementales lo es) en un intervalo o punto de
la recta real. P({X x}) sera entonces la probabilidad de que ocurra el suceso denido
por {X x}. Abusando de la notacion prescindiremos en lo sucesivo de las llaves y
escribiremos P(X x).
Consideremos por ejemplo el experimento de lanzar un dado. El espacio muestral
esta formado por seis sucesos elementales E = {S
i
}
i=1,...,6
donde S
i
valor obtenido en
la tirada es i. Podemos denir una variable aleatoria X asignando al suceso S
i
el n umero
10i. As:
{X 35} = S
1

S
2

S
3
. El suceso representado es que salga 1, 2 o 3.
{20 X 35} = S
2

S
3
. El suceso representado es que salga 2 o 3.
{20 < X 35} = S
2

S
3
. El suceso representado es que salga 3.
{X 5} = . Suceso imposible.
40 Estadstica
{X = 40} = S
4
. El suceso representado es que salga un 4.
{X = 35} = . Suceso imposible.
Las probabilidades asociadas seran: P(X 35) = 1/2, P(20 X 35) = 1/3,
P(20 < X 35) = 1/6, P(X = 5) = 0, P(X = 40) = 1/6, P(X = 35) = 0.
Para el mismo experimento podramos haber denido una variable asignando 0 a los
sucesos S
2
, S
4
y S
6
y 1 a S
1
, S
3
y S
5
. Parece claro que esta ultima variable resultar a util
si solo nos interesa que el resultado del experimento haya sido la obtencion de un n umero
par o uno impar.
5.2. Variable aleatoria discreta
5.2.1. Funci on de probabilidad
Una vez que hemos denido una variable aleatoria, X, podemos denir una funcion,
llamada funci on de probabilidad asociada a X, de la siguiente forma
f : R [0, 1]
x f(x) = P(X = x)
En particular, reriendonos al ejemplo de las dos monedas, tenemos
f : R [0, 1]
2 f(2) = P(X = 2) = P(A
1
) = 1/4
1 f(1) = P(X = 1) = P(A
2
A
3
) = 1/2
0 f(0) = P(X = 0) = P(A
4
) = 1/4
En general, para que una funcion, f, sea la funcion de probabilidad asociada a una
variable aleatoria X, debe cumplir :
i) f(x) 0 x R
ii)

x
f(x) = 1
donde la suma en x en la segunda condici on se realiza sobre todos los posibles valores que
puede tomar la variable aleatoria.
5 Variable aleatoria unidimensional 41
5.2.2. Funci on de distribuci on
Dada una v.a. discreta, X, se llama funcion de distribucion a la funcion F denida
como
F : R [0, 1]
x F(x) = P(X x)
Veamos algunas propiedades de la funcion de distribucion.
1 F() = 0
F() = lm
x
F(x) = lm
x
P(X x) = P() = 0
2 F(+) = 1
F(+) = lm
x+
F(x) = lm
x+
P(X x) = P(E) = 1
3 P(x
1
< X x
2
) = F(x
2
) F(x
1
)
Consideremos los sucesos
A = {X x
2
} B = {X x
1
} C = {x
1
< X x
2
}
como A = B C, siendo B C = , tenemos
P(A) = P(B) + P(C) = F(x
2
) = F(x
1
) + P(x
1
< X x
2
)
es decir,
P(x
1
< X x
2
) = F(x
2
) F(x
1
)
De forma analoga se demuestra :
P(x
1
X x
2
) = F(x
2
) F(x
1
) + P(X = x
1
)
P(x
1
< X < x
2
) = F(x
2
) F(x
1
) P(X = x
2
)
P(x
1
X < x
2
) = F(x
2
) F(x
1
) + P(X = x
1
) P(X = x
2
)
4 F es monotona creciente
Sean x
1
< x
2
, por la propiedad anterior,
F(x
2
) = F(x
1
) + P(x
1
< X x
2
) F(x
1
)
5 F es continua por la derecha
Tenemos que comprobar que, dado > 0, se cumple
lm
0
(F(x + ) F(x)) = 0
42 Estadstica
pero
lm
0
(F(x + ) F(x)) = lm
0
P(x < X x + ) = P() = 0
Si calculamos el lmite por la izquierda,
lm
0
(F(x) F(x )) = lm
0
P(x < X x) = P(X = x)
y, esta probabilidad puede ser cero o no. Por tanto, la funcion de distribuci on, en general,
no es continua por la izquierda. De hecho,
F(x) F(x

) = lm
0
(F(x) F(x )) = P(X = x)
es decir, la probabilidad de que la v.a. discreta X tome un valor concreto es
igual al salto de la funcion de distribucion en ese punto.
Ejemplo.- Sea X una v.a. discreta con funcion de probabilidad
x
i
1 2 3 4
P(X = x
i
) 0.1 0.4 0.2 0.3
La funcion de distribucion asociada es
F(x) =
_

_
0 x < 1
0.1 1 x < 2
0.5 2 x < 3
0.7 3 x < 4
1 x 4
-
6
x
F(x)
r
r
r
r
1 2 3 4
0.1
0.5
0.7
1
5.3. Variable aleatoria continua
5.3.1. Funci on de distribuci on y funcion de densidad
Dada una v.a. continua, X, se llama funcion de distribucion a la funcion absoluta-
mente continua, F, denida como
F : R [0, 1]
x F(x) = P(X x)
5 Variable aleatoria unidimensional 43
Decimos que F es absolutamente continua, si existe una funcion f : R R, no
negativa e integrable Lebesgue tal que
F(x) =
_
x

f(t) dt x R
La funcion f se llama funcion de densidad. En general, una funcion f es funcion de
densidad si verica
i) f(x) 0 x R
ii)
_

f(x) dx = 1
Veamos algunas propiedades de la funcion de distribucion.
1 F() = 0 y F() = 1
2 F es monotona creciente
3 F es continua en R
lm
0
(F(x + ) F(x)) = lm
0
__
x+

f(t) dt
_
x

f(t) dt
_
= lm
0
_
x+
x
f(t) dt
Por ser f integrable en [x, x + ], [inf f, sup f] tal que
_
x+
x
f(t) dt =
(Primer Teorema de la Media). Por tanto,
lm
0
(F(x + ) F(x)) = lm
0
() = 0
La continuidad por la izquierda se demuestra de forma analoga. Por ser F continua,
se cumple
P(X = x) = F(x) F(x

) = 0 x R
por tanto
P(x
1
< X x
2
) = P(x
1
< X < x
2
) = P(x
1
X x
2
) = P(x
1
X < x
2
) =
= F(x
2
) F(x
1
)
Como consecuencia de esta propiedad, al ser la funcion de distribuci on continua
en R, no tiene discontinuidades (saltos), por tanto la probabilidad de que la v.a.
continua X tome un valor concreto es cero (P(X = x) = 0).
4 Si f es continua, entonces F es de clase C
1
y F

(x) = f(x) x R
F

(x) = lm
0
F(x + ) F(x)

= lm
0
1

_
x+
x
f(t) dt
44 Estadstica
Por ser f continua en [x, x + ], x
0
[x, x + ] tal que
_
x+
x
f(t) dt = f(x
0
)
(Primer Teorema de la Media). Por tanto,
F

(x) = lm
0
F(x + ) F(x)

= lm
0
1

f(x
0
) = f(x
0
)
Como x
0
[x, x + ] x
0
= x. La derivabilidad por la izquierda se demuestra de
forma analoga.
Ejemplo.- Sea X una v.a. continua con funcion de densidad
f(x) =
_

_
3
2
x
2
x [1, 1]
0 resto
La funcion de distribucion asociada es
Si x < 1 F(x) =
_
x

f(t) dt =
_
x

0 dt = 0
Si 1 x < 1 F(x) =
_
x

f(t) dt =
_
1

0 dt +
_
x
1
3
2
t
2
dt =
1
2
[x
3
+ 1]
Si x 1 F(x) =
_
x

f(t) dt =
_
1

0 dt +
_
1
1
3
2
t
2
dt +
_
x
1
0 dt = 1
F(x) =
_

_
0 x < 1
1
2
[x
3
+ 1] 1 x < 1
1 x 1
-
6
x
F(x)
-1 1
1
5.4. Variable aleatoria mixta
Una v.a. mixta viene caracterizada por su funcion de distribuci on, denida de igual
forma que en los casos anteriores, que es continua por la derecha, con un n umero de
discontinuidades a lo sumo numerable, pero que no es escalonada. Es decir, en algunos
puntos es discreta (puntos de discontinuidad) y en el resto es continua. Por ejemplo, la
v.a. X con funcion de distribucion
5 Variable aleatoria unidimensional 45
F(x) =
_

_
0 x < 1
(x + 1)
2
+ 1/4 1 x < 1/2
5/8 1/2 x < 1/2
x + 1/4 1/2 x < 3/4
1 x 3/4
-
6
x
F(x)
Z
Z
Z
r
r
r
-1 -1/2 1/2 3/4
1/4
1/2
3/4
1
Para esta v.a. se cumple
1
P(X = 1) = F(1
+
) F(1

) = 1/4 0 = 1/4
P(X = 1/2) = F(1/2
+
) F(1/2

) = 5/8 1/2 = 1/8


P(X = 1/2) = F(1/2
+
) F(1/2

) = 3/4 5/8 = 1/8


P(X = x) = 0 x = 1, 1/2, 1/2
2
P(X = 1)+
_
1/2
1
(2x+2) dx+P(X = 1/2)+
_
1/2
1/2
0 dx+P(X = 1/2)+
_
3/4
1/2
1 dx = 1
46 Estadstica
NOTA: Tanto en el caso de variables discretas como continuas o mixtas, el conocimiento
de la funcion de distribucion (o la de probabilidad o la de densidad) es toda la informacion
que necesitamos para manejar la v.a. y estudiar el experimento para el que ha sido denida.
De hecho estas funciones constituyen la maxima informacion posible acerca de la variable.
5.5. Transformaciones de variables aleatorias
En muchas ocasiones deberemos hacer operacionescon variables aleatorias. Dada
una variable aleatoria X una funcion de ella sera una nueva variable aleatoria Y = u(X).
En esta seccion trataremos de calcular la distribucion de esta nueva variable.
Lo primero que debemos tener en mente es que la aritmetica de las variables
aleatorias no coincide con la de los n umeros reales. Supongamos que lanzamos un dado
y denimos la variable aleatoria X cuyo valor asignado al suceso S
i
( el resultado de
la tirada es i) es i. X toma seis posibles valores {1, 2, 3, 4, 5, 6} seg un la cara que haya
mostrado el dado. Y
1
= 2X es una nueva variable aleatoria que asigna un valor doble al
denido anteriormente para cada suceso elemental. Sin embargo Y
2
= X + X no tiene la
misma interpretaci on. En este caso el dado es lanzado dos veces, sumandose la puntaci on
obtenida en cada tirada. Los posibles valores de Y
1
son {2, 4, 6, 8, 10, 12} mientras que
los de Y
2
son {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}. Para evitar confusiones es conveniente asignar
subndices distintos a las variables que representan cada resultado de un determinado
experimento que se repite varias veces, aun cuando cada una de ellas este denida de la
misma forma. En el caso de lanzar un dado dos veces podemos considerar la variable X
denida anteriormente y obtener los posibles resultados como X
1
+ X
2
donde cada X
i
tiene la misma distribucion de probabilidad que la X.
5.5.1. Variable aleatoria discreta
Sea X una v.a. con funcion de probabilidad f(x) y funcion de distribuci on F(x)
e, Y = u(X) otra v.a. con funcion de probabilidad g(y) y funcion de distribuci on G(y).
Es decir, tenemos una funcion que relaciona a x e y, y = u(x) x = u
1
(y) = w(y).
Entonces
g(y) = P(Y = y) = P(u(X) = y) = P(X = u
1
(y)) = P(X = w(y)) = f[w(y)]
G(y) = P(Y y) = P(u(X) y) = P(X u
1
(y)) = P(X w(y)) = F[w(y)]
En general el paso de una v.a. a otra es sencilla, solo hay que tener cuidado cuando
la funcion u no es biyectiva. Veamos un par de ejemplos para aclarar esto ultimo.
5 Variable aleatoria unidimensional 47
Ejemplo.- Sea X una v.a. con funcion de probabilidad
x
i
-2 -1 0 1 2
P(X = x
i
) 0.1 0.2 0.2 0.4 0.1
La funcion de distribucion de X es
F(x) =
_

_
0 x < 2
0.1 2 x < 1
0.3 1 x < 0
0.5 0 x < 1
0.9 1 x < 2
1 x 2
Sea Y = u(X) = 2X y = u(x) = 2x x = u
1
(y) = w(y) = y/2. Los valores que
toma la v.a. Y son y = {4, 2, 0, 2, 4}. Entonces
g(y) = P(Y = y) = P(2X = y) = P(X = y/2) = f(y/2)
es decir
y
i
-4 -2 0 2 4
P(Y = y
i
) 0.1 0.2 0.2 0.4 0.1
Y, la funcion de distribucion de Y es
G(y) = P(Y y) = P(2X y) = P(X y/2) = F(y/2)
es decir
G(y) =
_

_
0 y < 4
0.1 4 y < 2
0.3 2 y < 0
0.5 0 y < 2
0.9 2 y < 4
1 y 4
Sea ahora Y = u(X) = X
2
. Claramente, la funcion u no es biyectiva. Tenemos
entonces que los valores que toma la v.a. Y son y = {0, 1, 4}, y la funcion de probabilidad
es
g(y) = P(Y = y) = P(X
2
= y) = P ( (X =

y ) (X = +

y ) ) =
= P(X =

y ) + P(X = +

y )
es decir
48 Estadstica
y
i
0 1 4
P(Y = y
i
) 0.2 0.6 0.2
Y, la funcion de distribucion de Y es
G(y) = P(Y y) = P(X
2
y) = P(

y X +

y) =
= P(X =

y) + P(

y < X +

y) =
= f(

y) + F(+

y) F(

y)
es decir
G(y) =
_

_
0 y < 0
0.2 0 y < 1
0.8 1 y < 4
1 y 4
5.5.2. Variable aleatoria continua
Sea X una v.a. con funcion de densidad f(x) y funcion de distribuci on F(x) e,
Y = u(X) otra v.a. con funcion de densidad g(y) y funcion de distribuci on G(y). Es decir,
tenemos una funcion que relaciona a x e y, y = u(x) x = u
1
(y) = w(y). Entonces
G(y) = P(Y y) = P(u(X) y) = P(X u
1
(y)) = P(X w(y)) = F[w(y)]
g(y) = G

(y) = F

[w(y)] |w

(y)| = f[w(y)] |w

(y)|
Igual que en el caso de las v.a. discretas, hay que tener cuidado cuando la funcion
u no es biyectiva. Veamos un par de ejemplos para aclarar esto ultimo.
Ejemplo.- Sea X una v.a. con funciones de densidad y distribuci on
f(x) =
_

_
3
2
x
2
1 x 1
0 resto
F(x) =
_

_
0 x < 1
1
2
[x
3
+ 1] 1 x < 1
1 x 1
Sea Y = u(X) = 2X y = u(x) = 2x x = u
1
(y) = w(y) = y/2. Entonces
5 Variable aleatoria unidimensional 49
G(y) = P(Y y) = P(2X y) = P(X y/2) = F(y/2)
g(y) = G

(y) = F

(y/2)
1
2
= f(y/2)
1
2
es decir,
g(y) =
_

_
3
16
y
2
2 y 2
0 resto
G(y) =
_

_
0 y < 2
1
2
[(y/2)
3
+ 1] 2 y < 2
1 y 2
Sea ahora Y = u(X) = X
2
. Claramente, la funcion u no es biyectiva.
G(y) = P(Y y) = P(X
2
y) = P(

y X +

y ) = F(+

y ) F(

y )
g(y) = G

(y) = F

(+

y )
1
2

y
F

y )
1
2

y
= f(+

y )
1
2

y
+ f(

y )
1
2

y
es decir,
g(y) =
_

_
3
2

y 0 y 1
0 resto
G(y) =
_

_
0 y < 0
y

y 0 y < 1
1 y 1
5.5.3. Transformacion integral
Sea X una v.a. con funcion de distribucion, F, estrictamente creciente. Entonces, la
transformacion biyectiva
Y = F(X)
da lugar a una nueva v.a. con funciones de distribucion y densidad
G(y) = P(Y y) = P(F(X) y) = P(X F
1
(y)) = F(F
1
(y)) = y
g(y) = G

(y) = 1
50 Estadstica
Ejemplo.- Sea X una v.a. con funciones de densidad y distribuci on
f(x) =
_

_
2
3
x 1 x 2
0 resto
F(x) =
_

_
0 x < 1
1
3
[x
2
1] 1 x < 2
1 x 2
Realizamos la transformacion Y =
1
3
[X
2
1], entonces
G(y) = P(Y y) = P
_
1
3
[X
2
1] y
_
= P(X
2
3y + 1) =
= P
_

3y + 1 X +

3y + 1
_
= F
_
+

3y + 1
_
F
_

3y + 1
_
=
= F
_
+

3y + 1
_
g(y) = F

_
3y + 1
_
3
2

3y+1
= f
_
3y + 1
_
3
2

3y+1
=
=
2
3
_
3y + 1
3
2

3y + 1
= 1
es decir,
g(y) =
_
1 0 y 1
0 resto
G(y) =
_

_
0 y < 0
y 0 y < 1
1 y 1
5.6. Distribuciones truncadas
En ocasiones, cuando se estudia el comportamiento de una v.a., resulta conveniente
restringir su campo de variacion a un cierto subconjunto de especial interes, lo que conduce
a un tipo de v.a. llamada variable aleatoria truncada.
Expresado formalmente, sea X una v.a. cuyo campo de variacion es el conjunto E y
su funcion de distribucion es F(x); y sea S un subconjunto de E tal que P(X S) > 0.
El problema consiste en calcular la probabilidad de que X A sabiendo que X S,
siendo A S, es decir calcular la probabilidad del suceso condicionado {X A/X S}.
Para ello, recurrimos a la denici on de probabilidad condicional
P(X A/X S) =
P ((X A) (X S))
P(X S)
5 Variable aleatoria unidimensional 51
En particular, si consideramos el suceso A = {X x} entonces la probabilidad
buscada, P(X x/X S), es la funcion de distribucion truncada de la v.a. X en el
nuevo campo de variacion, S, y la notaremos por F
T
. As,
F
T
(x) P(X x/X S) =
P ((X x) (X S))
P(X S)
Ejemplo.- Sea X una v.a. denida en el intervalo E = [x
i
, x
f
] y con funcion de distribuci on
F. Dados los sucesos S = {x
0
< X x
1
} y A = {X x} (Fig. 5.1), entonces la funcion
de distribucion truncada es
F
T
(x) = P(X A/X S) =
P ((X A) (X S))
P(X S)
=
=
P((X x) (x
0
< X x
1
))
P(x
0
X x
1
)
=
P(x
0
< X x)
P(x
0
< X x
1
)
=
=
F(x) F(x
0
)
F(x
1
) F(x
0
)
, x
0
< x x
1
Si X es discreta, la funcion de probabilidad truncada es
P
T
(X = x) = P(X = x/X S) =
P((X = x) (x
0
< X x
1
))
P(x
0
X x
1
)
=
=
P(X = x)
F(x
1
) F(x
0
)
, x
0
< x x
1
Si X es continua, la funcion de densidad truncada es
f
T
(x) = F

T
(x) =
f(x)
F(x
1
) F(x
0
)
, x
0
< x x
1
x
i
x
0
x
1
x
f
x
E
S
A
Figura 5.1: Esquema para una distribucion truncada
52 Estadstica
6
Momentos de una
variable aleatoria
unidimensional

Indice
6.1. Esperanza matematica . . . . . . . . . . . . . . . . . . . . . . . 54
6.2. Momento de orden k de una variable aleatoria . . . . . . . . . 55
6.3. Varianza y desviaci on tpica . . . . . . . . . . . . . . . . . . . . 56
6.4. Otros valores tpicos . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.5. Coecientes de asimetra y curtosis . . . . . . . . . . . . . . . 58
6.6. Teorema de Markov. Desigualdad de Chebychev . . . . . . . 60
6.7. Funci on generatriz de momentos . . . . . . . . . . . . . . . . . 61
6.8. Funci on caracterstica . . . . . . . . . . . . . . . . . . . . . . . . 62
6.8.1. Cambio de variable en la funcion caracterstica . . . . . . . . . 64
53
54 Estadstica
6.1. Esperanza matematica
Se dene la esperanza matematica o media de una v.a. X como
= E[X] =

i
x
i
P(X = x
i
) v.a. discreta
= E[X] =
_
+

xf(x) dx v.a. continua


De forma m as general, si tenemos una funcion T(X),
E[T(X)] =

i
T(x
i
) P(X = x
i
) v.a. discreta
E[T(X)] =
_
+

T(x)f(x) dx v.a. continua


Si la v.a. es discreta y toma un n umero nito de valores, entonces su esperanza
siempre es nita, pero en el resto de los casos, la esperanza puede no ser nita.
Ejemplo 1.- Sea X una v.a. discreta con funcion de probabilidad
x
n
2
n1
P(X = x
n
) 2
n
Entonces

n=1
P(X = x
n
) =

n=1
1
2
n
=
1/2
1 1/2
= 1
pero,
E[X] =

n=1
x
n
P(X = x
n
) =

n=1
2
n1
1
2
n
=

n=1
1
2
=
Ejemplo 2.- Sea X una v.a. continua con funcion de densidad
f(x) =
_

_
0 x < 1
1
x
2
x 1
Entonces
_
+

f(x) dx =
_
+
1
1
x
2
dx = 1
pero
E[X] =
_
+

xf(x) dx =
_
+
1
x
1
x
2
dx =
6 Momentos de una variable aleatoria unidimensional 55
En general, tomaremos como criterio de convergencia de la esperanza matem atica,
la convergencia absoluta de la serie o la integral, es decir
si

i
|x
i
|P(X = x
i
) <

i
x
i
P(X = x
i
) = E[X] <
si
_
+

|x|f(x) dx <
_
+

xf(x) dx = E[X] <


Veamos algunas propiedades de la esperanza matem atica
La esperanza matem atica de una constante es la misma constante : E[C]=C
E[T
1
(X) + T
2
(X)] = E[T
1
(X)] + E[T
2
(X)]
E[aX + b] = aE[X] + b
6.2. Momento de orden k de una variable aleatoria
Como casos particulares de funcion de una v.a. se pueden tomar las funciones
T
1
(X) = X
k
y T
2
(X) = (X )
k
con k N. De esta forma, se dene el
momento de orden k centrado en el origen de X como
m
k
= E[X
k
] =

i
x
i
k
P(X = x
i
) v.a. discreta
m
k
= E[X
k
] =
_
+

x
k
f(x) dx v.a. continua
y el momento de orden k centrado en la media de X como
M
k
= E[(X )
k
] =

i
(x
i
)
k
P(X = x
i
) v.a. discreta
M
k
= E[(X )
k
] =
_
+

(x )
k
f(x) dx v.a. continua
Se comprueba facilmente que :
m
1
= E[X] =
M
1
= E[X ] = E[X] = 0
56 Estadstica
Adem as, podemos relacionar los momentos centrados en la media con los momentos
centrados en el origen, y viceversa.
M
k
= E[(X )
k
] =

i
(x
i
)
k
P(X = x
i
) =
=

i
__
k
0
_
x
i
k

_
k
1
_
x
i
k1
+
_
k
2
_
x
i
k2

2
+ + (1)
k
_
k
k
_

k
_
P(X = x
i
) =
=
_
k
0
_
m
k

_
k
1
_
m
k1
+
_
k
2
_

2
m
k2
+ + (1)
k
_
k
k
_

k
m
k
= E[X
k
] = E[(X + )
k
] =

i
(x
i
+ )
k
P(X = x
i
) =
=

i
__
k
0
_
(x
i
)
k
+
_
k
1
_
(x
i
)
k1
+ +
_
k
k
_

k
_
P(X = x
i
) =
=
_
k
0
_
M
k
+
_
k
1
_
M
k1
+
_
k
2
_

2
M
k2
+ +
_
k
k
_

k
6.3. Varianza y desviacion tpica
Se dene la varianza de una v.a., X, con media , como

2
= Var(X) = M
2
= E[(X )
2
] =

i
(x
i
)
2
P(X = x
i
) v.a. discreta

2
= Var(X) = M
2
= E[(X )
2
] =
_
+

(x )
2
f(x) dx v.a. continua
Veamos algunas propiedades :
Var(X) = E[X
2
] (E[X])
2
Var(X) =

i
(x
i
)
2
P(X = x
i
) =

i
_
x
i
2
+
2
2x
i

P(X = x
i
) =
=

i
x
i
2
P(X = x
i
) +
2
2

i
x
i
P(X = x
i
) = E[X
2
] +
2
2
2
= E[X
2
] (E[X])
2
Var(aX + b) = a
2
Var(X)
Sea Y = aX + b
Y
= E[Y ] = E[aX + b] = aE[X] + b = a
X
+ b. Entonces
Var(aX + b) = Var(Y ) = E[(Y
Y
)
2
] =
= E[(aX + b a
X
b)
2
] = E[(aX a
X
)
2
] = a
2
E[(X
X
)
2
] = a
2
Var(X)
6 Momentos de una variable aleatoria unidimensional 57
Generalmente, resulta m as pr actico utilizar una medida de la dispersi on de los datos
en las mismas unidades que los propios datos, por ello, se dene la desviacion tpica como
=
_
Var(X)
6.4. Otros valores tpicos
Mediana (Me) : es el punto que divide la distribucion en dos partes de igual probabilidad
v.a. discreta
Me=x
n
R tal que
_

_
P(X x
n
) 1/2
P(X x
n
) 1/2
v.a. continua
Me=x R tal que P(X x) = P(X x) = 1/2
Moda (Mo) : es el punto (o los puntos) de mayor probabilidad.
Mo=x
n
R tal que P(X = x
n
) P(X = x
i
) i v.a. discreta
Mo=x R tal que f(x) f(t) t v.a. continua
Cuantiles : El cuantil de orden p es el valor x
p
de la variable tal que
P(X x
p
) = p (0 < p < 1)
Como casos particulares citamos :
Cuartiles : Son tres valores, Q
n
, tales que
P(X Q
n
) =
n
4
(n = 1, 2, 3)
Deciles : Son nueve valores, D
n
, tales que
P(X D
n
) =
n
10
(n = 1, . . . , 9)
Percentiles : Son 99 valores, P
n
, tales que
P(X P
n
) =
n
100
(n = 1, . . . , 99)
58 Estadstica
Figura 6.1: Funcion de densidad de una distribuci on Normal
6.5. Coecientes de asimetra y curtosis
Una distribucion continua muy utilizada es la llamada distribuci on Normal (Fig.
6.1). En este apartado, pretendemos comparar la distribucion de una v.a. cualquiera, X,
con media E[X] = y varianza Var(X) =
2
, con la distribucion Normal, en dos aspectos :
grado de asimetra y grado de achatamiento.
Una de las propiedades de la distribucion Normal, es que su funcion de densidad es
simetrica respecto a su media. En general, si la distribucion que estamos estudiando es
simetrica respecto a su media, entonces
P(X + x) = P(X x) v.a. discreta
(x > 0)
f( + x) = f( x) v.a. continua
y, es facil comprobar, que los momentos de orden impar centrados en la media son todos
nulos,
M
2n+1
= E[(X )
2n+1
] = 0 n = 0, 1, 2, . . .
Sabemos que M
1
= 0 para toda v.a., por tanto, utilizamos el siguiente momento
m as f acil de calcular, que es M
3
. As, denimos el coeciente de asimetra o sesgo, como
el escalar adimensional
6 Momentos de una variable aleatoria unidimensional 59
Figura 6.2: Asimetra
CA =
M
3

3
=
M
3
M
3/2
2
=

i
(x
i
)
3
P(X = x
i
)
_

i
(x
i
)
2
P(X = x
i
)
_
3/2
v.a. discreta
CA =
M
3

3
=
M
3
M
3/2
2
=
_
+

(x )
3
f(x) dx
__
+

(x )
2
f(x) dx
_
3/2
v.a. continua
de forma que si
_

_
CA = 0 puede ser simetrica
CA > 0 es asimetrica positiva o sesgada a la derecha ( Me)
CA < 0 es asimetrica negativa o sesgada a la izquierda ( Me)
Respecto al grado de achatamiento o apuntamiento, parece l ogico utilizar un coe-
ciente que tenga en cuenta la dispersi on de los datos en torno a la media. En una
distribucion Normal, se cumple
M
4
M
2
2
= 3
y, en general, denimos el coeciente de apuntamiento o curtosis como el escalar adimen-
sional
60 Estadstica
Figura 6.3: Curtosis
CAp =
M
4

4
3 =
M
4
M
2
2
3 =

i
(x
i
)
4
P(X = x
i
)
_

i
(x
i
)
2
P(X = x
i
)
_
2
3 v.a. discreta
CAp =
M
4

4
3 =
M
4
M
2
2
3 =
_
+

(x )
4
f(x) dx
__
+

(x )
2
f(x) dx
_
2
3 v.a. continua
de forma que si
_

_
CAp > 0 distribucion leptoc urtica
CAp = 0 distribucion mesoc urtica
CAp < 0 distribucion platic urtica
6.6. Teorema de Markov. Desigualdad de Chebychev
Sea X una v.a. y g(X) una funcion tal que g(X) 0. Entonces, k > 0 se cumple
P (g(X) k)
E[g(X)]
k
La demostracion es muy sencilla, ya que
E[g(X)] =
_
+

g(x)f(x) dx =
_
g(X)k
g(x)f(x) dx +
_
g(X)<k
g(x)f(x) dx

_
g(X)k
g(x)f(x) dx k
_
g(X)k
f(x) dx = kP(g(X) k)
6 Momentos de una variable aleatoria unidimensional 61
En la pr actica, se utilizan otras versiones de este teorema, como :
P(g(X) < k) = 1 P(g(X) k) 1
E[g(X)]
k
Si g(X) = (X )
2
y k = (k)
2
entonces
P((X )
2
< k
2

2
) 1
E[(X )
2
]
k
2

2
=
P(|X | < k) 1

2
k
2

2
=
P( k < X < + k) 1
1
k
2
que es la desigualdad de Chebychev. La probabilidad de que una v.a., X, tome
un valor dentro de k desviaciones de la media es al menos (1 1/k
2
)
6.7. Funci on generatriz de momentos
La funci on generatriz de momentos asociada a una v.a. X se dene como
g() = E[e
X
] =

i
e
x
i
P(X = x
i
) v.a. discreta
g() = E[e
X
] =
_
+

e
x
f(x) dx v.a. continua
La funcion generatriz de momentos se utiliza, como su nombre indica, para calcular
los momentos de una v.a., ya que
g() = E[e
X
] =
_
+

e
x
f(x) dx =
_
+

_
1 + x +

2
2!
x
2
+ +

n
n!
x
n
+
_
f(x) dx =
= 1 + m
1
+

2
2!
m
2
+ +

n
n!
m
n
+
es decir, si g() admite desarrollo de Taylor en torno a 0, entonces
m
r
=
d
r
g()
d
r

=0
El inconveniente de utilizar la funcion generatriz de momentos es que antes de utili-
zarla, hay que saber si la serie o la integral converge. Para evitar este problema, se dene
la funcion caracterstica, que estudiamos en el siguiente apartado.
62 Estadstica
6.8. Funci on caracterstica
La funci on caracterstica asociada a una v.a. X se dene como
(t) = E[e
itX
] =

k
e
itx
k
P(X = x
k
) v.a. discreta
(t) = E[e
itX
] =
_
+

e
itx
f(x) dx v.a. continua
Veamos algunas de sus propiedades.
1 La funcion caracterstica existe t R
(t) = E[e
itX
] = E[cos(tX) + isen(tX)] = E[cos(tX)] + iE[sen(tX)]
pero
E[|cos(tX)|] =
_
+

|cos(tx)| f(x) dx
_
+

f(x) dx = 1 < +
E[|sen(tX)|] =
_
+

|sen(tx)| f(x) dx
_
+

f(x) dx = 1 < +
por tanto, E[cos(tX)] y E[sen(tX)] son convergentes, y (t) tambien.
2 (0) = 1
3 |(t)| 1
|(t)| = |E[e
itX
]| E[ |e
itX
| ] =
_
+

|e
itx
| f(x) dx =
_
+

f(x) dx = 1
4 (t) = (t)
(t) = E[e
i(t)X
] = E[cos(tX) isen(tX)] = E[cos(tX)] iE[sen(tX)] = (t)
5 Si (t) es la funcion caracterstica asociada a una v.a., X, con funcion de distribuci on
F, y a < b son dos puntos de continuidad de F, entonces
F(b) F(a) =
1
2
lm
T
_
T
T
e
iat
e
ibt
it
(t) dt
siempre que (t) sea integrable. En particular,
F(b) = F(b) 0 = F(b) F() =
1
2
lm
z
lm
T
_
T
T
e
izt
e
ibt
it
(t) dt
6 Si (t) es integrable, y x un punto de continuidad de F, entonces
P(X = x) =
1
2
_
+

e
itx
(t) dt v.a. discreta
f(x) =
1
2
_
+

e
itx
(t) dt v.a. continua
6 Momentos de una variable aleatoria unidimensional 63
7 Si (t) es la funcion caracterstica de una v.a., y admite un desarrollo de Taylor en
torno a 0, entonces
(t) = 1 + im
1
t +
i
2
2!
m
2
t
2
+ +
i
k
k!
m
k
t
k
+
(t) = E[e
itX
] = (0) = 1

(t) = E[iXe
itX
] =

(0) = E[iX] = im
1

(t) = E[i
2
X
2
e
itX
] =

(0) = E[i
2
X
2
] = i
2
m
2
.
.
.
d
r
(t)
dt
r
= E[i
r
X
r
e
itX
] =
d
r
(0)
dt
r
= E[i
r
X
r
] = i
r
m
r
es decir,
m
r
=
1
i
r
d
r
(t)
dt
r

t=0
8 La funcion caracterstica es uniformemente continua en todo intervalo de la recta real.
9 La funcion caracterstica, (t), asociada a una v.a., X, es real si y solo si, X es
simetrica.
10 A toda funcion caracterstica le corresponde una y solo una funcion de distribuci on.
Es decir, si dos v.a. tienen la misma funcion caracterstica, entonces tienen la misma
funcion de distribucion y viceversa.
11 Sean {X
1
, X
2
, . . . , X
n
} n variables aleatorias independientes con funciones carac-
tersticas {
X
1
,
X
2
, . . . ,
Xn
}, e Y = X
1
+ X
2
+ + X
n
. Entonces

Y
(t) =
n

i=1

X
i
(t)
Es necesario resaltar que, a lo largo de este apartado, hemos visto como dada una v.a.
se puede calcular su funcion caracterstica e incluso, a partir de la funcion caracterstica
podemos calcular el valor de la funcion de distribucion asociada, en un punto. En cambio,
en ning un momento hemos dado un criterio para saber, dada una funcion cualquiera, (t),
si es la funcion caracterstica asociada a alguna v.a. Veamos con un par de ejemplos, que
la cosa no es sencilla.
Ejemplo 1.- Sea (t) =
1
1 + t
4
t R
Esta funcion verica las siguientes propiedades tpicas de una funcion caracterstica :
64 Estadstica
esta denida en todo R
(0) = 1
(t) = (t)
es uniformemente continua en R
|(t)| 1
Supongamos que (t) es la funcion caracterstica de una v.a. X. Claramente, (t)
admite un desarrollo de Taylor, por tanto
= m
1
= E[X] =

(0)
i
= 0
Var(X) = E[(X )
2
] = E[X
2
]
2
=

(0)
i
2
= 0
Es decir la v.a. X tiene que ser la v.a. degenerada que toma el valor 0 con probabi-
lidad P(X = 0) = 1. Pero, la funcion caracterstica de esta v.a. degenerada es
(t) = E[e
itX
] =

n
e
itxn
P(x
n
) = e
it0
P(0) = 1
Ejemplo 2.- Sea (t) =
1
2 e
it
t R
Supongamos que (t) es la funcion caracterstica de una v.a., X, discreta. Como
(t) es un sumatorio de una serie de terminos, vamos a suponer que se trata de una serie
de potencias. As,
(t) =

x
e
itx
P(x) =
1
2 e
it
=
1/2
1
1
2
e
it
=
1
er
termino
1 razon
=

x=0
1
2
x+1
e
ixt
es decir, se trata de una v.a. discreta que toma todos los valores enteros no negativos,
x, con P(X = x) =
1
2
x+1
. Si calculamos ahora la funcion caracterstica de esta v.a.,
comprobamos facilmente que es (t).
6.8.1. Cambio de variable en la funcion caracterstica
Sea X una v.a. con funcion caracterstica
X
(t). Realizamos el cambio Y = aX +b,
entonces

Y
(t) = E[e
itY
] = E[e
it(aX+b)
] =
_
+

e
it(ax+b)
f(x) dx =
= e
itb
_
+

e
itax
f(x) dx = e
itb
E[e
i(at)X
] = e
itb

X
(at)
7
Variable aleatoria
bidimensional y
n-dimensional

Indice
7.1. Variable aleatoria bidimensional . . . . . . . . . . . . . . . . . 66
7.2. Variable aleatoria bidimensional discreta . . . . . . . . . . . . 66
7.2.1. Funci on de probabilidad . . . . . . . . . . . . . . . . . . . . . . 67
7.2.2. Funci on de distribucion . . . . . . . . . . . . . . . . . . . . . . 67
7.3. Variable aleatoria bidimensional continua . . . . . . . . . . . . 69
7.3.1. Funci on de distribucion y funcion de densidad . . . . . . . . . . 69
7.4. Variable aleatoria bidimensional condicional . . . . . . . . . . 72
7.4.1. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . 72
7.4.2. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . 73
7.5. Variables aleatorias bidimensionales independientes . . . . . . 75
7.6. Momentos de una variable aleatoria bidimensional . . . . . . 76
7.6.1. Propiedades de las varianzas y la covarianza . . . . . . . . . . . 78
7.6.2. Coeciente de correlaci on lineal . . . . . . . . . . . . . . . . . . 80
7.7. Funci on caracterstica de una variable aleatoria bidimensional 81
7.8. Transformacion de variables aleatorias bidimensionales . . . . 82
7.8.1. Una funcion de dos variables aleatorias . . . . . . . . . . . . . . 82
7.8.2. Dos funciones de dos variables aleaorias . . . . . . . . . . . . . 82
7.8.3. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . 83
7.8.4. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . 83
7.9. Variable aleatoria n-dimensional . . . . . . . . . . . . . . . . . 84
65
66 Estadstica
7.1. Variable aleatoria bidimensional
Cuando el resultado de un experimento aleatorio se traduce en una unica obser-
vacion, tenemos una variable aleatoria unidimensional. Si el resultado del experimento
se materializa en dos observaciones simultaneas, por ejemplo, el peso y la altura de un
colectivo de individuos, estamos ante una variable aleatoria bidimensional (X, Y ).
Expresado formalmente, partimos de un espacio probabilstico (E, , P) y dos va-
riables aleatorias X e Y denidas en el. El vector aleatorio cuyas componentes son X e
Y , se denomina variable aleatoria bidimensional (X, Y ). Este vector aleatorio tendr a un
campo de variacion y una distribucion de probabilidad, que llamaremos conjunta. Por
otra parte, tanto X como Y son v.a. unidimensionales, y tendr an un campo de variacion
y una distribucion de probabilidad que llamaremos marginales.
De nuevo, lo que se pretende es sustituir el algebra de sucesos por el algebra de
n umeros reales y, otra vez, el concepto relevante es el de sucesos generados por variables
aleatorias. Dadas dos variables aleatorias X e Y podemos denir los sucesos conjuntos
{X x, Y y} como:
{X x, Y y} {X x}

{Y y}
De la teora sabemos que el conocimiento de las probabilidades de los dos sucesos
del miembro de la izquierda no basta para calcular la probabilidad de su interseccion.
Solo en el caso en que las dos variables unidimensionales X e Y representen resultados
independientes la probabilidad de la interseccion sera el producto de las probabilidades.
En general, por tanto, la m axima informacion sobre una variable bidimensional no
esta en las distribuciones marginales sino que deberemos conocer la distribuci on conjunta.
En el caso de variables unidimensionales los sucesos se convierten en intervalos de
la recta real y sus probabilidades asociadas pueden calcularse integrando la funcion de
densidad sobre dicho intervalo. Ahora, los sucesos conjuntos se convierten en subconjuntos
de R
2
. La probabilidad asociada a un suceso de este tipo puede calcularse tambien, como
veremos, realizando la correspondiente integraci on en el plano.
7.2. Variable aleatoria bidimensional discreta
Una v.a. bidimensional, (X, Y ), es discreta cuando las v.a. que la componen, X e
Y , son discretas.
7 Variable aleatoria bidimensional y n-dimensional 67
7.2.1. Funci on de probabilidad
Dada una v.a. bidimensional (X, Y ), la funcion de probabilidad conjunta viene dada
por
P(X = x
i
, Y = y
j
) = p
ij
1 i, j +
debiendose cumplir
p
ij
0 i, j

i=1

j=1
P(X = x
i
, Y = y
j
) =

i=1

j=1
p
ij
= 1
Las funciones de probabilidad marginales son:
v.a. X
P(X = x
i
) =

j=1
P(X = x
i
, Y = y
j
) = p
i
1 i +
v.a. Y
P(Y = y
j
) =

i=1
P(X = x
i
, Y = y
j
) = p
j
1 j +
Como tanto X como Y son v.a. unidimensionales, debe cumplirse que

i=1
P(X = x
i
) =

j=1
P(Y = y
j
) = 1
7.2.2. Funci on de distribuci on
Dada una v.a. bidimensional (X, Y ), la funcion de distribuci on conjunta viene dada
por
F(x
n
, y
m
) = P(X x
n
, Y y
m
) =
n

i=1
m

j=1
P(X = x
i
, Y = y
j
) =
n

i=1
m

j=1
p
ij
La funcion de distribucion conjunta verica algunas de las propiedades tpicas de la
funcion de distribucion unidimensional:
(i) F(, ) = F(x
i
, ) = F(, y
j
) = 0
(ii) F(+, +) = 1
68 Estadstica
(iii) F es monotona creciente:
Si x
1
< x
2
F(x
1
, y) F(x
2
, y) y
Si y
1
< y
2
F(x, y
1
) F(x, y
2
) x
Las funciones de distribucion marginales vienen dadas por
v.a. X
F
X
(x
n
) = F(x
n
, +) = P(X x
n
, Y +) =
n

i=1

j=1
P(X = x
i
, Y = y
j
) =
=
n

i=1

j=1
p
ij
=
n

i=1
p
i
= P(X x
n
) x
n
v.a. Y
F
Y
(y
m
) = F(+, y
m
) = P(X +, Y y
m
) =

i=1
m

j=1
P(X = x
i
, Y = y
j
) =
=

i=1
m

j=1
p
ij
=
m

j=1
p
j
= P(Y y
m
) y
m
Ejemplo.- Sea la v.a. bidimensional (X, Y ), con funcion de probabilidad conjunta,
P(X = x
i
) 0.44 0.36 0.20 1
0.20
0.50
0.18
0.12
P(Y = y
j
)
0.06
0.32
0.05
0.01
0.13
0.14
0.02
0.07
0.01
0.04
0.11
0.04
0 1 2
2
1
0
-1
H
H
H
H
H
H
H
H
x
i
y
j
Se cumple,

j
P(X = x
i
, Y = y
j
) =
3

i=1
4

j=1
p
ij
= 0.01 + + 0.01 = 1
7 Variable aleatoria bidimensional y n-dimensional 69
Las funciones de probabilidad marginales son,
v.a. X
x
i
0 1 2
P(X = x
i
) 0.44 0.36 0.20
Se cumple,

i
P(X = x
i
) =
3

i=1
p
i
= 0.44 + 0.36 + 0.20 = 1
v.a. Y
y
j
-1 0 1 2
P(Y = y
j
) 0.12 0.18 0.50 0.20
Se cumple,

j
P(Y = y
j
) =
4

j=1
p
j
= 0.12 + 0.18 + 0.50 + 0.20 = 1
7.3. Variable aleatoria bidimensional continua
Una v.a. bidimensional, (X, Y ), es continua cuando las v.a. que la componen, X e
Y , son continuas.
7.3.1. Funci on de distribuci on y funcion de densidad
Dada una v.a. bidimensional (X, Y ), la funcion de distribuci on conjunta viene dada
por
F(x, y) = P(X x, Y y) x, y R
La funcion de distribucion conjunta verica algunas de las propiedades tpicas de la
funcion de distribucion unidimensional:
(i) F(, ) = F(x, ) = F(, y) = 0
(ii) F(+, +) = 1
70 Estadstica
(iii) F es monotona creciente:
Si x
1
< x
2
F(x
1
, y) F(x
2
, y) y R
Si y
1
< y
2
F(x, y
1
) F(x, y
2
) x R
En el caso de v.a. unidimensionales continuas, a la funcion de distribuci on esta aso-
ciada la funcion de densidad, que se obtiene derivando la primera. Para las v.a. bidimen-
sionales continuas tambien hay una funcion de densidad conjunta, f(x, y), asociada a la
funcion de distribucion conjunta, de tal forma que
F(x, y) = P(X x, Y y) =
_
x

_
y

f(x, y) dxdy
Veamos algunas relaciones importantes
1 f(x, y) 0 x, y R
2
_
+

_
+

f(x, y) dydx = 1
3 P(a X b, c Y d) =
_
b
a
_
d
c
f(x, y) dydx
4

2
F(x, y)
xy
=

2
F(x, y)
y x
= f(x, y) x, y R
Las funciones de distribucion marginales vienen dadas por,
v.a. X
F
X
(x) = F(x, +) = P(X x, Y +) =
_
x

_
+

f(x, y) dydx =
_
x

f
X
(x) dx
siendo
f
X
(x) =
_
+

f(x, y) dy x R
la funcion de densidad marginal de X, que debe vericar
_
+

f
X
(x) dx = 1
7 Variable aleatoria bidimensional y n-dimensional 71
v.a. Y
F
Y
(y) = F(+, y) = P(X +, Y y) =
_
y

_
+

f(x, y) dxdy =
_
y

f
Y
(y) dy
siendo
f
Y
(y) =
_
+

f(x, y) dx y R
la funcion de densidad marginal de Y , que debe vericar
_
+

f
Y
(y) dy = 1
Ejemplo.- Sea (X, Y ) la v.a. bidimensional con funcion de densidad conjunta
f(x, y) =
2
7
(x + 6y) 0 x, y 1

_
+

_
+

f(x, y) dydx =
_
1
0
_
1
0
2
7
(x + 6y) dydx =
_
1
0
2
7
(x + 3) dx = 1
Funcion de distribucion conjunta
F(x, y) =
_
x

_
y

f(x, y) dydx =
_
x
0
_
y
0
2
7
(x + 6y) dydx =
=
_
x
0
2
7
(xy + 3y
2
) dx =
2
7
(
1
2
x
2
y + 3xy
2
) =
1
7
xy(x + 6y) 0 x, y 1
Funcion de densidad marginal de X
f
X
(x) =
_
+

f(x, y) dy =
_
1
0
2
7
(x + 6y) dy =
2
7
(x + 3) 0 x 1
Funcion de densidad marginal de Y
f
Y
(y) =
_
+

f(x, y) dx =
_
1
0
2
7
(x + 6y) dx =
1
7
(1 + 12y) 0 y 1
Funcion de distribucion marginal de X
F
X
(x) =
_
x

_
+

f(x, y) dydx =
_
x
0
f
X
(x) dx =
72 Estadstica
=
_
x
0
2
7
(x + 3) dx =
1
7
x(x + 6) 0 x 1
Funcion de distribucion marginal de Y
F
Y
(y) =
_
y

_
+

f(x, y) dxdy =
_
y
0
f
Y
(y)dy =
=
_
y
0
2
7
(
1
2
+ 6y) dy =
2
7
(
1
2
y + 3y
2
) =
1
7
y(1 + 6y) 0 y 1
Se puede comprobar que
f
X
(x) = F

X
(x) 0 x 1 y f
Y
(y) = F

Y
(y) 0 y 1
_
+

f
X
(x) dx =
_
+

f
Y
(y) dy = 1
7.4. Variable aleatoria bidimensional condicional
Junto con las distribuciones marginales tenemos otras de gran importancia, las dis-
tribuciones condicionales, que surgen cuando en la distribucion conjunta se establece una
condici on sobre una de las variables. La distribucion condicional expresa el comportamien-
to probabilstico de una variable aleatoria, cuando la otra esta sujeta a ciertas condiciones.
Partimos de la denici on de probabilidad condicional de dos sucesos
P(A/B) =
P(A B)
P(B)
siempre que P(B) > 0.
7.4.1. Variable aleatoria discreta
Sea (X, Y ) una v.a. bidimensional discreta con funcion de probabilidad conjunta
P(X = x
i
, Y = y
j
) = p
ij
Denimos la funcion de distribucion de la variable Y condicionada por la variable
X, {Y
|
X
} como
F(y
m
|x
n
) = P(Y y
m
|
X=xn
) =
P(X = x
n
, Y y
m
)
P(X = x
n
)
=
m

j=1
p
nj
p
n
7 Variable aleatoria bidimensional y n-dimensional 73
De manera analoga, se dene la funcion de distribucion de la variable X condicionada
por la variable Y , {X
|
Y
} como
F(x
n
|y
m
) = P(X x
n
|
Y =ym
) =
P(X x
n
, Y = y
m
)
P(Y = y
m
)
=
n

i=1
p
im
p
m
Como casos particulares,
P(Y y
m
|
xr<Xxs
) =
P(x
r
< X x
s
, Y y
m
)
P(x
r
< X x
s
)
=
s

i=r+1
m

j=1
p
ij
s

i=r+1
p
i
P(Y y
m
|
Xxn
) =
P(X x
n
, Y y
m
)
P(X x
n
)
=
n

i=1
m

j=1
p
ij
n

i=1
p
i
7.4.2. Variable aleatoria continua
Sea (X, Y ) una v.a. bidimensional discreta con funcion de densidad conjunta
f(x, y) x, y +
Denimos la funcion de distribucion de la variable Y condicionada por la variable
X, {Y
|
X
} como
74 Estadstica
F(y|x) = P(Y y|
X=x
) = lm
0
P(Y y|
x<Xx+
) =
= lm
0
P(x < X x + , Y y)
P(x < X x + )
= lm
0
_
x+
x
_
y

f(x, y) dydx
_
x+
x
f
X
(x) dx
=
= lm
0
_
y

_
_
x+
x
f(x, y) dx
2
_

_
dy
_
x+
x
f
X
(x) dx
2
=
_
y

f(x, y) dy
f
X
(x)
=
=
_
y

f(x, y)
f
X
(x)
dy =
_
y

f(y|x) dy y R
habiendo denido la funcion f(y|x) como
f(y|x) =
f(x, y)
f
X
(x)
y R
es decir, f(y|x) es la funcion de densidad de la variable aleatoria Y condicionada por el
valor de la variable aleatoria X = x.
De manera analoga, se dene la funcion de distribucion de la variable X condicionada
por la variable Y , {X
|
Y
} como
F(x|y) = P(X x|
Y =y
) =
_
x

f(x, y)
f
Y
(y)
dx =
_
x

f(x|y) dx x R
habiendo denido la funcion f(x|y) como
f(x|y) =
f(x, y)
f
Y
(y)
x R
es decir, f(x|y) es la funcion de densidad de la variable aleatoria X condicionada por el
valor de la variable aleatoria Y = y.
Como casos particulares,
P(Y y|
Xx
) =
P(X x, Y y)
P(X x)
=
_
x

_
y

f(x, y) dydx
_
x

f
X
(x) dx
7 Variable aleatoria bidimensional y n-dimensional 75
P(Y y|
aXb
) =
P(a X b, Y y)
P(a X b)
=
_
b
a
_
y

f(x, y) dydx
_
b
a
f
X
(x) dx
7.5. Variables aleatorias bidimensionales independien-
tes
Cuando dos sucesos son independientes, se verica que
P(S
1
S
2
) = P(S
1
)P(S
2
)
o, tambien
P(S
1
/S
2
) = P(S
1
)
P(S
2
/S
1
) = P(S
2
)
Utilizando el mismo razonamiento, dos variables aleatorias X e Y con funcion de
probabilidad conjunta P(X = x
i
, Y = y
j
) = p
ij
si son discretas, y funcion de densidad
conjunta f(x, y) si son continuas, son independientes, si se verica
_

_
p
ij
= p
i
p
j
i, j v.a. discreta
f(x, y) = f
X
(x)f
Y
(y) x, y v.a. continua
TEOREMA 1. Si dos variables X e Y son independientes, cualquier par de variables que
se obtengan cada una como funcion de una sola de las anteriores, Z = g(X) y W = h(Y )
son independientes.
TEOREMA 2. Si dos experimentos son independientes, dos variables aleatorias denidas
respectivamente a partir de los resultados de cada uno de los experimentos anteriores son
independientes.
76 Estadstica
7.6. Momentos de una variable aleatoria bidimensio-
nal
Dada una v.a. bidimensional (X, Y ), se pueden denir los momentos de orden r y s
centrados en el origen o centrados en las medias.
Momento de orden r y s centrado en el origen
m
rs
= E[X
r
Y
s
] =
_

j
x
r
i
y
s
j
P(X = x
i
, Y = y
j
)
_
+

_
+

x
r
y
s
f(x, y) dxdy
Los momentos centrados en el origen m as utilizados son
2 Momentos de primer orden

X
= m
10
= E[X] =
_

j
x
i
P(X = x
i
, Y = y
j
) =

i
x
i
p
i
_
+

_
+

xf(x, y) dxdy =
_
+

xf
X
(x) dx

Y
= m
01
= E[Y ] =
_

j
y
j
P(X = x
i
, Y = y
j
) =

j
y
j
p
j
_
+

_
+

yf(x, y) dxdy =
_
+

yf
Y
(y) dy
Como puede comprobarse, los momentos de primer orden centrados en el origen m
10
y m
01
son, respectivamente, las medias,
X
y
Y
, de las distribuciones marginales X e Y .
7 Variable aleatoria bidimensional y n-dimensional 77
2 Momentos de segundo orden
m
20
= E[X
2
] =
_

j
x
2
i
P(X = x
i
, Y = y
j
) =

i
x
2
i
p
i
_
+

_
+

x
2
f(x, y) dxdy =
_
+

x
2
f
X
(x) dx
m
02
= E[Y
2
] =
_

j
y
2
j
P(X = x
i
, Y = y
j
) =

j
y
2
j
p
j
_
+

_
+

y
2
f(x, y) dxdy =
_
+

y
2
f
Y
(y) dy
m
11
= E[XY ] =
_

j
x
i
y
j
P(X = x
i
, Y = y
j
)
_
+

_
+

xyf(x, y) dxdy
Momento de orden r y s centrado en las medias
M
rs
= E[(X
X
)
r
(Y
Y
)
s
] =
_

j
(x
i

X
)
r
(y
j

Y
)
s
P(X = x
i
, Y = y
j
)
_
+

_
+

(x
X
)
r
(y
Y
)
s
f(x, y) dxdy
Los momentos centrados en las medias m as utilizados son
2 Momentos de primer orden
M
10
= E[X
X
] =
_

j
(x
i

X
) P(X = x
i
, Y = y
j
) =

i
(x
i

X
) p
i
= 0
_
+

_
+

(x
X
)f(x, y) dxdy =
_
+

(x
X
)f
X
(x) dx = 0
M
01
= E[Y
Y
] =
_

j
(y
j

Y
) P(Y = x
i
, Y = y
j
) =

i
(y
j

Y
) p
j
= 0
_
+

_
+

(y
Y
)f(x, y) dxdy =
_
+

(y
Y
)f
Y
(y) dy = 0
2 Momentos de segundo orden
78 Estadstica

2
X
= M
20
= E[(X
X
)
2
] =
_

j
(x
i

X
)
2
P(X = x
i
, Y = y
j
) =

i
(x
i

X
)
2
p
i
_
+

_
+

(x
X
)
2
f(x, y) dxdy =
_
+

(x
X
)
2
f
X
(x) dx

2
Y
= M
02
= E[(Y
Y
)
2
] =
_

j
(y
j

Y
)
2
P(Y = x
i
, Y = y
j
) =

i
(y
j

Y
)
2
p
j
_
+

_
+

(y
Y
)
2
f(x, y) dxdy =
_
+

(y
Y
)
2
f
Y
(y) dx

XY
= M
11
= E[(X
X
)(Y
Y
)] =
_

j
(x
i

X
)(y
j

Y
) P(X = x
i
, Y = y
j
)
_
+

_
+

(x
X
)(y
Y
)f(x, y) dxdy
Como puede comprobarse, los momentos de segundo orden centrados en las medias
M
20
y M
02
son, respectivamente, las varianzas,
2
X
y
2
Y
, de las distribuciones marginales
X e Y .
El momento de segundo orden centrado en las medias M
11
se denomina covarianza
de la v.a. bidimensional (X, Y ) y la notaremos por
XY
o Cov(X, Y ).
7.6.1. Propiedades de las varianzas y la covarianza
Veamos, en primer lugar, un metodo alternativo para el calculo de las varianzas y
la covarianza.
2 Varianzas

2
X
= E[(X
X
)
2
] = E[(X
2
2
X
X +
2
X
] = E[X
2
] 2
X
E[X] +
2
X
=
= E[X
2
] 2
2
X
+
2
X
= E[X
2
]
2
X
= E[X
2
] E[X]
2
= m
20
m
2
10

2
Y
= E[(Y
Y
)
2
] = E[(Y
2
2
Y
Y +
2
Y
] = E[Y
2
] 2
Y
E[Y ] +
2
Y
=
= E[Y
2
] 2
2
Y
+
2
Y
= E[Y
2
]
2
Y
= E[Y
2
] E[Y ]
2
= m
02
m
2
01
2 Covarianza
7 Variable aleatoria bidimensional y n-dimensional 79

XY
= E[(X
X
)(Y
Y
)] = E[XY
X
Y
Y
X +
X

Y
] =
= E[XY ]
X
E[Y ]
Y
E[X] +
X

Y
= E[XY ]
X

Y

Y

X
+
X

Y
=
= E[XY ]
X

Y
= E[XY ] E[X]E[Y ] = m
11
m
10
m
01
Ahora, veamos algunas propiedades de las varianzas y la covarianza. Sea (X, Y ) una
v.a. bidimensional
1 Var(aX + b) = a
2
Var(X)
2 Var(aX + bY ) = a
2
Var(X) + b
2
Var(Y ) + 2abCov(X, Y )
E[aX + bY ] = aE[X] + bE[Y ] = a
X
+ b
Y
Var(aX + bY ) = E[((aX + bY ) E[(aX + bY )])
2
] =
= E[((aX + bY ) (a
X
+ b
Y
))
2
] =
= E[((aX a
X
) + (bY b
Y
))
2
] =
= E[(aX a
X
)
2
+ (bY b
Y
)
2
+ 2(aX a
X
)(bY b
Y
)] =
= a
2
E[(X
X
)
2
] + b
2
E[(Y
Y
)
2
] + 2abE[(X
X
)(Y
Y
)] =
= a
2
Var(X) + b
2
Var(Y ) + 2abCov(X, Y )
3 Si X e Y son independientes, entonces Cov(X, Y ) = 0
Si X e Y son independientes, entonces
f(x, y) = f
X
(x)f
Y
(y)
E[XY ] =
_
+

_
+

xyf(x, y) dydx =
_
+

_
+

xyf
X
(x)f
Y
(y) dydx =
=
__
+

xf
X
(x) dx
___
+

yf
Y
(y) dy
_
= E[X]E[Y ]
Cov(X, Y ) = E[XY ] E[X]E[Y ] = E[X]E[Y ] E[X]E[Y ] = 0
80 Estadstica
4 Si X e Y son independientes, entonces Var(aX + bY ) = a
2
Var(X) + b
2
Var(Y )
5 Cov
2
(X, Y ) Var(X) Var(Y )
7.6.2. Coeciente de correlaci on lineal
En el captulo 6, vimos que la varianza de una v.a. unidimensional nos da una idea
del grado de dispersi on de los valores que toma la variable respecto a su media. Es decir,
la varianza es una medida de dispersi on. Sin embargo, lo que generalmente se utiliza es
la raz cuadrada de la varianza, o sea la desviaci on tpica, y as trabajar con las mismas
unidades que la media.
La covarianza, en cambio, es un momento que se reere a una v.a. bidimensional,
(X, Y ), y da una idea del grado de asociacion lineal que existe entre ambas variables.
As, si Cov(X, Y ) > 0, hay una relaci on lineal positiva entre X e Y en el sentido de, a
valores grandes de X le corresponden valores grandes de Y y viceversa; mientras que si
Cov(X, Y ) < 0, hay una relaci on lineal negativa entre X e Y en el sentido de, a valores
grandes de X le corresponden valores peque nos de Y , y viceversa. Si Cov(X, Y ) = 0, no
hay relaci on lineal entre ellas.
Para medir el grado de relaci on lineal entre dos variables, conviene trabajar con un
par ametro adimensional. Para ello, se dene el coeciente de correlacion lineal,, como
=
Cov(X, Y )
_
Var(X)Var(Y )
=

XY

X

Y
tambien se utiliza el coeciente de determinacion lineal,
2

2
=
Cov
2
(X, Y )
Var(X)Var(Y )
=

2
XY

2
X

2
Y
El concepto de asociacion lineal se estudiar a m as adelante, por lo que, ahora, solo
nos detenemos en observar que
1 1 y 0
2
1
7 Variable aleatoria bidimensional y n-dimensional 81
7.7. Funci on caracterstica de una variable aleatoria
bidimensional
Sea (X, Y ) una v.a. bidimensional con funcion de probabilidad conjunta dada por
P(X = x, Y = y) si es discreta, o funcion de densidad conjunta f(x, y) si es continua. Se
dene la funcion caracterstica conjunta como,
(t
1
, t
2
) = E[e
it
1
X+it
2
Y
] =
_

y
e
it
1
x+it
2
y
P(X = x, Y = y)
_
+

_
+

e
it
1
x+it
2
y
f(x, y) dxdy
Algunas de las propiedades m as importantes de la funcion caracterstica son
(0, 0) = 1
Se cumple,

r
(t
1
, t
2
)
t
rs
1
t
s
2
= E[i
r
X
rs
Y
s
e
it
1
X+it
2
Y
]
Entonces, los momentos centrados en el origen se pueden calcular como,
m
rs,s
= E[X
rs
Y
s
] =
1
i
r

r
(t
1
, t
2
)
t
rs
1
t
s
2

t
1
=0,t
2
=0
Si (t
1
, t
2
) es la funcion caracterstica conjunta de (X, Y ), entonces las funciones
caractersticas de las distribuciones marginales X e Y son

X
(t) = E[e
itX
] = (t, 0)

Y
(t) = E[e
itY
] = (0, t)
Si, adem as, X e Y son independientes, entonces
(t
1
, t
2
) = (t
1
, 0)(0, t
2
) =
X
(t
1
)
Y
(t
2
)
Si (t
1
, t
2
) es la funcion caracterstica conjunta de (X, Y ), y Z = X + Y , entonces,

Z
(t) = (t, t)
82 Estadstica
Si, adem as, X e Y son independientes, entonces

Z
(t) = (t, t) =
X
(t)
Y
(t)
7.8. Transformacion de variables aleatorias bidimen-
sionales
7.8.1. Una funcion de dos variables aleatorias
Sean X e Y dos variables aleatorias con distribucion conjunta conocida f(x, y).
Consideremos una nueva variable aleatoria Z denida mediante la funcion Z = g(X, Y ).
Denamos z R el subconjunto de R
2
D
z

_
(x, y) R
2
tales que g(x, y) z
_
El suceso {Z z} es ahora {g(X, Y ) z} = {(X, Y ) D
z
}, y la funcion de
distribucion de la variable Z es
F
Z
(z) = P(Z z) = P((X, Y ) D
z
) =
_ _
Dz
f(x, y) dxdy
7.8.2. Dos funciones de dos variables aleaorias
Supongamos ahora que dadas X e Y con distribucion conjunta conocida f(x, y),
queremos calcular la distribucion de un par de variables Z y W dadas por
Z = g(X, Y )
W = h(X, Y )
Denamos en subconjunto de R
2
D
zw

_
(x, y) R
2
tales que g(x, y) z , h(x, y) w
_
El suceso conjunto {Z z, W w} = {(X, Y ) D
zw
}, y la funcion de distribuci on
del par (Z, W) es
F
ZW
(z, w) = P(Z z, W w) = P((X, Y ) D
zw
) =
_ _
Dzw
f(x, y) dxdy
7 Variable aleatoria bidimensional y n-dimensional 83
7.8.3. Variable aleatoria discreta
Dada una v.a. bidimensional (X, Y ), con funcion de probabilidad conjunta
P(X = x
i
, Y = y
j
) = p
ij
1 i, j +
denimos la transformacion biunvoca
U = u(X, Y )
V = v(X, Y )
La funcion de probabilidad conjunta de la nueva v.a. bidimensional (U, V ) sera
P(U = u
r
, V = v
s
) = P((X, Y ) S) =

(x
i
,y
j
)S
P(X = x
i
, Y = y
j
) 1 r, s +
7.8.4. Variable aleatoria continua
Dada una v.a. bidimensional (X, Y ), con funcion de densidad conjunta
f(x, y) x, y +
denimos la transformacion biunvoca
U = u(X, Y )
V = v(X, Y )
La funcion de densidad conjunta de la nueva v.a. bidimensional (U, V ) sera
g(u, v) = f(x(u, v), y(u, v))|J| u, v +
siendo J el jacobiano de la transformacion, es decir
J =

x
u
x
v
y
u
y
v

u
x
u
y
v
x
v
y

1
84 Estadstica
7.9. Variable aleatoria n-dimensional
Todo lo que se ha visto para v.a. bidimensionales se puede extender al caso de
n variables aleatorias. Dado un espacio probabilstico (E, , P) y n variables aleatorias
X
1
, X
2
, . . . , X
n
denidas en el, el vector aleatorio (X
1
, X
2
, . . . , X
n
), se denomina variable
aleatoria n-dimensional.
La funcion de densidad conjunta viene dada por
P(X
1
= x
1
, X
2
= x
2
, . . . , X
n
= x
n
) v.a. discreta
f(x
1
, x
2
, . . . , x
n
) v.a. continua
Las distribuciones marginales se denen como,
P(X
r
= x
r
) =

x
1

x
r1

x
r+1

xn
P(X
1
= x
1
, . . . , X
n
= x
n
) v.a. discreta
f
Xr
(x
r
) =
_
+


_
+

f(x
1
, . . . , x
n
) dx
1
. . . dx
r1
dx
r+1
. . . dx
n
v.a. continua
Las n variables aleatorias son independientes si se verica
P(X
1
= x
1
, . . . , X
n
= x
n
) = P(X
1
= x
1
) P(X
n
= x
n
) x
1
, . . . , x
n
f
X
1
,...,Xn
(x
1
, . . . , x
n
) = f
X
1
(x
1
) f
Xn
(x
n
) x
1
, . . . , x
n
8
Distribuciones de
probabilidad
discretas

Indice
8.1. Distribucion de Bernoulli, B(1, p) . . . . . . . . . . . . . . . . . 86
8.2. Distribucion Binomial, B(n, p) . . . . . . . . . . . . . . . . . . 86
8.2.1. Teorema de adici on para distribuciones Binomiales . . . . . . . 88
8.2.2. Distribucion de la proporci on . . . . . . . . . . . . . . . . . . . 89
8.3. Distribucion de Poisson, P() . . . . . . . . . . . . . . . . . . . 89
8.3.1. Teorema de adici on para distribuciones de Poisson . . . . . . . 90
8.3.2. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . 91
8.3.3. Aproximacion de una Binomial por una Poisson . . . . . . . . . 92
8.4. Distribucion Hipergeometrica, H(n, N, A) . . . . . . . . . . . 92
8.5. Distribucion Geometrica, G(p) . . . . . . . . . . . . . . . . . . 94
8.6. Distribucion Binomial Negativa, BN(r, p) . . . . . . . . . . . . 95
8.6.1. Teorema de adici on para distribuciones Binomiales Negativas . 96
85
86 Estadstica
8.1. Distribucion de Bernoulli, B(1, p)
Supongamos un experimento, llamado experimento de Bernoulli, en el que solo se
pueden dar dos resultados, exito o fracaso. Generalmente, se asigna el valor 1 al suceso
exito, y el valor 0 al suceso fracaso. Si la probabilidad de exito es p y la de fracaso es
q = 1 p, entonces, la funcion de probabilidad de la v.a. X asociada a este experimento
es
P(X = x) = p
x
q
1x
x = 0, 1

x=0
P(X = x) = P(X = 0) + P(X = 1) = p + q = 1
Esperanza y Varianza
E[X] =
1

x=0
xP(X = x) = 0 P(X = 0) + 1 P(X = 1) = p
Var(X) = E[X
2
] (E[X])
2
=
1

x=0
x
2
P(X = x) p
2
=
= 0
2
P(X = 0) + 1
2
P(X = 1) p
2
= p p
2
= p(1 p) = pq
E[X] = p Var(X) = pq
Funcion Caracterstica
(t) = E[e
itX
] =
1

x=0
e
itx
P(X = x) = e
it0
P(X = 0) + e
it1
P(X = 1) = q + p e
it
(t) = q + p e
it
8.2. Distribucion Binomial, B(n, p)
Si realizamos un experimento de Bernoulli n veces, siempre en las mismas condi-
ciones, y nos interesamos por el n umero de exitos obtenidos, tenemos una distribuci on
Binomial B(n, p), con funcion de probabilidad
P(X = x) =
_
n
x
_
p
x
q
nx
x = 0, 1, 2, . . . , n
8 Distribuciones de probabilidad discretas 87

x=0
P(X = x) =
n

x=0
_
n
x
_
p
x
q
nx
= (p + q)
n
= 1
Funcion Caracterstica
(t) = E[e
itX
] =
n

x=0
e
itx
P(X = x) =
n

x=0
_
n
x
_
(p e
it
)
x
q
nx
= (p e
it
+ q)
n
(t) = (p e
it
+ q)
n
Esperanza

(t) = npi e
it
(p e
it
+ q)
n1
=

(0) = npi = E[X] =


(0)
i
= np
E[X] = np
Varianza

(t) = npi
2
e
it
[(p e
it
+ q)
n1
+ (n 1)p e
it
(p e
it
+ q)
n2
]

(0) = npi
2
[1 + (n 1)p] = i
2
[np + (np)
2
np
2
]
E[X
2
] =

(0)
i
2
= np + (np)
2
np
2
Var(X) = E[X
2
] (E[X])
2
= np + (np)
2
np
2
(np)
2
= np(1 p) = npq
Var(X) = npq
Moda
Buscamos el valor de x tal que P(X = x) P(X = y) y = 0, 1, 2, . . . , n.
Supongamos que x es la moda, entonces,
P(X = x) > P(X = x 1) =
_
n
x
_
p
x
q
nx
>
_
n
x 1
_
p
x1
q
nx+1
=
n!
x! (n x)!
p
x
q
nx
>
n!
(x 1)! (n x + 1)!
p
x1
q
nx+1
=
p
x
>
q
n x + 1
=
88 Estadstica
x < (n + 1)p
Por otra parte,
P(X = x) > P(X = x + 1) =
_
n
x
_
p
x
q
nx
>
_
n
x + 1
_
p
x+1
q
nx1
=
n!
x! (n x)!
p
x
q
nx
>
n!
(x + 1)! (n x 1)!
p
x+1
q
nx1
=
q
n x
>
p
x + 1
=
(n + 1)p 1 < x
Por tanto,
(n + 1)p 1 < x < (n + 1)p
es decir, la moda es el n umero entero, x, no negativo, que se encuentra entre los
valores (n+1)p1 y (n+1)p. Si (n+1)p es un n umero entero no negativo, entonces
la distribucion tiene dos modas :
x
1
= (n + 1)p 1
x
2
= (n + 1)p
8.2.1. Teorema de adicion para distribuciones Binomiales
Sean X
1
B(n
1
, p), . . . , X
r
B(n
r
, p) r v.a. Binomiales independientes. Entonces
la nueva variable aleatoria
Y = X
1
+ + X
r
B(n
1
+ + n
r
, p)
Para demostrarlo, utilizamos las funciones caractersticas de las variables X
k
, y el
hecho de que son independientes,

X
k
(t) = (q + p e
it
)
n
k
k = 1, 2, . . . , r

Y
(t) = E[e
itY
] = E[e
it(X
1
++Xr)
] = E[e
itX
1
e
itXr
] = E[e
itX
1
] E[e
itXr
] =
=
X
1
(t)
Xr
(t) = (p e
it
+ q)
n
1
(p e
it
+ q)
nr
=
= (p e
it
+ q)
n
1
++nr
Pero, esta es la funcion caracterstica de una distribucion Binomial de par ametros
n = n
1
+ + n
r
y p.
8 Distribuciones de probabilidad discretas 89
8.2.2. Distribucion de la proporcion
Si realizamos n veces un experimento de Bernoulli, podemos interesarnos por el
n umero de exitos, para lo cual tenemos la distribucion Binomial, o podemos estar intere-
sados en la proporci on de exitos. Sean
X N umero de exitos al realizar n veces un experimento de Bernoulli B(n, p)
Y Proporci on de exitos al realizar n veces un experimento de Bernoulli =
X
n
La v.a. Y no sigue una distribucion Binomial, pero esta relacionada con ella por una
constante, n. Adem as, se tiene

Y
(t) = E[e
itY
] = E[e
it
X
n
] = E[e
i
t
n
X
] =
X
(
t
n
) =
_
q + p e
i
t
n
_
n
E[Y ] = E
_
X
n
_
=
1
n
E[X] =
1
n
np = p
Var(Y ) = Var
_
X
n
_
=
1
n
2
Var(X) =
1
n
2
npq =
pq
n
8.3. Distribucion de Poisson, P()
Sea X la v.a. que describe el n umero de eventos que ocurren por unidad de tiempo
o espacio, y el n umero medio de estos eventos que ocurren por unidad de tiempo o
espacio. Imponemos, adem as, la restriccion de que los eventos deben ser independientes
entre s y ocurrir con una tasa constante. En ese caso, se dice que X sigue una distribuci on
de Poisson de par ametro , y cada uno de los eventos se denomina suceso de Poisson.
De forma m as general, una v.a. sigue una distribucion de Poisson, si su funcion de
probabilidad es de la forma
P(X = x) =

x
x!
e

x = 0, 1, 2, . . .

x=0
P(X = x) =

x=0

x
x!
e

= e

x=0

x
x!
= e

= 1
Funcion Caracterstica
(t) = E[e
itX
] =

x=0
e
itx
P(X = x) = e

x=0
(e
it
)
x
x!
= e

e
e
it
= e
(e
it
1)
(t) = e
(e
it
1)
90 Estadstica
Esperanza

(t) = ie
it
e
(e
it
1)
=

(0) = i = E[X] =

(0)
i
=
E[X] =
Varianza

(t) = i
2
e
it
e
(e
it
1)
[1 + e
it
] =

(0) = i
2
( +
2
)
E[X
2
] =

(0)
i
2
= +
2
= Var(X) = E[X
2
] (E[X])
2
= +
2

2
=
Var(X) =
Moda
Supongamos que la moda es x, entonces,
P(X = x) > P(X = x 1) =

x
x!
e

>

x1
(x 1)!
e

= x <
P(X = x) > P(X = x + 1) =

x
x!
e

>

x+1
(x + 1)!
e

= x > 1
Por tanto,
1 < x <
es decir, la moda es el n umero entero, x, no negativo, que se encuentra entre 1 y
. Si es un n umero entero no negativo, entonces la distribuci on tiene dos modas :
x
1
= 1
x
2
=
8.3.1. Teorema de adicion para distribuciones de Poisson
Sean X
1
P(
1
), . . . , X
n
P(
n
) n v.a. de Poisson independientes. Entonces la
nueva variable aleatoria
Y = X
1
+ + X
n
P(
1
+ +
n
)
Para demostrarlo, utilizamos las funciones caractersticas de las variables X
k
, y el
hecho de que son independientes,
8 Distribuciones de probabilidad discretas 91

X
k
(t) = e

k
(e
it
1)
k = 1, 2, . . . , n

Y
(t) = E[e
itY
] = E[e
it(X
1
++Xn)
] = E[e
itX
1
e
itXn
] = E[e
itX
1
] E[e
itXn
] =
=
X
1
(t)
Xn
(t) = e

1
(e
it
1)
e
n(e
it
1)
=
= e
(
1
++n)(e
it
1)
Pero, esta es la funcion caracterstica de una distribucion de Poisson de par ametro
=
1
+ +
n
.
8.3.2. Probabilidad condicional
Sean X
1
P(
1
) y X
2
P(
2
), dos v.a. de Poisson independientes. Ya hemos visto
que entonces X
1
+ X
2
P(
1
+
2
). Pero, si consideramos la v.a. condicionada
X
1|
X
1
+X
2
su funcion de probabilidad sera
P
_
X
1
= x
|
X
1
+X
2
=y
_
=
P(X
1
= x, X
1
+ X
2
= y)
P(X
1
+ X
2
= y)
=
P(X
1
= x, X
2
= y x)
P(X
1
+ X
2
= y)
=
=
P(X
1
= x)P(X
2
= y x)
P(X
1
+ X
2
= y)
=

x
1
x!
e

1

yx
2
(yx)!
e

2
(
1
+
2
)
y
y!
e
(
1
+
2
)
=
=
y!
x! (y x)!

x
1

yx
2
(
1
+
2
)
y
=
_
y
x
_
_

1

1
+
2
_
x
_

2

1
+
2
_
yx
Pero, esta es la funcion de probabilidad de una distribucion Binomial de par ametros
n = y, p =

1

1
+
2
, es decir
X
1|
X
1
+X
2
B
_
n = y, p =

1

1
+
2
_
92 Estadstica
8.3.3. Aproximaci on de una Binomial por una Poisson
Originalmente, Poisson determino la distribucion que lleva su nombre como el lmite
de una B(n, p) cuando n tiende a innito y p tiende a cero, manteniendo constante la
esperanza, np.
Si hacemos que n bajo la condici on de que = np = cte, entonces
lm
n
np = = p =

n
0
Veamos que ocurre al introducir estos lmites en la funcion de probabilidad de una
B(n, p)
lm
n
p0
P(B(n, p) = x) = lm
n
p0
_
n
x
_
p
x
q
nx
= lm
n
_
n
x
_
_

n
_
x
_
1

n
_
nx
=
= lm
n
n!
x! (n x)!

x
n
x
_
1

n
_
nx
=

x
x!
lm
n
n!
n
x
(n x)!
_
1

n
_
n
_
1

n
_
x
=
=

x
x!
_
lm
n
n(n 1) [n (x 1)]
n
x
_ lm
n
_
1

n
_
n
lm
n
_
1

n
_
x
=

x
x!
lm
n
_
1

n
_
n
=
=

x
x!
lm
n
_
_
_
1 +
1
n

_
_

=

x
x!
e

= P(P() = x)
Es decir, para valores grandes de n y peque nos de p, de forma que el producto np
tenga un valor moderado, una Binomial B(n, p) se puede aproximar por una Poisson,
P(), siendo = np. En general, si
np 5 y p 0.1 = B(n, p)

= P( = np)
8.4. Distribucion Hipergeometrica, H(n, N, A)
En urna hay N bolas de las cuales, A son blancas y NA son negras. La probabilidad
de sacar una bola blanca es p = A/N. Extraemos n bolas, bien sacando todas a la vez o
bien una a una sin reemplazamiento, y denimos la v.a. X como el n umero de bolas
blancas entre las n extradas, entonces,
8 Distribuciones de probabilidad discretas 93
P(X = x) =
_
A
x
__
N A
n x
_
_
N
n
_ x = 0, 1, 2, . . . , n
NOTA.- Para algunos de estos valores de x, P(X = x) = 0. De hecho, debe ser
m ax{0, n N + A} x mn{n, A}
sin embargo, a lo largo del desarrollo, tomaremos 0 x n.

x=0
P(X = x) =
1
_
N
n
_
n

x=0
_
A
x
__
N A
n x
_
=
1
_
N
n
_
_
N
n
_
= 1
Esperanza
E[X] =
n

x=0
xP(X = x) =
n

x=0
x
_
A
x
__
N A
n x
_
_
N
n
_ =
n

x=1
x
_
A
x
__
N A
n x
_
_
N
n
_ =
=
n

x=1
x
A!
x! (Ax)!
_
N A
n x
_
_
N
n
_ = A
n

x=1
(A1)!
(x 1)! (Ax)!
_
N A
n x
_
_
N
n
_ =
= A
n

x=1
_
A1
x 1
__
N A
n x
_
_
N
n
_ = A
n1

y=0
_
A 1
y
__
(N 1) (A1)
(n 1) y
_
_
N
n
_ =
= A
n1

y=0
_
A1
y
__
(N 1) (A 1)
(n 1) y
_
N
n
_
N 1
n 1
_ = n
A
N
= np
94 Estadstica
E[X] = n
A
N
= np
Varianza
Var(X) =
N n
N 1
n
A
N
_
1
A
N
_
=
(N n)np(1 p)
N 1
8.5. Distribucion Geometrica, G(p)
Partimos de un experimento de Bernoulli, siendo p = P(exito) y q = 1 p =
P(fracaso), y repetimos el experimento, siempre en las mismas condiciones, hasta que
ocurre el primer exito. De esta forma, denimos la v.a. X, como el n umero de fracasos
hasta que se obtiene el primer exito. Entonces,
P(X = x) = p q
x
x = 0, 1, 2, . . .

x=0
P(X = x) =

x=0
p q
x
= p

x=0
q
x
= p
1
1 q
= p
1
p
= 1
Funcion de distribucion
F(x) =
x

k=0
P(X k) =
x

k=0
p q
k
= p
1 q
x
q
1 q
= 1 q
x+1
Funcion Caracterstica
(t) = E[e
itX
] =

x=0
e
itx
P(X = x) = p

x=0
(q e
it
)
x
=
p
1 q e
it
(t) =
p
1 q e
it
Esperanza

(t) = ipq
e
it
(1 q e
it
)
2
=

(0) = ipq
1
(1 q)
2
=
q
p
i = E[X] =

(0)
i
=
q
p
E[X] =
q
p
8 Distribuciones de probabilidad discretas 95
Varianza

(t) = i
2
pq e
it
(1 q e
it
)
2
+ 2q e
it
(1 q e
it
)
(1 q e
it
)
4

(0) = i
2
pq
(1 q)
2
+ 2q(1 q)
(1 q)
4
= i
2
q
p
2
(p + 2q)
E[X
2
] =

(0)
i
2
=
q
p
2
(p + 2q)
Var(X) = E[X
2
] (E[X])
2
=
qp + 2q
2
p
2

q
2
p
2
=
qp + q
2
p
2
=
q(p + q)
p
2
=
q
p
2
Var(X) =
q
p
2
8.6. Distribucion Binomial Negativa, BN(r, p)
Partimos de un experimento de Bernoulli, siendo p = P(exito) y q = 1 p =
P(fracaso), y repetimos el experimento, siempre en las mismas condiciones, hasta que
ocurre el n-esimo exito. De esta forma, denimos la v.a. X, como el n umero de fracasos
hasta que se obtiene el n-esimo exito. Entonces,
P(X = x) =
_
x + r 1
x
_
p
r
q
x
x = 0, 1, 2, . . .
En general, si a R y n N, se dene
_
a
n
_
= (1)
n
_
a + n 1
n
_
Utilizando esta expresion, tenemos
P(X = x) = (1)
x
_
r
x
_
p
r
q
x
=
_
r
x
_
p
r
(q)
x
x = 0, 1, 2, . . .
expresion similar a la de una distribucion Binomial.

x=0
P(X = x) =

x=0
_
r
x
_
p
r
(q)
x
= p
r
(1 q)
r
= 1
96 Estadstica
Funcion Caracterstica
(t) = E[e
itX
] =

x=0
e
itx
P(X = x) = p
r

x=0
_
r
x
_
(q e
it
)
x
=
_
p
1 q e
it
_
r
(t) =
_
p
1 q e
it
_
r
Esperanza

(t) = ip
r
qr
e
it
(1 q e
it
)
r+1
=

(0) = ip
r
qr
1
(1 q)
r+1
= i
q
p
r = E[X] =

(0)
i
=
q
p
r
E[X] =
q
p
r
Varianza

(t) = i
2
p
r
qr e
it
(1 q e
it
)
r+1
+ (r + 1)q e
it
(1 q e
it
)
r
(1 q e
it
)
2r+2

(0) = i
2
p
r
qr
(1 q)
r+1
+ (r + 1)q(1 q)
r
(1 q)
2r+2
= i
2
qr
p + (r + 1)q
p
2
E[X
2
] =

(0)
i
2
= qr
p + (r + 1)q
p
2
Var(X) = E[X
2
] (E[X])
2
=
rpq + r(r + 1)q
2
p
2

q
2
r
2
p
2
=
rqp + rq
2
p
2
=
rq(p + q)
p
2
=
q
p
2
r
Var(X) =
q
p
2
r
8.6.1. Teorema de adicion para distribuciones Binomiales Ne-
gativas
Sean X
1
BN(r
1
, p), . . . , X
n
BN(r
n
, p) n v.a. Binomiales Negativas independien-
tes. Entonces la nueva variable aleatoria
Y = X
1
+ + X
n
BN(r
1
+ + r
n
, p)
8 Distribuciones de probabilidad discretas 97
Para demostrarlo, utilizamos las funciones caractersticas de las variables X
k
, y el
hecho de que son independientes,

X
k
(t) =
p
r
k
(1 q e
it
)
r
k
k = 1, 2, . . . , n

Y
(t) = E[e
itY
] = E[e
it(X
1
++Xn)
] = E[e
itX
1
e
itXn
] = E[e
itX
1
] E[e
itXn
] =
=
X
1
(t)
Xn
(t) =
p
r
1
(1 q e
it
)
r
1

p
rn
(1 q e
it
)
rn
=
=
p
r
1
++rn
(1 q e
it
)
r
1
++rn
Pero, esta es la funcion caracterstica de una distribucion Binomial Negativa de
par ametros r = r
1
+ + r
n
y p.
98 Estadstica
9
Distribuciones de
probabilidad
continuas

Indice
9.1. Distribucion Uniforme, U(a, b) . . . . . . . . . . . . . . . . . . 100
9.2. Distribucion Normal, N(, ) . . . . . . . . . . . . . . . . . . . 101
9.2.1. Teorema de adici on para distribuciones Normales . . . . . . . . 103
9.2.2. Distribucion Normal est andar . . . . . . . . . . . . . . . . . . . 104
9.3. Distribucion Log-Normal, Log-N(, ) . . . . . . . . . . . . . . 105
9.4. Distribucion
2
de Pearson,
2
n
. . . . . . . . . . . . . . . . . . 107
9.4.1. Teorema de adici on para distribuciones
2
de Pearson . . . . . 108
9.5. Distribucion t-Student, t
n
. . . . . . . . . . . . . . . . . . . . . 109
9.6. Distribucion F-Snedecor, F
n,m
. . . . . . . . . . . . . . . . . . 110
9.7. Distribucion Exponencial, Exp() . . . . . . . . . . . . . . . . 111
9.7.1. Teorema de adici on para distribuciones Exponenciales . . . . . 113
9.8. Distribucion de Erlang Er(n, ) . . . . . . . . . . . . . . . . . . 113
9.8.1. Teorema de adici on para distribuciones de Erlang . . . . . . . . 115
9.9. Relaci on entre las distribuciones de Poisson, Exponencial y
Erlang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
9.10. Distribucion de Weibull, W(r, ) . . . . . . . . . . . . . . . . . 117
9.11. Distribucion Gamma, G(p, q) . . . . . . . . . . . . . . . . . . . 118
9.11.1. Teorema de adici on para distribuciones Gamma . . . . . . . . . 119
9.12. Distribucion Beta, B(p, q) . . . . . . . . . . . . . . . . . . . . . 120
9.12.1. Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 121
9.13. Relaciones entre distribuciones continuas . . . . . . . . . . . . 121
9.14. Distribucion Normal Bidimensional . . . . . . . . . . . . . . . 123
99
100 Estadstica
9.1. Distribucion Uniforme, U(a, b)
Una v.a. X se dice que sigue una distribucion Uniforme, X U(a, b), si su funcion
de densidad es de la forma
f(x) =
1
b a
si a < x < b
a b
Figura 9.1: Funcion de densidad de una distribuci on U(a, b)

_
+

f(x) dx =
_
b
a
1
b a
dx = 1
Funcion de Distribuci on
F(x) =
_
+

f(x) dx =
_
x
a
1
b a
dx =
x a
b a
a x < b
Esperanza y Varianza
E[X] =
_
+

xf(x) dx =
_
b
a
x
b a
=
b + a
2
E[X
2
] =
_
+

x
2
f(x) dx =
_
b
a
x
2
b a
=
b
2
+ a
2
+ ab
3
Var(X) = E[X
2
] (E[X])
2
=
b
2
+ a
2
+ ab
3

_
b + a
2
_
2
=
(b a)
2
12
E[X] =
b + a
2
Var(X) =
(b a)
2
12
Funcion Caracterstica
(t) = E[e
itX
] =
_
+

e
itx
f(x) dx =
1
b a
_
b
a
e
itx
dx =
e
ibt
e
iat
i(b a)t
t R
(t) =
e
ibt
e
iat
i(b a)t
9 Distribuciones de probabilidad continuas 101
9.2. Distribucion Normal, N(, )
Una v.a. X se dice que sigue una distribucion Normal, X N(, ), si su funcion
de densidad es de la forma
f(x) =
1

2
e

1
2
_
x

_
2
x +
Figura 9.2: Funcion de densidad de una distribuci on N(, )

_
+

f(x) dx =
1

2
_
+

1
2
(
x

)
2
dx =
1

2
_
+

1
2
u
2
du =
=
2

2
_
+
0
e

1
2
u
2
du =
1

_
+
0
z
1/2
e
z
dz =
1

(1/2) = 1
Funcion Caracterstica
(t) = E[e
itX
] =
_
+

e
itx
f(x) dx =
1

2
_
+

e
itx
e

1
2
(
x

)
2
dx =
=
1

2
_
+

1
2
2
[(x)
2
2
2
itx]
dx =
1

2
_
+

1
2
2
[x
2
2(+
2
it)x+
2
]
dx =
=
1

2
_
+

1
2
2

(x(+
2
it))
2
+
2
(+
2
it)
2

dx =
=
e

2
(+
2
it)
2
2
2

2
_
+

1
2

x ( +
2
it)

2
dx =
102 Estadstica
=
e

4
t
2
2
2
it
2
2

2
_
+

1
2
u
2
du =
e
it
1
2

2
t
2

2 = e
it
1
2

2
t
2
(t) = e
it
1
2

2
t
2
Esperanza

(t) = (i
2
t)e
it
1
2

2
t
2
=

(0) = i = E[X] =

(0)
i
=
E[X] =
Varianza

(t) = [
2
+ (i
2
t)
2
] e
it
1
2

2
t
2
=

(0) =
2
+ i
2

2
E[X
2
] =

(0)
i
2
=
2
+
2
Var(X) = E[X
2
] (E[X])
2
= (
2
+
2
)
2
=
2
Var(X) =
2
Coeciente de deformacion

(0) = 3i
2
+ i
3

3
m
3
=

(0)
i
3
=

(0)
i
= 3
2
+
3
M
3
=
_
3
0
_
m
3

_
3
1
_
m
2
+
_
3
2
_
m
1

_
3
3
_

3
= 0
D =
M
3

3
= 0
La distribucion Normal es simetrica respecto a la media
9 Distribuciones de probabilidad continuas 103
Coeciente de curtosis

(iv
(0) = 3
4
6i
2

2
+ i
4

4
m
4
=

(iv
(0)
i
4
= 3
4
+ 6
2

2
+
4
M
4
=
_
4
0
_
m
4

_
4
1
_
m
3
+
_
4
2
_
m
2

_
4
3
_
m
1

3
+
_
4
4
_

4
= 3
4
C =
M
4

4
3 = 0
La distribucion Normal es mesoc urtica
9.2.1. Teorema de adicion para distribuciones Normales
Sean X
1
N(
1
,
1
), . . . , X
n
N(
n
,
n
), n v.a. Normales independientes. Enton-
ces, la nueva variable aleatoria
Y = b + a
1
X
1
+ + a
n
X
n
N
_
b + a
1

1
+ + a
n

n
,
_
a
2
1

2
1
+ + a
2
n

2
n
_
Para demostrarlo, utilizamos las funciones caractersticas de las variables X
k
, y el
hecho de que son independientes,

X
k
(t) = e
i
k
t
1
2

2
k
t
2
k = 1, 2, . . . , n

Y
(t) = E[e
itY
] = E
_
e
i(b+a
1
X
1
++anXn)t

= E
_
e
ibt
e
ia
1
tX
1
e
iantXn

=
= e
ibt
E[e
ia
1
tX
1
] E[e
iantXn
] =
= e
ibt

X
1
(a
1
t)
Xn
(a
n
t) =
= e
ibt
e
ia
1

1
t
1
2

2
1
a
2
1
t
2
e
iannt
1
2

2
n
a
2
n
t
2
=
= e
i(b+a
1

1
++ann)t
1
2
(a
2
1

2
1
++a
2
n

2
n
)t
2
104 Estadstica
Pero, esta es la funcion caracterstica de una distribucion Normal con media =
b + a
1

1
+ + a
n

n
y varianza
2
= a
2
1

2
1
+ + a
2
n

2
n
.
Tambien se puede demostrar el teorema inverso, es decir, si la distribucion de la
suma de n variables aleatorias independientes es Normal, entonces cada una de las varia-
bles sigue una distribucion Normal. Por otra parte, la distribucion Normal nunca puede
obtenerse exactamente como suma de variables aleatorias no Normales.
9.2.2. Distribucion Normal estandar
Dentro de las distribuciones Normales, la m as utilizada es la que tiene media = 0
y varianza
2
= 1, llamada distribucion Normal estandar, N(0, 1).
Funcion de densidad
f(x) =
1

2
e

1
2
x
2
x +
Funcion caracterstica
(t) = e

1
2
t
2
t R
Como = 0, los momentos respecto a la media coinciden con los momentos respecto
al origen, es decir, M
k
= m
k
k.
Como la distribucion es simetrica, los momentos de orden impar son todos nulos,
m
2k+1
= 0 k = 0, 1, 2, . . .
Los momentos de orden par verican
m
2k
=
(2k)!
2
k
k!
k = 0, 1, 2, . . .
En general, siempre podemos pasar de una N(, ) a una N(0, 1) (lo que se llama
tipicar la variable N(, )) y viceversa, por medio de una transformacion lineal.
2 N(, ) N(0, 1)
Sea Y N(, ), entonces la nueva v.a.
X =
Y

N(0, 1)
9 Distribuciones de probabilidad continuas 105
2 N(0, 1) N(, )
Sea X N(0, 1), entonces la nueva v.a.
Y = + X N(, )
9.3. Distribucion Log-Normal, Log-N(, )
Sea X N(, ). Si realizamos la transformacion
Y = e
X
la distribucion de la nueva v.a., llamada distribucion Log-Normal, Log-N(, ), es,
G
Y
(y) = P(Y y) = P(e
X
y) = P(X Ly) = F
X
(Ly)
g
Y
(y) = G

Y
(y) = F

X
(Ly)
1
y
= f
X
(Ly)
1
y
Por tanto, la funcion de densidad de una Log-N(, ) es
g(y) =
1
y

2
e

1
2
(
Ly

)
2
y 0
Figura 9.3: Funcion de densidad de una distribucion Log-N(, )

_
+

g(y) dy =
_
+
0
1
y

2
e

1
2
(
Ly

)
2
dy =
_
+

2
e

1
2
(
x

)
2
dx = 1
106 Estadstica
Esperanza
E[Y ] =
_
+

yg(y) dy =
1

2
_
+
0
e

1
2
(
Ly

)
2
dy =
=
1

2
_
+

1
2
(
x

)
2
e
x
dx =
1

2
_
+

1
2
2
[(x)
2
2
2
x]
dx =
=
1

2
_
+

1
2
2
[(x(+
2
))
2
+
2
(+
2
)
2
]
dx =
=
e

1
2
2
(
2
(+
2
)
2
)

2
_
+

1
2

x(+
2
)

2
dx =
=
e
+
1
2

2
_
+

1
2
u
2
du =
e
+
1
2

2 = e
+
1
2

2
E[Y ] = e
+
1
2

2
Varianza
E[Y
2
] =
_
+

y
2
g(y) dy =
1

2
_
+
0
ye

1
2
(
Ly

)
2
dy =
=
1

2
_
+

1
2
(
x

)
2
e
2x
dx =
1

2
_
+

1
2
2
[(x)
2
4
2
x]
dx =
=
1

2
_
+

1
2
2
[(x(+2
2
))
2
+
2
(+2
2
)
2
]
dx =
=
e

1
2
2
(
2
(+2
2
)
2
)

2
_
+

1
2

x(+2
2
)

2
dx =
=
e
2+2
2

2
_
+

1
2
u
2
du =
e
2+2
2

2 = e
2+2
2
Var(Y ) = E[Y
2
] E[Y ]
2
= e
2+2
2
e
2+
2
= e
2+
2
(e

2
1)
Var(Y ) =
_
e

2
1
_
e
2 +
2
9 Distribuciones de probabilidad continuas 107
9.4. Distribucion
2
de Pearson,
2
n
Sean X
1
, . . . , X
n
, n v.a. independientes e identicamente distribuidas seg un una
N(0, 1). Entonces, la variable aleatoria
X = X
2
1
+ + X
2
n
= [N(0, 1)]
2
+ + [N(0, 1)]
2

2
n
sigue una distribucion
2
de Pearson con n grados de libertad,
2
n
, con funcion de densidad
f(x) =
1
2
n/2

_
n
2
_ x
n
2
1
e

x
2
x 0
Figura 9.4: Funcion de densidad de una distribuci on
2
n

_
+

f(x) dx =
1
2
n/2

_
n
2
_
_
+
0
x
n
2
1
e

x
2
dx =
=
1
2
n/2

_
n
2
_
_
+
0
2
n
2
1
u
n
2
1
e
u
2 du =
1

_
n
2
_
_
n
2
_
= 1
Funcion caracterstica
(t) = E[e
itX
] =
_
+

e
itx
f(x) dx =
1
2
n/2

_
n
2
_
_
+
0
e
itx
x
n
2
1
e

x
2
dx =
=
1
2
n/2

_
n
2
_
_
+
0
x
n
2
1
e
(
1
2
it)x
dx =
108 Estadstica
=
1
2
n/2

_
n
2
_
_
+
0
_
2
1 2it
_n
2
1
u
n
2
1
e
u
2
1 2it
du =
=
1

_
n
2
_
_
1
1 2it
_n
2

_
n
2
_
=
_
1
1 2it
_n
2
(t) = (1 2it)
n/2
Esperanza

(t) = in(1 2it)


1n/2
=

(0) = in = E[X] =

(0)
i
= n
E[X] = n
Varianza

(t) = i
2
n(n + 2)(1 2it)
2n/2
=

(0) = i
2
n(n + 2)
E[X
2
] =

(0)
i
2
= n
2
+ 2n
Var(X) = E[X
2
] (E[X])
2
= n
2
+ 2n n
2
= 2n
Var(X) = 2n
9.4.1. Teorema de adicion para distribuciones
2
de Pearson
Sean X
1

2
n
1
, . . . , X
r

2
nr
, r variables aleatorias
2
de Pearson independientes.
Entonces la nueva variable aleatoria
Y = X
1
+ + X
r

2
n
1
++nr
Para demostrarlo, utilizamos las funciones caractersticas de las variables X
k
, y el
hecho de que son independientes,

X
k
(t) = (1 2it)
n
k
/2
k = 1, 2, . . . , r
9 Distribuciones de probabilidad continuas 109

Y
(t) = E[e
itY
] = E[e
it(X
1
++Xr)
] = E[e
itX
1
] E[e
itXr
] =
=
X
1
(t)
Xr
(t) = (1 2it)
n
1
/2
(1 2it)
nr/2
=
= (1 2it)

n
1
++nr
2
Pero, esta es la funcion caracterstica de una distribucion
2
de Pearson con n =
n
1
+ + n
r
grados de libertad.
9.5. Distribucion t-Student, t
n
Sean Y, X
1
, . . . , X
n
, n+1 v.a. independientes e identicamente distribuidas seg un una
N(0, 1). Entonces, la variable aleatoria
X =
Y
_
X
2
1
+ + X
2
n
n
=
N(0, 1)
_

2
n
n
t
n
sigue una distribucion t-Student con n grados de libertad, t
n
, con funcion de densidad
f(x) =

_
n + 1
2
_

n
_
n
2
_
_
1 +
x
2
n
_

n+1
2
x R
Figura 9.5: Funcion de densidad de una distribuci on t
n

_
+

f(x) dx = 1 =
_
+

_
1 +
x
2
n
_

n+1
2
dx =

n
_
n
2
_

_
n + 1
2
_
110 Estadstica
Esperanza
E[X] =
_
+

xf(x) dx =

_
n + 1
2
_

n
_
n
2
_
_
+

x
_
1 +
x
2
n
_

n+1
2
dx = 0
pues el integrando es una funcion impar.
E[X] = 0 (n > 1)
Varianza
E[X
2
] =
_
+

x
2
f(x) dx =

_
n + 1
2
_

n
_
n
2
_
_
+

x
2
_
1 +
x
2
n
_

n+1
2
dx =
=

_
n + 1
2
_

n
_
n
2
_
n
n 1
_
+

_
1 +
x
2
n
_

n1
2
dx =
=

_
n + 1
2
_

n
_
n
2
_
n
n 1

n
_
n 2
2
_

_
n 1
2
_ =
n
n 2
Var(X) = E[X
2
] E[X]
2
=
n
n 2
Var(X) =
n
n 2
(n > 2)
9.6. Distribucion F-Snedecor, F
n,m
Sean X
1
, . . . , X
n
e Y
1
, . . . , Y
m
, n+m v.a. independientes e identicamente distribuidas
seg un una N(0, 1). Entonces, la variable aleatoria
X =
X
2
1
+ + X
2
n
n
Y
2
1
+ + Y
2
m
m
=

2
n
n

2
m
m
F
n,m
9 Distribuciones de probabilidad continuas 111
sigue una distribucion F-Snedecor con n y m grados de libertad, F
n,m
, con funcion de
densidad
f(x) =
n
n/2
m
m/2

_
n + m
2
_

_
n
2
_

_
m
2
_ x
n
2
1
(m + nx)

n+m
2
x 0
Figura 9.6: Funcion de densidad de una distribuci on F
n,m
Esperanza
E[X] =
m
m2
(m > 2)
Varianza
Var[X] =
2m
2
(n + m2)
n(m2)
2
(m4)
(m > 4)
Si X F
n,m
=
1
X
F
m,n
9.7. Distribucion Exponencial, Exp()
Una v.a. X se dice que sigue una distribucion Exponencial de par ametro > 0,
X Exp(), si su funcion de densidad es de la forma
f(x) = e
x
x 0
112 Estadstica
Figura 9.7: Funcion de densidad de una distribuci on Exp()

_
+

f(x) dx =
_
+
0
e
x
dx = 1
Funcion de distribucion
F(x) =
_
x

f(x) dx =
_
x
0
e
x
dx = 1 e
x
Funcion caracterstica
(t) = E[e
itX
] =
_
+

e
itx
f(x) dx =
_
+
0
e
(it)x
dx =

it
(t) =

it
Esperanza

(t) =
i
( it)
2
=

(0) =
i

= E[X] =

(0)
i
=
1

E[X] =
1

Varianza

(t) =
2i
2
( it)
3

(0) =
2i
2

2
9 Distribuciones de probabilidad continuas 113
E[X
2
] =

(0)
i
2
=
2

2
Var(X) = E[X
2
] (E[X])
2
=
2

2

1

2
=
1

2
Var[X] =
1

2
9.7.1. Teorema de adicion para distribuciones Exponenciales
Sean X
1
Exp(), . . . , X
n
Exp(), n v.a. Exponenciales independientes. Enton-
ces la nueva variable aleatoria
Y = X
1
+ + X
n
Er(n, )
Para demostrarlo, utilizamos las funciones caractersticas de las variables X
k
, y el
hecho de que son independientes,

X
k
(t) =

it
k = 1, 2, . . . , n

Y
(t) = E[e
itY
] = E[e
it(X
1
++Xn)
] = E[e
itX
1
e
itXn
] = E[e
itX
1
] E[e
itXn
] =
=
X
1
(t)
Xn
(t) =

it


it
=
_

it
_
n
Pero, esta es la funcion caracterstica de una distribucion de Erlang de par ametros
n y (Sec. 9.8).
9.8. Distribucion de Erlang Er(n, )
Una v.a. X se dice que sigue una distribucion de Erlang de par ametros n y > 0,
X Er(n, ), si su funcion de densidad es de la forma
f(x) =

n
(n)
x
n1
e
x
x 0

_
+

f(x) dx =

n
(n)
_
+
0
x
n1
e
x
dx =

n
(n)
_
+
0
_
u

_
n1
e
u
1

du =
=
1
(n)
_
+
0
u
n1
e
u
du =
1
(n)
(n) = 1
114 Estadstica
Figura 9.8: Funcion de densidad de una distribucion Er(n, )
Funcion caracterstica
(t) = E[e
itX
] =
_
+

e
itx
f(x) dx =

n
(n)
_
+
0
x
n1
e
(it)x
dx =
=

n
(n)
_
+
0
_
u
it
_
n1
e
u
1
it
du =

n
(n)
1
( it)
n
_
+
0
u
n1
e
u
du =
=

n
(n)
1
( it)
n
(n) =
_

it
_
n
(t) =
_

it
_
n
Esperanza

(t) =
n
n
i
( it)
n+1
=

(0) =
ni

= E[X] =

(0)
i
=
n

E[X] =
n

Varianza

(t) =
n(n + 1)
n
i
2
( it)
n+2

(0) =
n(n + 1)i
2

2
9 Distribuciones de probabilidad continuas 115
E[X
2
] =

(0)
i
2
=
n(n + 1)

2
Var(X) = E[X
2
] (E[X])
2
=
n(n + 1)

2

n
2

2
=
n

2
Var[X] =
n

2
9.8.1. Teorema de adicion para distribuciones de Erlang
Sean X
1
Er(n
1
, ), . . . , X
r
Er(n
r
, ), r v.a. de Erlang independientes. Entonces
la nueva variable aleatoria
Y = X
1
+ + X
r
Er(n
1
+ + n
r
, )
Para demostrarlo, utilizamos las funciones caractersticas de las variables X
k
, y el
hecho de que son independientes,

X
k
(t) =
_

it
_
n
k
k = 1, 2, . . . , r

Y
(t) = E[e
itY
] = E[e
it(X
1
++Xr)
] = E[e
itX
1
e
itXr
] = E[e
itX
1
] E[e
itXr
] =
=
X
1
(t)
Xr
(t) =
_

it
_
n
1

_

it
_
nr
=
_

it
_
n
1
++nr
Pero, esta es la funcion caracterstica de una distribucion de Erlang de par ametros
n = n
1
+ + n
r
y .
9.9. Relacion entre las distribuciones de Poisson, Ex-
ponencial y Erlang
En la seccion 8.3, denimos la v.a. de Poisson, P(), como la variable que cuenta
el n umero de eventos que ocurren por unidad de tiempo o espacio, siendo el n umero
medio de estos eventos que ocurren por unidad de tiempo o espacio. L ogicamente, el
n umero medio de eventos que ocurren en t unidades de tiempo o espacio sera ( t), por
tanto, la v.a. que cuenta el n umero de eventos que ocurren en t unidades de tiempo o
espacio sigue una distribucion de Poisson, P( t), de par ametro ( t). As, sean
116 Estadstica
X P() N umero de eventos de Poisson que ocurren en una unidad de
tiempo
P(X = x) = P(ocurran x eventos en una unidad de tiempo) =
=

x
x!
e

x = 0, 1, 2, . . .
X
t
P(t) N umero de eventos de Poisson que ocurren en t unidades de
tiempo
P(X
t
= x) = P(ocurran x eventos en t unidades de tiempo) =
=
(t)
x
x!
e
t
x = 0, 1, 2, . . .
Supongamos que estamos interesados en saber cu ando ocurre el primero de estos
eventos de Poisson; es decir, sea
Y Tiempo transcurrido hasta que ocurre el primer evento de Poisson
G
Y
(t) = P(Y t) =
= P(el primer evento ocurra antes de t unidades de tiempo) =
= 1 P(Y t) =
= 1 P(el primer evento ocurra pasadas t unidades de tiempo) =
= 1 P(en t unidades de tiempo ocurran 0 eventos de Poisson) =
= 1 P(X
t
= 0) = 1 e
t
(t)
0
0!
= 1 e
t
Pero, esta es la funcion de distribucion de una Exponencial de par ametro . Por
tanto,
Y Exp()
9 Distribuciones de probabilidad continuas 117
Supongamos ahora, que estamos interesados en saber cu ando ocurre el n-esimo de
estos eventos de Poisson; es decir, sea
Z Tiempo transcurrido hasta que ocurre el n-esimo evento de Poisson
Como los sucesos de Poisson ocurren de forma independiente, una vez que ocurre un
suceso de Poisson, ese instante es el origen de tiempos para el suceso siguiente, es decir
Z Tiempo transcurrido hasta que ocurre el n-esimo evento de Poisson
Tiempo transcurrido hasta que ocurre el 1
er
evento de Poisson+
+Tiempo transcurrido entre el 1
o
y el 2
o
eventos de Poisson+
+Tiempo transcurrido entre el 2
o
y el 3
o
eventos de Poisson+
+ + Tiempo transcurrido entre el (n 1)
o
y el n
o
eventos de Poisson
Exp() + Exp() + Exp() + + Exp() Er(n, )
Por tanto,
Z Er(n, )
9.10. Distribucion de Weibull, W(r, )
Sea X una v.a. con distribucion Exponencial de par ametro , es decir, X Exp().
Se dice que la variable aleatoria Y sigue una distribucion de Weibull de par ametros r > 0
y , Y W(r, ), si es
Y = X
1/r
Veamos algunas propiedades de la distribucion de Weibull
Funcion de densidad
G
Y
(y) = P(Y y) = P(X
1/r
y) = P(X y
r
) = F
X
(y
r
)
g
Y
(y) = G

Y
(y) = F

X
(y
r
)ry
r1
= f
X
(y
r
)ry
r1
Por tanto,
118 Estadstica
g
Y
(y) = r y
r1
e
y
r
y 0
Esperanza
E[Y ] = E[X
1/r
] =
_
+

x
1/r
f
X
(x) dx =
_
+
0
x
1/r
e
x
dx =
=

_
1 +
1
r
_

1+
1
r
=

1
r

_
1 +
1
r
_
E[Y ] =
1/r

_
1 +
1
r
_
Varianza
E[Y
2
] = E[X
2/r
] =
_
+

x
2/r
f
X
(x) dx =
_
+
0
x
2/r
e
x
dx =
=

_
1 +
2
r
_

1+
2
r
=

2
r

_
1 +
2
r
_
Var(Y ) = E[Y
2
] (E[Y ])
2
=

2
r
_

_
1 +
2
r
_

2
_
1 +
1
r
_
Var(Y ) =
2/r
_

_
1 +
2
r
_

2
_
1 +
1
r
_
9.11. Distribucion Gamma, G(p, q)
Una v.a. X se dice que sigue una distribucion Gamma de par ametros p > 0 y q > 0,
X G(p, q), si su funcion de densidad es de la forma
f(x) =
q
p
(p)
x
p1
e
qx
x 0
Como se puede comprobar, la distribucion de Erlang es un caso particular de la
distribuci on Gamma, para p = n y q = . Es decir, Er(n, ) = G(p = n, q = ). Por tanto
los calculos son los mismos y no los vamos a repetir, solo citaremos los resultados.
Funcion caracterstica
(t) =
_
q
q it
_
p
9 Distribuciones de probabilidad continuas 119
Figura 9.9: Funcion de densidad de una distribuci on G(p, q)
Esperanza y Varianza
E[X] =
p
q
Var[X] =
p
q
2
9.11.1. Teorema de adicion para distribuciones Gamma
Sean X
1
G(p
1
, q), . . . , X
n
G(p
n
, q), n v.a. Gamma independientes. Entonces la
nueva variable aleatoria
Y = X
1
+ + X
n
G(p
1
+ + p
n
, q)
Para demostrarlo, utilizamos las funciones caractersticas de las variables X
k
, y el
hecho de que son independientes,

X
k
(t) =
_
q
q it
_
p
k
k = 1, 2, . . . , n

Y
(t) = E[e
itY
] = E[e
it(X
1
++Xn)
] = E[e
itX
1
e
itXn
] = E[e
itX
1
] E[e
itXn
] =
=
X
1
(t)
Xn
(t) =
_
q
q it
_
p
1

_
q
q it
_
pn
=
_
q
q it
_
p
1
++pn
Pero, esta es la funcion caracterstica de una distribucion Gamma de par ametros
p = p
1
+ + p
n
y q.
120 Estadstica
9.12. Distribucion Beta, B(p, q)
Una v.a. X se dice que sigue una distribucion Beta de par ametros p > 0 y q > 0,
X B(p, q), si su funcion de densidad es de la forma
f(x) =
1
(p, q)
x
p1
(1 x)
q1
0 x 1
Figura 9.10: Funcion de densidad de una distribuci on B(p, q)

_
+

f(x) dx =
1
(p, q)
_
1
0
x
p1
(1 x)
q1
dx =
1
(p, q)
(p, q) = 1
Esperanza
E[X] =
_
+

xf(x) dx =
1
(p, q)
_
1
0
x
p
(1 x)
q1
dx =
1
(p, q)
(p + 1, q) =
=
(p + q)
(p)(q)
(p + 1)(q)
(p + q + 1)
=
(p + q)
(p)
p(p)
(p + q)(p + q)
=
p
p + q
E[X] =
p
p + q
Varianza
E[X
2
] =
_
+

x
2
f(x) dx =
1
(p, q)
_
1
0
x
p+1
(1 x)
q1
dx =
=
1
(p, q)
(p + 2, q) =
(p + q)
(p)(q)
(p + 2)(q)
(p + q + 2)
=
9 Distribuciones de probabilidad continuas 121
=
(p + q)
(p)
(p + 1)p(p)
(p + q + 1)(p + q)(p + q)
=
(p + 1)p
(p + q + 1)(p + q)
Var(X) = E[X
2
] (E[X])
2
=
(p + 1)p
(p + q + 1)(p + q)

_
p
p + q
_
2
=
=
pq
(p + q + 1) (p + q)
2
Var(X) =
pq
(p + q + 1) (p + q)
2
9.12.1. Transformaciones
Sean X
1
G(p
1
, 1) y X
2
G(p
2
, 1) dos v.a. Gamma independientes, entonces
X
1
X
1
+ X
2
B(p
1
, p
2
)
Sea X F
n,m
una v.a. F-Snedecor, entonces
_
1 +
n
m
X
_
1
B(m/2, n/2)
nX
m+ nX
B(n/2, m/2)
9.13. Relaciones entre distribuciones continuas
En la gura 9.13 se muestra un croquis de las relaciones que existen entre las distintas
distribuciones continuas estudiadas en este captulo.
122 Estadstica
N(0,1)
t
F
G(p,q)
B(p,q)
U(0,1)
U(a,b) W(r,
Log-N( , ) N( ,)

Exp()
)
Er(n,
a=0
)
n
m,n
n
2
m=1
n=2
r=1
p=1
q=1
n=1
p=n
q=
n
n
=0
=1
=
p
=
n
/
2



q
=
1
/
2

2
= p
2
q
q
a + (b-a)

2
m

n
2
n
(
e
Ln
1/r
pq
caso particular
transformacion
distribucion limite
ver distribucion Beta )
Ln
m
X
X
X
X X
1
2 1
+
X + + X
1 n
X
X
X + + X
1
n
2 2
X
b=1
Figura 9.11: Relaciones entre distribuciones continuas
9 Distribuciones de probabilidad continuas 123
9.14. Distribucion Normal Bidimensional
Una v.a. bidimensional (X, Y ) se dice que sigue una distribuci on Normal Bidimen-
sional, si su funcion de densidad conjunta, denida en R
2
, es de la forma
f(x, y) =
1
2
X

Y
_
1
2

exp
_

1
2(1
2
)
_
_
x
X

X
_
2
2
_
x
X

X
__
y
Y

Y
_
+
_
y
Y

Y
_
2
__
siendo

X
= E[X]
2
X
= Var(X)

Y
= E[Y ]
2
Y
= Var(Y )
=
Cov(X, Y )
_
Var(X)
_
Var(Y )
=

XY

Y
Coeciente de correlaci on lineal de (X, Y )
Funcion caracterstica
(t
1
, t
2
) = E[e
it
1
X+it
2
Y
] = e
i(
X
t
1
+
Y
t
2
)
1
2
(
2
X
t
2
1
+2
X

Y
t
1
t
2
+
2
Y
t
2
2
)
Distribuciones marginales

X
(t) = (t, 0) = e
i
X
t
1
2

2
X
t
2
= X N(
X
,
X
)

Y
(t) = (0, t) = e
i
Y
t
1
2

2
Y
t
2
= Y N(
Y
,
Y
)
Por tanto, las funciones de densidad marginales son
f
X
(x) =
_
+

f(x, y) dy =
1

2
e

1
2
(
x
X

X
)
2
x R
f
Y
(y) =
_
+

f(x, y) dy =
1

2
e

1
2
(
y
Y

Y
)
2
y R
Es decir, si (X, Y ) es una v.a. Normal Bidimensional, entonces X e Y son v.a.
Normales unidimensionales. En general, lo contrario no es cierto. O sea, si X e Y son v.a.
124 Estadstica
Normales unidimensionales, la v.a. (X, Y ) no siempre es una Normal Bidimensional. Lo
vemos con un ejemplo
Ejemplo.- Sea (X, Y ) una v.a. bidimensional con funcion de densidad conjunta
f(x, y) =
1
2
_

2
_
1
2
e

1
2(1
2
)
(x
2
2xy+y
2
)
+
+

2
_
1
2
e

1
2(1
2
)
(x
2
+2xy+y
2
)
_
(x, y) R
2
Claramente, (X, Y ) no es Normal Bidimensional, sin embargo, las distribuciones
marginales de X e Y son
f
X
(x) =
_
+

f(x, y) dy =
1

2
e

x
2
2
x R
f
Y
(y) =
_
+

f(x, y) dy =
1

2
e

y
2
2
y R
es decir, X N(0, 1) e Y N(0, 1).
Distribuciones condicionadas
f(x|y) =
f(x, y)
f
Y
(y)
=
1

2
X
_
1
2
e

1
2
2
X
(1
2
)

X
+

Y
(y
Y
)

2
f(y|x) =
f(x, y)
f
X
(x)
=
1

2
Y
_
1
2
e

1
2
2
Y
(1
2
)

Y
+

X
(x
X
)

2
Por tanto,
X|
Y
N(, ) con
_

_
=
X
+

X

Y
(y
Y
)
=
X
_
1
2
Y |
X
N(, ) con
_

_
=
Y
+

Y

X
(x
X
)
=
Y
_
1
2
Como se puede comprobar, si = 0, entonces
X|
Y
N(
X
,
X
)
Y |
X
N(
Y
,
Y
)
9 Distribuciones de probabilidad continuas 125
Combinacion lineal de v.a. Normales
Sea (X, Y ) una v.a. Normal Bidimensional, entonces la variable aleatoria
Z = aX + bY N
_
a
X
+ b
Y
,
_
a
2

2
X
+ 2ab
X

Y
+ b
2

2
Y
_
Vamos a demostrarlo utilizando la funcion caracterstica.

Z
(t) = E[e
itZ
] = E[e
it(aX+bY )
] = E[e
i(at)X+i(bt)Y )
] =
= (at, bt) = e
i(a
X
+b
Y
)t
1
2
(a
2

2
X
+2ab
X

Y
+b
2

2
Y
)t
2
Pero, esta es la funcion caracterstica de una distribucion Normal de par ametros
= a
X
+ b
Y
y
2
= a
2

2
X
+ 2ab
X

Y
+ b
2

2
Y
.
Como se puede comprobar facilmente, si = 0, entonces
Z = aX + bY N
_
a
X
+ b
Y
,
_
a
2

2
X
+ b
2

2
Y
_
Independencia de v.a. Normales
Sea (X, Y ) una v.a. Normal Bidimensional, entonces se cumple
X e Y son independientes = 0
2 Si X e Y son independientes = Cov(X, Y ) = 0 = = 0. (Esto es v alido para
cualquier v.a. bidimensional (X, Y ))
2 En sentido contrario, si = 0 =
f(x, y) =
1
2
X

Y
e

1
2

x
X

2
+

y
Y

=
1

2
X
e

1
2

x
X

2
Y
e

1
2

y
Y

2
= f
X
(x) f
Y
(y)
Por tanto, f(x, y) = f
X
(x) f
Y
(y), y X e Y son independientes.
Resumen de las propiedades de la v.a. Normal Bidimensional
2 Si (X, Y ) es Normal Bidimensional = X e Y son Normales Unidimensionales.
2 Si X e Y son Normales Unidimensionales independientes = (X, Y ) es Normal
Bidimensional.
126 Estadstica
2 Si X e Y son Normales Unidimensionales no independientes = / (X, Y ) es Normal
Bidimensional.
2 Si (X, Y ) es Normal Bidimensional = Z = aX + bY es Normal Unidimensional.
2 Si (X, Y ) es Normal Bidimensional = X|
Y
e Y |
X
son Normales Unidimensionales.
2 Si (X, Y ) es Normal Bidimensional = X e Y son independientes = 0.
10
Convergencia de
sucesiones de
variables aleatorias

Indice
10.1. Convergencia en ley . . . . . . . . . . . . . . . . . . . . . . . . . 128
10.2. Problema central del lmite . . . . . . . . . . . . . . . . . . . . 129
10.2.1. Teorema de Levy-Lindeberg . . . . . . . . . . . . . . . . . . . . 129
10.2.2. Teorema de Lindeberg . . . . . . . . . . . . . . . . . . . . . . . 129
10.3. Aproximaciones a la distribuci on Normal . . . . . . . . . . . . 130
10.3.1. Distribucion Binomial . . . . . . . . . . . . . . . . . . . . . . . 130
10.3.2. Distribucion de Poisson . . . . . . . . . . . . . . . . . . . . . . 131
10.3.2.1. Correccion de Yates . . . . . . . . . . . . . . . . . . . 131
10.3.3. Distribucion
2
de Pearson . . . . . . . . . . . . . . . . . . . . 132
10.3.4. Distribucion t-Student . . . . . . . . . . . . . . . . . . . . . . . 132
127
128 Estadstica
10.1. Convergencia en ley
Sea {F
n
} una sucesion de funciones de distribucion. Se dice que {F
n
} converge en
ley o en distribuci on a la funcion de distribucion F, si
lm
n
F
n
(x) = F(x) x C
F
siendo C
F
el conjunto de puntos de continuidad de F. La notaci on sera
{F
n
}
L
F
Ejemplo.- Sea
F
n
(x) =
_

_
0 x < 0
nx 0 x <
1
n
1 x
1
n
= lm
n
F
n
(x) = G(x) =
_
0 x 0
1 x > 0
pero, G no es una funcion de distribucion (no es continua por la derecha en x = 0), por
tanto, {F
n
} no converge en ley a G. En cambio, si consideramos
F(x) =
_
0 x < 0
1 x 0
F es funcion de distribucion, y {F
n
} converge en ley a F, pues
lm
n
F
n
(x) = F(x) x R {0}
pero 0 / C
F
, por tanto
lm
n
F
n
(x) = F(x) x C
F
Consideremos ahora una sucesion de v.a., {X
n
}, con funciones de distribuci on {F
n
}
y funciones caractersticas {
n
}. Y, sea X una v.a. con funcion de distribuci on F y funcion
caracterstica . Entonces
Se dice que {X
n
} converge en ley a la v.a. X, si {F
n
} converge en ley a F, y se
notara por
{X
n
}
L
X
Si {F
n
} converge en ley a F, entonces {
n
} converge puntualmente a , es decir
lm
n

n
(t) = (t) t R
Si {
n
} converge puntualmente a una funcion continua en 0, entonces es la
funcion caracterstica asociada a una v.a. Y con funcion de distribuci on G, y se
cumple que {F
n
} converge en ley a G.
10 Convergencia de sucesiones de variables aleatorias 129
10.2. Problema central del lmite
Dada una sucesion de v.a., {X
n
}, denidas sobre el mismo espacio probabilstico, se
dice que verica el problema central del lmite, si se cumple
n

k=1
X
k
E
_
n

k=1
X
k
_

_
Var
_
n

k=1
X
k
_
L
N(0, 1)
10.2.1. Teorema de Levy-Lindeberg
Sea {X
n
} una sucesion de v.a. independientes e identicamente distribuidas, con
E[X
n
] = < + y Var(X
n
) =
2
< +. Entonces, {X
n
} verica el problema central
del lmite. Es decir
n

k=1
X
k
=
_

_
E
_
n

k=1
X
k
_
=
n

k=1
E[X
k
] = n
Var
_
n

k=1
X
k
_
=
n

k=1
Var(X
k
) = n
2
y, se cumple
n

k=1
X
k
E
_
n

k=1
X
k
_

_
Var
_
n

k=1
X
k
_
=
n

k=1
X
k
n

n
L
N(0, 1)
o, lo que es lo mismo
n

k=1
X
k
L
N(n,

n)
10.2.2. Teorema de Lindeberg
Sea {X
n
} una sucesion de v.a. independientes tales que :
130 Estadstica
i) Y
n
=
n

i=1
X
i
ii) E[X
n
] =
n
< + n N
iii) k 3 tal que M
k
(X
n
) = E[(X
n

n
)
k
] < + n N
iv) lm
n
n

i=1
M
k
(X
i
)

k
(Y
n
)
= lm
n
n

i=1
E[(X
i

i
)
k
]
_
_
Var(Y
n
)
_
k
= 0
Entonces, {X
n
} verica el problema central del lmite.
Si k = 3, el Teorema de Lindeberg se conoce como Teorema de Liapunov.
10.3. Aproximaciones a la distribucion Normal
10.3.1. Distribucion Binomial
Sea {X
n
} una sucesion de v.a. independientes e identicamente distribuidas seg un
una B(1, p), es decir, X
n
B(1, p) n N. Entonces,
n

k=1
X
k
B(n, p) =
_

_
E
_
n

k=1
X
k
_
= np
Var
_
n

k=1
X
k
_
= npq
y, se cumple
n

k=1
X
k
E
_
n

k=1
X
k
_

_
Var
_
n

k=1
X
k
_
=
B(n, p) np

npq
L
N(0, 1)
Es decir, para un n sucientemente grande se cumple que
B(n, p) np

npq

= N(0, 1) = B(n, p)

= N(np,

npq )
En la pr actica, esta aproximacion es buena cuando np(1 p) > 5.
10 Convergencia de sucesiones de variables aleatorias 131
10.3.2. Distribucion de Poisson
Puesto que la distribucion Binomial se comporta en el lmite como una Poisson,
tambien esta ultima se puede aproximar por una Normal. En la practica, si > 5 entonces
se puede utilizar la siguiente aproximacion
P()

= N(,

)
10.3.2.1. Correcci on de Yates
Cuando una variable aleatoria discreta se aproxima por una variable aleatoria con-
tinua, como es el caso de la Binomial o la Poisson por la Normal, surge un problema a la
hora de calcular probabilidades. Por ejemplo, sabemos que
P (x
1
B(n, p) x
2
) = P (x
1
< B(n, p) x
2
)
P (B(n, p) = x) = 0
sin embargo,
P
_
x
1
N(np,

npq ) x
2
_
= P
_
x
1
< N(np,

npq ) x
2
_
P
_
N(np,

npq ) = x
_
= 0
Para resolver este problema se aplica la correccion de Yates, que consiste en ampliar
o reducir el intervalo de integraci on de la v.a. continua, para asegurar la inclusi on o
exclusion de los lmites de la v.a. discreta. De forma general, si X es una v.a. discreta, e
Y una v.a. continua tal que X

= Y , entonces
P(X = x) P(x 0.5 Y x + 0.5)
P(x
1
< X x
2
) P(x
1
+ 0.5 Y x
2
+ 0.5)
P(x
1
X x
2
) P(x
1
0.5 Y x
2
+ 0.5)
P(x
1
< X < x
2
) P(x
1
+ 0.5 Y x
2
0.5)
P(x
1
X < x
2
) P(x
1
0.5 Y x
2
0.5)
132 Estadstica
10.3.3. Distribucion
2
de Pearson
Como la distribucion Chi-cuadrado con n grados de libertad se dene como la suma
de n v.a. independientes e identicamente distribuidas, cuando n 30 se puede utilizar la
siguiente aproximacion
_
2
2
n

= N
_
2n 1, 1
_
10.3.4. Distribucion t-Student
Teniendo en cuenta que una distribucion t-Student con n grados de libertad se dene
como el cociente
t
n
=
N(0, 1)
_

2
n
n
y, que la distribucion
2
n
se puede aproximar por una Normal, cuando n 30 se puede
utilizar la siguiente aproximacion
t
n

= N
_
0,
_
n
n 2
_
11
Regresion
y correlacion

Indice
11.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
11.2. Regresion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
11.2.1. Metodo de los mnimos cuadrados . . . . . . . . . . . . . . . . 134
11.2.2. Metodo de la distribucion condicional . . . . . . . . . . . . . . 136
11.2.3. Regresion Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 137
11.2.3.1. Metodo de los mnimos cuadrados . . . . . . . . . . . 137
11.2.3.2. Metodo de la distribucion condicional . . . . . . . . . 138
11.3. Correlaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
11.3.1. Coeciente de correlaci on lineal . . . . . . . . . . . . . . . . . . 140
133
134 Estadstica
11.1. Introduccion
Sea (X, Y ) una v.a. bidimensional. Algo que nos podemos preguntar es si existe
alg un tipo de relaci on entre las dos variables que forman el par, es decir, si existe alguna
funcion que las relaciona. Por supuesto, el hecho de que exista alguna relaci on entre ellas
implica que no son independientes.
Tenemos pues dos objetivos,
1.- Determinar la funcion Y = h
1
(X) que mejor expresa el comportamiento de la v.a. Y
para cada valor que pueda tomar X. Esta funcion se conoce como curva de regresion
de Y sobre X. Igualmente, se puede determinar la funcion X = h
2
(Y ) que mejor
expresa el comportamiento de la v.a. X para cada valor que pueda tomar Y . Esta
funcion se conoce como curva de regresion de X sobre Y .
2.- Medir el grado de asociacion que pueda existir entre las dos v.a. Este par ametro se
conoce como coeciente de correlacion.
La regresi on tiene dos signicados. Uno, surge de la distribuci on conjunta de las dos
v.a., y es el que vamos a estudiar en este captulo. El otro, que estudiaremos m as adelante,
es emprico, y nace de la necesidad de ajustar una funcion a un conjunto de datos.
11.2. Regresion
En la regresi on de Y sobre X, como ya se ha dicho, se quiere encontrar una funcion
Y = h
1
(X) que mejor exprese el comportamiento de la v.a. Y para cada valor que pueda
tomar X. Para ello, podemos utilizar dos metodos
11.2.1. Metodo de los mnimos cuadrados
Este metodo consiste en encontrar la funcion Y = h
1
(X) de forma que el error
cuadratico medio (ECM) sea mnimo, siendo
ECM = E
_
(Y h
1
(X))
2

Este metodo tiene el inconveniente de que es necesario conocer a priori la forma de


la funcion h
1
.
Ejemplo 1.- Dada una v.a. bidimensional (X, Y ), con funcion de densidad conjunta
f(x, y) =
4
9
x
2
(x + y) 0 x 1; 0 y 3
11 Regresion y correlacion 135
De las variables X e Y se sabe que existe una relaci on del tipo
Y = aX +
b
X
Se pide, calcular los valores de a y b que mejor ajustan este tipo de relaci on.
ECM = E
_
(Y h
1
(X))
2

= E
_
_
Y aX
b
X
_
2
_
Para calcular el mnimo de ECM, tenemos que derivar respecto de a y b
_

_
ECM
a
= E
_
2(Y aX
b
X
)(X)
_
= 2
_
E[XY ] + aE[X
2
] + b
_
= 0
ECM
b
= E
_
2(Y aX
b
X
)(
1
X
)
_
= 2
_
E
_
Y
X
_
+ a + bE
_
1
X
2
__
= 0
entonces,
_

_
aE[X
2
] + b = E[XY ]
a + bE
_
1
X
2
_
= E
_
Y
X
_
=
_

_
a =
E
_
Y
X
_
E[XY ]E
_
1
X
2
_
1 E[X
2
]E
_
1
X
2
_
b =
E[XY ] E
_
Y
X
_
E[X
2
]
1 E[X
2
]E
_
1
X
2
_
E[X
2
] =
_
+

_
+

x
2
f(x, y) dxdy =
4
9
_
1
x=0
_
3
y=0
x
4
(x + y) dydx =
28
45
E
_
1
X
2
_
=
_
+

_
+

1
x
2
f(x, y) dxdy =
4
9
_
1
x=0
_
3
y=0
(x + y) dydx =
8
3
E
_
Y
X
_
=
_
+

_
+

y
x
f(x, y) dxdy =
4
9
_
1
x=0
_
3
y=0
xy(x + y) dydx =
8
3
E[XY ] =
_
+

_
+

xyf(x, y) dxdy =
4
9
_
1
x=0
_
3
y=0
x
3
y(x + y) dydx =
7
5
Por tanto,
136 Estadstica
_

_
a =
144
89
b =
35
89
y, la relaci on entre las dos variables es de la forma
Y =
144
89
X +
35
89X
11.2.2. Metodo de la distribuci on condicional
Para cada valor x que toma la variable X, el comportamiento de la variable Y viene
denido por la v.a. condicionada Y |
X=x
, con funcion de densidad condicionada f(y|x).
El criterio de este metodo consiste en denir la funcion h
1
de tal forma que asigne
a cada valor x del campo de variacion de la variable X, el valor medio o esperanza de la
variable Y condicionado a ese valor x. Es decir,
y = h
1
(x) = E[Y |
X=x
] =
_
+

yf(y|x) dy
Ejemplo 2.- Dada la v.a. bidimensional (X, Y ) con funcion de densidad conjunta
f(x, y) = x + y 0 x, y 1
Se pide, calcular la curva de regresi on de Y sobre X.
Primero, tenemos que calcular la funcion de densidad condicional f(y|x)
f
X
(x) =
_
+

f(x, y) dy =
_
1
0
(x + y) dy = x +
1
2
0 x 1
f(y|x) =
f(x, y)
f
X
(x)
=
2(x + y)
2x + 1
0 y 1
Ahora,
h
1
(x) = E[Y |
X=x
] =
_
+

yf(y|x) dy =
_
1
0
2y(x + y)
2x + 1
dy =
3x + 2
6x + 3
Por tanto, la relaci on entre las dos variables es de la forma
Y =
3X + 2
6X + 3
11 Regresion y correlacion 137
11.2.3. Regresion Lineal
Un caso particular de curva de regresi on de Y sobre X se da cuando la curva que
relaciona las dos variables es una recta del tipo
Y = h
1
(X) = a + bX
11.2.3.1. Metodo de los mnimos cuadrados
ECM = E[(Y h
1
(X)
2
] = E[(Y a bX)
2
]
_

_
ECM
a
= E[2(Y a bX)(1)] = 2 (E[Y ] + a + bE[X]) = 0
ECM
b
= E[2(Y a bX)(X)] = 2
_
E[XY ] + aE[X] + bE[X
2
]
_
= 0
entonces,
_

_
a + bE[X] = E[Y ]
aE[X] + bE[X
2
] = E[XY ]
=
_

_
b =
E[XY ] E[X]E[Y ]
E[X
2
] (E[X])
2
=
Cov(X, Y )
Var(X)
a = E[Y ] bE[X]
Por tanto, la recta de regresi on lineal de Y sobre X es Y = a + bX, con
b =
Cov(X, Y )
Var(X)
=

XY

2
X
a = E[Y ] bE[X] =
Y
b
X
o, expresado de otra forma
Y = a + bX =
Y
b
X
+ bX =
Y
+ b(X
X
) =
Y
Y
=

XY

2
X
(X
X
)
De igual forma, la recta de regresi on lineal de X sobre Y es X = a

+ b

Y , con
138 Estadstica
b

=
Cov(X, Y )
Var(Y )
=

XY

2
Y
a

= E[X] b

E[Y ] =
X
b

Y
o, expresado de otra forma
X = a

+ b

Y =
X
b

Y
+ b

Y =
X
+ b

(Y
Y
) =
X
X
=

XY

2
Y
(Y
Y
)
Los coecientes b y b

(las pendientes de las rectas de regresi on de Y sobre X y


de X sobre Y , respectivamente), se llaman coecientes de regresion lineal. Siempre
tienen el mismo signo, por tanto, o las dos rectas son crecientes o las dos rectas son
decrecientes, siempre que Cov(X, Y ) = 0.
El punto de interseccion de las dos rectas de regresi on se denomina centro de gravedad
de la v.a. bidimensional (X, Y ).
11.2.3.2. Metodo de la distribucion condicional
Si al aplicar el metodo de la distribucion condicional para obtener la curva de re-
gresion de Y sobre X obtenemos una recta, entonces
y = E[Y |
X=x
] = a + bx
Es decir,
E[Y |
X=x
] =
_
+

yf(y|x) dy =
_
+

y
f(x, y)
f
X
(x)
dy =
=
1
f
X
(x)
_
+

yf(x, y) dy = a + bx =
_
+

yf(x, y) dy = af
X
(x) + bxf
X
(x)
Entonces,
11 Regresion y correlacion 139
_

_
_
+

_
+

yf(x, y) dydx =
_
+

af
X
(x) dx +
_
+

bxf
X
(x) dx
_
+

_
+

xyf(x, y) dydx =
_
+

axf
X
(x) dx +
_
+

bx
2
f
X
(x) dx
=
_

_
E[Y ] = a + bE[X]
E[XY ] = aE[X] + bE[X
2
]
Y, despejando,
_

_
b =
E[XY ] E[X]E[Y ]
E[X
2
] (E[X])
2
=
Cov(X, Y )
Var(X)
a = E[Y ] bE[X]
Por tanto, los coecientes de la recta obtenidos con el metodo de la distribuci on
condicional coinciden con los obtenidos con el metodo de los mnimos cuadrados.
11.3. Correlacion
Ligado al concepto de regresi on (relacion entre dos variables X e Y ), esta el de
correlaci on (grado de relaci on entre las variables X e Y ). Es decir, al calcular la curva de
regresi on de Y sobre X, Y = h
1
(X), en realidad estamos calculando una funcion que, con
el criterio que hayamos escogido, mejor ajusta los valores de la variable Y para un valor
dado de la variable X. Ahora, debemos cuanticar como es de bueno ese ajuste.
Una forma bastante l ogica de cuanticar la bondad del ajuste consiste en medir
la diferencia entre el verdadero valor de la variable Y , y el valor asignado por la curva
de regresi on, h
1
(X). Para que las diferencias positivas no se cancelen con las negativas,
generalmente se recurre al estudio de las diferencias al cuadrado. As, se dene la varianza
residual,
2
R
, como la media cuadratica de estos errores

2
R
= E
_
(Y h
1
(X))
2

Como se puede comprobar, coincide con el error cuadratico medio. Partiendo de


2
R
,
Pearson deni o el coeciente general de correlacion como
140 Estadstica

G
=

1

2
R

2
Y
mientras que
2
G
se denomina coeciente general de determinacion.
En cualquier caso, se cumple
0
2
G
1
1
G
1
11.3.1. Coeciente de correlaci on lineal
Ya que generalmente la regresi on que m as se utiliza es la lineal, vamos a estudiar
con m as profundidad el coeciente de correlaci on lineal.
Si partimos de la recta de regresi on de Y sobre X calculada en la seccion 11.2.3,
Y = h
1
(X) =
Y
+

XY

2
X
(X
X
)
La varianza residual sera

2
R
= E
_
(Y h
1
(X))
2

= E
_
_
Y
Y


XY

2
X
(X
X
)
_
2
_
=
= E
_
(Y
Y
)
2

+

2
XY

4
X
E
_
(X
X
)
2

XY

2
X
E[(Y
Y
)(X
X
)] =
=
2
Y
+

2
XY

4
X

2
X
2

XY

2
X

XY
=
2
Y


2
XY

2
X
Y, el coeciente de correlacion lineal es
=

1

2
R

2
Y
=

_
1

2
Y


2
XY

2
X

2
Y
=

1 1 +

2
XY

2
X

2
Y
=
=

XY

Y
=
Cov(X, Y )
_
Var(X) Var(Y )
que, como se puede comprobar, coincide con el estudiado en la seccion 7.6.2. Adem as, el
coeciente de determinacion lineal viene dado por
11 Regresion y correlacion 141

2
=

2
XY

2
X

2
Y
=
Cov
2
(X, Y )
Var(X) Var(Y )
Veamos algunas propiedades de estos coecientes.
Como ocurre de forma general,
0
2
1 y 1 1
Los coecientes de regresi on lineal, b y b

, y el coeciente de correlaci on lineal, , tie-


nen el mismo signo, pues este solo depende del signo de Cov(X, Y ). Si Cov(X, Y ) >
0, entonces las rectas de regresi on son crecientes y el coeciente de correlaci on lineal
es positivo. Si Cov(X, Y ) < 0, entonces las rectas de regresi on son decrecientes y el
coeciente de correlaci on lineal es negativo.
Como b =

XY

2
X
y b

=

XY

2
Y
, entonces,
=

b b

Como
b =

XY

2
X
=

XY

X
=

Y

X
b

=

XY

2
Y
=

XY

Y
=

X

Y
las rectas de regresi on tambien se pueden escribir como,
Y
Y
=

Y

X
(X
X
)
X
X
=

X

Y
(Y
Y
)
142 Estadstica
12
Distribuciones
de muestreo

Indice
12.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
12.2. Denicion de estadstico . . . . . . . . . . . . . . . . . . . . . . 145
12.3. Estadstico media muestral . . . . . . . . . . . . . . . . . . . . . 145
12.3.1. Poblaci on Madre Normal . . . . . . . . . . . . . . . . . . . . . 145
12.3.2. Poblaci on Madre no Normal . . . . . . . . . . . . . . . . . . . . 146
12.4. Estadstico
(n 1)s
2

2
. . . . . . . . . . . . . . . . . . . . . . . . 146
12.5. Estadstico
x
s/

n
. . . . . . . . . . . . . . . . . . . . . . . . . . 147
12.5.1. Poblaci on Madre Normal . . . . . . . . . . . . . . . . . . . . . 147
12.5.2. Poblaci on Madre no Normal . . . . . . . . . . . . . . . . . . . . 148
12.6. Estadstico varianza muestral . . . . . . . . . . . . . . . . . . . 148
12.6.1. Poblaci on Madre Normal . . . . . . . . . . . . . . . . . . . . . 148
12.6.2. Poblaci on Madre no Normal . . . . . . . . . . . . . . . . . . . . 149
12.7. Estadstico desviaci on tpica muestral . . . . . . . . . . . . . . 150
12.8. Estadstico diferencia de medias muestrales . . . . . . . . . . . 152
12.9. Estadstico cociente de varianzas muestrales . . . . . . . . . . 153
12.10.Estadstico proporcion muestral . . . . . . . . . . . . . . . . . . 154
12.11.Estadstico elemento que ocupa el lugar r . . . . . . . . . . . . 155
12.11.1.Estadstico m aximo valor de una muestra . . . . . . . . . . . . 155
12.11.2.Estadstico mnimo valor de una muestra . . . . . . . . . . . . 156
12.11.3.Estadstico recorrido de una muestra . . . . . . . . . . . . . . . 156
12.11.4.Estimacion de cuantiles . . . . . . . . . . . . . . . . . . . . . . 157
143
144 Estadstica
12.1. Introduccion
Consideremos una poblacion de la que necesitamos analizar alguna caracterstica.
Lo ideal sera estudiar todos y cada uno de los elementos de esa poblacion, pero esto, en la
gran mayora de las ocasiones resulta difcil, caro e incluso, a veces, imposible. Ello obliga
a elegir un determinado n umero de elementos (muestra) de la poblacion, analizar en ellos
la caracterstica antes mencionada y, de los resultados obtenidos, inferir lo que sucede en
la totalidad de la poblacion. Esto nos lleva a la Teora de Muestras.
A la poblacion objeto del estudio le damos el nombre de Poblacion Madre (P.M.).
Consideramos esta en su totalidad, y por un metodo aleatorio elegimos n elementos,
obteniendo lo que se llama una muestra de tama no n. Ahora bien, los n elementos se
pueden extraer de dos maneras:
Todos a la vez (o uno a uno sin reemplazamiento), con lo cual el n umero de muestras
posibles de tama no n que se pueden obtener esta determinado por
_
N
n
_
, siendo
N el n umero total de elementos de la Poblacion Madre. Adem as, el n umero de
muestras posibles, considerando todos los tama nos, es nito:
_
N
1
_
+
_
N
2
_
+ +
_
N
N
_
= 2
N
1
Esto dar a lugar al estudio de unas consecuencias que quedaran reejadas en la
llamada Teora de Muestras de Poblacion Finita.
La muestra de tama no n se obtiene sacando los elementos uno a uno, con reempla-
zamiento. A este tipo de muestra le daremos el nombre de muestra aleatoria simple
(m.a.s.) de tama no n. En este caso, no importa el tama no N de la P.M., que incluso
pudiera ser N < n. Ahora, el n umero de muestras posibles, considerando todos los
tama nos, es innito.
Esto dar a lugar al estudio de unas consecuencias que quedaran reejadas en la
llamada Teora de Muestras de Poblacion Innita.
En general, mientras no se especique lo contrario, a lo largo de este curso considera-
remos siempre que, por defecto, la muestra se ha obtenido con reemplazamiento. Es decir,
se trata de una m.a.s. Solo en el captulo 14 daremos una descripci on de los resultados
referentes a las muestras obtenidas sin reemplazamiento.
12 Distribuciones de muestreo 145
12.2. Denicion de estadstico
Consideremos, en un espacio unidimensional, una Poblacion Madre denida por su
funcion de densidad f(x). De ella, extraemos una m.a.s. de tama no n, {x
1
, x
2
, . . . , x
n
}.
Cada uno de los valores x
i
son extracciones aleatorias e independientes obtenidas de una
P.M. intacta (extraccion con reemplazamiento). Los posibles valores de cada una de las
extracciones, x
i
, es una variable aleatoria, X
i
. Por tanto, con este procedimiento hemos
construido una variable aleatoria n-dimensional X = (X
1
, X
2
, . . . , X
n
), donde todas las
v.a. son independientes e identicamente distribuidas con la misma distribuci on que la
v.a. asociada a la P.M. Es decir, si la P.M. sigue una distribucion N(, ), entonces cada
X
i
N(, ).
LLamaremos Estadstico a cualquier funcion de las n variables aleatorias,
T(X) = T(X
1
, X
2
, . . . , X
n
)
El estudio de la teora de muestras que haremos en este curso estar a dedicado a
obtener la distribucion de la variable aleatoria T(X), cuando T(X) sea cierto tipo de
funcion conocida. Incurriendo en un abuso de notacion, utilizaremos la expresion x
i
para
referirnos tanto a la v.a. X
i
, como a un valor de la misma, x
i
.
12.3. Estadstico media muestral
x =
1
n
n

i=1
x
i
12.3.1. Poblaci on Madre Normal
Dada una m.a.s., {x
1
, . . . , x
n
}, de una P.M. N(, ), sabemos que x
i
N(, )
y que las n v.a. son independientes. Entonces, la v.a. x tambien sigue una distribuci on
Normal, por ser combinacion lineal de v.a. Normales. Adem as,
E[ x] = E
_
1
n
n

i=1
x
i
_
=
1
n
n

i=1
E[x
i
] =
1
n
n

i=1
=
Var( x) = Var
_
1
n
n

i=1
x
i
_
=
1
n
2
n

i=1
Var(x
i
) =
1
n
2
n

i=1

2
=

2
n
Por tanto, si la Poblacion Madre es N(, ) el estadstico media es
146 Estadstica
x N(, /

n)
12.3.2. Poblaci on Madre no Normal
Dada una m.a.s., {x
1
, . . . , x
n
} de una P.M.?(, ) sabemos que x
i
? (, ) y que
las n v.a. son independientes. Entonces, se puede aplicar el Teorema de Levi-Lindeberg.
n

i=1
x
i
E
_
n

i=1
x
i
_

_
Var
_
n

i=1
x
i
_
=
n x n

n
2
=
x
/

n
N(0, 1)
Por tanto,
si n > 30 = x

= N(, /

n)
si n < 30 = x ? (, /

n)
12.4. Estadstico
(n 1)s
2

2
Dada una m.a.s., {x
1
, . . . , x
n
}, de una P.M. N(, ), denimos la varianza mues-
tral, s
2
, como
s
2
=
1
n 1
n

i=1
(x
i
x)
2
Entonces,
12 Distribuciones de muestreo 147
(n 1)s
2

2
=
1

2
n

i=1
(x
i
x)
2
=
1

2
n

i=1
[(x
i
) ( x )]
2
=
=
1

2
_
n

i=1
(x
i
)
2
+
n

i=1
( x )
2
2( x )
n

i=1
(x
i
)
_
=
=
1

2
_
n

i=1
(x
i
)
2
+ n( x )
2
2n( x )
2
_
=
=
1

2
_
n

i=1
(x
i
)
2
n( x )
2
_
=
=
n

i=1
_
x
i

_
2

_
x
/

n
_
2
Pero,
x
i
N(, ) =
x
i

N(0, 1) =
n

i=1
_
x
i

_
2

2
n
x N(, /

n) =
x
/

n
N(0, 1) =
_
x
/

n
_
2

2
1
y, aunque en general la diferencia de dos v.a. Chi-cuadrado no sigue una distribuci on
Chi-cuadrado, en este caso especial se puede demostrar que
(n 1)s
2

2

2
n1
12.5. Estadstico
x
s/

n
12.5.1. Poblaci on Madre Normal
Dada una m.a.s., {x
1
, . . . , x
n
}, de una P.M. N(, ), sabemos que
x N
_
,

n
_
=
x
/

n
N(0, 1)
148 Estadstica
Por otra parte,
(n 1)s
2

2

2
n1
entonces, dividiendo,
x
/

n
_
(n 1)s
2

2
1
n 1
=
N(0, 1)
_

2
n1
n 1
=
x
s/

n
t
n1
Por tanto,
x
s/

n
t
n1
12.5.2. Poblaci on Madre no Normal
Aunque la P.M. no sea Normal, si el tama no de muestra es sucientemente grande,
se puede hacer la aproximacion
2
s
2
y aplicar el Teorema de Levy-Lindeberg. As,
si n > 30 =
x
s/

= N(0, 1)
si n < 30 =
12.6. Estadstico varianza muestral
s
2
=
1
n 1
n

i=1
(x
i
x)
2
12.6.1. Poblaci on Madre Normal
Dada una m.a.s., {x
1
, . . . , x
n
}, de una P.M. N(, ), tenemos
X =
(n 1)s
2

2

2
n1
= s
2
=

2
n 1
X
entonces,
E[s
2
] =

2
n 1
E[X] =

2
n 1
(n 1) =
2
Var(s
2
) =

4
(n 1)
2
Var(X) =

4
(n 1)
2
2(n 1) =
2
4
n 1
12 Distribuciones de muestreo 149
Por tanto,
si n > 100 = s
2

= N
_

2
,
2
_
2
n 1
_
si n < 100 = s
2
?
_

2
,
2
_
2
n 1
_
12.6.2. Poblaci on Madre no Normal
Aunque la P.M. no sea Normal, utilizando el desarrollo del apartado 12.4, llegamos
a
s
2
=
1
n 1
n

i=1
(x
i
)
2

n
n 1
( x )
2
y, por tanto
E[s
2
] =
1
n 1
n

i=1
E[(x
i
)
2
]
n
n 1
E[( x )
2
]
Pero,
E[x
i
] = = E[(x
i
)
2
] = Var(x
i
) =
2
E[ x] = = E[( x )
2
] = Var( x) =

2
n
entonces,
E[s
2
] =
n
n 1

2

n
n 1

2
n
=
2
Operando se puede demostrar tambien que
Var(s
2
) =
4
_
2
n 1
+
CAp
n
_
siendo CAp el coeciente de apuntamiendo o curtosis de la poblacion que, en caso de ser
desconocido, se puede aproximar por el coeciente de curtosis de la muestra.
Por tanto
s
2
= ?
_

2
,
2
_
2
n 1
+
CAp
n
_
150 Estadstica
12.7. Estadstico desviacion tpica muestral
s =
_
1
n 1
n

i=1
(x
i
x)
2
_
1/2
Dada una m.a.s., {x
1
, . . . , x
n
}, de una P.M. N(, ), sea
X =
n 1

2
s
2

2
n1
= f
X
(x) =
1
2
n1
2

_
n 1
2
_ x
n3
2
e

x
2
, x > 0
Hacemos el cambio de variable Y =

2
n 1
X, es decir, Y = s
2
. Entonces
g
Y
(y) =
1
2
n1
2

_
n 1
2
_
_
n 1

2
y
_n3
2
e

n1
2
2
y
n 1

2
, y > 0
Hacemos el cambio de variable T =

Y , es decir, T = s. Entonces
h
T
(t) =
1
2
n1
2

_
n 1
2
_
_
n 1

2
t
2
_n3
2
e

n1
2
2
t
2 n 1

2
2t , t > 0
y, operando
h
T
(t) =
2
_
n 1
2
_n1
2

n1

_
n 1
2
_ t
n2
e

n1
2
2
t
2
, t > 0
Entonces,
12 Distribuciones de muestreo 151
E[T] =
_

0
t h
T
(t) dt =
2
_
n 1
2
_n1
2

n1

_
n 1
2
_
_

0
t
n1
e

n1
2
2
t
2
dt =
=
2
_
n 1
2
_n1
2

n1

_
n 1
2
_
_

0
_

2u

n 1
_
n1
e
u

n 1
1
2

u
du =
=
_
2
n 1
1

_
n 1
2
_
_

0
u
n
2
1
e
u
du =
=
_
2
n 1

_
n
2
_

_
n 1
2
_
donde, para calcular la integral hemos realizado el cambio

u =

n 1

2
Por otra parte,
E[T
2
] = E[s
2
] =
2
Y, por ultimo, la varianza de T viene dada por
Var(T) = E[T
2
] (E[T])
2
=
_
_
_
_
1
2
n 1

2
_
n
2
_

2
_
n 1
2
_
_
_
_
_

2
Por tanto, la distribucion del estadstico s es
si n > 100 = s

= N
_
,
_
1
2(n 1)
_
si n < 100 = s ?
_
_
_
_

_
2
n 1

_
n
2
_

_
n 1
2
_ ,

_
1
2
n 1

2
_
n
2
_

2
_
n 1
2
_
_
_
_
_
152 Estadstica
12.8. Estadstico diferencia de medias muestrales
De dos Poblaciones Normales P.M.= X N(
x
,
x
) y P.M.= Y N(
y
,
y
)
extraemos dos muestras independientes, {x
1
, x
2
, . . . , x
n
} y {y
1
, y
2
, . . . , y
m
}, de tama nos n
y m, con medias y varianzas
x =
1
n
n

i=1
x
i
s
2
x
=
1
n 1
n

i=1
(x
i
x)
2
y =
1
m
m

i=1
y
i
s
2
y
=
1
m1
m

i=1
(y
i
y)
2
Denimos el estadstico diferencia de medias como
x y =
1
n
n

i=1
x
i

1
m
m

i=1
y
i
Si
x
y
y
son conocidos
_

_
x N(
x
,
x
/

n)
=
( x y) (
x

y
)
_

2
x
n
+

2
y
m
N(0, 1)
y N(
y
,
y
/

m)
Si
x
y
y
son desconocidos
si
2
x
=
2
y
=
2
_

_
( x y) (
x

y
)

_
1
n
+
1
m
N(0, 1)
=
( x y) (
x

y
)
S
p
_
1
n
+
1
m
t
n+m2
(n 1)s
2
x
+ (m1)s
2
y

2

2
n+m2
donde
S
p
=

(n 1)s
2
x
+ (m1)s
2
y
n + m2
12 Distribuciones de muestreo 153
si
2
x
=
2
y
( x y) (
x

y
)
_
s
2
x
n
+
s
2
y
m

= t

donde,
=
(A+ B)
2
A
2
n 1
+
B
2
m1
A =
s
2
x
n
, B =
s
2
y
m
12.9. Estadstico cociente de varianzas muestrales
De dos Poblaciones Normales P.M.= X N(
x
,
x
) y P.M.= Y N(
y
,
y
)
extraemos dos muestras independientes, {x
1
, x
2
, . . . , x
n
} y {y
1
, y
2
, . . . , y
m
}, de tama nos n
y m, con medias y varianzas
x =
1
n
n

i=1
x
i
s
2
x
=
1
n 1
n

i=1
(x
i
x)
2
y =
1
m
m

i=1
y
i
s
2
y
=
1
m1
m

i=1
(y
i
y)
2
Denimos el estadstico cociente de varianzas como
s
2
x
s
2
y
=
1
n 1
n

i=1
(x
i
x)
2
1
m1
m

i=1
(y
i
y)
2
Del apartado 12.4 sabemos que
(n 1)s
2
x

2
x

2
n1
(m1)s
2
y

2
y

2
m1
entonces, como

2
n1
/(n1)

2
m1
/(m1)
F
n1,m1
,
s
2
x
/
2
x
s
2
y
/
2
y
F
n1,m1
154 Estadstica
12.10. Estadstico proporcion muestral
Partimos de una P.M. Binomial de par ametro p, es decir, p es la proporci on de exitos
de la Poblacion. Extraemos una m.a.s. {x
1
, . . . , x
n
} y asignamos los valores
x
i
=
_
1 si es exito
0 si es fracaso
es decir, cada v.a. x
i
B(1, p)
Sean las v.a.
X n umero de exitos de la muestra
p proporci on de exitos de la muestra
Entonces,
X =
n

i=1
x
i
B(n, p) y p =
1
n
n

i=1
x
i
=
X
n
E[ p] = E
_
1
n
n

i=1
x
i
_
=
1
n
n

i=1
E[x
i
] =
1
n
np = p
Var( p) = Var
_
1
n
n

i=1
x
i
_
=
1
n
2
n

i=1
Var(x
i
) =
1
n
2
np(1 p) =
p(1 p)
n
Aplicando el Teorema de Levy-Lindeberg
n

i=1
x
i
E
_
n

i=1
x
i
_

_
Var
_
n

i=1
x
i
_
=
n p np

np
=
p p
_
p(1 p)
n
N(0, 1)
Por tanto,
si n > 30 = p

= N
_
p,
_
p(1 p)
n
_
y X

= N
_
np,
_
np(1 p)
_
si n < 30 = p ?
_
p,
_
p(1 p)
n
_
y X B(n, p)
12 Distribuciones de muestreo 155
12.11. Estadstico elemento que ocupa el lugar r
En ocasiones no estamos interesados en estimar un par ametro de la poblacion sino,
por ejemplo, el valor m aximo o mnimo que puede tomar. As, podemos interesarnos
por la temperatura m axima en vez de por la temperatura media. De esta forma surge
el estadstico que estima el lugar que ocupa un elemento de la muestra, al ordenarla de
forma creciente.
Sea X la v.a. continua asociada a una P.M. con funciones de distribuci on y densidad
F(x) y f(x), respectivamente. Extraemos una m.a.s. {x
1
, . . . , x
n
} y la ordenamos en forma
creciente, quedando de la forma {u
1
, . . . , u
n
}, con u
1
u
2
u
r
u
n
u
r1
u
r
u
r
+ du
r
u
r+1
r 1 elementos 1 elemento n r elementos
g(u
r
)du
r
= [P(X < u
r
)]
r1
P(u
r
< X u
r
+ du
r
) [P(X > u
r
)]
nr
PR
n
r1,1,nr
g(u
r
)du
r
=
n!
(r 1)! 1! (n r)!
[F(u
r
)]
r1
f(u
r
)du
r
[1 F(u
r
)]
nr
Por tanto,
g(u
r
) =
n!
(r 1)! 1! (n r)!
[F(u
r
)]
r1
f(u
r
) [1 F(u
r
)]
nr
u
r
R
12.11.1. Estadstico maximo valor de una muestra
Sea X la v.a. continua asociada a una P.M. con funciones de distribuci on y densidad
F(x) y f(x), respectivamente. Extraemos una m.a.s. {x
1
, . . . , x
n
} y la ordenamos en forma
creciente, quedando de la forma {u
1
, . . . , u
n
}, con u
1
u
2
u
r
u
n
Utilizando el mismo razonamiento que en la Sec. 12.11, el valor m aximo de la muestra
viene dado por u
n
, por tanto,
g(u
n
) = n[F(u
n
)]
n1
f(u
n
) u
n
R
156 Estadstica
12.11.2. Estadstico mnimo valor de una muestra
Sea X la v.a. continua asociada a una P.M. con funciones de distribuci on y densidad
F(x) y f(x), respectivamente. Extraemos una m.a.s. {x
1
, . . . , x
n
} y la ordenamos en forma
creciente, quedando de la forma {u
1
, . . . , u
n
}, con u
1
u
2
u
r
u
n
Utilizando el mismo razonamiento que en la Sec. 12.11, el valor mnimo de la muestra
viene dado por u
1
, por tanto,
g(u
1
) = nf(u
1
) [1 F(u
1
)]
n1
u
1
R
12.11.3. Estadstico recorrido de una muestra
Sea X la v.a. continua asociada a una P.M. con funciones de distribuci on y densidad
F(x) y f(x), respectivamente. Extraemos una m.a.s. {x
1
, . . . , x
n
} y la ordenamos en forma
creciente, quedando de la forma {u
1
, . . . , u
n
}, con u
1
u
2
u
r
u
n
As, se dene el recorrido de una muestra como
R = max{x
i
} min{x
i
} = u
n
u
1
Utilizando el mismo razonamiento que en la Sec. 12.11, se puede obtener la funcion
de densidad conjunta, g(u
i
, u
j
), del lugar que ocupan dos elementos de la muestra, con
i < j
g(u
i
, u
j
)du
i
du
j
= [P(X < u
i
)]
i1
P(u
i
< X u
i
+ du
i
) [P(u
i
< X < u
j
)]
ji1

P(u
j
< X u
j
+ du
j
) [P(X > u
j
)]
nj
PR
n
i1,1,ji1,1,nj
Por tanto,
g(u
i
, u
j
) =
n!
(i 1)! (j i 1)! (n j)!
[F(u
i
)]
i1
f(u
i
)
[F(u
j
) F(u
i
)]
ji1
f(u
j
) [1 F(u
j
)]
nj
u
i
u
j
Como R = u
n
u
1
, entonces, u
n
= R + u
1
, y en particular
g(u
1
, u
n
) =
n!
(n 2)!
[F(u
n
) F(u
1
)]
n2
f(u
1
)f(u
n
) u
1
u
n
+
12 Distribuciones de muestreo 157
por lo que
g(u
1
, R) = n(n 1) [F(R+ u
1
) F(u
1
)]
n2
f(u
1
)f(R + u
1
)
y la funcion de densidad de R sera la marginal de g(u
1
, R), es decir
g
R
(R) =
_
+

g(u
1
, R) du
1
=
_
+

n(n 1) [F(R+ u
1
) F(u
1
)]
n2
f(u
1
)f(R + u
1
) du
1
Mientras que la funcion de distribucion de R se puede expresar como
G
R
(R) =
_
R
0
__
+

g(u
1
, R) du
1
_
= n
_
+

[F(R + u
1
) F(u
1
)]
n1
f(u
1
) du
1
12.11.4. Estimacion de cuantiles
Sea X la v.a. continua asociada a una P.M. con funciones de distribuci on y densidad
F(x) y f(x), respectivamente. Extraemos una m.a.s. {x
1
, . . . , x
n
} y la ordenamos en
forma creciente, quedando de la forma {u
1
, . . . , u
n
}, con u
1
u
2
u
r
u
n
.
Denimos el estimador, x
p
, del p-cuantil poblacional, x
p
, como el p-cuantil de la muestra,
es decir
x
p
=
_

_
u
[np]+1
Si np /Z
1
2
(u
np
+ u
np+1
) Si np Z
donde los corchetes, [ ], indican la parte entera. Si f(x
p
) > 0, el estimador p-cuantil tiene
una distribucion asintoticamente Normal, con
E[ x
p
] x
p
y Var( x
p
)
p(1 p)
nf
2
(x
p
)
Ejemplo.- Dada una P.M. N(, ) con funcion de densidad dada por
f(x) =
1

2
exp
_

1
2
_
x

_
2
_
x R
Un estimador de la mediana poblacional, Me, sera la mediana muestral, x. Si la
muestra es sucientemente grande, entonces
158 Estadstica
E[ x] Me =
Var( x)
p(1 p)
nf
2
(Me)
=
0.5 0.5
n
_
1

2
_
2
=

2
2n
donde hemos utilizado el hecho de que en una distribucion Normal, Me = . As,
x

= N
_
,
_

2n
_
13
Estimacion puntual
y estimacion
por intervalo

Indice
13.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
13.2. Propiedades deseables de los estimadores puntuales . . . . . 163
13.2.1. Estimador suciente . . . . . . . . . . . . . . . . . . . . . . . . 163
13.2.2. Estimador consistente . . . . . . . . . . . . . . . . . . . . . . . 164
13.2.3. Error cuadratico medio . . . . . . . . . . . . . . . . . . . . . . 165
13.2.4. Estimador insesgado . . . . . . . . . . . . . . . . . . . . . . . . 166
13.2.5. Estimador eciente . . . . . . . . . . . . . . . . . . . . . . . . . 167
13.2.5.1. Teorema (Cota de Cramer-Rao) . . . . . . . . . . . . 168
13.3. Metodos de estimaci on puntual . . . . . . . . . . . . . . . . . . 170
13.3.1. Metodo de m axima verosimilitud . . . . . . . . . . . . . . . . . 170
13.3.2. Propiedades de los estimadores de m axima verosimilitud . . . . 172
13.3.3. Metodo de los momentos . . . . . . . . . . . . . . . . . . . . . 173
13.4. Estimacion por intervalo de conanza . . . . . . . . . . . . . . 174
13.4.1. Intervalo de conanza para la media . . . . . . . . . . . . . . . 176
13.4.1.1. P.M. N(, ) con conocido . . . . . . . . . . . . 176
13.4.1.2. P.M. N(, ) con desconocido . . . . . . . . . . 177
13.4.1.3. P.M. ?(, ) con conocido y n > 30 . . . . . . . 178
13.4.1.4. P.M. ?(, ) con conocido y n < 30 . . . . . . . 178
13.4.1.5. P.M. ?(, ) con desconocido y n > 30 . . . . . 179
13.4.1.6. P.M. ?(, ) con desconocido y n < 30 . . . . . 179
13.4.2. Intervalo de conanza para la varianza . . . . . . . . . . . . . . 179
13.4.2.1. P.M. N(, ) con desconocido . . . . . . . . . . 179
159
160
13.4.3. Intervalo de conanza para la diferencia de medias . . . . . . . 180
13.4.3.1. P.M. Normales con
x
y
y
conocidas . . . . . . . . . 181
13.4.3.2. P.M. Normales con
2
x
=
2
y
=
2
desconocida . . . 181
13.4.3.3. P.M. Normales con
2
x
=
2
y
desconocidas . . . . . . 182
13.4.4. Intervalo de conanza para el cociente de varianzas . . . . . . . 182
13.4.5. Intervalo de conanza para la proporci on poblacional . . . . . . 183
13.4.5.1. P.M. Binomial y n > 30 . . . . . . . . . . . . . . . . 184
13.5. Intervalo de conanza asint otico . . . . . . . . . . . . . . . . . 185
13 Estimaci on puntual y estimacion por intervalo 161
13.1. Introduccion
En el captulo anterior hemos calculado la distribucion de algunos estadsticos y men-
cionado brevemente que los estadsticos se utilizan para estimar los valores de par ametros
desconocidos de una poblacion. En este captulo se examinar a con detalle el concepto de
estimacion de parametros mediante la especicacion de las propiedades deseables de los
estimadores (estadsticos), y el desarrollo de tecnicas apropiadas para implementar el pro-
ceso de estimaci on. Se utilizara el punto de vista de la teora de muestras, que considera
a un par ametro poblacional como una cantidad ja (nunca una v.a.), pero desconocida.
La estimaci on de un par ametro de la poblacion involucra el uso de los datos mues-
trales en conjuncion con alg un estadstico. Existen dos formas de realizar la estimaci on:
la estimacion puntual y la estimacion por intervalo. En la primera, se busca un estimador
que, con base en los datos muestrales, de origen a una estimaci on univaluada del valor
del par ametro poblacional, y que recibe el nombre de valor estimado. Para la segunda, se
determina un intervalo en el que, en forma probable, se encuentra el valor del par ametro.
Este intervalo recibe el nombre de intervalo de conanza.
Antes de entrar en materia, vamos a ver algunas deniciones que seran de utilidad.
En general, el planteamiento del problema es el siguiente
En una P.M. denida por su funcion de distribucion F(x, ) existe un par ametro, ,
cuyo valor es desconocido.
Para poder asignar un valor a dicho par ametro , extraemos una muestra aleatoria
de tama no n, X = {x
1
, . . . , x
n
}.
Con los datos de la muestra, construimos un estadstico,

= T(X), que supone
una simplicacion de la informacion proporcionada por la muestra.
FUNCI oN DE VEROSIMILITUD DE LA MUESTRA
Puesto que las n variables aleatorias de la muestra constituyen una v.a. n-dimensional,
{x
1
, . . . , x
n
}, se llama funcion de verosimilitud de la muestra a la funcion de densidad de
dicha v.a. n-dimensional, y se denota por L(x
1
, . . . , x
n
, ).
Si la P.M. es una v.a. continua con funcion de densidad f(x, ), y la muestra es
aleatoria simple; entonces las n v.a. son independientes e identicamente distribuidas
seg un la distribucion de la P.M. Por tanto,
L(x
1
, . . . , x
n
, ) = f(x
1
, ) f(x
n
, )
162 Estadstica
Si la P.M. es una v.a. discreta, sea como sea la muestra aleatoria, con o sin reem-
plazamiento,
L(x
1
, . . . , x
n
, ) = P(de que salga la muestra obtenida)
ESTIMACI

ON PUNTUAL
Una estimaci on puntual,

, de un par ametro poblacional , es un valor unico del
estadstico

. Por ejemplo, el valor x del estadstico media muestral,

X, calculado a partir
de una muestra de tama no n, es una estimaci on puntual del par ametro media poblacional
.
ESTIMADOR
El estadstico que se utiliza para obtener una estimaci on puntual es un estimador.
Por ejemplo, el estadstico varianza muestral, s
2
, que es una funcion de la muestra alea-
toria, es un estimador de
2
.
ESTIMADOR SUFICIENTE
Estimador suciente es el que proporciona la m axima informacion posible sobre el
par ametro poblacional, , una vez determinado el tama no n de la muestra.
ESTIMADOR CONSISTENTE
Se dice que un estadstico,

, es un estimador consistente del par ametro si
P(|

| ) = 1 cuando n
ESTIMADOR INSESGADO
Se dice que un estadstico,

, es un estimador insesgado del par ametro si
E[

] =
ESTIMADOR SESGADO
Se dice que un estadstico,

, es un estimador sesgado del par ametro si
E[

] = + b()
y b() recibe el nombre de sesgo.
ESTIMADOR EFICIENTE
Si se consideran todos los posibles estimadores insesgados de un par ametro poblacio-
nal, , aquel que tenga la varianza m as peque na se dira que es el estimador m as eciente.
13 Estimaci on puntual y estimacion por intervalo 163
13.2. Propiedades deseables de los estimadores pun-
tuales
13.2.1. Estimador suciente
Un estadstico T(X) es suciente, si el conocimiento pormenorizado de los elementos
de la muestra no a nade ninguna informacion sobre que no proporcione la simplicaci on
T(X).
Una denici on m as tecnica sera que un estadstico T(X) es suciente respecto al
par ametro , si la funcion de distribucion de la muestra, condicionada por un valor del
estadstico (o sea, F(X|
T(X)=t
)) no depende de .
Ejemplo.- De una P.M. Binomial, desconocemos la proporci on de exitos. Es decir, = p
es desconocido. Extraemos una m.a.s. de tama no n = 50, {x
1
, . . . , x
50
}, de tal forma que
x
i
=
_
1 si es exito
0 si es fracaso
Construyo dos estadsticos
T
1
(X) =
50

i=1
x
i
T
2
(X) = m ax {x
i
}
Con los datos de la muestra obtenemos los valores de los estadsticos
t
1
= T
1
(x) =
50

i=1
x
i
= 35
t
2
= T
2
(x) = m ax {x
i
} = 1
En el primer caso, el hecho de que t
1
= 35 signica que en la muestra han apare-
cido exactamente 35 exitos de 50 casos muestreados. Para realizar una estimaci on de la
proporci on de exitos de la poblacion, me basta con este dato, podra suponer de forma
razonable que p 35/50. No necesito conocer cu ales de los elementos muestreados son
exitos. Es decir, no necesito conocer de forma pormenorizada el valor de cada uno de los
elementos de la muestra.
En el segundo caso, sin embargo, el hecho de que t
2
= 1 signica que en la muestra ha
aparecido al menos un exito entre los 50 casos muestreados. En este caso, el conocimiento
164 Estadstica
pormenorizado de los valores de la muestra s a nadira informacion, y bastante, sobre el
posible valor de p.
Claramente, T
1
(X) es un estimador suciente del par ametro p, mientras que T
2
(X)
no lo es.
13.2.2. Estimador consistente
Como hemos visto en el ejemplo anterior, los valores obtenidos con las muestras nos
van a servir para estimar el verdadero valor del par ametro desconocido. As pues, es
razonable pensar que un buen estimador debe ser capaz de aproximarse mejor al valor
del par ametro a medida que aumenta el tama no de la muestra. Siguiendo con el ejemplo
de la P.M. binomial, si en vez de una muestra de tama no n = 50, saco una muestra de
tama no n = 5000, es de esperar que la proporci on de exitos en esta segunda muestra se
aproxime m as al verdadero valor de p que los 35/50 obtenidos con la primera muestra.
Sea T(X) un estimador de , y sean T
1
(X), . . . , T
n
(X) una secuencia de estimadores
que representan a T con distintos tama nos de muestra 1, . . . , n, respectivamente. Se dice
que T es un estimador consistente para si
lm
n
P(|T
n
| ) = 1
Ejemplo.- Tenemos una P.M. con distribucion no Normal y media desconocida, es decir,
= . Extraemos muestras de distintos tama nos, y construimos los estadsticos
T
n
(X) = x
n
=
1
n
n

i=1
x
i
n = 1, 2, 3, . . .
De cada una de estas v.a. sabemos que E[ x
n
] = y Var( x
n
) =
2
/n. Por el teorema
de Chebychev,
P
_
| x
n
E[ x
n
]| k
_
Var( x
n
)
_
1
1
k
2
= P
_
| x
n
| k/

n
_
1
1
k
2
tomando k =

,
P (| x
n
| ) 1

2
n
2
= lm
n
P (| x
n
| ) = 1
Es decir, cuanto mayor es el tama no de la muestra, m as se aproxima el valor de
la media muestral al valor de la media poblacional. Por tanto, la media muestral es un
estimador consistente de la media poblacional.
13 Estimaci on puntual y estimacion por intervalo 165
13.2.3. Error cuadratico medio
Puesto que un estimador,

, se utiliza para estimar el valor de un par ametro de
la poblacion, , es conveniente que el valor esperado del estimador coincida con el valor
del par ametro que va a estimar. Para que las diferencias negativas no se cancelen con las
positivas, se dene el Error Cuadratico Medio (ECM) como,
ECM = E
_
(

)
2
_
Si desarrollamos esta expresion, teniendo en cuenta que

es una v.a. (funci on de
los elementos de la muestra) y es una constante (parametro desconocido de la P.M.),
ECM = E
_
(

)
2
_
= E
_
_
(

E[

]) ( E[

])
_
2
_
=
= E
_
_

E[

]
_
2
_
+ E
_
_
E[

]
_
2
_
2( E[

])E
_

E[

]
_
=
= Var(

) +
_
E[

]
_
2
0
Es decir,
ECM = E
_
(

)
2
_
= Var(

) +
_
E[

]
_
2
El ECM es la suma de dos cantidades no negativas, una es la varianza del estimador
y la otra es el cuadrado del sesgo del estimador. Estas dos cantidades estan relacionadas
con las propiedades deseables de un estimador. Por una parte, la varianza (dispersi on) de
un estimador debe ser lo m as peque na posible y, por otra, el valor esperado del estimador
debe coincidir con el valor del par ametro a estimar. Por tanto, el problema de encontrar el
mejor estimador de se puede plantear, de forma simplicada, en terminos de encontrar
el estimador que tenga el ECM m as peque no de entre todos los estimadores factibles de
. Sin embargo, en realidad el problema es mucho m as complicado. Aun si fuese pr actico
calcular el ECM de un gran n umero de estimadores, para la mayora de los par ametros
poblacionales no existe ning un estimador que minimice el ECM para todos los posibles
valores de . Es decir, un estimador,

1
, puede tener un ECM mnimo para algunos valores
de , mientras que otro estimador,

2
, tendr a la misma propiedad para otros valores de
.
166 Estadstica
Ejemplo.- De una P.M. se extrae una m.a.s. {x
1
, . . . , x
n
}, de la cual se sabe que E[x
i
] =
y Var(x
i
) =
2
i = 1, n. Consideramos dos estimadores de la media

1
= x =
1
n
n

i=1
x
i

2
=
1
n + 1
n

i=1
x
i
Entonces
_

_
E[

1
] =
1
n
n

i=1
E[x
i
] =
Var(

1
) =
1
n
2
n

i=1
Var(x
i
) =

2
n
= ECM(

1
) =

2
n
_

_
E[

2
] =
1
n + 1
n

i=1
E[x
i
] =
n
n + 1

Var(

2
) =
1
(n + 1)
2
n

i=1
Var(x
i
) =
n
(n + 1)
2

2
= ECM(

2
) =

2
+ n
2
(n + 1)
2
Si n = 10 y
2
= 100, entonces,
ECM(

1
) = 10
ECM(

2
) =

2
+ 1000
121
Al igualar ambas expresiones y resolver para , se tiene que
si <

210 = ECM(

1
) > ECM(

2
)
si >

210 = ECM(

1
) < ECM(

2
)
Por esta razon, se deben examinar criterios adicionales para la seleccion de los esti-
madores de , aun cuando el error cuadratico medio es el concepto m as importante.
13.2.4. Estimador insesgado
Se dice que un estimador

es un estimador insesgado del par ametro , si cumple
que
E[

] =
13 Estimaci on puntual y estimacion por intervalo 167
para todos los posibles valores de . De esta forma, para cualquier estimador insesgado,

, se cumple que ECM=Var(

). Como vimos en el captulo anterior, sea como sea la


P.M., la esperanza de la media muestral coincide con la media poblacional. Por tanto, la
media de la muestra, x, es un estimador insesgado de .
Si un estimador no es insesgado, se dice que es sesgado, y se llama sesgo a la funcion
(no v.a.) b() = E[

] . El sesgo puede ser positivo, lo cual implica que el estimador en


cuestion esta sobrevalorando, en media, el valor de ; o puede ser negativo, lo cual implica
que el estimador en cuestion esta infravalorando, en media, el valor de .
Ejemplo.- De una P.M. N(, ) extraemos una m.a.s., {x
1
, . . . , x
n
}, y construimos dos
estimadores de la varianza,

1
= s
2
=
1
n 1
n

i=1
(x
i
x)
2

2
=
1
n
n

i=1
(x
i
x)
2
En la seccion 12.4 vimos que, si la poblacion es Normal, entonces (n 1)s
2
/
2

2
n1
. Por tanto,
E[

1
] = E[s
2
] =

2
n 1
E[
2
n1
] =
2
E[

2
] =
n 1
n
E[

1
] =
n 1
n

2
=
2

1
n

2
Por tanto, la varianza muestral,

1
= s
2
=

(x
i
x)
2
/(n 1) es un estimador
insesgado de la varianza de la poblacion,
2
. En cambio,

2
=

(x
i
x)
2
/n es un
estimador sesgado de
2
. Adem as, el sesgo de

2
es b() = /n < 0, es decir, el estimador

2
esta infravalorando, en media, el verdadero valor de la varianza de la poblacion
2
.
Esta es la razon por la cual se dene la varianza muestral con el dividendo igual a n 1
en vez de igual a n. Por ultimo, hay que se nalar que el hecho de que s
2
sea un estimador
insesgado de
2
, no implica que s sea un estimador insesgado de (ver Sec. 12.7).
13.2.5. Estimador eciente
Sin perder de vista el hecho de que estamos buscando aquellos estimadores con ECM
mnimo, si consideramos los estimadores insesgados, para ellos se cumple ECM=Var(

).
Por tanto, el problema se reduce a encontrar un estimador insesgado que tenga varianza
mnima. En general, se dice que el estimador

es un estimador insesgado de varianza
168 Estadstica
mnima uniforme de , si es insesgado (E[

] = ), y Var(

) es menor que la varianza de


cualquier otro estimador de para todos los posibles valores de .
La varianza de un estimador insesgado es la cantidad m as importante para decidir
como de bueno es el estimador para estimar . Por ejemplo, si

1
y

2
son dos estimadores
insesgados de , se dice que

1
es m as eciente que

2
si Var(

1
) Var(

2
), cumpliendose
la desigualdad en el sentido estricto para alg un valor de . Es muy com un utilizar el
cociente Var(

1
)/Var(

2
) para determinar la eciencia relativa de

1
respecto a

2
. Si
los estimadores son sesgados, las eciencias relativas se calculan con los respectivos errores
cuadraticos medios.
Pero, dicho todo esto, seguimos teniendo un problema. Una vez que tenemos un
estimador y conocemos su varianza, como podemos saber si existe otro estimador con
una varianza m as peque na? Para resolverlo, recurrimos al siguiente teorema.
13.2.5.1. Teorema (Cota de Cramer-Rao)
Dada una P.M. con funcion de densidad f(x, ) y una muestra aleatoria simple de
tama no n, {x
1
, . . . , x
n
}, si

es un estimador de , entonces se cumple
Var(

)
(1 + b

())
2
E
__
L
n
L(x
1
, . . . , x
n
, )

__
2
=
(1 + b

())
2
nE
_
_
L
n
f(x, )

_
2
_ =
(1 + b

())
2
nE
_

2
L
n
f(x, )

_
siendo b() el sesgo de

y L(x
1
, . . . , x
n
, ) la funcion de verosimilitud de la muestra.
La primera expresion a la derecha de la desigualdad se conoce como cota de Cramer-
Rao. El resto de igualdades representan distintas versiones, generalmente m as sencillas
de calcular, de dicha cota. Lo primero que debemos observar es que, si el estimador es
insesgado, entonces b() = 0.
La cota de Cramer-Rao establece un lmite inferior para la varianza de cualquier
estimador de . Esto no implica necesariamente que deba existir un estimador de cuya
varianza coincida con la cota de Cramer-Rao. Es decir, es posible encontrar un estimador
de que tenga la varianza m as peque na posible de entre todos los estimadores de , pero
cuya varianza sea m as grande que el lmite inferior establecido por la cota de Cramer-Rao.
Este estimador, en el caso de que adem as fuera insesgado, seguira siendo un estimador
insesgado de varianza mnima uniforme para .
Un estimador cuya varianza coincide con la cota de Cramer-Rao se dice que es un
estimador eciente. Si, adem as, es insesgado, se llama estimador de eciencia absoluta o
13 Estimaci on puntual y estimacion por intervalo 169
completa. De esta forma, un estimador de de eciencia absoluta es el mejor estimador
de que se puede encontrar.
Ejemplo.- De una P.M. N(, ), con conocido y = desconocido, se extrae una m.a.s.
de tama no n, {x
1
, . . . , x
n
}. Como estimador de la media de la poblacion, utilizamos la
media muestral

= x =
1
n
n

i=1
x
i
de la que sabemos que su distribucion es x N(, /

n). Por tanto,


E[ x] = = = es insesgado = b() = 0
Var( x) =

2
n
Vamos a calcular la cota de Cramer-Rao (CCR) de los estimadores insesgados de la
media de una poblacion Normal.
CCR =
1
nE
_
_
L
n
f(x, )

_
2
_ =
1
nE
_

2
L
n
f(x, )

_
Como P.M. N(, ), su funcion de densidad es de la forma
f(x, ) =
1

2
e

1
2
2
(x)
2
entonces
L
n
f(x, ) = L
n
_
1

2
_

1
2
2
(x )
2
L
n
f(x, )

=
1

2
(x )

2
L
n
f(x, )

=
1

2
E
_

2
L
n
f(x, )

_
= E
_

2
_
=
1

2
Por tanto,
CCR =
1
nE
_

2
L
n
f(x, )

_ =

2
n
Es decir,
Var( x) = CCR
170 Estadstica
y, adem as, x es insesgado. Entonces, la media muestral de una poblacion Normal es un
estimador de eciencia absoluta de la media poblacional.
Por ultimo, hay que se nalar que, como se ha visto en este ejemplo, para calcular la
cota de Cramer-Rao es necesario conocer la distribucion de la P.M.
13.3. Metodos de estimacion puntual
En las secciones anteriores hemos comentado ampliamente las propiedades que debe
tener un buen estimador. Incluso hemos visto, a traves de los ejemplos, que un estima-
dor de la media poblacional podra ser la media muestral, un estimador de la varianza
poblacional podra ser la varianza muestral, y un estimador de la proporci on de exitos
de la poblacion podra ser la proporci on de exitos de la muestra. Pero, que ocurre si el
par ametro de la poblacion no es ni su media, ni su varianza ni su proporci on de exitos?
Por ejemplo, si la P.M. tiene una funcion de densidad
f(x, ) =

(1 + x)
1+
x 0, > 0
En este caso, no es ninguno de los par ametros conocidos, por tanto, en un
principio, no tenemos ninguna pista sobre como podra ser un estimador de . En esta
seccion vamos a dar dos metodos para obtener un estimador de cualquier par ametro
poblacional .
13.3.1. Metodo de maxima verosimilitud
La idea en la que se basa este metodo es muy sencilla y, adem as, bastante l ogica. Si
de una poblacion cualquiera he obtenido una muestra en particular, es razonable pensar
que la muestra obtenida es la que mayor probabilidad tena de salir. Veamos esta idea
con un ejemplo
Ejemplo.- Una urna contiene bolas rojas y blancas con una proporci on de bolas rojas, p,
desconocida. Extraemos 10 bolas con reemplazamiento (m.a.s. de tama no n = 10) con el
resultado de 3 bolas rojas y 7 blancas. Parece l ogico pensar que el hecho de que en la
muestra aparezcan 3 bolas rojas de 10 es porque, seg un la proporci on real de bolas rojas
que hay en la urna, es m as probable que salgan 3 rojas a que salgan 5 o 9. Es decir, la
muestra que ha salido es la que mayor probabilidad tena de salir. Vamos a trasladar este
razonamiento a n umeros. La probabilidad de que salga la muestra que ha salido (o sea,
la funcion de verosimilitud de la muestra) es
L(p) = p
3
(1 p)
7
PR
10
3,7
= p
3
(1 p)
7
10!
3! 7!
13 Estimaci on puntual y estimacion por intervalo 171
Para calcular el valor de p que hace que esta probabilidad sea m axima, basta con
derivar respecto de p e igualar a 0.
L(p)
p
=
_
3p
2
(1 p)
7
7p
3
(1 p)
6

10!
3! 7!
= p
2
(1 p)
6
[3 10p]
10!
3! 7!
= 0
Entonces, se pueden dar 3 casos
p = 0 imposible, pues hay al menos una bola roja
p = 1 imposible, pues hay al menos una bola blanca
p = 3/10 adem as,

2
L(p)

2
p

p=3/10
< 0
Es decir, si en la muestra han salido 3 bolas rojas de las 10 muestreadas, el valor de
p que hace de esta muestra la m as probable es p = 3/10.
Ahora, vamos a generalizar este ejemplo al caso de una P.M. cualquiera, con funcion
de densidad f(x, ), siendo un par ametro cualquiera de la poblacion. Extraemos una
m.a.s. de tama no n, {x
1
, . . . , x
n
}. La funcion de verosimilitud de la muestra, por ser
muestra extrada con reemplazamiento, viene dada por
L(x
1
, . . . , x
n
, ) = f(x
1
, ) f(x
n
, )
La m axima verosimilitud puede obtenerse derivando L con respecto a e igualando
a cero. Para ello, es conveniente tomar primero logaritmos y luego derivar, ya que la
funcion logaritmo es estrictamente creciente. As, obtenemos en terminos de los x
i
.
El metodo puede generalizarse para el caso en que existan varios par ametros pobla-
cionales a estimar. Ahora, se toman las derivadas parciales respecto a cada uno de los
par ametros, se igualan a cero y se resuelven las ecuaciones resultantes.
Ejemplo.- De una P.M. con funcion de densidad
f(x, ) =

(1 + x)
1+
x 0, > 0
extraemos una m.a.s. de tama no n, {x
1
, . . . , x
n
}, para calcular un estimador,

, de . La
funcion de verosimilitud de la muestra es
L(x
1
, . . . , x
n
, ) = f(x
1
, ) f(x
n
, ) =

n
n

i=1
(1 + x
i
)
1+
172 Estadstica
Antes de derivar, tomamos logaritmos
L
n
L(x
1
, . . . , x
n
, ) = L
n

n
L
n
n

i=1
(1 + x
i
)
1+
= nL
n
(1 + )
n

i=1
L
n
(1 + x
i
)
L
n
L(x
1
, . . . , x
n
, )

=
n

i=1
L
n
(1 + x
i
) = 0 =

=
n
n

i=1
L
n
(1 + x
i
)

2
L
n
L(x
1
, . . . , x
n
, )

=
n

2
< 0
Por tanto, el estimador de m axima verosimilitud (EMV) de viene dado por

=
n
n

i=1
L
n
(1 + x
i
)
Hay que se nalar que no siempre es posible aplicar el metodo de m axima verosimilitud
para calcular un estimador (ver Sec. 13.3.2).
13.3.2. Propiedades de los estimadores de maxima verosimilitud
En esta seccion vamos a enumerar una serie de propiedades o teoremas que verican
los estimadores de m axima verosimilitud (EMV), comenzando con una denici on sobre
las condiciones en las que se puede aplicar el metodo de m axima verosimilitud.
Condiciones de regularidad de Fisher-Wolfowitz
1.- La P.M. de la que procede la muestra tiene un campo de variacion que no
depende del par ametro , y, por tanto, la muestra tampoco.
2.- La funcion de verosimilitud de la muestra admite, por lo menos, las derivadas
de primer y segundo orden respecto del par ametro .
3.- Las operaciones de derivacion e integraci on (o suma, en el caso de v.a. discretas)
son intercambiables.
Bajo condiciones de regularidad, los EMV son consistentes.
Si un par ametro posee un estimador suciente,

, entonces el EMV de es fun-
ci on de

. Esto no implica que todos los EMV sean sucientes, pues no todos los
par ametros poblacionales poseen un estimador suciente.
13 Estimaci on puntual y estimacion por intervalo 173
Los EMV no siempre son insesgados, pero s son asintoticamente insesgados, es decir
lm
n
b() = 0
Bajo condiciones de regularidad, si existe un estimador eciente de , este coincide
con el obtenido por el metodo de m axima verosimilitud. De nuevo, esto no implica
que todos los EMV sean ecientes.
Bajo condiciones de regularidad, los EMV son asintoticamente ecientes y asintoti-
camente Normales. Es decir, si

es el EMV de , entonces
lm
n

N
_
,
1
_
I()
_
siendo
I() = E
_
_
L
n
L(x
1
, . . . , x
n
, )

_
2
_
Si

es el EMV de , entonces g(

) es el EMV de g(), siempre que g sea continua


y biunvoca.
13.3.3. Metodo de los momentos
Este metodo consiste en igualar los momentos de la distribuci on de la P.M., con
los correspondientes momentos muestrales, teniendo en cuenta que, para una m.a.s. de
tama no n, {x
1
, . . . , x
n
}, el momento centrado en el origen de orden r es
m
r
=
1
n
n

i=1
x
r
i
Ejemplo.- De una P.M. con funcion de densidad
f(x, ) =

(1 + x)
1+
x 0, > 0
extraemos una m.a.s. de tama no n, {x
1
, . . . , x
n
}, para calcular un estimador,

, de .
Los momentos de primer orden de la poblacion y la muestra son,
E[P.M.] =
_
+

xf(x, ) dx =
_
+
0
x

(1 + x)
1+
dx =
1
1
( > 1)
m
1
=
1
n
n

i=1
x
i
174 Estadstica
e, igualando,
1
1
=
1
n
n

i=1
x
i
=

=
n
n

i=1
x
i
+ 1
Como se puede comprobar, el estimador obtenido por el metodo de m axima verosi-
militud puede no coincidir con el obtenido por el metodo de los momentos.
13.4. Estimaci on por intervalo de conanza
En lugar de hacer una estimaci on puntual del par ametro poblacional , se pretende
dar un intervalo en el que se tiene cierta probabilidad (conanza) de que se encuentre el
verdadero valor de . Es decir, un intervalo de conanza del par ametro es de la forma

e < <

+ e
donde, generalmente,

es una estimaci on puntual de , obtenida con el estimador puntual

. Se llama amplitud del intervalo o margen de error, al tama no del intervalo, 2e.
Cuando calculamos un intervalo para un par ametro poblacional , tambien debemos
dar una medida de la bondad de la estimaci on, es decir, la probabilidad de que el valor
del par ametro se encuentre realmente dentro del intervalo construido. As, si
P(

e < <

+ e) = 1
decimos que el intervalo (

e,

+ e) es un intervalo de conanza del (1 )100 %. La


fracci on (1 ) recibe el nombre de coeciente de conanza o grado de conanza; y los
puntos extremos,

e y

+ e, se llaman lmites de conanza.
Se llama nivel de signicacion (N.S.) a la probabilidad de que el verdadero valor de
este fuera del intervalo de conanza, es decir
N.S. = 100 %
De esta forma, tenemos distintos niveles de signicaci on, seg un el grado de conanza
obtenido. Algunos de ellos tienen nombre propio, por ejemplo
Conanza Casi Signicativa
Conanza = 1 = 95 %
N.S. = = 5 %
13 Estimaci on puntual y estimacion por intervalo 175
Conanza Signicativa
Conanza = 1 = 99 %
N.S. = = 1 %
Conanza Muy Signicativa
Conanza = 1 = 99.5 %
N.S. = = 0.5 %
Por ultimo, se habla de seguridad estadstica cuando se trabaja con un intervalo de
conanza del tipo

< <

+ 3

siendo

la desviaci on tpica del estadstico



.
En las secciones siguientes vamos a construir el intervalo de conanza de varios
par ametros poblacionales tales como la media, la varianza o la proporci on de exitos,
siguiendo siempre el mismo esquema:
1.- Se denira la distribucion de la P.M.
2.- Se denira un estimador puntual,

, del par ametro poblacional . Si es posible,
estimador insesgado.
3.- Cuando sea posible, se denira la distribucion de la v.a.

. En cualquier caso, se
contara con la media y la varianza del estimador,

=E(

) y
2

=Var(

).
4.- Fijado un nivel de conanza, (1 )100 %, se construira un intervalo de conanza,
partiendo de el hecho de que
P(|

| k) = 1
Cuando la distribucion de

sea conocida, buscaremos en las tablas apropiadas el
valor de k y, cuando la distribucion de

sea desconocida, calcularemos k aplicando
el teorema de Chebychev.
176 Estadstica
13.4.1. Intervalo de conanza para la media
Dada un P.M. con media , como estimador puntual de la media de la poblacion,
se utiliza la media de la muestra
x =
1
n
n

i=1
x
i
13.4.1.1. P.M. N(, ) con conocido
Si tenemos una muestra de tama no n, entonces el estadstico media muestral sigue
una distribucion x N(, /

n). Tipicando la variable,


x
/

n
N(0, 1)
entonces,
P
_
z
/2
<
x
/

n
< z
/2
_
= 1
es decir
P
_
x

n
z
/2
< < x +

n
z
/2
_
= 1
siendo z
/2
, el n umero real que deja un area de /2 unidades a su derecha en una N(0, 1)
(Fig. 13.1).
Por tanto, una estimaci on puntual de la media poblacional , se obtiene seleccio-
nando una muestra aleatoria simple de tama no n, y calculando su media x. Mientras que
un intervalo de conanza del (1 )100 % para la media poblacional viene dado por
x

n
z
/2
< < x +

n
z
/2
La semiamplitud del intervalo es
e =

n
z
/2
Si e es un dato del problema, podemos determinar el tama no de la muestra adecuado
al nivel de conanza pedido, por medio de la expresion
n =
_

e
z
/2
_
2
13 Estimaci on puntual y estimacion por intervalo 177
Figura 13.1: P(z
/2
< N(0, 1) < z
/2
) = 1
13.4.1.2. P.M. N(, ) con desconocido
Si x y s son la media y la desviaci on tpica de una muestra aleatoria simple de
tama no n obtenida de una poblacion Normal con varianza
2
desconocida, entonces
x
s/

n
t
n1
entonces,
P
_
t
/2
<
x
s/

n
< t
/2
_
= 1
es decir
P
_
x
s

n
t
/2
< < x +
s

n
t
/2
_
= 1
siendo t
/2
, el n umero real que deja un area de /2 unidades a su derecha en una t
n1
(Fig. 13.2).
Por tanto, un intervalo de conanza del (1 )100 % para la media poblacional
viene dado por
x
s

n
t
/2
< < x +
s

n
t
/2
178 Estadstica
Figura 13.2: P(t
/2
< t
n1
< t
/2
) = 1
13.4.1.3. P.M. ?(, ) con conocido y n > 30
Aun cuando la forma de la P.M. sea desconocida o no Normal, si el tama no de la
muestra es sucientemente grande, n > 30, sabemos que
x
/

= N(0, 1)
y, por tanto, un intervalo de conanza del (1 )100 % para la media poblacional viene
dado por
x

n
z
/2
< < x +

n
z
/2
13.4.1.4. P.M. ?(, ) con conocido y n < 30
Del estadstico media muestral solo sabemos que su esperanza es E[ x] = y su
varianza es Var( x) =
2
/n, pero no conocemos su distribucion, por lo que solo podemos
aplicar el Teorema de Chebychev.
P
_
x

n
k < < x +

n
k
_
1
k
13 Estimaci on puntual y estimacion por intervalo 179
siendo
k
= 1/k
2
. Por tanto, un intervalo de conanza del (1
k
)100 % para la media
poblacional viene dado por
x

n
k < < x +

n
k
13.4.1.5. P.M. ?(, ) con desconocido y n > 30
Si x y s son la media y la desviaci on tpica de una muestra aleatoria simple de
tama no n > 30 obtenida de una poblacion desconocida o no Normal, con varianza
2
desconocida, entonces se puede aproximar
2
s
2
y,
x
s/

= N(0, 1)
y, por tanto, un intervalo de conanza del (1 )100 % para es
x
s

n
z
/2
< < x +
s

n
z
/2
13.4.1.6. P.M. ?(, ) con desconocido y n < 30
Es el unico caso en el que no poseemos herramientas sucientes para obtener un
intervalo de conanza v alido para la media. En cualquier caso, como estimaci on puntual
de , siempre es v alida la media muestral, sea cual sea el tama no de la muestra.
13.4.2. Intervalo de conanza para la varianza
13.4.2.1. P.M. N(, ) con desconocido
Dada un P.M. N(, ) con media desconocida, como estimador puntual de la
varianza de la poblacion, se utiliza la varianza de la muestra
s
2
=
1
n 1
n

i=1
(x
i
x)
2
En la seccion 12.4, comprobamos que
(n 1)s
2

2

2
n1
Entonces, se puede escribir
P
_

2
1/2
<
(n 1)s
2

2
<
2
/2
_
= 1
180 Estadstica
Figura 13.3: P(
2
1/2
<
2
n1
<
2
/2
) = 1
o bien
P
_
(n 1)s
2

2
/2
<
2
<
(n 1)s
2

2
1/2
_
= 1
donde
2
1/2
y
2
/2
son los valores de la distribucion
2
n1
que dejan areas de 1 /2 y
/2, respectivamente, a su derecha (Fig. 13.3)
Por tanto, un intervalo de conanza del (1 )100 % para la varianza muestral de
una poblacion Normal viene dado por
(n 1)s
2

2
/2
<
2
<
(n 1)s
2

2
1/2
13.4.3. Intervalo de conanza para la diferencia de medias
Suponemos dos poblaciones, X e Y , con distribuciones X N(
x
,
x
) e Y
N(
y
,
y
). De cada una de ellas extraemos una muestra de tama nos n y m, respectivamen-
te. El estadstico media de la primera muestra sera x N(
x
,
x
/

n), y el estadstico
media de la segunda muestra sera y N(
y
,
y
/

m)
13 Estimaci on puntual y estimacion por intervalo 181
Una estimaci on puntual de la diferencia de medias, (
x

y
), viene dada por la
diferencia de las medias de las muestras,
x y =
1
n
n

i=1
x
i

1
m
m

i=1
y
i
Para obtener un intervalo de conanza, debemos tener en cuenta si las varianzas son
conocidas.
13.4.3.1. P.M. Normales con
x
y
y
conocidas
En este caso,
( x y) (
x

y
)
_

2
x
n
+

2
y
m
N(0, 1)
Entonces, un intervalo de conanza del (1 )100 % para la diferencia de medias es
( x y)
_

2
x
n
+

2
y
m
z
/2
<
x

y
< ( x y) +
_

2
x
n
+

2
y
m
z
/2
13.4.3.2. P.M. Normales con
2
x
=
2
y
=
2
desconocida
En este caso, hemos visto que
( x y) (
x

y
)
S
p
_
1
n
+
1
m
t
n+m2
siendo
S
p
=

(n 1)s
2
x
+ (m1)s
2
y
n + m2
Entonces, un intervalo de conanza del (1 )100 % para la diferencia de medias es
( x y) S
p
_
1
n
+
1
m
t
/2
< (
x

y
) < ( x y) + S
p
_
1
n
+
1
m
t
/2
siendo t
/2
, el n umero real que deja un area de /2 unidades a su derecha en una t
n+m2
.
182 Estadstica
13.4.3.3. P.M. Normales con
2
x
=
2
y
desconocidas
En este caso, hemos visto que
( x y) (
x

y
)
_
s
2
x
n
+
s
2
y
m

= t

siendo
=
(A+ B)
2
A
2
n 1
+
B
2
m1
A =
s
2
x
n
, B =
s
2
y
m
Entonces, un intervalo de conanza del (1 )100 % para la diferencia de medias es
( x y)
_
s
2
x
n
+
s
2
y
m
t
/2
< (
x

y
) < ( x y) +
_
s
2
x
n
+
s
2
y
m
t
/2
siendo t
/2
, el n umero real que deja un area de /2 unidades a su derecha en una t

13.4.4. Intervalo de conanza para el cociente de varianzas


Suponemos dos poblaciones, X e Y , con distribuciones X N(
x
,
x
) e Y
N(
y
,
y
). De cada una de ellas extraemos una muestra de tama nos n y m, respecti-
vamente. Sean s
2
x
y s
2
y
las varianzas de las muestras. Una estimaci on puntual del cociente
de varianzas,
2
x
/
2
y
, viene dada por el cociente de las varianzas de las muestras
s
2
x
s
2
y
=
1
n1
n

i=1
(x
i
x)
2
1
m1
m

i=1
(y
i
y)
2
Para obtener un intervalo de conanza, consideramos el estadstico
s
2
x
/
2
x
s
2
y
/
2
y
F
n1,m1
Entonces,
P
_
f
1/2
(n 1, m1) <
s
2
x
/
2
x
s
2
y
/
2
y
< f
/2
(n 1, m1)
_
= 1
siendo f
1/2
(n 1, m1) y f
/2
(n 1, m1), los n umeros reales que dejan un area de
1 /2 y /2 unidades a su derecha, respectivamente, en una F
n1,m1
(Fig. 13.4).
O bien,
13 Estimaci on puntual y estimacion por intervalo 183
Figura 13.4: P(f
1/2
< F
n1,m1
< f
/2
) = 1
P
_
s
2
x
s
2
y
1
f
/2
(n 1, m1)
<

2
x

2
y
<
s
2
x
s
2
y
1
f
1/2
(n 1, m1)
_
= 1
Utilizando las propiedades de la distribucion F-Snedecor, tambien se puede escribir
como
P
_
s
2
x
s
2
y
1
f
/2
(n 1, m1)
<

2
x

2
y
<
s
2
x
s
2
y
f
/2
(m1, n 1)
_
= 1
Entonces un intervalo de conanza del (1 )100 % para el cociente de varianzas
poblacionales viene dado por
s
2
x
s
2
y
1
f
/2
(n 1, m1)
<

2
x

2
y
<
s
2
x
s
2
y
f
/2
(m1, n 1)
13.4.5. Intervalo de conanza para la proporcion poblacional
Partimos de una P.M. Binomial de par ametro p, es decir, p es la proporci on de exitos
de la Poblacion. Extraemos una m.a.s. {x
1
, . . . , x
n
} y asignamos los valores
x
i
=
_
1 si es exito
0 si es fracaso
184 Estadstica
es decir, cada v.a. x
i
B(1, p)
Sean las v.a.
X n umero de exitos de la muestra
p proporci on de exitos de la muestra
Una estimaci on puntual de la proporci on de exitos de la poblacion viene dada por
la proporci on de exitos de la muestra
p =
1
n
n

i=1
x
i
Para encontrar un intervalo de conanza, tenemos en cuenta el tama no de la muestra.
13.4.5.1. P.M. Binomial y n > 30
Si el tama no de la muestra es sucientemente grande, entonces
p N
_
p,
_
p(1 p)
n
_
y,
P
_
_
_
_
z
/2
<
p p
_
p(1 p)
n
< z
/2
_
_
_
_
= 1
Por tanto,
P
_
p
_
p(1 p)
n
z
/2
< p < p +
_
p(1 p)
n
z
/2
_
= 1
Podramos decir que un intervalo de conanza del (1 )100 % para la proporci on
de exitos de la poblacion viene dado por
p
_
p(1 p)
n
z
/2
< p < p +
_
p(1 p)
n
z
/2
pero esto no sirve de mucho pues como no conocemos el valor de p, no se pueden calcular
los lmites del intervalo. Para resolver este problema se puede proceder de dos formas.
13 Estimaci on puntual y estimacion por intervalo 185
Una solucion consiste en aproximar el valor de p por el valor de la proporci on
muestral. Por tanto, un intervalo de conanza del (1 )100 % para la proporci on
de exitos de la poblacion viene dado por
p
_
p(1 p)
n
z
/2
< p < p +
_
p(1 p)
n
z
/2
Otro metodo consiste en utilizar como valor aproximado del producto p(1 p), su
m aximo valor posible. As,
y = p(1 p) y

= 1 2p = 0 p =
1
2
p(1 p) =
1
4
Entonces, un intervalo de conanza del (1 )100 % para la proporci on de exitos
viene dado por
p
_
1
4n
z
/2
< p < p +
_
1
4n
z
/2
13.5. Intervalo de conanza asintotico
Si es cualquier par ametro de una poblacion,

MV
es su estimador de m axima
verosimilitud y

MV
es su estimaci on de m axima verosimilitud entonces,

MV
es asintoti-
camente Normal con par ametros

MV
= E[

MV
]

MV
= Var(

MV
)
1

2
LnL(x
1
, . . . , x
n
; )

MV
donde LnL(x
1
, . . . , x
n
; ) es el logaritmo neperiano de la funcion de verosimilitud de la
muestra. Por tanto, si la muestra es sucientemente grande, podemos construir un inter-
valo de conanza para el par ametro de la forma habitual, teniendo en cuenta que

MV

MV

MV

= N(0, 1)
entonces
P
_
z
/2
<

MV

MV

MV
< z
/2
_
= 1
186 Estadstica
es decir,

MV
z
/2

MV
< <

MV
+ z
/2

MV
Un inconveniente de este metodo general es que la convergencia de la distribuci on de

MV
hacia la Normal puede ser muy lenta y entonces el intervalo de conanza sera poco
preciso. Esto no ocurre cuando es un par ametro de centralizaci on.
Ejemplo.- Vamos a obtener el intervalo de conanza asintotico del par ametro de una
poblacion Exponencial
Dada la P.M. = X Exp(), entonces
f(x, ) = e
x
= E[X] =
1


2
= Var(X) =
1

2
i) Obtenemos el estimador de m axima verosimilitud de
La funcion de verosimilitud de una muestra de tama no n es
L(x
1
, . . . , x
n
; ) = f(x
1
, ) f(x
n
, ) =
n
e

x
i
Obtenemos el logaritmo neperiano
L
n
L(x
1
, . . . , x
n
; ) = nL
n

x
i
Entonces
L
n
L

=
n

x
i
= 0 = n

x
i
= 0 =

MV
=
n

x
i
=
1
x
ii) Realizamos las aproximaciones
E[

MV
]
Var(

MV
)
1

2
LnL

MV
=
1

MV
=
1
n x
2
iii) Si el tama no de la muestra es sucientemente grande, un intervalo de conanza del
(1 ) % para el par ametro de una poblacion Exponencial es
1
x
z
/2
1
x

n
< <
1
x
+ z
/2
1
x

n
14
Teora de muestras
de poblacion nita

Indice
14.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
14.2. Distribuciones de muestreo . . . . . . . . . . . . . . . . . . . . 189
14.2.1. Estadstico media muestral . . . . . . . . . . . . . . . . . . . . 189
14.2.2. Estadstico varianza muestral . . . . . . . . . . . . . . . . . . . 191
14.2.3. Estadstico proporci on muestral . . . . . . . . . . . . . . . . . . 193
14.3. Intervalos de conanza . . . . . . . . . . . . . . . . . . . . . . . 194
14.3.1. Intervalo de conanza para la media poblacional . . . . . . . . 194
14.3.1.1. P.M. ?(, ) con conocido . . . . . . . . . . . . . 195
14.3.1.2. P.M. ?(, ) con desconocido . . . . . . . . . . . 195
14.3.2. Intervalo de conanza para la proporci on poblacional . . . . . . 195
187
188 Estadstica
14.1. Introduccion
A lo largo de este captulo supondremos que la muestra aleatoria se ha realizado
sin reemplazamiento o, lo que es equivalente, se han extrado los n elementos a la vez. Es
importante resaltar dos cosas:
Si la muestra se extrae sin reemplazamiento, las v.a. {x
1
, . . . , x
n
} que representan a
la muestra no son independientes, pues cada extracci on depende de las extracciones
anteriores y, adem as, no estan identicamente distribuidas, pues en cada extracci on
la conguracion de la poblacion es distinta. Por tanto, por muy grande que sea el
tama no de la muestra, en ning un caso estaremos en condiciones de aplicar el Teorema
de Levy-Lindeberg. Es decir, en ning un caso podremos aproximar la distribuci on del
estadstico muestral por una distribucion Normal. Por otra parte, el conocimiento
de la distribucion poblacional es, en la mayora de los casos, irrelevante.
Aunque la diferencia te orica entre la teora de poblacion innita y poblacion nita
radica en el metodo de extracci on de la muestra (con o sin reemplazamiento), en la
pr actica, casi todas las muestras se realizan sin reemplazamiento. Al n y al cabo
sera una perdida de tiempo y de dinero inspeccionar dos veces el mismo elemento
de la poblacion. C omo se diferencian entonces en la pr actica? Veamos un ejemplo.
Supongamos que queremos estimar la proporci on de exitos, p
1
y p
2
, de dos po-
blaciones. En el primer caso, la poblacion la constituyen los 34 millones de es-
pa noles con derecho a voto. Extraemos una muestra aleatoria, sin reemplazamien-
to, de 1000 personas. Extraemos el primer elemento, lo examinamos, y lo deja-
mos fuera. Cuando vamos a extraer el segundo elemento, la poblacion consta de
34.000.000 1 34.000.000 elementos y la proporci on de exitos de la nueva po-
blacion es p
1
, por tanto, podemos considerar que x
1
y x
2
provienen de la misma
P.M. y, adem as, son independientes. Cuando vamos a extraer el tercer elemento,
la poblacion consta de 34.000.000 2 34.000.000 elementos y la proporci on de
exitos de la nueva poblacion es p
1
, por tanto, podemos considerar que x
1
, x
2
y
x
3
provienen de la misma P.M. y, adem as, son independientes. Y as sucesivamente.
Por tanto, en este caso, no importa como se haya extrado la muestra, pues siempre
podremos considerar que {x
1
, . . . , x
1000
} son independientes y estan identicamen-
te distribuidas. En el segundo caso, supongamos que tenemos que inspeccionar un
lote de 50 piezas. Extraemos una muestra aleatoria, sin reemplazamiento, de 20
piezas. Claramente, ahora cada extracci on realizada modica la composicion de la
14 Teora de muestras de poblacion nita 189
poblacion, tanto en tama no como en proporci on de piezas defectuosas, y, por tanto,
{x
1
, . . . , x
20
} no son independientes ni estan identicamente distribuidas.
Como conclusion, en la pr actica, lo que diferencia una muestra con reemplazamiento
de otra sin reemplazamiento, es la relaci on entre el tama no de la poblacion y el
tama no de la propia muestra. Un criterio de uso generalizado es considerar como
m.a.s. toda muestra que cumpla la relaci on n/N < 0.10.
A lo largo de este captulo supondremos que la muestra la componen n v.a. que no
son independientes ni estan identicamente distribuidas. La nomenclatura empleada a lo
largo de este captulo es la siguiente
Poblacion Madre formada por N elementos {X
1
, X
2
, . . . , X
N
}
Media Poblacional =
1
N
N

i=1
X
i
Varianza Poblacional
2
=
1
N
N

i=1
(X
i
)
2
Muestra sin reemplazamiento formada por n elementos {x
1
, x
2
, . . . , x
n
}
Media Muestral x =
1
n
n

i=1
x
i
Varianza Muestral s
2
=
1
n 1
n

i=1
(x
i
x)
2
14.2. Distribuciones de muestreo
14.2.1. Estadstico media muestral
x =
1
n
n

i=1
x
i
Si llamamos = x y {z
1
, . . . , z
m
} a los posibles valores que puede tomar , entonces
m =
_
N
n
_
y P( = z
i
) =
1
_
N
n
_
190 Estadstica
Por tanto,
E[] =
m

i=1
z
i
P( = z
i
) =
1
_
N
n
_
m

i=1
z
i
=
1
_
N
n
_(z
1
+ + z
m
) =
=
1
_
N
n
_
_
N 1
n 1
_
(X
1
+ + X
N
)
n
=
_
N 1
n 1
_
_
N
n
_
1
n
N

i=1
X
i
=
=
n
N
1
n
N

i=1
X
i
=
1
N
N

i=1
X
i
=
Es decir,
E[ x] =
Para calcular la varianza,
Var() = E
_
(

)
2

= E[
2
] (E[])
2
Pero
E[
2
] =
m

i=1
z
2
i
P( = z
i
) =
1
_
N
n
_
m

i=1
z
2
i
=
=
1
_
N
n
_
1
n
2
__
N 1
n 1
_
N

i=1
X
2
i
+ 2
_
N 2
n 2
_

i<j
X
i
X
j
_
=
=
1
nN
N

i=1
X
2
i
+ 2
n 1
Nn(N 1)

i<j
X
i
X
j
(E[])
2
=
2
=
_
1
N
N

i=1
X
i
_
2
=
1
N
2
_
N

i=1
X
2
i
+ 2

i<j
X
i
X
j
_
14 Teora de muestras de poblacion nita 191
Entonces
Var() =
_
1
nN

1
N
2
_
N

i=1
X
2
i
+ 2
_
n 1
Nn(N 1)

1
N
2
_

i<j
X
i
X
j
=
=
N n
nN
2
N

i=1
X
2
i
2
N n
nN
2
(N 1)

i<j
X
i
X
j
=
=
N n
n(N 1)
_
N 1
N
2
N

i=1
X
2
i

2
N
2

i<j
X
i
X
j
_
=
=
N n
n(N 1)
_
_
1
N

1
N
2
_
N

i=1
X
2
i

2
N
2

i<j
X
i
X
j
_
=
=
N n
n(N 1)
_
1
N
N

i=1
X
2
i

1
N
2
_
N

i=1
X
2
i
+ 2

i<j
X
i
X
j
__
=
=
N n
n(N 1)
_
1
N
N

i=1
X
2
i


X
2
_
=
N n
n(N 1)
1
N
N

i=1
_
X
i


X
_
2
=
=
N n
n(N 1)

2
Es decir,
Var( x) =
N n
n(N 1)

2
Adem as, cuando N es grande con respecto a n, entonces
Nn
N1
1 y la varianza del
estadstico media es igual que en el caso de poblacion innita.
Por tanto,
x ?
_
,
_
N n
n(N 1)
_
14.2.2. Estadstico varianza muestral
s
2
=
1
n 1
n

i=1
(x
i
x)
2
192 Estadstica
Si llamamos = s
2
y {z
1
, . . . , z
m
} a los posibles valores que puede tomar , entonces
m =
_
N
n
_
y
z
1
=
1
n 1

(X
i
x
1
)
2
x
1
=
1
n

X
i
P( = z
1
) =
1
_
N
n
_
z
2
=
1
n 1

(X
i
x
2
)
2
x
2
=
1
n

X
i
P( = z
2
) =
1
_
N
n
_
.
.
.
z
m
=
1
n 1

(X
i
x
m
)
2
x
m
=
1
n

X
i
P( = z
m
) =
1
_
N
n
_
donde cada z
i
es de la forma
z
i
=
1
n 1

(X
i
x
i
)
2
=
1
n 1
_

X
2
i
n x
2
i
_
Entonces,
14 Teora de muestras de poblacion nita 193
E[] =
m

i=1
z
i
P( = z
i
) =
z
1
+ + z
m
_
N
n
_ =
=
1
_
N
n
_
1
n 1
__
N 1
n 1
_
N

i=1
X
2
i
n
m

i=1
x
2
i
_
=
=
1
_
N
n
_
1
n 1
__
N 1
n 1
_
N

i=1
X
2
i

n
1
n
2
__
N 1
n 1
_
N

i=1
X
2
i
+ 2
_
N 2
n 2
_

i<j
X
i
X
j
__
=
=
n
N
1
n 1
n 1
n
N

i=1
X
2
i
2
n(n 1)
N(N 1)
1
n 1
1
n

i<j
X
i
X
j
=
=
1
N
N

i=1
X
2
i

2
N(N 1)

i<j
X
i
X
j
=
N
N 1

2
Por tanto,
E[s
2
] =
N
N 1

2
14.2.3. Estadstico proporcion muestral
Tenemos una P.M. B(1, p) de N elementos, {X
1
, . . . , X
i
}, entre los cuales hay A
exitos y (N A) fracasos; siendo
p = P(exito) = proporci on de exitos de la P.M. =
A
N
q = P(fracaso) = proporci on de fracasos de la P.M. = 1 p
por tanto,
= E[P.M.] = p y
2
= Var(P.M.) = p(1 p)
194 Estadstica
Sacamos una muestra aleatoria sin reemplazamiento, {x
1
, . . . , x
n
}, entre los cuales
hay a exitos y (n a) fracasos; siendo
p = P(exito) = proporci on de exitos de la muestra =
a
n
q = P(fracaso) = proporci on de fracasos de la muestra = 1 p
A cada elemento de la muestra le asignamos el valor
x
i
=
_

_
1 si es exito
0 si es fracaso
entonces
p =
1
n
n

i=1
x
i
= x
es decir, la proporci on muestral no es m as que la media muestral por lo que podemos
aplicar los resultados de la seccion 14.2.1. As
E[ p] = E[ x] = = p
Var( p) = Var( x) =
N n
n(N 1)

2
=
N n
n(N 1)
p(1 p)
Por tanto,
p ?
_
p,
_
p(1 p)
N n
n(N 1)
_
14.3. Intervalos de conanza
14.3.1. Intervalo de conanza para la media poblacional
Dada un P.M. con media , como estimador puntual de la media de la poblacion,
se utiliza la media de la muestra
x =
1
n
n

i=1
x
i
14 Teora de muestras de poblacion nita 195
14.3.1.1. P.M. ?(, ) con conocido
Atendiendo a lo dicho en el apartado 14.2.1, la distribucion frecuencial del estadstico
media es
x ?
_
,

N n
n(N 1)
_
Teniendo en cuenta que la unica herramienta aplicable es Chebychev,
P
_
x

N n
n(N 1)
k < < x +

N n
n(N 1)
k
_
1
k
siendo
k
= 1/k
2
. Por tanto, un intervalo de conanza del (1
k
)100 % para la media
poblacional viene dado por
x
_
N n
n(N 1)
k < < x +
_
N n
n(N 1)
k
14.3.1.2. P.M. ?(, ) con desconocido
Atendiendo a lo dicho en el apartado 14.2.2,
E[s
2
] =
N
N 1

2
= E
_
N 1
N
s
2
_
=
2
por tanto, podemos tomar como estimaci on de la varianza poblacional, el valor de la
varianza de la muestra, corregido por el factor
N1
N
. A partir de aqu, estamos en las
mismas condiciones que en el apartado anterior. As,
P
_
x s
_
N n
nN
k < < x + s
_
N n
nN
k
_
1
k
siendo
k
= 1/k
2
. Por tanto, un intervalo de conanza del (1
k
)100 % para la media
poblacional viene dado por
x s
_
N n
nN
k < < x + s
_
N n
nN
k
14.3.2. Intervalo de conanza para la proporcion poblacional
Dada un P.M. con una proporci on de exitos p, como estimador puntual de dicho
par ametro se utilizara la proporci on de exitos de la muestra, p.
196 Estadstica
Seg un lo dicho en el apartado 14.2.3
p ?
_
p,

p(1 p)
N n
n(N 1)
_
Teniendo en cuenta que la unica herramienta aplicable es Chebychev,
P
_
p

p(1 p)
N n
n(N 1)
k < p < p +

p(1 p)
N n
n(N 1)
k
_
1
k
siendo
k
= 1/k
2
. Entonces, podramos decir que un intervalo de conanza del (1

k
)100 % para la proporci on de exitos de la poblacion vendra dado por
p

p(1 p)
N n
n(N 1)
k < p < p +

p(1 p)
N n
n(N 1)
k
pero esto no sirve de mucho pues como no conocemos el valor de p, no se pueden calcular
los lmites del intervalo. Para resolver este problema, se puede proceder de dos formas.
Una solucion consiste en aproximar el valor de p por el valor de la proporci on
muestral. Por tanto, un intervalo de conanza del (1
k
)100 % para la proporci on
de exitos de la poblacion es
p
_
p(1 p)
N n
n(N 1)
k < p < p +
_
p(1 p)
N n
n(N 1)
k
Otro metodo consiste en utilizar como valor aproximado del producto p(1 p), su
m aximo valor posible. As,
y = p(1 p) y

= 1 2p = 0 p =
1
2
p(1 p) =
1
4
Entonces, un intervalo de conanza del (1
k
)100 % para la proporci on de exitos
viene dado por
p
_
1
4
N n
n(N 1)
k < p < p +
_
1
4
N n
n(N 1)
k
15
Contraste
de hipotesis

Indice
15.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
15.2. Las hipotesis nula y alternativa . . . . . . . . . . . . . . . . . . 199
15.3. Metodologa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
15.4. Nivel de signicacion y regi on crtica . . . . . . . . . . . . . . 204
15.5. Valor-p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
15.6. Potencia de un contraste . . . . . . . . . . . . . . . . . . . . . . 209
15.7. Contrastes para la media de una poblacion . . . . . . . . . . . 209
15.7.1. Varianza conocida . . . . . . . . . . . . . . . . . . . . . . . . . 210
15.7.1.1. Poblaci on Madre Normal o n 30 . . . . . . . . . . 210
15.7.2. Varianza desconocida . . . . . . . . . . . . . . . . . . . . . . . 211
15.7.2.1. Poblaci on Madre Normal . . . . . . . . . . . . . . . . 211
15.7.2.2. Poblaci on Madre no Normal . . . . . . . . . . . . . . 213
15.8. Comparacion de medias . . . . . . . . . . . . . . . . . . . . . . 213
15.8.1. Varianzas conocidas . . . . . . . . . . . . . . . . . . . . . . . . 213
15.8.2. Varianzas desconocidas e iguales . . . . . . . . . . . . . . . . . 213
15.8.3. Varianzas desconocidas y distintas . . . . . . . . . . . . . . . . 213
15.8.4. Muestras apareadas . . . . . . . . . . . . . . . . . . . . . . . . 214
15.9. Pruebas sobre proporciones . . . . . . . . . . . . . . . . . . . . 214
15.9.1. Diferencia de dos proporciones . . . . . . . . . . . . . . . . . . 215
15.10.Pruebas sobre varianzas . . . . . . . . . . . . . . . . . . . . . . 215
15.10.1.Una poblaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
15.10.2.Comparacion de varianzas . . . . . . . . . . . . . . . . . . . . . 215
197
198 Estadstica
15.1. Introduccion
Con frecuencia, los problemas a los que nos enfrentamos no se reeren solo a la
estimaci on de un par ametro poblacional. Se nos puede plantear el problema de rechazar o
aceptar cierta hipotesis realizada sobre una poblacion, en base al estudio de una muestra
m as peque na. Los procedimientos que conducen a la aceptaci on o rechazo de una hip otesis
estadstica se enmarcan dentro de la llamada Teora de la Decision.
Una Hipotesis Estadstica es una armaci on o conjetura acerca de una o m as po-
blaciones. Nunca se sabe con absoluta certeza la veracidad o falsedad de una hip otesis
estadstica, a no ser que se examine la poblacion entera. Esto, por supuesto, es poco
pr actico en la mayora de las ocasiones. En su lugar, se toma una muestra aleatoria de la
poblacion de interes, y se utilizan los datos de dicha muestra para obtener evidencias que
conrmen o no la hipotesis propuesta. La evidencia de la muestra que es inconsistente con
la hip otesis planteada conduce a un rechazo de la misma, mientras que la evidencia que
la apoya, conduce a su no rechazo.
Debe quedar claro que el dise no de un procedimiento de decisi on debe llevarse a
cabo con la idea de la probabilidad de una conclusion equivocada. Por ejemplo, supon-
gamos que la hipotesis planteada es que la fraccion, p, de artculos defectuosos en un
cierto proceso es de 0.10. El experimento consiste en observar una muestra aleatoria del
producto en cuestion. Supongamos, adem as, que se estudian 100 artculos y se encuen-
tran 12 defectuosos. Es razonable concluir que esta evidencia no refuta la hip otesis de
que p = 0.10, y entonces esto puede conducir a su aceptaci on. Sin embargo, tampoco
rebate que p = 0.12 o tal vez, incluso, que p = 0.15. Por tanto, debemos acostumbrarnos
a entender que la aceptaci on de una hipotesis implica tan solo que los datos no
proporcionan evidencia suciente para rechazarla. Por otra parte, el rechazo
de una hipotesis implica que la evidencia de la muestra la refuta. Dicho de otra
forma, el rechazo de una hipotesis signica que la probabilidad de que dicha
hipotesis sea cierta es muy peque na. Por ejemplo, en la hip otesis de proporci on de
defectos, de una muestra de 100 artculos, 20 son defectuosos. Esto es una evidencia para
rechazar la hipotesis, pues si en realidad fuese p = 0.10, la probabilidad de obtener 20 o
m as artculos defectuosos es aproximadamente 0.0035. Con el peque no riesgo de llegar a
una conclusion equivocada, parece l ogico rechazar la hipotesis de que p = 0.10.
Generalmente, en este tipo de problemas, si queremos respaldar un argumento, lo
que debemos intentar es rechazar el argumento contrario. Es decir, si queremos mostrar
una evidencia contundente a favor del argumento de que tomar cafe aumenta el riesgo de
15 Contraste de hipotesis 199
infarto, la hipotesis a probar debe ser de la forma no hay aumento en el riesgo de infarto
al tomar cafe. Como resultado, el argumento se alcanza va rechazo. De igual forma, para
respaldar la armaci on de que un tipo de medidor es m as preciso que otro, se prueba con
la hipotesis de que no hay diferencia en la exactitud de los dos tipos de medidores.
15.2. Las hipotesis nula y alternativa
La estructura de la prueba de hipotesis se formula utilizando el termino Hipotesis
Nula. Esto se reere a cualquier hipotesis que se desee probar, y se representa por H
0
.
El rechazo de H
0
da como resultado la aceptaci on de una Hipotesis Alternativa, que se
representa por H
1
.
Una hipotesis nula referente a un par ametro poblacional debe ser establecida de tal
forma que especique un valor exacto del par ametro, mientras que la hip otesis alternativa
admite la posibilidad de varios valores. De aqu que, si H
0
es la hip otesis nula p = 0.5 para
una poblacion binomial, la hipotesis alternativa, H
1
, sera una de las siguientes: p > 0.5,
p < 0.5 o p = 0.5.
Una hipotesis como la hipotesis nula anterior, p = 0.5, que especica un valor
exacto del par ametro se denomina simple, mientras que una hip otesis como cualquiera
de las hipotesis alternativas anteriores que no especican un valor exacto del par ametro
se denomina compuesta. Conviene observar que, seg un lo dicho anteriormente no hay
diferencia entre el test H
0
: p = 0.5 ; H
1
: p > 0.5 y el test H
0
: p 0.5 ; H
1
: p > 0.5.
En ambos, aceptar H
0
signica que no hay evidencia suciente para creer que p > 0.5
y por tanto que H
1
sea cierta. Rechazar la hipotesis nula signicara, por el contrario,
que la proporci on p es superior a 0.5. As, por simplicidad, la hipotesis nula se toma
siempre simple.
La hipotesis alternativa se clasica como unilateral si conocemos en que direcci on
puede ser falsa H
0
(los casos H
1
: p > 0.5 o H
1
: p < 0.5) y bilateral si no podemos saber
la direccion (H
1
: p = 0.5)
Para aclarar un poco los conceptos anteriormente expuestos, consideremos el siguien-
te ejemplo. Se sabe que, pasados 2 a nos, cierto tipo de vacuna es ecaz solo en un 25 % de
los casos. Para vericar si una vacuna nueva y algo m as cara es mejor que la anterior para
proporcionar proteccion contra el mismo virus durante un periodo m as largo, se inyecta
en 20 personas elegidas al azar. Si m as de 8 de los que recibieron la nueva vacuna superan
el periodo de 2 a nos sin contraer el virus, la nueva vacuna se considerara mejor que la
que se utiliza actualmente. El requisito de que el n umero exceda de 8 es algo arbitrario,
200 Estadstica
pero parece razonable en el sentido de que representa una peque na ganancia respecto a
las 5 personas que podra esperarse recibieran proteccion contra el virus, pasados 2 a nos,
si a las 20 personas se les hubiera inyectado la vacuna antigua. La hip otesis alternativa
es la de que la nueva vacuna es mejor que la antigua. Esto equivale a probar la hip otesis
de que el par ametro binomial para la probabilidad de un exito en un intento es p = 1/4,
contra la alternativa de que p > 1/4. Por lo general, esto se escribe como sigue:
H
0
: p = 1/4
H
1
: p > 1/4
Recordemos que, en realidad, queremos rechazar la hipotesis nula de que las dos
vacunas son iguales. El estadstico de prueba sobre el cual se basa la decisi on es X,
la cantidad de individuos en el grupo de prueba que reciben proteccion contra el virus
con la nueva vacuna, para un periodo de al menos 2 a nos, es decir X B(20, p). Los
posibles valores de X, de 0 a 20, se dividen en dos grupos: aquellos valores menores o
iguales que 8, y los que son mayores que 8. Todos los posibles valores mayores que 8
constituyen la llamada Region Crtica o de Rechazo, y todos los valores menores o iguales
que 8 constituyen la Region de Aceptacion. El ultimo valor que se tiene en la regi on de
aceptaci on antes de pasar a la regi on crtica (en este caso el 8), recibe el nombre de Valor
Crtico. Por tanto, si x > 8, se rechaza H
0
en favor de la hipotesis alternativa H
1
. Si x 8
se acepta H
0
, siendo x el valor de X observado en la muestra.
El procedimiento de decisi on que hemos descrito podra conducir a cualquiera de dos
conclusiones erroneas. Por ejemplo, la nueva vacuna puede no ser mejor que la antigua y, en
particular para el grupo de individuos seleccionados aleatoriamente, m as de 8 sobrepasan
el periodo de 2 a nos sin contraer el virus. Estaramos cometiendo el error de rechazar H
0
cuando realmente es cierta. De igual forma, podra ocurrir que 8 o menos individuos del
grupo de prueba sobrepasan el periodo de 2 a nos con exito, y se concluye que la nueva
vacuna no es mejor, cuando en realidad s lo es. Estaramos aceptando H
0
, cuando en
realidad es falsa.
Se dice que se ha cometido un error tipo I, cuando se rechaza la hip otesis nula siendo
esta verdadera.
Se dice que se ha cometido un error tipo II, cuando se acepta la hip otesis nula siendo
esta falsa.
La probabilidad de cometer un error tipo I se llama Nivel de Signicacion o tama no
de la region crtica, y se representa por . En ejemplo anterior,
15 Contraste de hipotesis 201
= P(error tipo I) = P
_
Rechazar H
0

H
0
es cierta
_
=
= P
_
X > 8

p = 1/4
_
=
20

x=9
P [B(20, 1/4) = x] = 0.0409
Se dice, entonces, que la hipotesis nula, p = 1/4, se esta probando con un nivel de
signicaci on de = 0.0409. Este nivel de signicaci on es bastante peque no, por tanto,
es poco probable que se cometa un error tipo I. Es decir, es poco probable que m as de
8 individuos se mantengan inmunes al virus durante 2 o m as a nos utilizando una nueva
vacuna que, en realidad, es equivalente a la que ya existe en el mercado.
La probabilidad de cometer un error tipo II, representado por , es imposible de
calcular a no ser que se tenga una hipotesis alternativa especca. Si se prueba la hip otesis
nula de que p = 1/4 en contraposicion con la hipotesis alternativa de que p = 1/2, entonces
estamos en condiciones de calcular la probabilidad de aceptar H
0
cuando en realidad es
falsa. Simplemente hay que calcular la probabilidad de obtener 8 o menos individuos en
el grupo de prueba que sobrepasen el periodo de 2 a nos, cuando p = 1/2. Es decir,
= P(error tipo II) = P
_
Aceptar H
0

H
0
es falsa
_
=
= P
_
X 8

p = 1/2
_
=
8

x=0
P [B(20, 1/2) = x] = 0.2517

Esta es una probabilidad bastante grande, lo que indica un procedimiento de prueba


con el cual es muy probable que se rechace la nueva vacuna cuando, en realidad, es
superior a la que se utiliza en la actualidad. En una situaci on ideal, sera preferible utilizar
un procedimiento con el que ambos tipos de error fuesen peque nos. Siempre es posible
disminuir el valor de , incrementando el tama no de la regi on crtica. Por ejemplo, veamos
que ocurre con y cuando tomamos como valor crtico 7. Ahora, al probar p = 1/4
contra la hipotesis alternativa de que p = 1/2, se encuentra que
202 Estadstica
= P(error tipo I) = P
_
Rechazar H
0

H
0
es cierta
_
=
= P
_
X > 7

p = 1/4
_
=
20

x=8
P [B(20, 1/4) = x] = 0.1018
= P(error tipo II) = P
_
Aceptar H
0

H
0
es falsa
_
=
= P
_
X 7

p = 1/2
_
=
7

x=0
P [B(20, 1/2) = x] = 0.1316
Al adoptar un nuevo procedimiento de decisi on, se reduce la probabilidad de cometer
un error tipo II, a expensas de incrementar la probabilidad de cometer un error tipo I.
Para una muestra de tama no jo, la disminucion en la probabilidad de un tipo de error
casi siempre resulta en un aumento en la probabilidad del otro tipo de error. Sin embargo,
se puede reducir la probabilidad de cometer ambos tipos de error, aumentando el tama no
de la muestra. Por ejemplo, supongamos que inyectamos la nueva vacuna a 100 individuos
tomados aleatoriamente. Si m as de 36 del grupo de muestra sobrepasan el periodo de 2
a nos, se rechaza la hipotesis nula de que p = 1/4 y se acepta la hip otesis alternativa de
que p = 1/2.
Para determinar la probabilidad de cometer un error tipo I, utilizamos la aproxima-
ci on de la curva normal con
= np = 100
1
4
= 25 y =

npq =
_
100
1
4

3
4
= 4.33
Tipicamos la normal
Z =
X

=
36.5 25
4.33
= 2.66
entonces
= P(error tipo I) = P
_
Rechazar H
0

H
0
es cierta
_
=
= P
_
X > 36

p = 1/4
_
P(Z > 2.66) = 0.0039
Para determinar la probabilidad de cometer un error tipo II, utilizamos de nuevo la
aproximacion de la curva normal con
15 Contraste de hipotesis 203
Figura 15.1: Representaci on esquematica de la probabilidad de cometer errores de tipo I
y II en un contraste de hipotesis.
= np = 100
1
2
= 50 y =

npq =
_
100
1
2

1
2
= 5
Tipicamos la normal
Z =
X

=
36.5 50
5
= 2.70
entonces
= P(error tipo II) = P
_
Aceptar H
0

H
0
es falsa
_
=
= P
_
X 36

p = 1/2
_
P(Z < 2.70) = 0.0035
En la gura 15.1 se muestra un esquema de los errores tipo I y tipo II correspon-
dientes al ejemplo anterior.
15.3. Metodologa
Para establecer y realizar un contraste de hipotesis sobre un par ametro poblacional,
, se realizan los siguientes pasos:
1. Denir las hipotesis nula H
0
y alternativa H
1
. Recordamos que la hip otesis nula
siempre la consideramos simple (H
0
: =
0
).
2. Considerar un estadstico,

, que permita medir si existe discrepancia entre los
datos muestrales y la hipotesis H
0
. Para ello, es necesario conocer la distribuci on de
este estadstico bajo la suposicion de que H
0
es cierta.
204 Estadstica
3. Denir la regi on crtica del test, es decir, especicar que valores del estadstico consi-
deramos inadmisibles para asumir H
0
. Esta especicacion se cuantica en terminos
de probabilidades: nos interesa saber cu ando la diferencia entre el valor esperado
del estadstico bajo la hipotesis H
0
y su valor obtenido para la muestra (lo que se
conoce como disparo) es demasiado grande para poder atribuirse al azar.
4. Tomar una muestra, calcular el valor que toma el estadstico en la muestra,

, y
tomar una decisi on seg un su valor caiga o no en la regi on crtica.
Lo que debe especicarse al denir un contraste de hipotesis es, por tanto, el es-
tadstico que vamos a utilizar y la regi on crtica. En gran parte de los casos, la elecci on del
estadstico o es evidente (la media muestral, por ejemplo, si las hipotesis se reeren al va-
lor medio de una cantidad) o este resulta ser estandar, y por tanto conocido de antemano
para un determinado tipo de problema (como el estadstico de Pearson que estudiaremos
posteriormente en los contrastes de bondad del ajuste).
La elecci on de la regi on crtica se hace de acuerdo al interes que tengamos en mini-
mizar el error de tipo I. Para reducir la posibilidad de un error de tipo II deberemos jugar
con el tama no de la muestra.
15.4. Nivel de signicaci on y regi on crtica
Tradicionalmente la regi on crtica de un contraste se determina jando de antemano
un nivel de signicacion . Supongamos un contraste basado en un estadstico

. La regi on
crtica sera el conjunto de posibles valores de

que consideramos tan poco probables como
para rechazar H
0
. Llamemos a esta regi on D
c
, de tal modo que rechazaremos H
0
si el valor
de

obtenido en el muestreo

D
c
.
Recordando la denici on del nivel de signicaci on:
= P
_
Rechazar H
0

H
0
es cierta
_
Podemos reescribir:
= P
_

D
c

H
0
es cierta
_
Recordemos que es posible calcular esta probabilidad ya que conocemos la distri-
bucion del estadstico

bajo la suposicion de que H
0
es cierta. As, jado de antemano
el nivel de signicaci on podremos obtener de la ecuacion anterior la regi on crtica D
c
.
Basta entonces tomar la decisi on:
15 Contraste de hipotesis 205
Si

D
c
se rechaza la hipotesis H
0
En caso contrario no existe evidencia suciente que permita rechazar H
0
, para el
nivel de signicaci on prejado.
En general, en este curso vamos a trabajar solo con tres tipos de contrastes, para
los cuales la relaci on entre el nivel de signicaci on y la regi on crtica es (Fig. 15.2):
Contraste bilateral
Contraste
H
0
: =
0
H
1
: =
0
Calculo de la Regi on Crtica
/2 = P
_

< a
1

=
0
_
= a
1
/2 = P
_

> a
2

=
0
_
= a
2
_

_
= RC = (, a1)(a2, +)
Decision
Si

< a
1
o

> a
2
= Rechazo H
0
en favor de H
1
Si a
1
<

< a
2
= No Rechazo H
0
Contraste unilateral por la derecha
Contraste
H
0
: =
0
H
1
: >
0
Calculo de la Regi on Crtica
= P
_

> a

=
0
_
= a = RC = (a, +)
206 Estadstica
Decision
Si

> a = Rechazo H
0
en favor de H
1
Si

< a = No Rechazo H
0
Contraste unilateral por la izquierda
Contraste
H
0
: =
0
H
1
: <
0
Calculo de la Regi on Crtica
= P
_

< a

=
0
_
= a = RC = (, a)
Decision
Si

< a = Rechazo H
0
en favor de H
1
Si

> a = No Rechazo H
0
Este mecanismo basado en la jacion de un nivel de signicaci on no es completa-
mente satisfactorio y, en la actualidad, se preere el enfoque basado en lo que se conoce
como Valor-p de un contraste. Antes de denirlo conviene detenerse en las limitaciones
del enfoque anterior.
El resultado del test depende enormemente de la elecci on del nivel . As, es posible
rechazar H
0
con un = 0.05 y, sin embargo no hacerlo si = 0.045. De hecho, con este
enfoque, no queda constancia del grado de evidencia que la muestra indica a favor o en
contra de H
0
. En la gura 15.3 se muestran dos disparos que conduciran al rechazo de
H
0
aunque, claramente, la evidencia de este rechazo es muy distinta.
15.5. Valor-p
Supongamos un contraste de hipotesis basado en un estadstico

para el que hemos
obtenido un disparo, o valor estimado en la muestra, de

. Se dene Valor-p del contraste
como:
15 Contraste de hipotesis 207
Figura 15.2: Regi on crtica para un nivel de signicaci on . (a): contraste bilateral, (b):
contraste unilateral por la derecha, (c): contraste unilateral por la izquierda. En todos los
casos se ha dibujado la distribucion del estadstico

cuando H
0
es cierta, es decir cuando
=
0
208 Estadstica

Rechazo
Figura 15.3: Dos disparos que conducen al rechazo de la hipotesis H
0
. Claramente la
evidencia para este rechazo es muy distinta en ambos casos.
Valor-p = P
_
|

H
0
es cierta
_
Contraste bilateral
Valor-p = P
_

H
0
es cierta
_
Contraste unilateral por la derecha
Valor-p = P
_

H
0
es cierta
_
Contraste unilateral por la izquierda
La relaci on del Valor-p con el nivel de signicaci on es evidente: seg un el enfoque
anterior, no rechazaramos H
0
para ning un nivel de signicaci on menor que el Valor-p.
Habitualmente, el criterio basado en el Valor-p es como sigue:
1. Si Valor-p 0.2 se considera que no existe evidencia estadstica para rechazar la
hip otesis H
0
.
2. Si Valor-p 0.01 se considera que la evidencia es m as que suciente para rechazar
H
0
en favor de H
1
.
3. Si 0.01 Valor-p 0.2 la aceptaci on o rechazo de H
0
depender a de la conanza
que tengamos a priori en la hipotesis H
0
. Normalmente se rechaza H
0
si el Valor-p
es menor que 0.1
15 Contraste de hipotesis 209
15.6. Potencia de un contraste
La potencia de un contraste se dene en terminos de la probabilidad de cometer un
error de tipo II (es decir, aceptar H
0
siendo falsa): un test es tanto m as potente cuanto
menor sea esta probabilidad.
Ya hemos visto que para calcular la probabilidad de error de tipo II necesitamos
una hip otesis alternativa H
1
completamente especicada. Si nuestro contraste se reere a
alg un par ametro poblacional, , deberemos especicar su valor.
Se dene la funci on o curva de operacion caracterstica (O.C.) de un contraste, (),
como (Fig 15.4.a):
() = P(error tipo II) = P
_
Aceptar H
0

H
0
es falsa
_
= P
_
Aceptar H
0

_
Si el valor de se toma como aquel que especica la hipotesis nula
0
, (
0
) sera la
probabilidad de aceptar H
0
cuando esta es cierta y, por tanto, esta relacionada con el
nivel de signicaci on mediante la igualdad:
(
0
) = 1
Para cualquier otro valor de se obtiene la probabilidad de error de tipo II si la
hip otesis alternativa H
1
especica dicho valor para el par ametro.
Se dene la funci on o curva de potencia de un contraste como (Fig 15.4.b)
Potencia() = 1 () = P
_
Rechazar H
0

H
0
es falsa
_
= P
_
Rechazar H
0

_
Observese que para dos contrastes con igual nivel de signicaci on, el de mayor po-
tencia es aquel en el que es menos probable cometer un error de tipo II.
Como se ha visto en el ejemplo anterior una posible manera de aumentar la potencia
de un contraste es aumentar el tama no muestral.
15.7. Contrastes para la media de una poblaci on
Vamos a establecer en esta seccion una serie de contrastes relacionados con el valor
de la media de una poblacion. Los estadsticos que vamos a emplear han sido estudiados
en el captulo dedicado a las distribuciones en el muestreo.
210 Estadstica
15.7.1. Varianza conocida
Supongamos una P.M. de media y varianza conocida. Sabemos que la distribu-
cion en el muestreo del estadstico media muestral
x =
1
n
n

i=1
x
i
es
x
_

_
N
_
, /

n
_
si la poblacion madre es normal N(, ) o n 30
? (, /

n) si la poblacion madre es ? (, )
15.7.1.1. Poblacion Madre Normal o n 30
Contraste bilateral
H
0
: =
0
H
1
: =
0
Empleando la notacion z
p
para el cuantil 1 p de una normal estandar N(0, 1) (es
decir, z
p
es el valor para el que la funcion de distribucion vale p o, dicho de otro
modo, que deja una probabilidad 1 p a su izquierda) tenemos, para un nivel de
signicaci on
P
_
z
/2
<
x
0
/

n
< z
/2
_
= 1
y, por tanto, una regi on de aceptaci on (
0
z
/2
/

n,
0
+z
/2
/

n). Tomando el
valor muestral de x rechazaremos H
0
si obtenemos un valor fuera de este intervalo
y deberemos aceptarla en caso contrario. El nivel crtico del test, o Valor-p, sera
Valor-p = P
_
|N(0, 1)| >

x
0
/

_
Contraste unilateral por la derecha
H
0
: =
0
H
1
: >
0
El contraste es completamente analogo al anterior salvo que ahora la regi on de
aceptaci on no esta limitada por la izquierda. Tenemos ahora que
P
_
x
0
/

n
< z

_
= 1
15 Contraste de hipotesis 211
y, por tanto, una regi on de aceptaci on (,
0
+z

n). El nivel crtico del test,


o Valor-p, sera ahora
Valor-p = P
_
N(0, 1) >
x
0
/

n
_
Contraste unilateral por la izquierda
H
0
: =
0
H
1
: <
0
P
_
x
0
/

n
> z

_
= 1
y la regi on de aceptaci on es (
0
z

n, +). El nivel crtico del test, o Valor-p,


sera ahora
Valor-p = P
_
N(0, 1) <
x
0
/

n
_
En ambos casos (prueba bilateral o unilateral), el tama no de la muestra n puede
jarse con alguna suposicion a nadida. Lo m as habitual es obligar a que, dada una hip otesis
alternativa determinada H
1
: =
0
+ , el error de tipo II sea menor que una cantidad
prejada.
Es facil demostrar que se obtiene una potencia 1 para un tama no muestral
n
_

_
(z

+ z

)
2

2
si la prueba es unilateral
(z
/2
+ z

)
2

2
si la prueba es bilateral
15.7.2. Varianza desconocida
15.7.2.1. Poblacion Madre Normal
En el caso de que desconozcamos la varianza de la poblacion madre, pero esta sea
N(, ), hemos visto que
x
s/

n
t
n1
siendo t
n1
una variable t de Student con n 1 grados de libertad.
Contraste bilateral
212 Estadstica
H
0
: =
0
H
1
: =
0
Empleando la notacion t
p
para el cuantil 1 p de una t de Student con n-1 grados
de libertad t
n1
tenemos, para un nivel de signicaci on
P
_
t
/2
<
x
0
s/

n
< t
/2
_
= 1
y, por tanto, una regi on de aceptaci on (
0
t
/2
s/

n,
0
+t
/2
s/

n). Tomando el
valor muestral de x rechazaremos H
0
si obtenemos un valor fuera de este intervalo
y deberemos aceptarla en caso contrario. El nivel crtico del test, o Valor-p, sera
Valor-p = P
_
|t
n1
| >

x
0
s/

_
Contraste unilateral por la derecha
H
0
: =
0
H
1
: >
0
Tenemos ahora que
P
_
x
0
s/

n
< t

_
= 1
y, por tanto, una regi on de aceptaci on (,
0
+t

s/

n). El nivel crtico del test,


o Valor-p, sera ahora
Valor-p = P
_
t
n1
>
x
0
s/

n
_
Contraste unilateral por la izquierda
H
0
: =
0
H
1
: <
0
Tenemos ahora que
P
_
x
0
s/

n
> t

_
= 1
y, por tanto, una regi on de aceptaci on (
0
t

s/

n, +). El nivel crtico del test,


o Valor-p, sera ahora
Valor-p = P
_
t
n1
<
x
0
s/

n
_
15 Contraste de hipotesis 213
15.7.2.2. Poblacion Madre no Normal
Incluso en el caso de que la poblacion madre no sea normal, en virtud del teorema
central del lmite, para valores grandes de n (n > 30) podemos utilizar la aproximacion
x
s/

= N(0, 1)
15.8. Comparaci on de medias
A partir de esta seccion no seremos exhaustivos en la presentaci on de los contrastes,
sino que nos limitaremos a considerar el estadstico m as apropiado y su distribuci on. El
mecanismo para construir el contraste a partir de esta informaci on es siempre igual.
Sean dos muestras de tama nos n y m sacadas de dos poblaciones normales con
medias
x
y
y
y varianzas
x
y
y
respectivamente. La hipotesis nula del contraste sera
H
0
:
x

y
= d
0
15.8.1. Varianzas conocidas
El estadstico relevante es
( x y) (
x

y
)
_

2
x
n
+

2
y
m
N(0, 1)
15.8.2. Varianzas desconocidas e iguales
( x y) (
x

y
)

(n 1)s
2
x
+ (m1)s
2
y
n + m2
_
1
n
+
1
m
t
n+m2
15.8.3. Varianzas desconocidas y distintas
( x y) (
x

y
)
_
s
2
x
n
+
s
2
y
m

= t

donde,
214 Estadstica
=
(A+ B)
2
A
2
n 1
+
B
2
m1
A =
s
2
x
n
, B =
s
2
y
m
15.8.4. Muestras apareadas
El anterior enfoque para la comparacion de medias no es completamente satisfacto-
rio. En algunos casos podemos sospechar que las muestras tomadas independientemente
de las dos poblaciones no han sido hechas bajo las mismas condiciones, lo que falseara
el resultado del contraste. esto es especialmente relevante si la poblaciones presentan una
gran variabilidad, lo que suele ser indicativo de que existen muchos factores que pueden
inuir en sus par ametros.
Una manera de evitar este problema es tomar, si se puede, muestras apareadas:
medidas realizadas por pares en situaciones lo m as semejantes posibles. Por ejemplo, para
medir la ecacia de dos marcas de neum aticos conviene tomar medidas de los neum aticos
montados sobre el mismo vehculo, con lo que eliminaremos la variabilidad debida a los
distintos conductores, amortiguadores, mec anica etc.
En un proceso de medida apareado obtenemos n pares de valores x
1,i
, x
2,i
referidos
a las dos poblaciones 1 y 2. Se toma el valor y
i
= x
1,i
x
2,i
del estadstico diferencia

D.
Si
D
y s
D
son su media y desviaci on muestral respectivamente, el estadstico
T =

D
D
s
D
/

n
t
n1
La hipotesis nula para este contraste se reduce a
H
0
:
D
= d
0
En la tabla 15.1 se encuentra un esquema de los contrastes relativos a medias
15.9. Pruebas sobre proporciones
El n umero de elementos de una poblacion que presentan una determinada carac-
terstica sigue una distribucion binomial, como sabemos. Si X es una variable binomial
B(n, p), la proporci on de elementos de la poblacion que presentan la caracterstica desea-
da sera su valor medio dividido por n. Para n grande, la variable binomial se aproxima a
una normal, por lo que salvo en el caso de poblaciones peque nas (n < 30) los contrastes
de proporciones son analogos a los referidos a las medias de una poblacion.
15 Contraste de hipotesis 215
En el caso de poblaciones peque nas se procede como en el ejemplo que abre este
captulo, manejando directamente el estadstico media de una variable binomial.
15.9.1. Diferencia de dos proporciones
Si tenemos dos poblaciones y queremos medir si la diferencia de proporciones p
1
p
2
de una caracterstica determinada en ellas es 0 se emplea el estadstico
Z =
p
1
p
2
_
p(1 p)(1/n
1
+ 1/n
2
)
N(0, 1)
donde
p =
x
1
+ x
2
n
1
+ n
2
siendo x
1
y x
2
el n umero de elementos de cada muestra que presentan la caracterstica.
15.10. Pruebas sobre varianzas
15.10.1. Una poblaci on
Tomando una muestra de tama no n de una poblacion madre normal de varianza
2
,
se cumple para la varianza muestral s
2
(n 1)s
2

2

2
n1
15.10.2. Comparacion de varianzas
Dadas dos muestras de tama nos n y m de dos poblaciones normales de varianzas
x
y
y
respectivamente
s
2
x
/
2
x
s
2
y
/
2
y
F
n1,m1
siendo s
2
x
y s
2
y
la varianza muestral de cada poblacion.
216 Estadstica
Figura 15.4: Dada la hipotesis nula H
0
: p = 1/4. Curva de operaci on caracterstica para
las hip otesis alternativas (a1) H
1
: p = 1/4; (a2) H
1
: p > 1/4; (a3) H
1
: p < 1/4. Curva
de potencia para las hipotesis alternativas (b1) H
1
: p = 1/4; (b2) H
1
: p > 1/4; (b3)
H
1
: p < 1/4
15 Contraste de hipotesis 217
Cuadro 15.1: Pruebas relativas a medias
H
0
Valor del estadstico de prueba H
1
Regi on crtica
<
0
z < z

=
0
z =
x
0
/

n
; conocida >
0
z > z

=
0
|z| > z
/2
<
0
t < t

=
0
t =
x
0
s/

n
; = n 1 >
0
t > t

desconocida =
0
|t| > t
/2

2
< d
0
z < z

2
= d
0
z =
( x
1
x
2
) d
0
_
(
2
1
/n
1
) + (
2
2
/n
2
)

2
> d
0
z > z

1
y
2
conocidas
1

2
= d
0
|z| > z
/2
t =
( x
1
x
2
) d
0
s
p
_
(1/n
1
) + (1/n
2
)

2
< d
0
t < t

2
= d
0
= n
1
+ n
2
2,
1
=
2

1

2
> d
0
t > t

pero desconocida,
s
2
p
=
(n
1
1)s
2
1
+ (n
2
1)s
2
2
n
1
+ n
2
2

1

2
= d
0
|t| > t
/2
t =
( x
1
x
2
) d
0
_
(s
2
1
/n
1
) + (s
2
2
/n
2
)

2
< d
0
t < t

2
= d
0
=
(s
2
1
/n
1
+ s
2
2
/n
2
)
2
(s
2
1
/n
1
)
2
n
1
1
+
(s
2
2
/n
2
)
2
n
2
1

2
> d
0
t > t

1
=
2
y desconocidas
1

2
= d
0
|t| > t
/2

D
< d
0
t < t

D
= d
0
t =

d d
0
s
d
/

n
; = n 1
D
> d
0
t > t

observaciones apareadas
D
= d
0
|t| > t
/2
218 Estadstica
16
Contrastes
no parametricos

Indice
16.1. Contraste
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
16.1.1. Prueba de bondad del ajuste . . . . . . . . . . . . . . . . . . . 221
16.1.1.1. Hipotesis simple . . . . . . . . . . . . . . . . . . . . . 221
16.1.1.2. Hipotesis compuesta . . . . . . . . . . . . . . . . . . . 221
16.1.2. Prueba de homogeneidad . . . . . . . . . . . . . . . . . . . . . 222
16.1.3. Prueba de independencia . . . . . . . . . . . . . . . . . . . . . 223
16.2. Contraste de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . 223
16.3. Otros contrastes no parametricos . . . . . . . . . . . . . . . . . 224
16.3.1. Contrastes de posici on . . . . . . . . . . . . . . . . . . . . . . . 224
16.3.1.1. Test de los signos . . . . . . . . . . . . . . . . . . . . 225
16.3.1.2. Test de Wilcoxon de los rangos signados . . . . . . . . 226
16.3.1.3. Test de la mediana . . . . . . . . . . . . . . . . . . . . 227
16.3.1.4. Test de Mann-Whitney . . . . . . . . . . . . . . . . . 227
16.3.2. Contrastes de independencia . . . . . . . . . . . . . . . . . . . 228
16.3.2.1. Test de Kendall . . . . . . . . . . . . . . . . . . . . 228
16.3.2.2. Test del coeciente de correlaci on entre rangos o test
de Spearman . . . . . . . . . . . . . . . . . . . . . . . 229
16.3.2.3. Test de rachas . . . . . . . . . . . . . . . . . . . . . . 229
16.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
219
220 Estadstica
En el captulo anterior hemos manejado contrastes parametricos, es decir, aquellos
en los que se estudia la veracidad de hipotesis acerca de los par ametros de los que depende
la distribucion de una poblacion. En muchas otras ocasiones es necesario emitir un juicio
sobre la distribucion poblacional en su conjunto. Los problemas mas habituales que suelen
plantearse son los siguientes:
Decidir, a la vista de una muestra aleatoria de una poblacion, si puede admitirse
que esta sigue una cierta distribucion dada N(0,1), Poisson(5), etc.) o bien perte-
nece a un cierto tipo de distribuciones (es normal, exponencial, geometrica, etc.).
Los contrastes que dilucidan esta cuestion se denominan de bondad del ajuste.
Analizar si varias muestras aleatorias provienen de poblaciones con la misma dis-
tribuci on te orica, de forma que puedan utilizarse conjuntamente para inferencias
posteriores sobre esta o si, por el contrario, son muestras de poblaciones con
distinta distribucion. Es el problema de la homogeneidad de varias muestras.
Estudiar, en el caso de que se observen dos o m as caractersticas de los elementos
de la poblacion (de forma que la distribucion te orica no sea unidimensional) si las
caractersticas observadas pueden ser consideradas independientes y proceder a
su analisis por separado o, por el contrario, existe relaci on estadstica entre ellas.
Cualquiera de estos problemas se denominan no parametricos ya que no se trata de
decidir entre distribuciones F

que solo se diferencian en el valor del par ametro . As, por


ejemplo, si queremos probar una hipotesis nula como que la distribuci on es Exp( = 5)
la hipotesis alternativa contiene a todas las distribuciones continuas y no solo a las
exponenciales con otro valor de su par ametro .
16.1. Contraste
2
Reciben este nombre los contrastes basados en el estadstico de Pearson. Omitiremos
la justicacion te orica, algo complicada, del proceder para su calculo as como de la
obtencion de su distribucion.
16 Contrastes no parametricos 221
16.1.1. Prueba de bondad del ajuste
16.1.1.1. Hip otesis simple
Supongamos una muestra aleatoria simple de tama no n de una distribuci on desco-
nocida F. Tratamos de contrastar si puede aceptarse la hipotesis H
0
: F = F
0
, donde F
0
es una distribucion conocida completamente especicada, es decir, de la que conoce-
mos todos y cada uno de los par ametros de los que depende (la media y la desviaci on en
el caso de una normal, el valor del par ametro en el caso de una exponencial, etc.). El
procedimiento a seguir es el siguiente:
1. Se divide el recorrido de la distribucion poblacional en k conjuntos disjuntos o clases:
A
1
, A
2
, , A
k
2. Se calcula el n umero n
i
de elementos de la muestra observados en cada clase A
i
.
3. Se calcula el n umero n
i,esp
de elementos esperados en cada clase si la hip otesis H
0
es cierta. Para ello, basta multiplicar la probabilidad que la distribuci on F
0
asigna
a cada clase por el n umero de elementos de la muestra.
IMPORTANTE. Solo puede realizarse el contraste si cada uno de los n
i,esp
es
mayor o igual a 5. En caso contrario, se unen varias clases A
j
hasta conseguirlo. En
lo que sigue supondremos que el n umero de clases k en las que hemos descompuesto
el recorrido de la distribucion te orica es el resultado de esta operaci on: entre las k
clases no hay ninguna con n
i,esp
< 5.
4. Se realiza el test empleando el estadstico de Pearson:
D =
k

i=1
(n
i
n
i,esp
)
2
n
i,esp
que, en las condiciones antes citadas, sigue una distribucion
2
con k 1 grados de
libertad. (La regi on crtica es de la forma D > c).
16.1.1.2. Hip otesis compuesta
Supongamos ahora (lo que suele ser m as habitual) que la hip otesis a contrastar espe-
cica una familia de distribuciones de forma funcional dada pero dependiente de algunos
par ametros no especicados (por ejemplo, suponemos que nuestra poblacion es normal
de media 1 pero desconocemos la desviaci on o, suponiendo que es normal, no conocemos
222 Estadstica
ni la media ni la desviaci on, etc.). En este sentido se dice que la hip otesis nula es ahora
compuesta pues unica varias hipotesis simultaneamente. Una posibilidad para resolver
el problema es tomar varias muestras: con las primeras estimamos los par ametros y con
la ultima realizamos el contraste
2
anterior. Sin embargo, es posible (y m as conveniente
en muchos casos) realizar el estudio empleando una unica muestra. El procedimiento a
seguir en este segundo caso es:
1. Se estiman los par ametros a partir de la muestra empleando el criterio de maxi-
ma verosimilitud.
2. Se repite el proceso anterior con la salvedad de que ahora la distribuci on del es-
tadstico D de Pearson es una
2
con k 1 grados de libertad, siendo el
n umero de par ametros que hemos estimado.
16.1.2. Prueba de homogeneidad
Supongamos que se dispone de m muestras aleatorias simples de otras tantas pobla-
ciones cuyos tama nos son, respectivamente, n
1
, n
2
, , n
m
. A partir de estos datos se desea
decidir si la distribucion poblacional es la misma en todos los casos y, por consiguiente,
se dispone de una muestra de tama no n = n
1
+ n
2
+ + n
m
de una unica distribuci on
o, por el contrario, se trata de poblaciones heterogeneas con diferentes distribuciones.
Nuevamente, el conjunto de posibles valores de las observaciones se divide en k clases
disjuntas: A
1
, A
2
, , A
k
. Si llamamos n
ij
al n umero de observaciones de la muestra i
que pertenecen a la clase A
j
podemos construir la siguiente tabla de contingencia:
Muestra A
1
A
2
A
k
Total
1 n
11
n
12
n
1k
n
1
2 n
21
n
22
n
2k
n
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
m n
m1
n
m2
n
mk
n
m
Total n
1
n
2
n
k
n
donde n
i
es la suma de los elementos de la la i y n
j
es la suma de la columna j.
El contraste se realiza recurriendo al estadstico
D =
m

i=1
k

j=1
(n
ij
n
i
n
j
/n)
2
n
i
n
j
/n
que sigue una distribucion
2
con (m1)(k 1) grados de libertad.
16 Contrastes no parametricos 223
16.1.3. Prueba de independencia
Supongamos que de n elementos de una poblacion se han observado dos caractersti-
cas X e Y , obteniendose una muestra aleatoria simple bidimensional (x
1
, y
1
), (x
2
, y
2
),
,(x
n
, y
n
). Sobre la base de dichas observaciones se desea contrastar si las caractersticas
poblacionales X e Y son independientes o no.
Para ello se divide el conjunto de posibles valores de X en k clases disjuntas A
1
,
A
2
, , A
k
y los de Y en r clases disjuntas B
1
, B
2
, , B
r
. Al clasicar los elementos
de la muestra aparecer a un cierto n umero de ellos , n
ij
, en cada una de las k r clases
constituidas, dando lugar a una tabla de contingencia de la forma:
B
1
B
2
B
r
Total
A
1
n
11
n
12
n
1r
n
1
A
2
n
21
n
22
n
2r
n
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A
k
n
k1
n
k2
n
kr
n
k
Total n
1
n
2
n
r
n
El contraste se realiza mediante el estadstico
D =
k

i=1
r

j=1
(n
ij
n
i
n
j
/n)
2
n
i
n
j
/n
que sigue una distribucion
2
con kr 1 grados de libertad.
Tanto en este caso como en el anterior la regi on crtica del test es de la forma D > c.
16.2. Contraste de Kolmogorov-Smirnov
El contraste K-S es una contraste de bondad del ajuste v alido unicamente para
distribuciones continuas. No es conveniente su uso cuando hay que estimar par ametros ya
que la distribucion del estadstico es entonces solo aproximada. La hip otesis nula de este
contraste es que la muestra proviene de una distribucion continua F
0
(x). El procedimiento
para construir el contraste es:
1. Se ordenan los n valores muestrales de forma que
x
1
x
2
x
3
x
n
224 Estadstica
2. Se calcula la funcion de distribucion emprica de la muestra , F
n
(x), con:
F
n
(x) =
_

_
0 x < x
1
r
n
x
r
x x
r
+ 1
1 x x
n
3. Se calcula la discrepancia m axima entre la funcion de distribuci on emprica y la
te orica F
0
(x) con el estadstico

n
= m ax |F
n
(x) F
0
(x)|
cuya distribucion es conocida y esta tabulada seg un los valores de n.
Para realizar correctamente el contraste hay que calcular para cada punto muestral
x
h
el valor

n
(x
h
) = m ax{|F
n
(x
h1
) F
0
(x
h
)| , |F
n
(x
h
) F
0
(x
h
)|}
El m aximo de los n valores as obtenidos es el estadstico
n
de Kolmogorov-
Smirnov. La regi on crtica del test es de la forma
n
> c.
16.3. Otros contrastes no parametricos
16.3.1. Contrastes de posicion
En ocasiones solo nos interesa conocer, de una poblacion desconocida, su posicion
sobre la recta real, porque se da por supuesto que las condiciones en que se observa el
fen omeno solo pueden trasladar la distribucion sin deformarla. Ejemplos de este tipo de
situaciones pueden ser:
1. Una empresa cambia su horario de entrada, adelantandolo media hora, y se pregunta
si ello habra afectado a los retrasos de sus empleados. Los datos son aleatorios,
variando de da en da y de un empleado a otro, pero es aceptable pensar que la
forma de su distribucion no ha variado; el temor es que se haya desplazado hacia la
derecha, incrementandose el tiempo perdido.
16 Contrastes no parametricos 225
2. Una comunidad ha modicado la procedencia del agua para consumo domestico.
Tras cierto tiempo, quiere comprobar si ello ha afectado a la concentraci on de sodio
en la sangre de sus habitantes, en el sentido de que la distribuci on de dicha con-
centracion se haya trasladado hacia uno u otro lado, mientras que la forma de la
distribucion se supone que no habra variado apenas.
3. Se desea saber si las ventas en dos establecimientos de la misma cadena son analogas.
Presumiblemente la forma de la distribucion de las ventas diarias sera similar para
ambas, as que el objetivo es detectar si una esta desplazada respecto a la otra.
Si no puede suponerse la normalidad de la poblacion madre (ya que entonces lo
adecuado es aplicar los contrastes parametricos sobre la media de una normal) es posible
abordar el problema de la posicion de la distribucion usando la mediana muestral.
16.3.1.1. Test de los signos
Tenemos una distribucion continua desconocida F cuya mediana sera Me. Probare-
mos a contrastar la hipotesis nula
H
0
: Me = m
0
frente a alguna de las alternativas Me < m
0
, Me > m
0
o Me = m
0
. El estadstico que se
emplea es
T = { N umero de observaciones muestrales mayores que m
0
}
que, si H
0
es correcta, tiene una distribucion binomial B(n, 1/2), siendo n el tama no de
la muestra.
La regi on crtica sera de la forma {T k}, {T k} o {T k}

{T n k},
seg un sea la hipotesis alternativa una de las rese nadas arriba, y donde k puede jarse
determinando un nivel crtico .
Si el tama no muestral es apreciable (n > 20) puede aproximarse la distribuci on
binomial por la normal correspondiente.
Seg un la hipotesis de continuidad de la distribucion no deberan obtenerse valores
muestrales coincidentes con la mediana. En la pr actica esto puede ocurrir, siendo
aconsejable excluir tales valores, disminuyendo consecuentemente el tama no de la
muestra.
226 Estadstica
Es facil generalizar este contraste para cualquier otro cuantil, cambiando el par ame-
tro p de la binomial.
Si tenemos datos apareados se puede aplicar el contraste a la diferencia de los
datos, siendo entonces m
0
= 0. Este procedimiento nos dira si la mediana de las dos
muestras es igual o no.
16.3.1.2. Test de Wilcoxon de los rangos signados
En el caso en que sepamos que la distribucion poblacional, adem as de continua, es
simetrica puede mejorarse el contraste anterior de la siguiente manera.
Si D
i
= x
i
m
0
son las diferencias entre las observaciones muestrales y el valor a
contrastar para Me, se ordenan, en orden creciente, los valores absolutos |D
i
| y se anota
el rango (o lugar) r (|D
i
|) que cada uno ocupa en dicha ordenaci on. El estadstico en
que se basa el test es la suma de los rangos de las observaciones mayores que m
0
, cuya
distribucion, si H
0
es cierta, se encuentra tabulada.
T
+
=

D
i
>0
r (|D
i
|)
Si el tama no muestral es apreciable (n > 20) la distribucion del estadstico T
+
puede
aproximarse por la normal N
_
n(n + 1)/4,
_
n(n + 1)(2n + 1)/24
_
. En todo caso,
la distribucion de T
+
es simetrica en torno a n(n + 1)/4
Igual que antes, seg un la hipotesis de continuidad de la distribucion, no deberan
obtenerse valores muestrales coincidentes con la mediana. En la practica esto puede
ocurrir, siendo aconsejable excluir tales valores, disminuyendo consecuentemente el
tama no de la muestra.
Si tenemos datos apareados se puede aplicar el contraste a la diferencia de los
datos, siendo entonces m
0
= 0. Este procedimiento nos dira si la mediana de las dos
muestras es igual o no.
Si se conoce la mediana poblacional este test se convierte en una prueba sobre la
hip otesis subyacente de que la distribucion es simetrica respecto a la mediana. As,
para tama nos muestrales grandes, para los que la mediana muestral tiende al valor
de la mediana poblacional, puede usarse, sustituyendo m
0
por el valor muestral de
la mediana, para contrastar la simetra de la distribucion.
16 Contrastes no parametricos 227
16.3.1.3. Test de la mediana
Los dos tests anteriores se reeren a la mediana de una unica poblacion y hacen uso
de una unica muestra (en el caso de los datos apareados la poblaci on y la muestra que
interesan son las diferencias entre las parejas de datos). Sin embargo, con frecuencia se
plantean situaciones en las cuales hay que comparar dos poblaciones continuas y tratar
de detectar desplazamientos entre ambas distribuciones.
Supongamos, por tanto, dos muestras aleatorias simples: x
1
, x
2
, , x
n
e y
1
, y
2
, , y
m
correspondientes a cada poblacion e independientes entre s. Si se ordenan conjuntamente
en orden creciente, la mediana z de la muestra combinada es el valor central, en el caso
de que n+m sea impar, y el promedio de los dos valores centrales en el caso de que n+m
sea par. El estadstico que se emplea es
T = N umero de x
i
inferiores a z
Si Me
x
= Me
y
, es decir, si la hipotesis H
0
es cierta, la distribuci on de T es hiper-
geometrica
P(T = t) =
_
p
t
__
n + mp
n t
_
_
n + m
n
_
donde p es la parte entera de (n+m)/2 y t puede variar entre max{0, pm} y min{n, p}.
Si n y m son grandes la distribucion de T es aproximadamente N
_
n/2,
_
nm/4(n + m)
_
.
16.3.1.4. Test de Mann-Whitney
Este contraste resuelve.
el
mismo caso que el anterior: detectar diferencias de posi-
ci on entre dos poblaciones continuas de las que tenemos dos muestras aleatorias simples.
El estadstico a utilizar es V , calculado como sigue:
1. Se ordenan conjuntamente, igual que en el caso anterior, las dos muestras en orden
creciente.
2. Para cada valor x
i
correspondiente a la primera muestra (que debe corresponder a
la de tama no muestral menor) se cuenta el n umero de valores de la segunda muestra
que hay por debajo de el.
3. V es la suma de los n umeros calculados anteriormente.
228 Estadstica
Supongamos, por ejemplo, que al ordenar la muestra el resultado hubiera sido (cada x
representa un valor de la primera muestra y cada y uno de la segunda): xxyyxyyyxxyxxyx,
entonces
V = 0 + 0 + 2 + 5 + 5 + 6 + 6 + 7 = 31
La distribucion de este estadstico se halla tabulada. Si n y m son grandes es, aproximada-
mente, N
_
nm/2,
_
nm(n + m+ 1)/12
_
. En todo caso, la distribuci on de V es simetrica
en torno a nm/2.
16.3.2. Contrastes de independencia
Vamos a estudiar algunos contrastes para decidir sobre la independencia de dos
caractersticas poblacionales continuas X e Y cuya distribucion conjunta no sea normal
y que no estan basados en el contraste
2
.
En el caso de distribucion conjunta normal lo m as adecuado es realizar un contraste
parametrico sobre el coeciente de correlaci on.
16.3.2.1. Test de Kendall
Supongamos un conjunto de n observaciones apareadas: (x
1
, y
1
), (x
2
, y
2
), , (x
n
, y
n
).
Para calcular el estadstico T de Kendall se procede como sigue:
1. Se ordena la muestra seg un la primera componente, de modo que x
1
< x
2
< < x
n
2. Consideramos ahora la segunda componente de cada par as ordenado y ecribimos
su rango, es decir, el lugar que ocupa respecto del resto de valores de y. Obtenemos
entonces una sucesion de valores r
1
, r
2
, , r
n
donde r
j
lugar que ocupa la segunda
componente del par i-esimo en la ordenaci on de estos valores.
3. Para cada valor de esta sucesion se cuenta cu antos de los valores posteriores a el
son mayores.
4. Se suman los n umeros as obtenidos. Llamemos P a su valor.
5. T =
4P
n(n 1)
1
La distribucion de T esta tabulada y para n > 10 es aproximadamente
N
_
0,

2(2n + 5)
9n(n 1)
_
La regi on crtica de este contraste es de la forma {|T| > k}
16 Contrastes no parametricos 229
16.3.2.2. Test del coeciente de correlacion entre rangos o test de Spearman
Supongamos de nuevo una muestra apareada de valores (x
i
, y
i
). Este contraste
esta basado en el estadstico de Spearman, R
S
, que se calcula como sigue:
1. Se ordena la muestra seg un los valores de la primera componente (en orden creciente
de esta).
2. Consideramos de nuevo el rango, r
j
, que corresponde al valor de la segunda compo-
nente y que ocupa el lugar j-esimo de esta ordenaci on.
3. Calculamos U =
n

j=1
(r
j
j)
2
4. R
S
= 1
6U
n(n
2
1)
La distribucion de R
S
esta tabulada y para n > 10 es aproximadamente
N
_
0,
1

n 1
_
16.3.2.3. Test de rachas
Un problema de independencia distinto de los anteriores se plantea cuando existen
dudas acerca de que una muestra sea realmente aleatoria simple, es decir, que las sucesivas
observaciones hayan sido efectuadas independientemente. Condiciones de muestreo sin las
debidas garantas de aleatoriedad pueden afectar a la independencia de las observaciones
y dar al traste con la aplicacion de todos los metodos basados en el muestreo aleatorio
simple.
Supongamos una variable que solo puede tomar dos valores (digamos 0 y 1). Al
tomar una muestrta obtendremos sucesiones de la forma 0001101011110001.
Se llama racha a cada uno de los conjuntos de ceros consecutivos que se observan
hasta llegar a un 1 y a cada uno de los conjuntos de unos consecutivos que se observan
hasta llegar a un 0. La muestra anterior, por ejemplo, tiene 8 rachas.
Si R es el n umero de rachas en una muestra que tiene n ceros y m unos (y por tanto
tama no n + m) puede demostrarse que si la muestra es aleatoria
P(R = 2r) = 2
_
n 1
r 1
__
m1
r 1
_
_
n + m
n
_
230 Estadstica
P(R = 2r + 1) =
_
n 1
r 1
__
m1
r
_
+
_
n 1
r
__
m1
r 1
_
_
n + m
n
_
con r min{n, m}.
Si n y m son grandes (superiores a 10) puede tomarse como distribuci on de R
N
_
2nm
(n + m)
+ 1,

2nm(2nmn m)
(n + m)
2
(n + m1
_
La regi on crtica de este contraste es de la forma {R < k
1
}

{R > k
2
}.
16.4. Ejemplos
Ejemplo 1
Se ha estimado que el n umero de accidentes diarios en una determinada carretera
sigue una distribucion de Poisson de par ametro 2. Durante 200 das se han recogido los
siguientes datos:
n

de accidentes 0 1 2 3 4 5 6 7
n

de das 22 53 58 39 20 5 2 1
con los que se quiere contrastar si se ajusta a la distribucion indicada. Si la hip otesis es
cierta se espera un n umero de das igual a 200 veces la probabilidad de que una Poisson
de par ametro 2 valga 0, 1, 2, 3, 4, 5, 6 o 7:
Los valores esperados son:
n

de accidentes 0 1 2 3 4 5
n

esperado de das 27.06 54.14 54.14 36.08 18.04 10.54


donde se han agrupado las categoras correspondientes a 5 o m as accidentes para satisfacer
la condici on de que el n umero esperado en cada categora sea mayor o igual a 5.
El estadstico D de Pearson vale
D =
5

i=0
(n
i
n
i,esp
)
2
n
i,esp
= n +
5

i=0
n
2
i
n
i,esp
=
22
2
27.06
+
53
2
54.14
+ +
8
2
10.54
200 = 2.307
16 Contrastes no parametricos 231
cuya distribucion, si la hipotesis es correcta, es aproximadamente
2
con 5 grados de
libertad. Por ejemplo, P(
2
5
> 7.29) = 0.2, de modo que solamente un valor de D superior
a 7.29 permitira, con nivel de signicaci on 0.2, armar que la distribuci on de accidentes
no es una Poisson de par ametro 2. El valor p del contraste realizado es superior a 0.7.
232 Estadstica
Ejemplo 2
Una m aquina, en correcto estado de funcionamiento, fabrica piezas cuya longitud
se distribuye seg un una N(10.5; 0.15). En determinado momento se observa la siguiente
muestra, de tama no 40, de la longitud de las piezas producidas:
10.39 10.66 10.12 10.32 10.25 10.91 10.52 10.83
10.72 10.28 10.35 10.46 10.54 10.72 10.23 10.18
10.62 10.49 10.32 10.61 10.64 10.23 10.29 10.78
10.81 10.39 10.34 10.62 10.75 10.34 10.41 10.81
10.64 10.53 10.31 10.46 10.47 10.43 10.57 10.74
y se desea saber si la muestra avala que la m aquina esta funcionando correctamente.
Vamos a realizar el contraste de bondad del ajuste de
2
primero y, posteriormente, el de
Kolmogorov-Smirnov.
Para realizar el contraste
2
, tomamos 8 intervalos buscando los cuantiles de ordenes
0.125, 0.25, 0.375, , 0.875, de modo que el n umero esperado de valores sea 5 en cada
intervalo. La partici on resultante es:
A
i
n
i
n
i,esp
10.33 10 5
(10.33, 10.4] 5 5
(10.4, 10.45] 2 5
(10.45, 10.5] 4 5
(10.5, 10.55] 3 5
(10.55, 10.6] 1 5
(10.6, 10.67] 6 5
> 10.67 9 5
Total 40 40
D =
5
2
+ 0
2
+ 3
2
+ 1
2
+ 2
2
+ 4
2
+ 1
2
+ 4
2
5
= 14.4
Si la hipotesis fuera correcta la distribucion de D sera
2
con 7 grados de libertad y la
tabla indica que
P(
2
7
> 14.4) = 0.0445
Y, por tanto, se puede armar con cualquier nivel de signicaci on superior a 0.0445 que
las piezas no siguen la distribucion N(10.5; 0.15).
16 Contrastes no parametricos 233
Para realizar ahora el contraste K-S se construye la siguiente tabla, cuya segunda
columna da el n umero de observaciones acumuladas hasta el valor muestral, la tercera
la funcion de distribucion muestral (dividiendo por el tama no de la muestra), la cuarta
la distribucion te orica (dada por la hipotesis nula) y las dos siguientes las diferencias: la
quinta de la misma la y la sexta de cada F
0
(x
i
) con la de la la anterior de la distribuci on
de la muestra.
234 Estadstica
x
i
i F
n
(x
i
) F
0
(x
i
) F
n
(x
i
) F
0
(x
i
) F
n
(x
i1
) F
0
(x
i
)
10.12 1 0.025 0.0056 0.0194 0.0056
10.18 2 0.050 0.0164 0.0336 -0.0086
10.23 4 0.100 0.0359 0.0641 -0.0141
10.25 5 0.125 0.0478 0.0772 -0.0522
10.28 6 0.150 0.0712 0.0788 -0.0538
10.29 7 0.175 0.0807 0.0943 -0.0693
10.31 8 0.200 0.1026 0.0974 -0.0724
10.32 10 0.250 0.1151 0.1349 -0.0849
10.34 12 0.300 0.1431 0.1569 -0.1069
10.35 13 0.325 0.1587 0.1663 -0.1413
10.39 15 0.375 0.2317 0.1433 -0.0933
10.41 16 0.400 0.2743 0.1257 -0.1007
10.43 17 0.425 0.3204 0.1046 -0.0796
10.46 19 0.475 0.3949 0.0801 -0.0301
10.47 20 0.500 0.4207 0.0793 -0.0543
10.49 21 0.525 0.4734 0.0516 -0.0266
10.52 22 0.550 0.5530 -0.0030 0.0280
10.53 23 0.575 0.5793 -0.0043 0.0293
10.54 24 0.600 0.6051 -0.0051 0.0301
10.57 25 0.625 0.6796 -0.0546 0.0796
10.61 26 0.650 0.7683 -0.1183 0.1433
10.62 28 0.700 0.7881 -0.0881 0.1381
10.64 30 0.750 0.8247 -0.0747 0.1247
10.66 31 0.775 0.8569 -0.0819 0.1069
10.72 33 0.825 0.9288 -0.1038 0.1538
10.74 34 0.850 0.9452 -0.0952 0.1202
10.75 35 0.875 0.9522 -0.0772 0.1022
10.78 36 0.900 0.9690 -0.0690 0.0940
10.81 38 0.950 0.9806 -0.0306 0.0806
10.83 39 0.975 0.9861 -0.0111 0.0361
10.91 40 1 0.9969 0.0031 0.0219
La entrada con mayor valor absoluto de la quinta columna es 0.1663 mientras que
la de la sexta es 0.1538. As, el estadstico de Kolmogorov-Smirnov vale

40
= 0.1663
16 Contrastes no parametricos 235
y, seg un la tabla, corresponde a un valor p muy cercano a 0.2 (y desde luego, mayor que
0.1). No hay, por tanto, evidencia seg un este contraste en contra de la hip otesis nula.
En este ejemplo se comprueba que, a veces, el contraste
2
detecta diferencias que
el de Kolmogorov-Smirnov no es capaz de detectar.
Ejemplo 3
Hemos deducido del contraste
2
anterior que la maquina no fabrica piezas tal y como
pens abamos. Sin embargo parece plausible pensar que la distribuci on de longitudes sigue
siendo normal, solo que la media y desviaci on han cambiado. Probemos esta hip otesis.
Lo primero que ha de hacerse es estimar la media y la desviaci on tpica por m axima
verosimilitud. Para una normal, los estimadores de estas cantidades resultan ser la media
y la desviaci on muestral, obteniendose para nuestra muestra
= x = 10.502 = s = 0.2025
Tratemos de ajustar nuestros datos a una normal con estos par ametros. Tomamos
una partici on arbitraria y construimos la tabla
A
i
n
i
n
i,esp
10.3 7 6.37
(10.3, 10.4] 8 5.92
(10.4, 10.5] 6 7.55
(10.5, 10.6] 4 7.59
(10.6, 10.7] 6 6.00
> 10.7 9 6.57
seg un la cual D = 3.708. Al tener seis intervalos y haber estimado dos par ametros la
distribucion de D, si H
0
es cierta, es una
2
con 6 1 2 = 3 grados de libertad. Como
P(
2
3
> 3.708) = 0.295
La muestra no permite ahora rechazar la hipotesis de que la longitud de las piezas fabri-
cadas sigue una distribucion normal N(10.502; 0.2025).
Ejemplo 4
Los impactos de 60 bombas volantes sobre la supercie de Londres, considerada
cuadrada, fueron clasicados en 9 zonas obtenidas dividiendo cada lado en tres partes
iguales, con los siguientes resultados
236 Estadstica
8 7 3
5 9 11
6 4 7
Los responsables de la defensa queran averiguar si las bombas perseguan alg un
objetivo concreto o se distribuan al azar sobre la supercie de la ciudad.
Con distribucion uniforme sobre toda la supercie, cada cuadrcula tendra probabi-
lidad 1/9 de recibir cada impacto y, por tanto, un n umero esperado de impactos de 60/9.
El estadstico de Person vale ahora
D = 7.5
y su distribucion te orica debera ser una
2
con 8 grados de libertad.
P(
2
8
> 7.5) = 0.48
valor que no permite rechazar la hipotesis de uniformidad.
Ejemplo 5
Un modelo genetico indica que la distribucion de daltonicos se ajusta a las proba-
bilidades
Hombres Mujeres
Normales q/2 q
2
/2 + pq
Daltonicos p/2 p
2
/2
siendo p = 1q la proporci on de cromosomas X portadores del daltonismo. Para compro-
bar la teora se examinaron 2000 individuos elegidos al azar con los siguientes resultados
Hombres Mujeres
Normales 894 1015
Daltonicos 81 10
y se desea saber si las observaciones concuerdan con el modelo.
Puesto que q no es conocido habra que hallar su estimaci on de m axima verosimilitud.
La muestra observada tiene por verosimilitud
2000!
894! 81! 1015! 10!
_
q
2
_
894
_
1 q
2
_
81 _
q
_
1
q
2
__
1015
_
(1 q)
2
2
_
10
cuyo logaritmo (prescindiendo de los terminos independientes de q) es
16 Contrastes no parametricos 237
894 log q + 81 log (1 q) + 1015 log q + 1015 log (2 q) + 20 log (1 q)
y tiene por derivada respecto a q
1909
q

101
1 q

1015
2 q
La estimaci on de q es q = 0.91277 y los n umeros esperados en cada uno de los cuatro
grupos son
Hombres Mujeres
Normales 912.77 992.39
Daltonicos 87.23 7.61
El estadstico D = 2.097 debe seguir una distribucion
2
con 2 grados de libertad.
Como
P(
2
2
> 2.097) = 0.35
no puede rechazarse la hipotesis nula.
Ejemplo 6
Se quiere estudiar si los distintos grupos sanguneos se presentan con las mismas
frecuencias en tres grupos etnicos diferentes. Para ello se analizaron un cierto n umero de
individuos de cada raza, obteniendose los resultados siguientes:
Raza 0 A B AB Total
A 32 11 7 2 52
B 47 13 17 9 86
C 23 7 9 6 45
Total 102 31 33 17 183
El estadstico D = 4.691 y debe seguir una
2
con 6 grados de libertad. Como
P(
2
6
> 4.691) = 0.584
No podemos rechazar la igualdad de frecuencias.
Esta claro que las cifras de las distintas las de la tabla anterior no son compa-
rables entre s directamente, puesto que se reeren a diferentes tama nos muestrales. En
porcentajes, los datos se expresan:
238 Estadstica
Raza 0 A B AB Total
A 61.54 21.15 13.46 3.85 100
B 54.65 15.12 19.77 10.46 100
C 51.11 15.56 20.00 13.33 100
Total 55.74 16.94 18.03 9.29 100
La simple inspecci on de esta tabla parece indicar que hay diferencias signicativas,
al menos entre el primer grupo etnico y los otros dos. Sin embargo, el contraste nos indica
que estas diferencias son completamente admisibles como debidas al azar y no contradicen,
en absoluto, la hipotesis de igualdad de fercuencia de cada grupo sanguneo.
Ejemplo 7
Para comprobar la ecacia del test
2
de homogeneidad se han simulado dos mues-
tras aleatorias simples, de tama no 50, de las distribuciones N(0,1) y Cauchy ( de densidad

1
(1 + x
2
)
1
), cuya apariencia gr aca es similar. Las muestras obtenidas han sido:
N(0,1) Cauchy
-0.99 1.54 -1.02 0.56 -0.36 -2.15 1.34 -2.98 1.22 0.46
0.31 -0.18 0.41 0.51 -0.44 -0.60 0.58 2.18 -0.63 1.03
-0.28 0.75 0.26 -0.89 1.76 -1.21 7.05 -5.96 1.23 0.77
0.98 -0.46 0.07 0.68 1.11 -16.39 0.03 0.71 -0.56 -0.91
0.39 -0.45 -0.44 1.27 -1.13 0.44 -27.53 0.44 3.77 -0.69
0.21 1.88 2.57 -0.80 -0.16 -0.52 1.24 -1.18 -0.52 0.28
0.89 0.03 0.25 0.58 0.83 -1.24 0.88 0.66 -0.96 0.29
0.31 0.99 0.15 -0.13 -1.56 1.28 1.58 -1.74 28.33 -0.58
-1.24 -0.64 -1.34 -0.99 1.85 0.08 -0.71 -4.07 2.45 1.41
-0.16 0.11 -1.21 -0.21 -0.22 12.89 1.28 1.39 -3.49 -1.42
Podemos clasicar estas muestras en los intervalos
16 Contrastes no parametricos 239
A
j
n
1j
n
2j
n
j
(, 2] 0 7 7
(2, 1.2] 4 4 8
(1.2, 0.9] 4 3 7
(0.9, 0.6] 3 4 7
(0.6, 0.3] 5 4 9
(0.3, 0] 7 1 8
(0, 0.3] 7 3 10
(0.3, 0.6] 7 4 11
(0.6, 0.9] 4 4 8
(0.9, 1.2] 3 1 4
(1.2, 2] 5 9 14
(2, ] 1 6 7
Total 50 50 100
El estadstico D toma el valor 20.03 y tiene distribucion
2
con 11 grados de libertad.
Puesto que
P(
2
11
> 20.03) = 0.045
se puede rechazar la homogeneidad de ambas muestras con nivel crtico 0.045.
Ejemplo 8
Para estudiar si el grupo sanguneo tiene relaci on con la predisposicion a padecer
diabetes, se seleccionan al azar 400 sujetos de los que se ha determinado el grupo san-
guneo y el nivel de glucosa en identicas condiciones experimentales. Clasicada la segunda
medida en bajo, medio y alto, los resultados han sido:
Bajo Medio Alto Total
0 137 86 35 258
A 42 23 11 76
B 19 17 7 43
AB 14 7 2 23
Total 212 133 55 400
Con los datos expresados en la tabla se obtiene D = 2.406. Por otra parte, D tiene
distribucion
2
con 6 grados de libertad y
P(
2
6
> 2.204) = 0.9
240 Estadstica
por lo que no puede concluirse de ninguna manera que haya una relaci on entre el grupo
sanguneo y la diabetes.
Ejemplo 9
Un laboratorio farmaceutico arma que uno de sus productos conere inmunidad
contra la picadura de insectos durante un tiempo exponencial de media 2.5 horas. Probado
en 25 sujetos, en un ambiente con gran n umero de mosquitos, los instantes (en horas) en
que recibieron la primera picadura fueron:
0.01 0.01 0.02 0.02 0.02 0.03 0.03 0.23 0.51
0.74 0.96 1.17 1.46 1.62 2.18 2.25 2.79 3.45
3.83 3.92 4.27 5.43 5.79 5.91 6.34
Construimos, para realizar un contraste K-S, la tabla:
x
i
i F
n
(x
i
) F
0
(x
i
) F
n
(x
i
) F
0
(x
i
) F
n
(x
i1
) F
0
(x
i
)
0.01 2 0.08 0.004 0.076 0.004
0.02 5 0.20 0.008 0.192 -0.072
0.03 7 0.28 0.012 0.268 -0.188
0.23 8 0.32 0.088 0.232 -0.192
0.51 9 0.36 0.185 0.175 -0.135
0.74 10 0.40 0.256 0.144 -0.104
0.96 11 0.44 0.319 1.121 -0.081
1.17 12 0.48 0.374 0.106 -0.066
1.46 13 0.52 0.442 0.078 -0.038
1.62 14 0.56 0.477 0.083 -0.043
2.18 15 0.60 0.582 0.018 0.022
2.25 16 0.64 0.593 0.047 -0.007
2.79 17 0.68 0.672 0.008 0.032
3.45 18 0.72 0.748 -0.028 0.068
3.83 19 0.76 0.784 -0.024 0.064
3.92 20 0.80 0.792 0.008 0-032
4.27 21 0.84 0.819 0.021 0-019
5.43 22 0.88 0.886 -0.006 0.046
5.79 23 0.92 0.901 0.019 0.021
5.91 24 0.96 0.906 0-054 -0.014
6.34 25 1 0.921 0.079 -0.039
16 Contrastes no parametricos 241
en la que la cuarta columna contiene la funcion de distribucion te orica: 1e
0.4x
. Se tiene,
de esta tabla, que
25
= 0.268 y la correspondiente tabla indica que la hip otesis de que la
distribucion es la que dice la empresa puede ser rechazada con nivel de signicaci on 0.05.
Probemos ahora un contraste
2
. Como hay solo 25 datos lo m as l ogico es descom-
poner el recorrido de la variable en 5 intervalos de probabilidad 1/5, obteniendose:
A
i
n
i
n
i,esp
[0, 0.558) 9 5
(0.558, 1.277] 3 5
(1.277, 2.291] 4 5
(2.291, 4.024] 4 5
(4.024, ) 5 5
y un valor del estadstico D = 4.4 que, comparado con la distribuci on
2
4
, no permite
rechazar la hipotesis de ajuste ni siquiera con nivel de signicaci on 0.3. Ahora es este
contraste el que no es capaz de detectar las diferencias que s ha detectado Kolmogorov-
Smirnov.
Ejemplo 10
Una empresa decide adelantar su horario de entrada en una hora. Antes del cambio
saba que la media de retraso de sus empleados era de 5 minutos. Tras el cambio selecciona
12 empleados y observa, en un determinado da, los siguientes retrasos (en minutos):
2.5 1.2 7 1.8 8.3 6.8 5.2 3.4 4.7 6.2 9.1 5.2
El contraste que desea realizar la empresa es H
0
: Me = 5 (los retrasos no han variado)
frente a H
1
: Me > 5 (los retrasos han aumentado). Vamos a emplear el test de los signos:
el n umero de datos superiores a 5 es T = 7, y la distribucion binomial B(12, 1/2),indica
que, si H
0
es correcta,
P(T 7) = 0.3871
lo que indica que no es rechazable la hipotesis nula.
Ejemplo 11
Supongamos ahora que la empresa anterior seleccion o 16 de sus empleados y mi-
di o sus retrasos en dos das , antes y despues del cambio de horario. Los resultados
fueron:
242 Estadstica
2.1/3.4 1.2/5.1 4.2/2.6 4.6/7.4 0.7/2.4 3.2/2.7 5.6/5.2 1.8/2.9
4.8/6.5 2.3/7.3 0.4/0.8 2.5/2.2 3.2/9.8 4.7/2.8 1.6/2.2 6.3/6.5
que se traduce en los siguientes aumentos de los retrasos:
1.3 3.9 -1.6 2.8 1.7 -0.5 -0.4 1.1
1.7 5.0 0.4 -0.3 6.6 -1.9 0.6 0.2
Si Me es la mediana de la distribucion de incrementos se puede contrastar, ahora,
la hip otesis H
0
: Me = 0 frente a H
1
: Me > 0. El n umero de incrementos positivos es
T = 11 y la distribucion binomial B(16, 1/2) proporciona
P(T 11) = 0.105
y se podra rechazar la hipotesis Me = 0 con nivel crtico 0.105.
Ejemplo 12
Supongamos que la distribucion de sodio por unidad de volumen de sangre en una
poblacion es simetrica alrededor de 3.24 g. Se ha cambiado el suministro de agua y se han
obtenido los siguientes analisis de 15 habitantes (en gramos por unidad de volumen):
2.37 2.95 3.40 2.46 3.66 3.18 2.72 3.71
3.87 1.97 1.66 3.72 2.10 1.83 3.03
Las diferencias respecto a la mediana, con los rangos, en la ordenaci on creciente de
sus valores absolutos, indicados junto a cada termino, tal y como se requiere para aplicar
el test de los rangos asignados a H
0
: Me = 3.24 frente a H
1
: Me = 3.24 son:
0.87
11
0.29
4
+0.16
2
0.6
9
+0.42
6
0.06
1
0.52
8
+0.37
5
+0.63
10
1.27
13
1.58
15
+0.48
7
1.14
12
1.41
14
0.21
3
La suma de los rangos de los terminos positivos es T
+
= 2 + 6 + 5 + 10 + 7 = 30.
Con nivel de signicaci on = 0.1 la tabla indica que la hipotesis Me = 3.24 puede ser
rechazada si T
+
89 o T
+
31. En cambio, para = 0.05 la regi on crtica del test es
T
+
94 o T
+
26. Los datos obtenidos permiten, pues, armar que la distribuci on de
la cantidad de sodio ha variado, con un riesgo de error pr oximo al 10 %.
16 Contrastes no parametricos 243
Ejemplo 13
En 8 personas elegidas al azar se analizo el contenido en sodio antes y despues del
cambio de suministro de agua, con los siguientes resultados:
3.34/2.58 2.82/2.46 3.06/3.50 2.30/2.16
4.22/3.78 3.55/3.19 2.61/2.94 2.83/1.94
Los incrementos han sido:
-0.76 -0.36 +0.44 -0.14 -0.44 -0.36 +0.33 -0.89
(7) (3.5) (5.5) (1) (5.5) (3.5) (2) (8)
con los rangos que se indican en la segunda la. El test de Wilcoxon para el contraste de
Me = 0 frente a Me = 0 nos proporciona el estadstico T
+
= 7.5, mientras que la tabla
correspondiente indica que, con nivel de signicaci on 0.1, la hip otesis Me = 0 solo podra
rechazarse si fuese T
+
30 o T
+
6.
Ejemplo 14
Las ventas de los establecimientos A y B fueron controladas durante 9 y 12 das
respectivamente, con los siguientes resultados (en miles de pesetas):
A: 132.5 167.4 189.8 124.6 136.6 147.5 159.9 117.8 106.3
B: 97.4 108.2 114.1 86.3 101.8 122.6 78.3 136.2 89.5
118.4 109.2 92.7
La ordenaci on conjunta de ambas muestras (sin perder la procedencia de cada dato)
gura en la siguiente tabla:
A: 106.3 117.8
B: 78.3 86.3 89.5 92.7 97.4 101.8 108.2 109.2 114.1
A: 124.6 132.5 136.6 147.5 159.9 167.4 189.8
B: 118.4 122.6 136.3
La mediana de la muestra conjunta (que ocupa el valor 11) es el valor 117.8 y hay
un unico termino de la primera muestra inferior a este, luego T = 1.
Para contrastar Me
x
= Me
y
frente a Me
x
> Me
y
con nivel de signicaci on , el test
de la mediana utiliza la regi on crtica {T k} donde ha de ser
244 Estadstica
P(T k) =
k

t=0
_
10
t
__
11
9 t
_
_
21
9
_
Con k = 1 el nivel de signicaci on resulta = 0.0058, de forma que se puede armar
que Me
x
> Me
y
con gran seguridad.
El contratse
2
aplicado a la tabla de contingencia
< 120 > 120 Total
A 2 7 9
B 10 2 12
Total 12 9 21
da una valor del estadstico D = 7.84 que, comparado con una distribuci on
2
1
, permite
tambien descartar la homogeneidad de ambas muestras con nivel de signicaci on inferior
a 0.01.
Con los tama nos muestrales usados y la partici on elegida, el contraste
2
es menos
able que el de la mediana. Con tama nos muestrales grandes, y sobre todo si no hay
constancia de la igualdad de forma de las distribuciones, es preferible el contraste
2
.
Tratemos ahora de emplear el test de Mann-Whitney. Para la ordenaci on de las
muestras anterior basta contar el n umero de elementos de la muestra B que hay por
debajo de cada elemento de la muestra A para obtener:
V = 6 + 9 + 11 + 11 + 12 + 12 + 12 + 12 + 12 = 97
Como V es aproximadamente N(54, 14.07) tenemos
P(V > 96) P (N(0, 1) > 2.98) = 0.0014
y el test de Mann-Whitney corrobora, con nivel de signicaci on inferior a 0.005 que las
ventas del establecimiento A son superiores a las del B.
Ejemplo 15
En 10 empleados de una empresa se ha observado la distancia (en km.) de su do-
micilio a la sede de la empresa y el retraso (en min.) con el que llegaron al trabajo cierto
da. Los resultados fueron:
16 Contrastes no parametricos 245
(3.3, 5, 1) (2.4, 3.6) (1.9, 4.2) (2.8, 6.3) (1.2, 2.3)
(2.7, 3.4) (4.0, 2.8) (0.7, 3.2) (6.1, 5.3) (3.7, 3.7)
Ordenada la muestra seg un la distancia, los retrasos asociados son
3.2 2.3 4.2 3.6 3.4 6.3 5.1 3.7 2.8 5.3
(3) (1) (7) (5) (4) (10) (8) (6) (2) (9)
cuyos rangos (en la ordenaci on de valores de menor a mayor) se han indicado debajo
de cada uno. El recuento de valores mayores que quedan a la derecha de cada rango
proporciona
P = 7 + 8 + 3 + 4 + 4 + 0 + 1 + 1 + 1 = 29
con lo cual T = 13/45 = 0.288. La correspondiente tabla indica que debera ser T > 0.33
para poder rechazar la hipotesis de independencia con nivel de signicaci on 0.1. Por tanto,
los datos no permiten concluir que haya relaci on entre el retraso y la distancia del domicilio
a la empresa.
Probemos ahora con el test de Spearman. Con la ordenaci on ya efectuada anterior-
mente:
U = 2
2
+ 1
2
+ 4
2
+ 1
2
+ 1
2
+ 4
2
+ 1
2
+ 2
2
+ 7
2
+ 1
2
= 94
y el estadstico de Spearman vale R
S
= 1 6U/990 = 0.43. De la correspondiente tabla
observamos que dicho coeciente no es suciente para rechazar la independencia entre las
variables ni siquiera con nivel de signicaci on 0.1.
Ejemplo 16
Al extraer 17 bolas con reemplazamiento de una bolsa con bolas blancas y negras
se ha obtenido el resultado
BBBBNNNBBBBBBBBNN
que muestra R = 4 rachas. Puesto que hay 12 blancas y 5 negras, el n umero de rachas
podra haber sido cualquiera entre 2 y 11. Las formulas dadas anteriomente permiten
calcular la probabilidad de cada uno de los valores:
2 3 4 5 6 7 8 9 10 11
0.0003 0.002 0.014 0.046 0.107 0.195 0.213 0.24 0.107 0.075
Incluyendo las probabilidades de menor a mayor, se observa que {R 4} es la regi on
crtica con tama no = 0.0169; con tama no = 0.0631 se podra rechazar para {R 5}
y para = 0.1377 se obtendra la regi on crtica {R 5}

{R = 11}.
246 Estadstica
Ejemplo 17
Queremos comprobar si al tomar en das consecutivos los datos de ventas del es-
tablecimiento B del ejemplo 14 hemos afectado a su independencia. Los 12 datos tienen
como mediana 105. Los terminos de la muestra original, comparados con esta mediana
dan la secuencia de signos
- + + - - + - + - + + -
con R = 9 rachas. Con n = m = 6 la distribucion de R es simetrica entre 2 y 12,
obteniendose las probabilidades:
2 y 12 3 y 11 4 y 10 5 y 9 6 y 8 7
0.002 0.011 0.054 0.011 0.216 0.216
La regi on crtica {R 4}

{R 10} tendra tama no =0.134, de forma que, con


R = 9, no puede armarse que la toma de datos en das consecutivos haya afectado a la
independencia de la muestra.
Ejemplo 18
Una afeccion de la gl andula tiroides ha sido investigada en una cierta regi on durante
los a nos ochenta. El n umero de casos observados desde junio de 1986 hasta mayo de 1989
vienen dados en la siguiente tabla
A no Mes
E F M A M J J A S O N D
1986 6 9 8 6 8 11 8
1987 5 4 4 2 1 8 8 6 2 2 1 2
1988 7 8 3 1 2 7 7 6 5 5 3 5
1989 1 2 1 1 2
Se quiere investigar si existe o no alguna periodicidad en dicha enfermedad contras-
tando: (a) Si pueden considerarse homogeneas las tres temporadas durante las cuales se
recogieron los datos. (b) Si los casos se presentan con variaciones estacionales.
(a) En primer lugar se trata de detectar si hay una pauta com un en los tres ciclos
anuales considerados, ya que, en caso contrario, ello signicara que el comportamiento es
diferente cada a no. Para ello , conviene agrupar los datos de la froma
16 Contrastes no parametricos 247
J J A S O N D E F M A-M Total
1986-87 6 9 8 6 8 11 8 5 4 4 3 72
1987-88 8 8 6 2 2 1 2 7 8 3 3 50
1988-89 7 7 6 5 5 3 5 1 2 1 3 45
Total 21 24 20 13 15 15 15 13 14 8 9 167
con los meses de abril y mayo sumados para conseguir que sea n
i
n
j
/n 2. El estadstico
de contraste toma el valor
D =
m

i=1
k

j=1
(n
ij
n
i
n
j
/n)
2
n
i
n
j
/n
= n
_
1 +
3

i=i
11

j=1
n
ij
n
i
n
j
_
= 24.477
y D tiene distribucion
2
20
, cuya tabla indica que la hipotesis de que las tres temporadas
siguen el mismo patron no puede ser rechazada con nivel de signicaci on 0.1 (el nivel
crtico es, de hecho, 0.222).
(b) Admitida la homogeneidad de las tres muestras, los 167 casos, agrupados por
meses, se distribuyen como indica la tabla siguiente
J J A S O N D E F M A M
21 24 20 13 15 15 15 13 14 8 4 5
La inuencia del mes sobre el n umero de casos ocurridos tendra que ser descartada
si las frecuencias observadas fuesen compatibles con probabilidades de 1/12 para cada
uno de ellos; es decir si no pudiese admitirse que los datos fueran desviaciones debidas al
azar en torno a 167/12 casos por mes. El estadstico de Pearson para dicho contraste vale
D = 167 +
12
167
12

j=1
n
2
j
= 29.24
y tiene distribucion
2
11
. La hipotesis de uniformidad de la distribuci on puede rechazarse,
por tanto, con nivel de signicaci on 0.005.
Las diferencias entre los tres meses de verano (J,J,A) no son signicativas, pues los
datos
J J A
21 24 20
65/3 65/3 65/3
dan como valor del estadstico de Pearson D = 65 + 3/65
3

j=1
n
2
j
= 0.4 que, comparado
con la distribucion
2
2
no permite rechazar la hipotesis de que los casos se presentan
unifromemente distribuidos entre los tres meses.
248 Estadstica
Lo mismo ocurre con los tres meses de primavera (M,A,M: D = 1.53 <
2
2;0.1
) y, por
supuesto, con los seis meses de oto no-invierno.
En cambio, existen diferencias signicativas entre estos tres periodos. Por ejemplo,
la comparacion entre el verano y los seis meses siguientes da como resultado
Verano Oto no-Invierno
65 85
150/3 2 150/3
D = 6.75 >
2
1;0.01
de manera que no hay un reparto uniforme de los casos entre los tres meses de verano y
los seis siguientes.
En denitiva, puede concluirse que la incidencia de la enfermedad es m as alta en
verano y m as baja en primavera, respecto del nivel medio durante el resto del a no.
Los datos de este ejemplo corresponden a una serie temporal (un conjunto de ob-
servaciones a lo largo del tiempo) que tienen su tratamiento especco. Esto no signica,
sin embargo, que los resultados obtenidos mediante las tecnicas estandar para estas series
sean mejoresque las que hemos obtenido. La principal diferencia radica en la capacidad
que da el analisis de series temporales de predecir el comportamiento futuro (al menos a
corto plazo).
Ejemplo 19
Las 100 primeras cifras decimales del n umero son
= 3.14159265358979323846264338327950288419716939937510
58209749445923078164062862089986280348253421170679
y queremos saber si estas cifras tienen las propiedades de una secuencia de cifras elegida
al azar.
Se puede contrastar, en primer lugar, si todas las cifras aparecen con la misma
frecuencia 1/10, que si hubiesen sido elegidas al azar de una urna con diez bolas numeradas
del 0 al 9.
Para ello comparamos las frecuencias esperadas y observadas, mediante la tabla
0 1 2 3 4 5 6 7 8 9
n
i
8 8 12 11 10 8 9 8 12 14
n
i,esp
10 10 10 10 10 10 10 10 10 10
16 Contrastes no parametricos 249
El valor del estadstico de Pearson resulta
D =
1
10
9

i=0
(n
i
10)
2
= 4.2
que, comparado con la distribucion
2
9
lleva a aceptar la hipotesis de unifromidad con un
nivel crtico pr oximo a 0.9.
Podemos contrastar ahora si la posicion de las cifras parece el resultado de haberlas
elegido al azar, sin dependencia entre ellas. Para ello lo adecuado es el test de rachas:
eligiendo 4.5 como promedio de las 10 cifras, se indican con un + o un - aquellos dgitos
que sean, respectivamente, menores o mayores que 4.5; se obtiene as
1 4 1 5 9 2 6 5 3 5 8 9 7 9 3 2 3 8 4 6
+ + + + + + + + + + +
2 6 4 3 3 8 3 2 7 9 5 0 2 8 8 4 1 9 7 1
+ + + + + + + + +
6 9 3 9 9 3 7 5 1 0 5 8 2 0 9 7 4 9 4 4
+ + + + + + + + + + +
5 9 2 3 0 7 8 1 6 4 0 6 2 8 6 2 0 8 9 9
+ + + + + + + + + + +
8 6 2 8 0 3 4 8 2 5 3 4 2 1 1 7 0 6 7 9
+ + + + + + + + +
con n = 49 signos y m = 51 signos + y un total de R = 54 rachas. Como n y m son
grandes, para que la colocaci on de las cifras parezca hecha al azar, R tendra que tener
aproximadamente distribucion
N
_
2 49 51
100
+ 1;
_
2 49 51 (2 49 51 49 51)
990000
_
= N(50.98; 4.97)
El nivel crtico resulta
2P(R > 54) = 2P(Z > 0.61) = 0.5418
que no permite, en absoluto, armar que las cifras no estan colocadas al azar.
Otra posibilidad, en la misma direccion, es clasicar las cifras en pares e impares,
tratando de detectar alguna regularidad en la colocaci on de unas y otras. Concretamente
tenemos ahora la tabla:
250 Estadstica
1 4 1 5 9 2 6 5 3 5 8 9 7 9 3 2 3 8 4 6
i p i i i p p i i i p i i i i p i p p p
2 6 4 3 3 8 3 2 7 9 5 0 2 8 8 4 1 9 7 1
p p p i i p i p i i i p p p p p i i i i
6 9 3 9 9 3 7 5 1 0 5 8 2 0 9 7 4 9 4 4
p i i i i i i i i p i p p p i i p i p p
5 9 2 3 0 7 8 1 6 4 0 6 2 8 6 2 0 8 9 9
i i p i p i p i p p p p p p p p p p i i
8 6 2 8 0 3 4 8 2 5 3 4 2 1 1 7 0 6 7 9
p p p p p i p p p i i p p i i i p p i i
con n = 49 cifras impares, m = 51 pares y R = 43 rachas. La distribuci on aproximada de
R es la misma normal anterior y el nivel crtico resulta
2P(R > 43) = 2P(Z > 1.6) = 0.1096
que tampoco permite armar que las cifras no estan situadas como si hubiesen sido elegidas
al azar.
17
Regresion
lineal simple

Indice
17.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
17.2. Modelo lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
17.3. Metodo de mnimos cuadrados . . . . . . . . . . . . . . . . . . 254
17.4. Propiedades de los estimadores de mnimos cuadrados . . . . 256
17.4.1. Propiedades generales . . . . . . . . . . . . . . . . . . . . . . . 256
17.4.2. Condiciones de normalidad . . . . . . . . . . . . . . . . . . . . 257
17.5. Varianza residual . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
17.6. Inferencias respecto a los parametros . . . . . . . . . . . . . . 258
17.7. Prediccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
17.7.1. Estimacion de la respuesta media . . . . . . . . . . . . . . . . . 259
17.7.2. Prediccion de una observacion . . . . . . . . . . . . . . . . . . . 260
17.8. Analisis de la varianza . . . . . . . . . . . . . . . . . . . . . . . 261
17.9. Coeciente de correlaci on . . . . . . . . . . . . . . . . . . . . . 263
17.9.1. Inferencias sobre el coeciente de correlaci on . . . . . . . . . . 264
17.10.Contraste de linealidad . . . . . . . . . . . . . . . . . . . . . . . 265
251
252 Estadstica
17.1. Introduccion
En la pr actica, con mucha frecuencia es necesario resolver problemas que implican
conjuntos de variables, cuando se sabe que existe alguna relaci on inherente entre ellas.
Por ejemplo, en un caso industrial, se puede saber que el contenido de alquitran en el
producto de salida de un proceso qumico esta relacionado con la temperatura con la que
este se lleva a cabo. Puede ser interesante desarrollar un metodo de prediccion, esto es,
un procedimiento para estimar el contenido de alquitran para varios niveles de tempera-
tura tomados de informacion experimental. El aspecto estadstico del problema consiste
entonces en lograr la mejor estimaci on de la relaci on entre las variables.
Para este ejemplo y para la mayora de las aplicaciones, existe una clara distincion
entre las variables en cuanto a su papel dentro del proceso experimental. Muy a menudo
se tiene una sola variable dependiente o respuesta Y , que no se controla en el experimento.
Esta respuesta depende de una o m as variables independientes o de regresion, como son
x
1
, x
2
, . . . , x
k
, las cuales se miden con un error despreciable y en realidad, en la mayora de
los casos, se controlan en el experimento. As, las variables independientes no son aleatorias
y por tanto no tienen propiedades distribucionales. En el ejemplo citado anteriormente,
la temperatura es la variable independiente o variable de regresi on, x, y el contenido de
alquitran es la respuesta, Y . La relaci on ja para un conjunto de datos experimentales se
caracteriza por una ecuacion de prediccion que recibe el nombre de ecuacion de regresion.
En el caso de una sola x, se habla de regresion simple. Para k variables independientes,
se habla de regresion m ultiple.
En este curso se tratara el tema de la regresion lineal simple. Representamos una
m.a.s. de tama no n por el conjunto {(x
1
, y
1
), . . . , (x
n
, y
n
)}. Si se tomaran muestras adi-
cionales utilizando exactamente los mismos valores de x, se debe esperar que los valores
de y varen. De ah que el valor y
i
en el par ordenado (x
i
, y
i
) sea un valor de la v.a. Y |x
i
.
Por conveniencia se dene Y |x como la v.a. Y correspondiente a un valor generico x, y su
media y su varianza se indican por
Y |x
y
2
Y |x
, respectivamente; mientras que si x = x
i
,
el smbolo Y
i
representa la v.a. Y |x
i
con media
Y
i
=
Y |x
i
y varianza
2
Y
i
=
2
Y |x
i
.
El termino regresion lineal implica que
Y |x
esta linealmente relacionado con x por
la recta de regresion lineal poblacional

Y |x
= + x
donde los coecientes de regresion y son par ametros que deben estimarse a partir de
los datos muestrales. Si a y b representan estas estimaciones, respectivamente, se puede
17 Regresion lineal simple 253
Figura 17.1: Descripcion del modelo de regresi on lineal simple.
entonces estimar
Y |x
por y de la regresi on muestral o recta de regresion ajustada o
estimada
y = a + bx
El smbolo y se utiliza aqu para distinguir entre el valor estimado que da la recta
de regresi on muestral y el valor experimental real observado, y, para alg un valor de x.
17.2. Modelo lineal
En el caso de una regresi on lineal simple, donde hay una sola variable de regresi on,
x, y una sola v.a. dependiente, Y , los datos pueden representarse por los pares de observa-
ciones {(x
1
, y
1
), . . . , (x
n
, y
n
)}. Es conveniente utilizar los conceptos de la seccion anterior
para denir cada v.a. Y
i
= Y |x
i
por medio de un modelo estadstico. Si se postula que
todas las medias
Y
i
caen sobre una recta (Fig. 17.1),

Y
i
= + x
i
i = 1, . . . , n (17.1)
entonces cada Y
i
puede describirse por el modelo de regresi on lineal simple
Y
i
=
Y
i
+ E
i
= + x
i
+ E
i
i = 1, . . . , n (17.2)
254 Estadstica
Figura 17.2: Descripcion del error del modelo (
i
) y del residuo (e
i
).
donde el error aleatorio E
i
, el error del modelo, debe tener media nula. Cada observacion
(x
i
, y
i
) de la muestra satisface la ecuacion
y
i
= + x
i
+
i
(17.3)
donde
i
es el valor que asume la v.a. E
i
cuando Y
i
toma el valor y
i
. La ecuacion anterior
puede considerarse como el modelo para una sola observacion y
i
.
De manera similar, al utilizar la recta de regresi on lineal estimada
y = a + bx
cada par de observaciones satisface la relaci on
y
i
= a + bx
i
+ e
i
(17.4)
donde e
i
= y
i
y
i
se llama residuo y describe el error en el ajuste del modelo en el punto
i de los datos. La diferencia entre e
i
y
i
se muestra claramente en la gura 17.2.
17.3. Metodo de mnimos cuadrados
El metodo se basa en encontrar las estimaciones a y b de y de tal forma que la
suma de los cuadrados de los residuos sea mnima. Si notamos por
SSE =

e
2
i
=

(y
i
y
i
)
2
=

(y
i
a bx
i
)
2
17 Regresion lineal simple 255
Derivando respecto de a y b, e igualando a cero se tiene
_

_
(SSE)
a
= 2

(y
i
a bx
i
) = 0 (=

e
i
= 0)
(SSE)
b
= 2

(y
i
a bx
i
)x
i
= 0 (=

x
i
e
i
= 0)
(17.5)
de donde
_

_
na + b

x
i
=

y
i
a

x
i
+ b

x
2
i
=

x
i
y
i
que se pueden resolver para dar las expresiones de a y b
_

_
b =
n

x
i
y
i
(

x
i
) (

y
i
)
n

x
2
i
(

x
i
)
2
a =

y
i
b

x
i
n
(17.6)
Para simplicar un poco, denimos
x =
1
n

x
i
y =
1
n

y
i
S
xx
=

(x
i
x)
2
=

x
2
i

1
n
(

x
i
)
2
=

x
2
i
n x
2
S
yy
=

(y
i
y)
2
=

y
2
i

1
n
(

y
i
)
2
=

y
2
i
n y
2
S
xy
=

(x
i
x)(y
i
y) =

x
i
y
i

1
n
(

x
i
) (

y
i
) =

x
i
y
i
n x y
Entonces,
b =
S
xy
S
xx
a = y b x
(17.7)
Por tanto, la recta de regresi on estimada se puede expresar como
y = y + b(x x) (17.8)
256 Estadstica
17.4. Propiedades de los estimadores de mnimos cua-
drados
17.4.1. Propiedades generales
Adem as de la suposicion de que el termino de error del modelo, E
i
, es una v.a. con
media cero, supongamos que cada E
i
tiene la misma varianza,
2
(homocedasticidad), y
que E
1
, E
2
, . . . , E
n
son independientes. Con estas hipotesis sobre las E
i
podemos calcular
la media y la varianza de los estimadores de y .
Es importante recordar que los valores de a y b, obtenidos en base a una muestra
dada de n observaciones, son solo estimaciones de los par ametros reales y . Si el
experimento se repite varias veces, utilizando los mismos valores de x, es muy probable que
las estimaciones resultantes de y dieran de un experimento a otro. Estas estimaciones
diferentes pueden considerarse como valores asumidos por las v.a. A y B.
Dado que los valores de x permanecen jos, los valores de A y B dependen de
las variaciones de los valores de y, o en forma m as precisa, de los valores de las v.a.
Y
1
, Y
2
, . . . , Y
n
. Las suposiciones distribucionales de las E
i
implican que Y
1
, Y
2
, . . . , Y
n
tam-
bien se distribuyen independientemente con medias
Y
i
= +x
i
y varianzas iguales
2
;
es decir,
2
Y
i
=
2
para i = 1, 2, . . . , n. Dado que el estimador
B =
n

x
i
Y
i
(

x
i
) (

Y
i
)
n

x
2
i
(

x
i
)
2
=
n

x
i
Y
i
n x (

Y
i
)
n
_

x
2
i

1
n
(

x
i
)
2
_ =

(x
i
x)Y
i

(x
i
x)
2
es de la forma B =

a
i
Y
i
, donde
a
i
=
(x
i
x)

(x
i
x)
2
i = 1, 2, . . . , n
entonces,

B
= E[B] =

(x
i
x)E[Y
i
]

(x
i
x)
2
=

(x
i
x)( + x
i
)

(x
i
x)
2
=
=
1
S
xx
[

x
i
+

x
2
i
n x x

x
i
] =
1
S
xx
[

x
2
i
n x
2
] =

2
B
= Var(B) =

(x
i
x)
2
Var(Y
i
)
(

(x
i
x)
2
)
2
=

2

(x
i
x)
2
(

(x
i
x)
2
)
2
=

2

(x
i
x)
2
=

2
S
xx
17 Regresion lineal simple 257
Igualmente, el estimador A se puede expresar como
A =

Y
i
B

x
i
n
=
1
n

Y
i
x

(x
i
x)Y
i

(x
i
x)
2
=

_
1
n

x(x
i
x)

(x
i
x)
2
_
Y
i
es decir, A tambien es una combinacion lineal de las v.a. independientes Y
i
, por tanto,
operando, se llega facilmente a

A
= E[A] =

_
1
n

x(x
i
x)

(x
i
x)
2
_
E[Y
i
] =

2
A
= Var(A) =

_
1
n

x(x
i
x)

(x
i
x)
2
_
2
Var(Y
i
) =
2
_

x
2
i
nS
xx
Por tanto, sea cual sea la distribucion de los errores del modelo, los estimadores
mnimo cuadraticos, A y B, de los coecientes de regresi on y , son insesgados.
Por la propia denici on de los estimadores A y B, se deduce que no son indepen-
dientes, siendo
Cov(A, B) = E[(A )(B )] =
x
2
S
xx
17.4.2. Condiciones de normalidad
Para conocer la forma de la distribucion de los estimadores A y B, es necesario co-
nocer previamente la distribucion de los errores del modelo. Si a las hip otesis de indepen-
dencia y homocedasticidad de los errores del modelo a nadimos la hipotesis de normalidad,
es decir, E
i
N(0, ) i = 1, . . . , n, entonces todas las v.a. involucradas hasta ahora: Y
i
,
A, B, resultan ser combinaciones lineales de v.a. Normales e independientes, por tanto su
distribucion tambien sera Normal. As,
Si E
i
N(0, ) i = 1, . . . , n =
_

_
Y
i
N(
Y
i
, ) i = 1, . . . , n
B N(, /

S
xx
)
A N
_
,
_

x
2
i
nS
xx
_
17.5. Varianza residual
Seg un lo expuesto anteriormente, la hipotesis de normalidad en los errores del modelo
asegura la normalidad de los estimadores mnimo cuadraticos sin embargo, para tener
258 Estadstica
completamente especicadas sus distribuciones, es necesario tener una estimaci on de la
varianza de los errores,
2
. Para ello, denimos la varianza residual como
s
2
=
SSE
n 2
=

e
2
i
n 2
=

(y
i
y
i
)
2
n 2
Veamos una forma m as sencilla de expresar s
2
SSE =

(y
i
y
i
)
2
=

(y
i
a bx
i
)
2
=
=

(y
i
( y b x) bx
i
)
2
=

((y
i
y) b(x
i
x))
2
=
=

(y
i
y)
2
+ b
2

(x
i
x)
2
2b

(y
i
y)(x
i
x) =
= S
yy
+ b
2
S
xx
2bS
xy
= S
yy
+ bS
xy
2bS
xy
= S
yy
bS
xy
Por tanto,
s
2
=

(y
i
y
i
)
2
n 2
=
S
yy
bS
xy
n 2
(17.9)
y, como es habitual en la varianzas que proceden de distribuciones normales, la varianza
residual sigue una distribucion del tipo Chi-cuadrado. En particular,
(n 2)s
2

2

2
n2
(17.10)
Por tanto, la varianza residual es una estimaci on insesgada de la varianza de los
errores del modelo.
17.6. Inferencias respecto a los parametros
Una vez estimada la varianza de los errores, y recordando que mantenemos las
hip otesis de normalidad de los mismos, podemos construir los estadsticos adecuados para
realizar inferencias respecto a los par ametros de regresi on. As,
B N(, /

S
xx
)
(n 2)s
2

2

2
n2
_

_
=
B
/

S
xx

(n 2)s
2
(n 2)
2
=
B
s/

S
xx
t
n2
(17.11)
A N
_
,
_

x
2
i
nS
xx
_
(n 2)s
2

2

2
n2
_

_
=
A

x
2
i
nS
xx

(n 2)s
2
(n 2)
2
=
A
s
_

x
2
i
nS
xx
t
n2
(17.12)
17 Regresion lineal simple 259
Por tanto, un intervalo de conanza del (1 )100 % para la pendiente de la recta
de regresi on poblacional, , es
b t
/2
s

S
xx
< < b + t
/2
s

S
xx
y, un intervalo de conanza del (1 )100 % para la ordenada en el origen de la recta de
regresi on poblacional, , es
a t
/2
s
_

x
2
i
nS
xx
< < a + t
/2
s
_

x
2
i
nS
xx
17.7. Prediccion
Un modelo de regresi on, jado un valor particular de la variable independiente (x
p
),
permite en primer lugar, estimar el valor medio de la respuesta (
Yp
); y en segundo lugar,
prever futuros valores de la variable respuesta (y
p
).
Tanto la estimaci on de la media, como la prediccion de un valor de la variable
dependiente, se obtienen sustituyendo en la recta de regresi on estimada. Es decir,

Yp
y
p
= a + bx
p
y
p
y
p
= a + bx
p
sin embargo, la precision de estas estimaciones es distinta, como veremos en las siguientes
secciones.
17.7.1. Estimacion de la respuesta media
Utilizando la notacion habitual para v.a.

Y
p
= A+ Bx
p
entonces
E[

Y
p
] = E[A+ Bx
p
] = E[A] + E[B]x
p
= + x
p
=
Yp
Var(

Y
p
) = Var(A+ Bx
p
) = Var((

Y B x) + Bx
p
) = Var(

Y + B(x
p
x)) =
= Var(

Y ) + (x
p
x)
2
Var(B) =

2
n
+ (x
p
x)
2

2
S
xx
=
2
_
1
n
+
(x
p
x)
2
S
xx
_
260 Estadstica
donde hemos utilizado el hecho de que las variables

Y y B son independientes. Entonces,

Y
p
N
_

Yp
,
_
1
n
+
(x
p
x)
2
S
xx
_
(n 2)s
2

2

2
n2
_

_
=

Y
p

Yp
s
_
1
n
+
(x
p
x)
2
S
xx
t
n2
Por tanto, un intervalo de conanza del (1 )100 % para la respuesta media,
Yp
,
es
y
p
t
/2
s
_
1
n
+
(x
p
x)
2
S
xx
<
Yp
< y
p
+ t
/2
s
_
1
n
+
(x
p
x)
2
S
xx
17.7.2. Predicci on de una observaci on
En este caso, utilizamos la v.a.

Y
p
Y
p
E[

Y
p
Y
p
] = E[

Y
p
] E[Y
p
] =
Yp

Yp
= 0
Var(

Y
p
Y
p
) = Var(

Y
p
) + Var(Y
p
) =
2
_
1
n
+
(x
p
x)
2
S
xx
_
+
2
=
=
2
_
1 +
1
n
+
(x
p
x)
2
S
xx
_
Entonces

Y
p
Y
p
N
_
0,
_
1 +
1
n
+
(x
p
x)
2
S
xx
_
(n 2)s
2

2

2
n2
_

_
=

Y
p
Y
p
s
_
1 +
1
n
+
(x
p
x)
2
S
xx
t
n2
y, un intervalo de conanza del (1 )100 % para una prediccion, y
p
, es
y
p
t
/2
s
_
1 +
1
n
+
(x
p
x)
2
S
xx
< y
p
< y
p
+ t
/2
s
_
1 +
1
n
+
(x
p
x)
2
S
xx
17 Regresion lineal simple 261
17.8. Analisis de la varianza
El contraste m as importante en regresi on se reere a la pendiente de la recta de
regresi on poblacional, y se plantea de la forma
H
0
: = 0
H
1
: = 0
Aunque en la seccion 17.6 hemos dado un estadstico v alido para este contraste (Eq.
17.11), en este apartado vamos a estudiarlo desde otro punto de vista.
Si la pendiente de la verdadera recta de regresi on es distinta de cero, entonces las
desviaciones de los datos, y
i
, respecto a su valor medio, y, se pueden descomponer en dos
partes (Fig. 17.3(a)): una, el residuo, es decir (y
i
y
i
); y otra, la diferencia entre el valor
predicho por la recta de regresi on estimada y el valor medio de los datos, es decir, ( y
i
y).
Sin embargo, si la verdadera pendiente de la recta de regresi on es nula (Fig. 17.3(b)),
entonces todos los valores predichos verican y
i
= y, por lo que la segunda componente
es nula.
El residuo representa las uctuaciones aleatorias dentro del rango probable de va-
lores que puede asumir la v.a. Y
i
, mientras que la segunda componente representa las
uctuaciones intrnsecas debidas a la relaci on lineal que verican las v.a. Y
i
; as, cuanto
m as nos alejamos de la zona central, ( x, y), m as grandes deben ser estas uctuaciones.
De esta forma, la variacion total se puede expresar como

(y
i
y)
2
=

[(y
i
y
i
) + ( y
i
y)]
2
=
=

(y
i
y
i
)
2
+

( y
i
y)
2
+ 2

(y
i
y
i
)( y
i
y) =
=

(y
i
y
i
)
2
+

( y
i
y)
2
donde hemos utilizado el hecho de que (Eq. 17.5)

y
i
(y
i
y
i
) =

(a + bx
i
)e
i
= a

e
i
+ b

x
i
e
i
= 0

y(y
i
y
i
) = y

e
i
= 0
En resumen, la variacion total

(y
i
y)
2
=

(y
i
y
i
)
2
+

( y
i
y)
2
(17.13)
se descompone en dos terminos independientes: el primero reeja la variabilidad no ex-
plicada por la regresi on, que es debida al caracter aleatorio de la relaci on; y el segundo
contiene la variabilidad explicada por la regresi on, y puede interpretarse como la parte
determinista de la variabilidad de la respuesta. LLamaremos
262 Estadstica
Figura 17.3: Descomposicion de la varianza para el caso de (a) pendiente no nula; y (b)
pendiente nula.
SST =

(y
i
y)
2
= S
yy
= Suma Total de los Cuadrados
SSE =

(y
i
y
i
)
2
= S
yy
bS
xy
= Suma de los Cuadrados de los Errores
17 Regresion lineal simple 263
Fuente Suma Grados Cuadrados Estadstico Valor-P
Error Cuadrados Libertad Medios
Regresion SSR 1 SSR/1 f = SSR/s
2
P(F
1,n2
f)
Error SSE n 2 SSE/(n 2)
Total SST n 1
Figura 17.4: Tabla ANOVA
SSR =

( y
i
y)
2
= bS
xy
= Suma de los Cuadrados de Regresi on
Se puede demostrar que, si la hipotesis nula es cierta es decir, si = 0, entonces
SSR/
2

2
1
y SST/
2

2
n1
Por tanto,
SSR/1
SSE/(n 2)
=
SSR
s
2
F
1,n2
(17.14)
Este estadstico se puede utilizar como alternativa al estadstico dado en (Eq. 17.11)
para realizar el contraste regresi on. Si su valor, f, es peque no, signica que SSE es
muy grande comparado con el valor de SSR es decir, la mayor parte de la variabilidad
observada es puramente aleatoria, y la componente explicada por el modelo (la recta
propuesta) tiene muy poca inuencia, por tanto no se rechaza H
0
. Por otra parte, si f es
grande, signica que SSR es muy grande comparado con SSE es decir, la mayor parte de
la variabilidad observada se debe a la existencia de una recta de regresi on con pendiente
no nula, por tanto se rechaza H
0
. De hecho, se cumple
f =
_
b
s/

S
xx

=0
_
2
= t
2
La forma habitual de presentar todos los datos vistos en esta seccion es en la llamada
tabla ANOVA (del ingles, ANalysis Of VAriance), que se muestra en la gura 17.4.
17.9. Coeciente de correlacion
La evaluacion global de una recta de regresi on puede hacerse mediante la varianza
residual, que es un ndice de la precision del modelo. Sin embargo, esta medida no es util
264 Estadstica
para comparar rectas de regresi on de variables distintas, ya que depende de las unidades
de medida. Una medida m as adecuada de la bondad del ajuste es el llamado coeciente de
determinacion del modelo, denido como la proporci on de la variabilidad total explicada
por el modelo propuesto
R
2
=
SSR
SST
=

( y
i
y)
2

(y
i
y)
2
Para el caso particular del modelo lineal,
r
2
= b
S
xy
S
yy
=
S
2
xy
S
xx
S
yy
(17.15)
y, el coeciente de correlacion lineal de la muestra es
r =
S
xy
_
S
xx
S
yy
(17.16)
que representa una estimaci on del coeciente de correlaci on lineal de la poblacion
=
Cov(X, Y )
_
Var(X) Var(Y )
Sea cual sea el modelo propuesto, siempre se cumple que 0 R
2
1. En particular,
0 r
2
1 (1 r 1)
Si r
2
= 1, existe una relaci on lineal perfecta entre las variables X e Y (Si r =
1 la relaci on es positiva, es decir, la pendiente de la recta es positiva. Si r =
1 la relaci on es negativa, es decir, la pendiente de la recta es negativa). En
consecuencia, las variables son dependientes.
Si r
2
= 0 (r = 0), no existe relaci on lineal entre las variables X e Y . De forma
general, esto no implica que las variables sean independientes, ya que podra
existir una relaci on no lineal entre ellas.
17.9.1. Inferencias sobre el coeciente de correlaci on
El contraste H
0
: = 0 es equivalente al ya estudiado H
0
: = 0, y se puede realizar
con el estadstico
r

n 2

1 r
2
t
n2
(17.17)
ya que se cumple
r

n 2

1 r
2
=
_
b
s/

S
xx

=0
_
2
= t
2
17 Regresion lineal simple 265
Para realizar el contraste general H
0
: =
0
= 0, es necesario que la poblacion, es
decir, la v.a. (X, Y ), siga una distribucion Normal Bidimensional. En ese caso, se utiliza
el estadstico
1
2
Ln
1 + r
1 r

= N
_
1
2
Ln
1 +
1
,
1

n 3
_
(17.18)
17.10. Contraste de linealidad
Hasta ahora, hemos supuesto que realmente existe una recta de regresi on que ajusta
perfectamente los datos, es decir, las medias de las v.a. Y
i
se encuentran sobre una recta

Y
i
= + x
i
i = 1, . . . , n
que hemos estimado por
y
i
= a + bx
i
i = 1, . . . , n
Por tanto, la primera pregunta debera haber sido es cierta esa armaci on? El
contraste de linealidad esta dise nado para responder a esta cuestion. Cuando las medias de
las v.a. Y
i
no se encuentran sobre una recta (Fig. 17.5) pero casi, este casi es la llamada
componente de falta de ajuste, y el contraste de linealidad cuantica este desajuste para
contrastar la hipotesis de linealidad del modelo.
Para realizar el contraste, es necesario disponer de varios valores de y para algunos
o todos los valores de x. LLamaremos x
i
(i = 1, . . . , d) a los valores distintos que toma
la variable x. Para cada valor de x
i
existir an observaciones y
ij
(j = 1, . . . , n
i
), de forma
que n = n
1
+ + n
d
(Fig. 17.6)
La l ogica del contraste puede entenderse suponiendo que representamos gr acamente
las medias de las distribuciones condicionadas, y
i
. Nos encontraremos con alguna de las
situaciones que muestra la gura 17.7: el gr aco 17.7 (a) sugiere que probablemente la
hip otesis de linealidad es cierta, ya que las medias y
i
parecen tener una relaci on lineal;
en 17.7 (b) se detecta una relaci on claramente no lineal; y en 17.7 (c) no esta clara la
existencia de relaci on.
El contraste de linealidad compara las medias muestrales estimadas directamente
de los datos observacionales, y
i
, con las medias muestrales estimadas bajo la hip otesis de
linealidad, y
i
. Intuitivamente, si medimos la discrepancia entre ambas estimaciones con

n
i
( y
i
y
i
)
2
, tenderemos a rechazar la hipotesis de linealidad si esta discrepancia es
grande, y a no rechazarla cuando es peque na. Para cuanticar el tama no de esta discre-
pancia, se compara con una medida de la variabilidad muestral cuyo valor esperado no
266 Estadstica
Figura 17.5: Descripcion del modelo de regresi on lineal simple con componente de falta
de ajuste.
depende de la hipotesis que estamos contrastando. Un termino razonable de comparacion
es

(y
ij
y
i
)
2
, que mide la variabilidad inherente a los datos, sin depender de la
hip otesis de linealidad.
Vamos a aclarar estos conceptos con la gura 17.8. La ausencia de una relaci on lineal
perfecta permite descomponer los residuos, e
ij
= y
ij
y
i
, en suma de dos componentes:
una, (y
ij
y
i
), debida a la uctuaci on aleatoria dentro del rango probable de valores que
puede asumir la v.a. Y
i
para cada valor jo x
i
; y otra,( y
i
y
i
), que contiene los errores
debidos a la falta de ajuste ya que, al n y al cabo, las medias no estan sobre una recta
por lo que la recta estimada no puede contener a las medias estimadas. Si la relaci on
lineal es perfecta, entonces y
i
= y
i
(i = 1, . . . , d) y la segunda componente es nula, por
lo que la varianza residual es una estimaci on insesgada de la varianza de los errores del
modelo (como vimos en la seccion 17.5) pero, si la relaci on lineal no es perfecta, la segunda
componente es distinta de cero, por lo que la varianza residual pasa a ser una estimaci on
sesgada de
2
al contener un termino de falta de ajuste que no tiene nada que ver con el
error del modelo.
17 Regresion lineal simple 267
observaciones
x
1
y
11
y
12
y
1j
y
1n
1
y
1
=
1
n
1
n
1

j=1
y
1j
x
2
y
21
y
22
y
2j
y
2n
2
y
2
=
1
n
2
n
2

j=1
y
2j
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
x
i
y
i1
y
i2
y
ij
y
in
i
y
i
=
1
n
i
n
i

j=1
y
ij
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
x
d
y
d1
y
d2
y
dj
y
dn
d
y
d
=
1
n
d
n
d

j=1
y
dj
x =
1
n
d

i=1
n
i
x
i
y =
1
n
d

i=1
n
i

j=1
y
ij
=
1
n
d

i=1
n
i
y
i
Figura 17.6: Tabla de datos para realizar el contraste de linealidad
La descomposicion de la suma de los cuadrados de los residuos es sencilla pues,
SSE =
d

i=1
n
i

j=1
e
2
ij
=
d

i=1
n
i

j=1
(y
ij
y
i
)
2
=
d

i=1
n
i

j=1
[(y
ij
y
i
) + ( y
i
y
i
)]
2
=
=
d

i=1
n
i

j=1
(y
ij
y
i
)
2
+
d

i=1
n
i

j=1
( y
i
y
i
)
2
+ 2
d

i=1
n
i

j=1
(y
ij
y
i
)( y
i
y
i
) =
=
d

i=1
n
i

j=1
(y
ij
y
i
)
2
+
d

i=1
n
i
( y
i
y
i
)
2
+ 2
d

i=1
( y
i
y
i
)
_
n
i

j=1
(y
ij
y
i
)
_
=
=
d

i=1
n
i

j=1
(y
ij
y
i
)
2
+
d

i=1
n
i
( y
i
y
i
)
2
268 Estadstica
Figura 17.7: Medias condicionadas y la recta de regresi on.
donde hemos utilizado el hecho de que
n
i

j=1
(y
ij
y
i
) = 0. En resumen, la suma de los
cuadrados de los residuos
d

i=1
n
i

j=1
(y
ij
y
i
)
2
=
d

i=1
n
i

j=1
(y
ij
y
i
)
2
+
d

i=1
n
i
( y
i
y
i
)
2
(17.19)
se descompone en dos terminos independientes: el primero reeja la uctuaciones aleato-
rias de cada observacion en torno a su valor medio; y el segundo reeja la ausencia de una
relaci on lineal perfecta en la medias de las v.a. Y
i
. LLamaremos
SSE =
d

i=1
n
i

j=1
(y
ij
y
i
)
2
= Suma de los Cuadrados de los Residuos
17 Regresion lineal simple 269
Figura 17.8: Descomposicion del residuo (e
ij
) cuando existe componente de falta de ajuste.
SSE(p) =
d

i=1
n
i

j=1
(y
ij
y
i
)
2
= Error Puro
SSE(a) =
d

i=1
n
i
( y
i
y
i
)
2
= Error por Falta de Ajuste
Se puede demostrar que, si la hipotesis de linealidad es cierta, entonces
SSE(p)/
2

2
nd
y SSE(a)/
2

2
d2
Por tanto, SSE(p)/(n d) es una estimaci on insesgada de la varianza,
2
, de los
errores del modelo, y el estadstico
SSE(a)/(d 2)
SSE(p)/(n d)
F
d2,nd
(17.20)
representa el cociente entre la variacion debida a la falta de ajuste y la variacion debida
a causas puramente aleatorias. As, este estadstico nos sirve para contrastar la hip otesis
de linealidad. Si su valor, f, es grande, signica que la mayor parte del error procede de
la componente de falta de ajuste, por lo que deberemos rechazar la hip otesis de relaci on
lineal perfecta. Por el contrario, si f es peque no, signica que la mayor parte del error es
puramente aleatorio y no rechazaremos la hipotesis de relaci on lineal perfecta.
270 Estadstica
La forma habitual de presentar todos los datos vistos en esta seccion es en la tabla
ANOVA completa, que se muestra en la gura 17.9
Fuente Suma Grados Cuadrados Estadstico Valor-P
Error Cuadrados Libertad Medios
Regresi on SSR 1 SSR/1 f =
SSR/1
SSE/(n 2)
P(F
1,n2
f)
Error SSE n 2 SSE/(n 2)
Ajuste SSE(a) d 2 SSE(a)/(d 2) f =
SSE(a)/(d 2)
SSE(p)/(n d)
P(F
d2,nd
f)
Puro SSE(p) n d SSE(p)/(n d)
Total SST n 1
Figura 17.9: Tabla ANOVA completa
A
Tablas
estadsticas
271
Tabla A.1: Distribuci on Binomial. P(B(n, p) x) =
x

k=0
_
n
k
_
p
k
(1 p)
nk
p
n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
1 0 .9000 .8000 .7500 .7000 .6000 .5000 .4000 .3000 .2000 .1000
1 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
2 0 .8100 .6400 .5625 .4900 .3600 .2500 .1600 .0900 .0400 .0100
1 .9900 .9600 .9375 .9100 .8400 .7500 .6400 .5100 .3600 .1900
2 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
3 0 .7290 .5120 .4219 .3430 .2160 .1250 .0640 .0270 .0080 .0010
1 .9720 .8960 .8438 .7840 .6480 .5000 .3520 .2160 .1040 .0280
2 .9990 .9920 .9844 .9730 .9360 .8750 .7840 .6570 .4880 .2710
3 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
4 0 .6561 .4096 .3164 .2401 .1296 .0625 .0256 .0081 .0016 .0001
1 .9477 .8192 .7383 .6517 .4752 .3125 .1792 .0837 .0272 .0037
2 .9963 .9728 .9492 .9163 .8208 .6875 .5248 .3483 .1808 .0523
3 .9999 .9984 .9961 .9919 .9744 .9375 .8704 .7599 .5904 .3439
4 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
5 0 .5905 .3277 .2373 .1681 .0778 .0312 .0102 .0024 .0003 .0000
1 .9185 .7373 .6328 .5282 .3370 .1875 .0870 .0308 .0067 .0005
2 .9914 .9421 .8965 .8369 .6826 .5000 .3174 .1631 .0579 .0086
3 .9995 .9933 .9844 .9692 .9130 .8125 .6630 .4718 .2627 .0815
4 1.0000 .9997 .9990 .9976 .9898 .9688 .9222 .8319 .6723 .4095
5 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
6 0 .5314 .2621 .1780 .1176 .0467 .0156 .0041 .0007 .0001 .0000
1 .8857 .6554 .5339 .4202 .2333 .1094 .0410 .0109 .0016 .0001
2 .9841 .9011 .8306 .7443 .5443 .3438 .1792 .0705 .0170 .0013
3 .9987 .9830 .9624 .9295 .8208 .6562 .4557 .2557 .0989 .0159
4 .9999 .9984 .9954 .9891 .9590 .8906 .7667 .5798 .3446 .1143
5 1.0000 .9999 .9998 .9993 .9959 .9844 .9533 .8824 .7379 .4686
6 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
272
Tabla A.1: Distribuci on Binomial (Continuacion)
p
n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
7 0 .4783 .2097 .1335 .0824 .0280 .0078 .0016 .0002 .0000 .0000
1 .8503 .5767 .4449 .3294 .1586 .0625 .0188 .0038 .0004 .0000
2 .9743 .8520 .7564 .6471 .4199 .2266 .0963 .0288 .0047 .0002
3 .9973 .9667 .9294 .8740 .7102 .5000 .2898 .1260 .0333 .0027
4 .9998 .9953 .9871 .9712 .9037 .7734 .5801 .3529 .1480 .0257
5 1.0000 .9996 .9987 .9962 .9812 .9375 .8414 .6706 .4233 .1497
6 1.0000 .9999 .9998 .9984 .9922 .9720 .9176 .7903 .5217
7 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
8 0 .4305 .1678 .1001 .0576 .0168 .0039 .0007 .0001 .0000 .0000
1 .8131 .5033 .3671 .2553 .1064 .0352 .0085 .0013 .0001 .0000
2 .9619 .7969 .6785 .5518 .3154 .1445 .0498 .0113 .0012 .0000
3 .9950 .9437 .8862 .8059 .5941 .3633 .1737 .0580 .0104 .0004
4 .9996 .9896 .9727 .9420 .8263 .6367 .4059 .1941 .0563 .0050
5 1.0000 .9988 .9958 .9887 .9502 .8555 .6846 .4482 .2031 .0381
6 .9999 .9996 .9987 .9915 .9648 .8936 .7447 .4967 .1869
7 1.0000 1.0000 .9999 .9993 .9961 .9832 .9424 .8322 .5695
8 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
9 0 .3874 .1342 .0751 .0404 .0101 .0020 .0003 .0000 .0000 .0000
1 .7748 .4362 .3003 .1960 .0705 .0195 .0038 .0004 .0000 .0000
2 .9470 .7382 .6007 .4628 .2318 .0898 .0250 .0043 .0003 .0000
3 .9917 .9144 .8343 .7297 .4826 .2539 .0994 .0253 .0031 .0001
4 .9991 .9804 .9511 .9012 .7334 .5000 .2666 .0988 .0196 .0009
5 .9999 .9969 .9900 .9747 .9006 .7461 .5174 .2703 .0856 .0083
6 1.0000 .9997 .9987 .9957 .9750 .9102 .7682 .5372 .2618 .0530
7 1.0000 .9999 .9996 .9962 .9805 .9295 .8040 .5638 .2252
8 1.0000 1.0000 .9997 .9980 .9899 .9596 .8658 .6126
9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
273
Tabla A.1: Distribuci on Binomial (Continuacion)
p
n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
10 0 .3487 .1074 .0563 .0282 .0060 .0010 .0001 .0000 .0000 .0000
1 .7361 .3758 .2440 .1493 .0464 .0107 .0017 .0001 .0000 .0000
2 .9298 .6778 .5256 .3828 .1673 .0547 .0123 .0016 .0001 .0000
3 .9872 .8791 .7759 .6496 .3823 .1719 .0548 .0106 .0009 .0000
4 .9984 .9672 .9219 .8497 .6331 .3770 .1662 .0473 .0064 .0001
5 .9999 .9936 .9803 .9527 .8338 .6230 .3669 .1503 .0328 .0016
6 1.0000 .9991 .9965 .9894 .9452 .8281 .6177 .3504 .1209 .0128
7 .9999 .9996 .9984 .9877 .9453 .8327 .6172 .3222 .0702
8 1.0000 1.0000 .9999 .9983 .9893 .9536 .8507 .6242 .2639
9 1.0000 .9999 .9990 .9940 .9718 .8926 .6513
10 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
11 0 .3138 .0859 .0422 .0198 .0036 .0005 .0000 .0000 .0000 .0000
1 .6974 .3221 .1971 .1130 .0302 .0059 .0007 .0000 .0000 .0000
2 .9104 .6174 .4552 .3127 .1189 .0327 .0059 .0006 .0000 .0000
3 .9815 .8389 .7133 .5696 .2963 .1133 .0293 .0043 .0002 .0000
4 .9972 .9496 .8854 .7897 .5328 .2744 .0994 .0216 .0020 .0000
5 .9997 .9883 .9657 .9218 .7535 .5000 .2465 .0782 .0117 .0003
6 1.0000 .9980 .9924 .9784 .9006 .7256 .4672 .2103 .0504 .0028
7 .9998 .9988 .9957 .9707 .8867 .7037 .4304 .1611 .0185
8 1.0000 .9999 .9994 .9941 .9673 .8811 .6873 .3826 .0896
9 1.0000 1.0000 .9993 .9941 .9698 .8870 .6779 .3026
10 1.0000 .9995 .9964 .9802 .9141 .6862
11 1.0000 1.0000 1.0000 1.0000 1.0000
274
Tabla A.1: Distribuci on Binomial (Continuacion)
p
n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
12 0 .2824 .0687 .0317 .0138 .0022 .0002 .0000 .0000 .0000 .0000
1 .6590 .2749 .1584 .0850 .0196 .0032 .0003 .0000 .0000 .0000
2 .8891 .5583 .3907 .2528 .0834 .0193 .0028 .0002 .0000 .0000
3 .9744 .7946 .6488 .4925 .2253 .0730 .0153 .0017 .0001 .0000
4 .9957 .9274 .8424 .7237 .4382 .1938 .0573 .0095 .0006 .0000
5 .9995 .9806 .9456 .8822 .6652 .3872 .1582 .0386 .0039 .0001
6 .9999 .9961 .9857 .9614 .8418 .6128 .3348 .1178 .0194 .0005
7 1.0000 .9994 .9972 .9905 .9427 .8062 .5618 .2763 .0726 .0043
8 .9999 .9996 .9983 .9847 .9270 .7747 .5075 .2054 .0256
9 1.0000 1.0000 .9998 .9972 .9807 .9166 .7472 .4417 .1109
10 1.0000 .9997 .9968 .9804 .9150 .7251 .3410
11 1.0000 .9998 .9978 .9862 .9313 .7176
12 1.0000 1.0000 1.0000 1.0000 1.0000
13 0 .2542 .0550 .0238 .0097 .0013 .0001 .0000 .0000 .0000 .0000
1 .6213 .2336 .1267 .0637 .0126 .0017 .0001 .0000 .0000 .0000
2 .8661 .5017 .3326 .2025 .0579 .0112 .0013 .0001 .0000 .0000
3 .9658 .7473 .5843 .4206 .1686 .0461 .0078 .0007 .0000 .0000
4 .9935 .9009 .7940 .6543 .3530 .1334 .0321 .0040 .0002 .0000
5 .9991 .9700 .9198 .8346 .5744 .2905 .0977 .0182 .0012 .0000
6 .9999 .9930 .9757 .9376 .7712 .5000 .2288 .0624 .0070 .0001
7 1.0000 .9988 .9944 .9818 .9023 .7095 .4256 .1654 .0300 .0009
8 .9998 .9990 .9960 .9679 .8666 .6470 .3457 .0991 .0065
9 1.0000 .9999 .9993 .9922 .9539 .8314 .5794 .2527 .0342
10 1.0000 .9999 .9987 .9888 .9421 .7975 .4983 .1339
11 1.0000 .9999 .9983 .9874 .9363 .7664 .3787
12 1.0000 .9999 .9987 .9903 .9450 .7458
13 1.0000 1.0000 1.0000 1.0000 1.0000
275
Tabla A.1: Distribuci on Binomial (Continuacion)
p
n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
14 0 .2288 .0440 .0178 .0068 .0008 .0001 .0000 .0000 .0000 .0000
1 .5846 .1979 .1010 .0475 .0081 .0009 .0001 .0000 .0000 .0000
2 .8416 .4481 .2811 .1608 .0398 .0065 .0006 .0000 .0000 .0000
3 .9559 .6982 .5213 .3552 .1243 .0287 .0039 .0002 .0000 .0000
4 .9908 .8702 .7415 .5842 .2793 .0898 .0175 .0017 .0000 .0000
5 .9985 .9561 .8883 .7805 .4859 .2120 .0583 .0083 .0004 .0000
6 .9998 .9884 .9617 .9067 .6925 .3953 .1501 .0315 .0024 .0000
7 1.0000 .9976 .9897 .9685 .8499 .6047 .3075 .0933 .0116 .0002
8 .9996 .9978 .9917 .9417 .7880 .5141 .2195 .0439 .0015
9 1.0000 .9997 .9983 .9825 .9102 .7207 .4158 .1298 .0092
10 1.0000 .9998 .9961 .9713 .8757 .6448 .3018 .0441
11 1.0000 .9994 .9935 .9602 .8392 .5519 .1584
12 1.0000 .9999 .9991 .9919 .9525 .8021 .4154
13 1.0000 .9999 .9992 .9932 .9560 .7712
14 1.0000 1.0000 1.0000 1.0000 1.0000
15 0 .2059 .0352 .0134 .0047 .0005 .0000 .0000 .0000 .0000 .0000
1 .5490 .1671 .0802 .0353 .0052 .0005 .0000 .0000 .0000 .0000
2 .8159 .3980 .2361 .1268 .0271 .0037 .0003 .0000 .0000 .0000
3 .9444 .6482 .4613 .2969 .0905 .0176 .0019 .0001 .0000 .0000
4 .9873 .8358 .6865 .5155 .2173 .0592 .0093 .0007 .0000 .0000
5 .9977 .9389 .8516 .7216 .4032 .1509 .0338 .0037 .0001 .0000
6 .9997 .9819 .9434 .8689 .6098 .3036 .0950 .0152 .0008 .0000
7 1.0000 .9958 .9827 .9500 .7869 .5000 .2131 .0500 .0042 .0000
8 .9992 .9958 .9848 .9050 .6964 .3902 .1311 .0181 .0003
9 .9999 .9992 .9963 .9662 .8491 .5968 .2784 .0611 .0022
10 1.0000 .9999 .9993 .9907 .9408 .7827 .4845 .1642 .0127
11 1.0000 .9999 .9981 .9824 .9095 .7031 .3518 .0556
12 1.0000 .9997 .9963 .9729 .8732 .6020 .1841
13 1.0000 .9995 .9948 .9647 .8329 .4510
14 1.0000 .9995 .9953 .9648 .7941
15 1.0000 1.0000 1.0000 1.0000
276
Tabla A.1: Distribuci on Binomial (Continuacion)
p
n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
16 0 .1853 .0281 .0100 .0033 .0003 .0000 .0000 .0000 .0000 .0000
1 .5147 .1407 .0635 .0261 .0033 .0003 .0000 .0000 .0000 .0000
2 .7892 .3518 .1971 .0994 .0183 .0021 .0001 .0000 .0000 .0000
3 .9316 .5981 .4050 .2459 .0651 .0106 .0009 .0000 .0000 .0000
4 .9830 .7982 .6302 .4499 .1666 .0384 .0049 .0003 .0000 .0000
5 .9967 .9183 .8103 .6598 .3288 .1051 .0191 .0016 .0000 .0000
6 .9995 .9733 .9204 .8247 .5272 .2272 .0583 .0071 .0002 .0000
7 .9999 .9930 .9729 .9256 .7161 .4018 .1423 .0257 .0015 .0000
8 1.0000 .9985 .9925 .9743 .8577 .5982 .2839 .0744 .0070 .0001
9 .9998 .9984 .9929 .9417 .7728 .4728 .1753 .0267 .0005
10 1.0000 .9997 .9984 .9809 .8949 .6712 .3402 .0817 .0033
11 1.0000 .9997 .9951 .9616 .8334 .5501 .2018 .0170
12 1.0000 .9991 .9894 .9349 .7541 .4019 .0684
13 1.0000 .9999 .9979 .9817 .9006 .6482 .2108
14 1.0000 .9997 .9967 .9739 .8593 .4853
15 1.0000 .9997 .9967 .9719 .8147
16 1.0000 1.0000 1.0000 1.0000
17 0 .1668 .0225 .0075 .0023 .0002 .0000 .0000 .0000 .0000 .0000
1 .4818 .1182 .0501 .0193 .0021 .0001 .0000 .0000 .0000 .0000
2 .7618 .3096 .1637 .0774 .0123 .0012 .0001 .0000 .0000 .0000
3 .9174 .5489 .3530 .2019 .0464 .0064 .0005 .0000 .0000 .0000
4 .9779 .7582 .5739 .3887 .1260 .0245 .0025 .0001 .0000 .0000
5 .9953 .8943 .7653 .5968 .2639 .0717 .0106 .0007 .0000 .0000
6 .9992 .9623 .8929 .7752 .4478 .1662 .0348 .0032 .0001 .0000
7 .9999 .9891 .9598 .8954 .6405 .3145 .0919 .0127 .0005 .0000
8 1.0000 .9974 .9876 .9597 .8011 .5000 .1989 .0403 .0026 .0000
9 .9995 .9969 .9873 .9081 .6855 .3595 .1046 .0109 .0001
10 .9999 .9994 .9968 .9652 .8338 .5522 .2248 .0377 .0008
11 1.0000 .9999 .9993 .9894 .9283 .7361 .4032 .1057 .0047
12 1.0000 .9999 .9975 .9755 .8740 .6113 .2418 .0221
13 1.0000 .9995 .9936 .9536 .7981 .4511 .0826
14 .9999 .9988 .9877 .9226 .6904 .2382
15 1.0000 .9999 .9979 .9807 .8818 .5182
16 1.0000 .9998 .9977 .9775 .8332
17 1.0000 1.0000 1.0000 1.0000
277
Tabla A.1: Distribuci on Binomial (Continuacion)
p
n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
18 0 .1501 .0180 .0056 .0016 .0001 .0000 .0000 .0000 .0000 .0000
1 .4503 .0991 .0395 .0142 .0013 .0001 .0000 .0000 .0000 .0000
2 .7338 .2713 .1353 .0600 .0082 .0007 .0000 .0000 .0000 .0000
3 .9018 .5010 .3057 .1646 .0328 .0038 .0002 .0000 .0000 .0000
4 .9718 .7164 .5187 .3327 .0942 .0154 .0013 .0000 .0000 .0000
5 .9936 .8671 .7175 .5344 .2088 .0481 .0058 .0003 .0000 .0000
6 .9988 .9487 .8610 .7217 .3743 .1189 .0203 .0014 .0000 .0000
7 .9998 .9837 .9431 .8593 .5634 .2403 .0576 .0061 .0002 .0000
8 1.0000 .9957 .9807 .9404 .7368 .4073 .1347 .0210 .0009 .0000
9 .9991 .9946 .9790 .8653 .5927 .2632 .0596 .0043 .0000
10 .9998 .9988 .9939 .9424 .7597 .4366 .1407 .0163 .0002
11 1.0000 .9998 .9986 .9797 .8811 .6257 .2783 .0513 .0012
12 1.0000 .9997 .9942 .9519 .7912 .4656 .1329 .0064
13 1.0000 .9987 .9846 .9058 .6673 .2836 .0282
14 .9998 .9962 .9672 .8354 .4990 .0982
15 1.0000 .9993 .9918 .9400 .7287 .2662
16 .9999 .9987 .9858 .9009 .5497
17 1.0000 .9999 .9984 .9820 .8499
18 1.0000 1.0000 1.0000 1.0000
278
Tabla A.1: Distribuci on Binomial (Continuacion)
p
n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
19 0 .1351 .0144 .0042 .0011 .0001 .0000 .0000 .0000 .0000 .0000
1 .4203 .0829 .0310 .0104 .0008 .0000 .0000 .0000 .0000 .0000
2 .7054 .2369 .1113 .0462 .0055 .0004 .0000 .0000 .0000 .0000
3 .8850 .4551 .2631 .1332 .0230 .0022 .0001 .0000 .0000 .0000
4 .9648 .6733 .4654 .2822 .0696 .0096 .0006 .0000 .0000 .0000
5 .9914 .8369 .6678 .4739 .1629 .0318 .0031 .0001 .0000 .0000
6 .9983 .9324 .8251 .6655 .3081 .0835 .0116 .0006 .0000 .0000
7 .9997 .9767 .9225 .8180 .4878 .1796 .0352 .0028 .0000 .0000
8 1.0000 .9933 .9713 .9161 .6675 .3238 .0885 .0105 .0003 .0000
9 .9984 .9911 .9674 .8139 .5000 .1861 .0326 .0016 .0000
10 .9997 .9977 .9895 .9115 .6762 .3325 .0839 .0067 .0000
11 1.0000 .9995 .9972 .9648 .8204 .5122 .1820 .0233 .0003
12 .9999 .9994 .9884 .9165 .6919 .3345 .0676 .0017
13 1.0000 .9999 .9969 .9682 .8371 .5261 .1631 .0086
14 1.0000 .9994 .9904 .9304 .7178 .3267 .0352
15 .9999 .9978 .9770 .8668 .5449 .1150
16 1.0000 .9996 .9945 .9538 .7631 .2946
17 1.0000 .9992 .9896 .9171 .5797
18 .9999 .9989 .9856 .8649
19 1.0000 1.0000 1.0000 1.0000
279
Tabla A.1: Distribuci on Binomial (Continuacion)
p
n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
20 0 .1216 .0115 .0032 .0008 .0000 .0000 .0000 .0000 .0000 .0000
1 .3917 .0692 .0243 .0076 .0005 .0000 .0000 .0000 .0000 .0000
2 .6769 .2061 .0913 .0355 .0036 .0002 .0000 .0000 .0000 .0000
3 .8670 .4114 .2252 .1071 .0160 .0013 .0000 .0000 .0000 .0000
4 .9568 .6296 .4148 .2375 .0510 .0059 .0003 .0000 .0000 .0000
5 .9887 .8042 .6172 .4164 .1256 .0207 .0016 .0000 .0000 .0000
6 .9976 .9133 .7858 .6080 .2500 .0577 .0065 .0003 .0000 .0000
7 .9996 .9679 .8982 .7723 .4159 .1316 .0210 .0013 .0000 .0000
8 .9999 .9900 .9591 .8867 .5956 .2517 .0565 .0051 .0001 .0000
9 1.0000 .9974 .9861 .9520 .7553 .4119 .1275 .0171 .0006 .0000
10 .9994 .9961 .9829 .8725 .5881 .2447 .0480 .0026 .0000
11 .9999 .9991 .9949 .9435 .7483 .4044 .1133 .0100 .0001
12 1.0000 .9998 .9987 .9790 .8684 .5841 .2277 .0321 .0004
13 1.0000 .9997 .9935 .9423 .7500 .3920 .0867 .0024
14 1.0000 .9984 .9793 .8744 .5836 .1958 .0113
15 .9997 .9941 .9490 .7625 .3704 .0432
16 1.0000 .9987 .9840 .8929 .5886 .1330
17 .9998 .9964 .9645 .7939 .3231
18 1.0000 .9995 .9924 .9308 .6083
19 1.0000 .9992 .9885 .8784
20 1.0000 1.0000 1.0000
280
Tabla A.2: Distribuci on de Poisson. P(P() x) =
x

k=0

k
k!
e

x 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9


0 0.9048 0.8187 0.7408 0.6703 0.6065 0.5488 0.4966 0.4493 0.4066
1 0.9953 0.9825 0.9631 0.9384 0.9098 0.8781 0.8442 0.8088 0.7725
2 0.9998 0.9989 0.9964 0.9921 0.9856 0.9769 0.9659 0.9526 0.9371
3 1.0000 0.9999 0.9997 0.9992 0.9982 0.9966 0.9942 0.9909 0.9865
4 1.0000 1.0000 0.9999 0.9998 0.9996 0.9992 0.9986 0.9977
5 1.0000 1.0000 1.0000 0.9999 0.9998 0.9997
6 1.0000 1.0000 1.0000

x 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0


0 0.3679 0.2231 0.1353 0.0821 0.0498 0.0302 0.0183 0.0111 0.0067
1 0.7358 0.5578 0.4060 0.2873 0.1991 0.1359 0.0916 0.0611 0.0404
2 0.9197 0.8088 0.6767 0.5438 0.4232 0.3208 0.2381 0.1736 0.1247
3 0.9810 0.9344 0.8571 0.7576 0.6472 0.5366 0.4335 0.3423 0.2650
4 0.9963 0.9814 0.9473 0.8912 0.8153 0.7254 0.6288 0.5321 0.4405
5 0.9994 0.9955 0.9834 0.9580 0.9161 0.8576 0.7851 0.7029 0.6160
6 0.9999 0.9991 0.9955 0.9858 0.9665 0.9347 0.8893 0.8311 0.7622
7 1.0000 0.9998 0.9989 0.9958 0.9881 0.9733 0.9489 0.9134 0.8666
8 1.0000 0.9998 0.9989 0.9962 0.9901 0.9786 0.9597 0.9319
9 1.0000 0.9997 0.9989 0.9967 0.9919 0.9829 0.9682
10 0.9999 0.9997 0.9990 0.9972 0.9933 0.9863
11 1.0000 0.9999 0.9997 0.9991 0.9976 0.9945
12 1.0000 0.9999 0.9997 0.9992 0.9980
13 1.0000 0.9999 0.9997 0.9993
14 1.0000 0.9999 0.9998
15 1.0000 0.9999
16 1.0000
281
Tabla A.2: Distribuci on de Poisson (Continuacion)

x 5.5 6.0 6.5 7.0 7.5 8.0 8.5 9.0 9.5


0 0.0041 0.0025 0.0015 0.0009 0.0006 0.0003 0.0002 0.0001 0.0001
1 0.0266 0.0174 0.0113 0.0073 0.0047 0.0030 0.0019 0.0012 0.0008
2 0.0884 0.0620 0.0430 0.0296 0.0203 0.0138 0.0093 0.0062 0.0042
3 0.2017 0.1512 0.1118 0.0818 0.0591 0.0424 0.0301 0.0212 0.0149
4 0.3575 0.2851 0.2237 0.1730 0.1321 0.0996 0.0744 0.0550 0.0403
5 0.5289 0.4457 0.3690 0.3007 0.2414 0.1912 0.1496 0.1157 0.0885
6 0.6860 0.6063 0.5265 0.4497 0.3782 0.3134 0.2562 0.2068 0.1649
7 0.8095 0.7440 0.6728 0.5987 0.5246 0.4530 0.3856 0.3239 0.2687
8 0.8944 0.8472 0.7916 0.7291 0.6620 0.5925 0.5231 0.4557 0.3918
9 0.9462 0.9161 0.8774 0.8305 0.7764 0.7166 0.6530 0.5874 0.5218
10 0.9747 0.9574 0.9332 0.9015 0.8622 0.8159 0.7634 0.7060 0.6453
11 0.9890 0.9799 0.9661 0.9467 0.9208 0.8881 0.8487 0.8030 0.7520
12 0.9955 0.9912 0.9840 0.9730 0.9573 0.9362 0.9091 0.8758 0.8364
13 0.9983 0.9964 0.9929 0.9872 0.9784 0.9658 0.9486 0.9261 0.8981
14 0.9994 0.9986 0.9970 0.9943 0.9897 0.9827 0.9726 0.9585 0.9400
15 0.9998 0.9995 0.9988 0.9976 0.9954 0.9918 0.9862 0.9780 0.9665
16 0.9999 0.9998 0.9996 0.9990 0.9980 0.9963 0.9934 0.9889 0.9823
17 1.0000 0.9999 0.9998 0.9996 0.9992 0.9984 0.9970 0.9947 0.9911
18 1.0000 0.9999 0.9999 0.9997 0.9993 0.9987 0.9976 0.9957
19 1.0000 1.0000 0.9999 0.9997 0.9995 0.9989 0.9980
20 1.0000 0.9999 0.9998 0.9996 0.9991
21 1.0000 0.9999 0.9998 0.9996
22 1.0000 0.9999 0.9999
23 1.0000 0.9999
24 1.0000
282
Tabla A.2: Distribuci on de Poisson (Continuacion)

x 10.0 11.0 12.0 13.0 14.0 15.0 16.0 17.0 18.0


0 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
1 0.0005 0.0002 0.0001 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
2 0.0028 0.0012 0.0005 0.0002 0.0001 0.0000 0.0000 0.0000 0.0000
3 0.0103 0.0049 0.0023 0.0011 0.0005 0.0002 0.0001 0.0000 0.0000
4 0.0293 0.0151 0.0076 0.0037 0.0018 0.0009 0.0004 0.0002 0.0001
5 0.0671 0.0375 0.0203 0.0107 0.0055 0.0028 0.0014 0.0007 0.0003
6 0.1301 0.0786 0.0458 0.0259 0.0142 0.0076 0.0040 0.0021 0.0010
7 0.2202 0.1432 0.0895 0.0540 0.0316 0.0180 0.0100 0.0054 0.0029
8 0.3328 0.2320 0.1550 0.0998 0.0621 0.0374 0.0220 0.0126 0.0071
9 0.4579 0.3405 0.2424 0.1658 0.1094 0.0699 0.0433 0.0261 0.0154
10 0.5830 0.4599 0.3472 0.2517 0.1757 0.1185 0.0774 0.0491 0.0304
11 0.6968 0.5793 0.4616 0.3532 0.2600 0.1848 0.1270 0.0847 0.0549
12 0.7916 0.6887 0.5760 0.4631 0.3585 0.2676 0.1931 0.1350 0.0917
13 0.8645 0.7813 0.6815 0.5730 0.4644 0.3632 0.2745 0.2009 0.1426
14 0.9165 0.8540 0.7720 0.6751 0.5704 0.4657 0.3675 0.2808 0.2081
15 0.9513 0.9074 0.8444 0.7636 0.6694 0.5681 0.4667 0.3715 0.2867
16 0.9730 0.9441 0.8987 0.8355 0.7559 0.6641 0.5660 0.4677 0.3751
17 0.9857 0.9678 0.9370 0.8905 0.8272 0.7489 0.6593 0.5640 0.4686
18 0.9928 0.9823 0.9626 0.9302 0.8826 0.8195 0.7423 0.6550 0.5622
19 0.9965 0.9907 0.9787 0.9573 0.9235 0.8752 0.8122 0.7363 0.6509
20 0.9984 0.9953 0.9884 0.9750 0.9521 0.9170 0.8682 0.8055 0.7307
21 0.9993 0.9977 0.9939 0.9859 0.9712 0.9469 0.9108 0.8615 0.7991
22 0.9997 0.9990 0.9970 0.9924 0.9833 0.9673 0.9418 0.9047 0.8551
23 0.9999 0.9995 0.9985 0.9960 0.9907 0.9805 0.9633 0.9367 0.8989
24 1.0000 0.9998 0.9993 0.9980 0.9950 0.9888 0.9777 0.9594 0.9317
25 0.9999 0.9997 0.9990 0.9974 0.9938 0.9869 0.9748 0.9554
26 1.0000 0.9999 0.9995 0.9987 0.9967 0.9925 0.9848 0.9718
27 0.9999 0.9998 0.9994 0.9983 0.9959 0.9912 0.9827
28 1.0000 0.9999 0.9997 0.9991 0.9978 0.9950 0.9897
29 1.0000 0.9999 0.9996 0.9989 0.9973 0.9941
30 0.9999 0.9998 0.9994 0.9986 0.9967
31 1.0000 0.9999 0.9997 0.9993 0.9982
32 1.0000 0.9999 0.9996 0.9990
33 0.9999 0.9998 0.9995
34 1.0000 0.9999 0.9998
35 1.0000 0.9999
36 0.9999
37 1.0000
283
Tabla A.3: Distribuci on Normal Est andar. P(N(0, 1) z)
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 .5000 .4960 .4920 .4880 .4840 .4801 .4761 .4721 .4681 .4641
0.1 .4602 .4562 .4522 .4483 .4443 .4404 .4364 .4325 .4286 .4247
0.2 .4207 .4168 .4129 .4090 .4052 .4013 .3974 .3936 .3897 .3859
0.3 .3821 .3783 .3745 .3707 .3669 .3632 .3594 .3557 .3520 .3483
0.4 .3446 .3409 .3372 .3336 .3300 .3264 .3228 .3192 .3156 .3121
0.5 .3085 .3050 .3015 .2981 .2946 .2912 .2877 .2843 .2810 .2776
0.6 .2743 .2709 .2676 .2643 .2611 .2578 .2546 .2514 .2483 .2451
0.7 .2420 .2389 .2358 .2327 .2296 .2266 .2236 .2206 .2177 .2148
0.8 .2119 .2090 .2061 .2033 .2005 .1977 .1949 .1922 .1894 .1867
0.9 .1841 .1814 .1788 .1762 .1736 .1711 .1685 .1660 .1635 .1611
1.0 .1587 .1562 .1539 .1515 .1492 .1469 .1446 .1423 .1401 .1379
1.1 .1357 .1335 .1314 .1292 .1271 .1251 .1230 .1210 .1190 .1170
1.2 .1151 .1131 .1112 .1093 .1075 .1056 .1038 .1020 .1003 .0985
1.3 .0968 .0951 .0934 .0918 .0901 .0885 .0869 .0853 .0838 .0823
1.4 .0808 .0793 .0778 .0764 .0749 .0735 .0721 .0708 .0694 .0681
1.5 .0668 .0655 .0642 .0630 .0618 .0606 .0594 .0582 .0571 .0559
284
Tabla A.3: Distribuci on Normal Est andar (Continuacion)
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
1.6 .0548 .0537 .0526 .0516 .0505 .0495 .0485 .0475 .0465 .0455
1.7 .0446 .0436 .0427 .0418 .0409 .0401 .0392 .0384 .0375 .0367
1.8 .0359 .0351 .0344 .0336 .0329 .0322 .0314 .0307 .0301 .0294
1.9 .0287 .0281 .0274 .0268 .0262 .0256 .0250 .0244 .0239 .0233
2.0 .0228 .0222 .0217 .0212 .0207 .0202 .0197 .0192 .0188 .0183
2.1 .0179 .0174 .0170 .0166 .0162 .0158 .0154 .0150 .0146 .0143
2.2 .0139 .0136 .0132 .0129 .0125 .0122 .0119 .0116 .0113 .0110
2.3 .0107 .0104 .0102 .0099 .0096 .0094 .0091 .0089 .0087 .0084
2.4 .0082 .0080 .0078 .0075 .0073 .0071 .0069 .0068 .0066 .0064
2.5 .0062 .0060 .0059 .0057 .0055 .0054 .0052 .0051 .0049 .0048
2.6 .0047 .0045 .0044 .0043 .0041 .0040 .0039 .0038 .0037 .0036
2.7 .0035 .0034 .0033 .0032 .0031 .0030 .0029 .0028 .0027 .0026
2.8 .0026 .0025 .0024 .0023 .0023 .0022 .0021 .0021 .0020 .0019
2.9 .0019 .0018 .0018 .0017 .0016 .0016 .0015 .0015 .0014 .0014
3.0 .0013 .0013 .0013 .0012 .0012 .0011 .0011 .0011 .0010 .0010
3.1 .0010 .0009 .0009 .0009 .0008 .0008 .0008 .0008 .0007 .0007
3.2 .0007 .0007 .0006 .0006 .0006 .0006 .0006 .0005 .0005 .0005
3.3 .0005 .0005 .0005 .0004 .0004 .0004 .0004 .0004 .0004 .0003
3.4 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0002
285
Tabla A.4: Distribuci on t-Student. P(t
n
a)
Probabilidades
Grados de
0.40 0.25 0.15 0.10 0.05 0.025 0.001 0.005
libertad
1 0.3249 1.0000 1.9626 3.0777 6.3138 12.7062 31.8205 63.6567
2 0.2887 0.8165 1.3862 1.8856 2.9200 4.3027 6.9646 9.9248
3 0.2767 0.7649 1.2498 1.6377 2.3534 3.1824 4.5408 5.8408
4 0.2707 0.7407 1.1896 1.5332 2.1318 2.7764 3.7470 4.6041
5 0.2672 0.7267 1.1558 1.4759 2.0150 2.5706 3.3649 4.0321
6 0.2648 0.7176 1.1342 1.4398 1.9432 2.4469 3.1427 3.7074
7 0.2632 0.7111 1.1192 1.4149 1.8946 2.3646 2.9980 3.4995
8 0.2619 0.7064 1.1081 1.3968 1.8595 2.3060 2.8965 3.3554
9 0.2610 0.7027 1.0997 1.3830 1.8331 2.2622 2.8215 3.2498
10 0.2602 0.6998 1.0931 1.3722 1.8125 2.2281 2.7638 3.1693
11 0.2596 0.6974 1.0877 1.3634 1.7959 2.2010 2.7181 3.1058
12 0.2590 0.6955 1.0832 1.3562 1.7823 2.1788 2.6810 3.0546
13 0.2586 0.6938 1.0795 1.3502 1.7709 2.1604 2.6503 3.0123
14 0.2582 0.6924 1.0763 1.3450 1.7613 2.1448 2.6245 2.9768
15 0.2579 0.6912 1.0735 1.3406 1.7531 2.1314 2.6025 2.9467
16 0.2576 0.6901 1.0711 1.3368 1.7459 2.1199 2.5835 2.9208
17 0.2573 0.6892 1.0690 1.3334 1.7396 2.1098 2.5669 2.8982
18 0.2571 0.6884 1.0672 1.3304 1.7341 2.1009 2.5524 2.8784
19 0.2569 0.6876 1.0655 1.3277 1.7291 2.0930 2.5395 2.8609
20 0.2567 0.6870 1.0640 1.3253 1.7247 2.0860 2.5280 2.8453
286
Tabla A.4: Distribuci on t-Student (Continuacion)
Probabilidades
Grados de
0.40 0.25 0.15 0.10 0.05 0.025 0.001 0.005
libertad
21 0.2566 0.6864 1.0627 1.3232 1.7207 2.0796 2.5176 2.8314
22 0.2564 0.6858 1.0614 1.3212 1.7171 2.0739 2.5083 2.8188
23 0.2563 0.6853 1.0603 1.3195 1.7139 2.0687 2.4999 2.8073
24 0.2562 0.6848 1.0593 1.3178 1.7109 2.0639 2.4922 2.7969
25 0.2561 0.6844 1.0584 1.3163 1.7081 2.0595 2.4851 2.7874
26 0.2560 0.6840 1.0575 1.3150 1.7056 2.0555 2.4786 2.7787
27 0.2559 0.6837 1.0567 1.3137 1.7033 2.0518 2.4727 2.7707
28 0.2558 0.6834 1.0560 1.3125 1.7011 2.0484 2.4671 2.7633
29 0.2557 0.6830 1.0553 1.3114 1.6991 2.0452 2.4620 2.7564
30 0.2556 0.6828 1.0547 1.3104 1.6973 2.0423 2.4573 2.7500
35 0.2553 0.6816 1.0520 1.3062 1.6896 2.0301 2.4377 2.7238
40 0.2550 0.6807 1.0500 1.3031 1.6839 2.0211 2.4233 2.7045
45 0.2549 0.6800 1.0485 1.3006 1.6794 2.0141 2.4121 2.6896
50 0.2547 0.6794 1.0473 1.2987 1.6759 2.0086 2.4033 2.6778
60 0.2545 0.6786 1.0455 1.2958 1.6706 2.0003 2.3901 2.6603
70 0.2543 0.6780 1.0442 1.2938 1.6669 1.9944 2.3808 2.6479
80 0.2542 0.6776 1.0432 1.2922 1.6641 1.9901 2.3739 2.6387
90 0.2541 0.6772 1.0424 1.2910 1.6620 1.9867 2.3685 2.6316
100 0.2540 0.6770 1.0418 1.2901 1.6602 1.9840 2.3642 2.6259
120 0.2539 0.6765 1.0409 1.2886 1.6577 1.9799 2.3578 2.6174
150 0.2538 0.6761 1.0400 1.2872 1.6551 1.9759 2.3515 2.6090
200 0.2537 0.6757 1.0391 1.2858 1.6525 1.9719 2.3451 2.6006
300 0.2536 0.6753 1.0382 1.2844 1.6499 1.9679 2.3388 2.5923
0.2533 0.6745 1.0364 1.2816 1.6449 1.9600 2.3263 2.5758
287
Tabla A.5: Distribucon
2
n
. P(
2
n
a)
Probabilidades
Grados de
0.99 0.975 0.95 0.90 0.75 0.50 0.25 0.10 0.05 0.025 0.01
libertad
1 1.571

9.821

39.320

0.016 0.102 0.455 1.323 2.706 3.841 5.024 6.635


2 0.020 0.051 0.103 0.211 0.575 1.386 2.773 4.605 5.991 7.378 9.210
3 0.115 0.216 0.352 0.584 1.213 2.366 4.108 6.252 7.815 9.349 11.346
4 0.297 0.484 0.711 1.064 1.923 3.357 5.385 7.779 9.488 11.143 13.277
5 0.554 0.831 1.145 1.610 2.675 4.351 6.626 9.236 11.070 12.832 15.086
6 0.872 1.237 1.635 2.204 3.455 5.348 7.841 10.645 12.592 14.449 16.812
7 1.239 1.690 2.167 2.833 4.255 6.346 9.037 12.017 14.067 16.013 18.475
8 1.646 2.180 2.733 3.490 5.071 7.344 10.219 13.362 15.507 17.535 20.090
9 2.088 2.700 3.325 4.168 5.899 8.343 11.389 14.684 16.919 19.023 21.666
10 2.558 3.247 3.940 4.865 6.737 9.342 12.549 15.987 18.307 20.483 23.209
11 3.053 3.816 4.575 5.578 7.584 10.341 13.701 17.275 19.675 21.920 24.725
12 3.571 4.404 5.226 6.304 8.438 11.340 14.845 18.549 21.026 23.337 26.217
13 4.107 5.009 5.892 7.041 9.299 12.340 15.984 19.812 22.362 24.712 27.688
14 4.660 5.629 6.571 7.790 10.165 13.339 17.117 21.064 23.685 26.119 29.141
15 5.229 6.262 7.261 8.547 11.037 14.339 18.245 22.307 24.996 27.488 30.578
16 5.812 6.908 7.962 9.312 11.912 15.338 19.369 23.542 26.296 28.845 32.000
17 6.408 7.564 8.672 10.085 12.792 16.338 20.489 24.769 27.587 30.191 33.409
18 7.015 8.231 9.390 10.865 13.675 17.338 21.605 25.989 28.869 31.526 34.805
19 7.633 8.907 10.117 11.651 14.562 18.338 22.718 27.204 30.144 32.852 36.191
20 8.260 9.591 10.851 12.443 15.452 19.337 23.828 28.412 31.410 34.170 37.566

Dividir entre 1000


2
8
8
Tabla A.5: Distribuci on
2
n
(Continuacion)
Probabilidades
Grados de
libertad 0.99 0.975 0.95 0.90 0.75 0.50 0.25 0.10 0.05 0.025 0.01
21 8.897 10.283 11.591 13.240 16.344 20.337 24.935 29.615 32.671 35.479 38.932
22 9.542 10.982 12.338 14.041 17.240 21.337 26.039 30.813 33.924 36.781 40.289
23 10.196 11.689 13.091 14.848 18.137 22.337 27.141 32.007 35.172 38.076 41.638
24 10.856 12.401 13.848 15.659 19.037 23.337 28.241 33.196 36.415 39.364 42.980
25 11.524 13.120 14.611 16.473 19.939 24.337 29.339 34.382 37.652 40.646 44.314
26 12.198 13.844 15.379 17.292 20.843 25.336 30.435 35.563 38.885 41.923 45.642
27 12.879 14.573 16.151 18.114 21.749 26.336 31.528 36.741 40.113 43.194 46.963
28 13.565 15.308 16.928 18.939 22.657 27.336 32.620 37.916 41.329 44.461 48.278
29 14.256 16.047 17.708 19.768 23.567 28.336 33.711 39.087 42.557 45.722 49.588
30 14.954 16.791 18.493 20.599 24.478 29.336 34.800 40.256 43.773 46.979 50.892
40 22.164 24.433 26.509 29.050 33.660 39.335 45.616 51.805 55.758 59.342 63.691
50 29.707 32.357 34.764 37.689 42.942 49.335 56.334 63.167 67.505 71.420 76.154
60 37.485 40.482 43.188 46.459 52.294 59.335 66.981 74.397 79.082 83.298 88.379
70 45.442 48.758 51.739 55.329 61.698 69.334 77.577 85.527 90.531 95.023 100.425
80 53.540 57.153 60.391 64.278 71.144 70.334 88.130 96.578 101.879 106.629 112.329
90 61.754 65.647 69.126 73.291 80.625 89.334 98.650 107.565 113.145 118.136 124.116
100 70.065 74.222 77.929 82.358 90.133 99.334 109.141 118.498 124.342 129.561 135.807
2
8
9
Tabla A.6.1: Distribuci on F
nm
. P(F
nm
a) = 0.25
Grados de Grados del libertad del numerador (n)
libertad del
denominador (m) 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120
1 5.83 7.50 8.20 8.58 8.82 8.98 9.10 9.19 9.26 9.32 9.41 9.49 9.58 9.63 9.67 9.71 9.76 9.80 9.85
2 2.57 3.00 3.15 3.23 3.28 3.31 3.34 3.35 3.37 3.38 3.39 3.41 3.43 3.43 3.44 3.45 3.46 3.47 3.48
3 2.02 2.28 2.36 2.39 2.41 2.42 2.43 2.44 2.44 2.44 2.45 2.46 2.46 2.46 2.47 2.47 2.47 2.47 2.47
4 1.81 2.00 2.05 2.06 2.07 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08
5 1.69 1.85 1.88 1.89 1.89 1.89 1.89 1.89 1.89 1.89 1.89 1.89 1.88 1.88 1.88 1.88 1.87 1.87 1.87
6 1.62 1.76 1.78 1.79 1.79 1.78 1.78 1.78 1.77 1.77 1.77 1.76 1.76 1.75 1.75 1.75 1.74 1.74 1.74
7 1.57 1.70 1.72 1.72 1.71 1.71 1.70 1.70 1.69 1.69 1.68 1.68 1.67 1.67 1.66 1.66 1.65 1.65 1.65
8 1.54 1.66 1.67 1.66 1.66 1.65 1.64 1.64 1.63 1.63 1.62 1.62 1.61 1.60 1.60 1.59 1.59 1.58 1.58
9 1.51 1.62 1.63 1.63 1.62 1.61 1.60 1.60 1.59 1.59 1.58 1.57 1.56 1.56 1.55 1.54 1.54 1.53 1.53
10 1.49 1.60 1.60 1.59 1.59 1.58 1.57 1.56 1.56 1.55 1.54 1.53 1.52 1.52 1.51 1.51 1.50 1.49 1.48
11 1.47 1.58 1.58 1.57 1.56 1.55 1.54 1.53 1.53 1.52 1.51 1.50 1.49 1.49 1.48 1.47 1.47 1.46 1.45
12 1.46 1.56 1.56 1.55 1.54 1.53 1.52 1.51 1.51 1.50 1.49 1.48 1.47 1.46 1.45 1.45 1.44 1.43 1.42
13 1.45 1.55 1.55 1.53 1.52 1.51 1.50 1.49 1.49 1.48 1.47 1.46 1.45 1.44 1.43 1.42 1.42 1.41 1.40
14 1.44 1.53 1.53 1.52 1.51 1.50 1.49 1.48 1.47 1.46 1.45 1.44 1.43 1.42 1.41 1.41 1.40 1.39 1.38
15 1.43 1.52 1.52 1.51 1.49 1.48 1.47 1.46 1.46 1.45 1.44 1.43 1.41 1.41 1.40 1.39 1.38 1.37 1.36
16 1.42 1.51 1.51 1.50 1.48 1.47 1.46 1.45 1.44 1.44 1.43 1.41 1.40 1.39 1.38 1.37 1.36 1.35 1.34
17 1.42 1.51 1.50 1.49 1.47 1.46 1.45 1.44 1.43 1.43 1.41 1.40 1.39 1.38 1.37 1.36 1.35 1.34 1.33
18 1.41 1.50 1.49 1.48 1.46 1.45 1.44 1.43 1.42 1.42 1.40 1.39 1.38 1.37 1.36 1.35 1.34 1.33 1.32
19 1.41 1.49 1.49 1.47 1.46 1.44 1.43 1.42 1.41 1.41 1.40 1.38 1.37 1.36 1.35 1.34 1.33 1.32 1.30
20 1.40 1.49 1.48 1.47 1.45 1.44 1.43 1.42 1.41 1.40 1.39 1.37 1.36 1.35 1.34 1.33 1.32 1.31 1.29
21 1.40 1.48 1.48 1.46 1.44 1.43 1.42 1.41 1.40 1.39 1.38 1.37 1.35 1.34 1.33 1.32 1.31 1.30 1.28
22 1.40 1.48 1.47 1.45 1.44 1.42 1.41 1.40 1.39 1.39 1.37 1.36 1.34 1.33 1.32 1.31 1.30 1.29 1.28
23 1.39 1.47 1.47 1.45 1.43 1.42 1.41 1.40 1.39 1.38 1.37 1.35 1.34 1.33 1.32 1.31 1.30 1.28 1.27
24 1.39 1.47 1.46 1.44 1.43 1.41 1.40 1.39 1.38 1.38 1.36 1.35 1.33 1.32 1.31 1.30 1.29 1.28 1.26
25 1.39 1.47 1.46 1.44 1.42 1.41 1.40 1.39 1.38 1.37 1.36 1.34 1.33 1.32 1.31 1.29 1.28 1.27 1.25
26 1.38 1.46 1.45 1.44 1.42 1.41 1.39 1.38 1.37 1.37 1.35 1.34 1.32 1.31 1.30 1.29 1.28 1.26 1.25
27 1.38 1.46 1.45 1.43 1.42 1.40 1.39 1.38 1.37 1.36 1.35 1.33 1.32 1.31 1.30 1.28 1.27 1.26 1.24
28 1.38 1.46 1.45 1.43 1.41 1.40 1.39 1.38 1.37 1.36 1.34 1.33 1.31 1.30 1.29 1.28 1.27 1.25 1.24
29 1.38 1.45 1.45 1.43 1.41 1.40 1.38 1.37 1.36 1.35 1.34 1.32 1.31 1.30 1.29 1.27 1.26 1.25 1.23
30 1.38 1.45 1.44 1.42 1.41 1.39 1.38 1.37 1.36 1.35 1.34 1.32 1.30 1.29 1.28 1.27 1.26 1.24 1.23
40 1.36 1.44 1.42 1.40 1.39 1.37 1.36 1.35 1.34 1.33 1.31 1.30 1.28 1.26 1.25 1.24 1.22 1.21 1.19
60 1.35 1.42 1.41 1.38 1.37 1.35 1.33 1.32 1.31 1.30 1.29 1.27 1.25 1.24 1.22 1.21 1.19 1.17 1.15
120 1.34 1.40 1.39 1.37 1.35 1.33 1.31 1.30 1.29 1.28 1.26 1.24 1.22 1.21 1.19 1.18 1.16 1.13 1.10
1.32 1.39 1.37 1.35 1.33 1.31 1.29 1.28 1.27 1.25 1.24 1.22 1.19 1.18 1.16 1.14 1.12 1.08 1.00
2
9
0
Tabla A.6.1: Distribuci on F
nm
. P(F
nm
a) = 0.10
Grados de Grados del libertad del numerador (n)
libertad del
denominador (m) 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120
1 39.86 49.50 53.59 55.83 57.24 58.20 58.91 59.44 59.86 60.19 60.71 61.22 61.74 62.00 62.26 62.53 62.79 63.06 63.33
2 8.53 9.00 9.16 9.24 9.29 9.33 9.35 9.37 9.38 9.39 9.41 9.42 9.44 9.45 9.46 9.47 9.47 9.48 9.49
3 5.54 5.46 5.39 5.34 5.31 5.28 5.27 5.25 5.24 5.23 5.22 5.20 5.18 5.18 5.17 5.16 5.15 5.14 5.13
4 4.54 4.32 4.19 4.11 4.05 4.01 3.98 3.95 3.94 3.92 3.90 3.87 3.84 3.83 3.82 3.80 3.79 3.78 3.76
5 4.06 3.78 3.62 3.52 3.45 3.40 3.37 3.34 3.32 3.30 3.27 3.24 3.21 3.19 3.17 3.16 3.14 3.12 3.10
6 3.78 3.46 3.29 3.18 3.11 3.05 3.01 2.98 2.96 2.94 2.90 2.87 2.84 2.82 2.80 2.78 2.76 2.74 2.72
7 3.59 3.26 3.07 2.96 2.88 2.83 2.78 2.75 2.72 2.70 2.67 2.63 2.59 2.58 2.56 2.54 2.51 2.49 2.47
8 3.46 3.11 2.92 2.81 2.73 2.67 2.62 2.59 2.56 2.54 2.50 2.46 2.42 2.40 2.38 2.36 2.34 2.32 2.29
9 3.36 3.01 2.81 2.69 2.61 2.55 2.51 2.47 2.44 2.42 2.38 2.34 2.30 2.28 2.25 2.23 2.21 2.18 2.16
10 3.29 2.92 2.73 2.61 2.52 2.46 2.41 2.38 2.35 2.32 2.28 2.24 2.20 2.18 2.16 2.13 2.11 2.08 2.06
11 3.23 2.86 2.66 2.54 2.45 2.39 2.34 2.30 2.27 2.25 2.21 2.17 2.12 2.10 2.08 2.05 2.03 2.00 1.97
12 3.18 2.81 2.61 2.48 2.39 2.33 2.28 2.24 2.21 2.19 2.15 2.10 2.06 2.04 2.01 1.99 1.96 1.93 1.90
13 3.14 2.76 2.56 2.43 2.35 2.28 2.23 2.20 2.16 2.14 2.10 2.05 2.01 1.98 1.96 1.93 1.90 1.88 1.85
14 3.10 2.73 2.52 2.39 2.31 2.24 2.19 2.15 2.12 2.10 2.05 2.01 1.96 1.94 1.91 1.89 1.86 1.83 1.80
15 3.07 2.70 2.49 2.36 2.27 2.21 2.16 2.12 2.09 2.06 2.02 1.97 1.92 1.90 1.87 1.85 1.82 1.79 1.76
16 3.05 2.67 2.46 2.33 2.24 2.18 2.13 2.09 2.06 2.03 1.99 1.94 1.89 1.87 1.84 1.81 1.78 1.75 1.72
17 3.03 2.64 2.44 2.31 2.22 2.15 2.10 2.06 2.03 2.00 1.96 1.91 1.86 1.84 1.81 1.78 1.75 1.72 1.69
18 3.01 2.62 2.42 2.29 2.20 2.13 2.08 2.04 2.00 1.98 1.93 1.89 1.84 1.81 1.78 1.75 1.72 1.69 1.66
19 2.99 2.61 2.40 2.27 2.18 2.11 2.06 2.02 1.98 1.96 1.91 1.86 1.81 1.79 1.76 1.73 1.70 1.67 1.63
20 2.97 2.59 2.38 2.25 2.16 2.09 2.04 2.00 1.96 1.94 1.89 1.84 1.79 1.77 1.74 1.71 1.68 1.64 1.61
21 2.96 2.57 2.36 2.23 2.14 2.08 2.02 1.98 1.95 1.92 1.87 1.83 1.78 1.75 1.72 1.69 1.66 1.62 1.59
22 2.95 2.56 2.35 2.22 2.13 2.06 2.01 1.97 1.93 1.90 1.86 1.81 1.76 1.73 1.70 1.67 1.64 1.60 1.57
23 2.94 2.55 2.34 2.21 2.11 2.05 1.99 1.95 1.92 1.89 1.84 1.80 1.74 1.72 1.69 1.66 1.62 1.59 1.55
24 2.93 2.54 2.33 2.19 2.10 2.04 1.98 1.94 1.91 1.88 1.83 1.78 1.73 1.70 1.67 1.64 1.61 1.57 1.53
25 2.92 2.53 2.32 2.18 2.09 2.02 1.97 1.93 1.89 1.87 1.82 1.77 1.72 1.69 1.66 1.63 1.59 1.56 1.52
26 2.91 2.52 2.31 2.17 2.08 2.01 1.96 1.92 1.88 1.86 1.81 1.76 1.71 1.68 1.65 1.61 1.58 1.54 1.50
27 2.90 2.51 2.30 2.17 2.07 2.00 1.95 1.91 1.87 1.85 1.80 1.75 1.70 1.67 1.64 1.60 1.57 1.53 1.49
28 2.89 2.50 2.29 2.16 2.06 2.00 1.94 1.90 1.87 1.84 1.79 1.74 1.69 1.66 1.63 1.59 1.56 1.52 1.48
29 2.89 2.50 2.28 2.15 2.06 1.99 1.93 1.89 1.86 1.83 1.78 1.73 1.68 1.65 1.62 1.58 1.55 1.51 1.47
30 2.88 2.49 2.28 2.14 2.05 1.98 1.93 1.88 1.85 1.82 1.77 1.72 1.67 1.64 1.61 1.57 1.54 1.50 1.46
40 2.84 2.44 2.23 2.09 2.00 1.93 1.87 1.83 1.79 1.76 1.71 1.66 1.61 1.57 1.54 1.51 1.47 1.42 1.38
60 2.79 2.39 2.18 2.04 1.95 1.87 1.82 1.77 1.74 1.71 1.66 1.60 1.54 1.51 1.48 1.44 1.40 1.35 1.29
120 2.75 2.35 2.13 1.99 1.90 1.82 1.77 1.72 1.68 1.65 1.60 1.55 1.48 1.45 1.41 1.37 1.32 1.26 1.19
2.71 2.30 2.08 1.94 1.85 1.77 1.72 1.67 1.63 1.60 1.55 1.49 1.42 1.38 1.34 1.30 1.24 1.17 1.00
2
9
1
Tabla A.6.1: Distribuci on F
nm
. P(F
nm
a) = 0.05
Grados de Grados del libertad del numerador (n)
libertad del
denominador (m) 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120
1 161.40 199.50 215.70 224.60 230.20 234.00 236.80 238.90 240.50 241.90 243.90 245.90 248.00 249.10 250.10 251.10 252.20 253.30 254.30
2 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.39 19.40 19.41 19.43 19.45 19.45 19.46 19.47 19.48 19.49 19.50
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79 8.75 8.70 8.66 8.64 8.62 8.59 8.57 8.55 8.53
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00 5.96 5.91 5.86 5.80 5.77 5.75 5.72 5.69 5.66 5.63
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74 4.68 4.62 4.56 4.53 4.50 4.46 4.43 4.40 4.36
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.10 4.06 4.00 3.94 3.87 3.84 3.81 3.77 3.74 3.70 3.67
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64 3.57 3.51 3.44 3.41 3.38 3.34 3.30 3.27 3.23
8 5.32 4.46 4.07 3.84 3.69 3.58 3.50 3.44 3.39 3.35 3.28 3.22 3.15 3.12 3.08 3.04 3.01 2.97 2.93
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14 3.07 3.01 2.94 2.90 2.86 2.83 2.79 2.75 2.71
10 4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98 2.91 2.85 2.77 2.74 2.70 2.66 2.62 2.58 2.54
11 4.84 3.98 3.59 3.36 3.20 3.09 3.01 2.95 2.90 2.85 2.79 2.72 2.65 2.61 2.57 2.53 2.49 2.45 2.40
12 4.75 3.89 3.49 3.26 3.11 3.00 2.91 2.85 2.80 2.75 2.69 2.62 2.54 2.51 2.47 2.43 2.38 2.34 2.30
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67 2.60 2.53 2.46 2.42 2.38 2.34 2.30 2.25 2.21
14 4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.65 2.60 2.53 2.46 2.39 2.35 2.31 2.27 2.22 2.18 2.13
15 4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64 2.59 2.54 2.48 2.40 2.33 2.29 2.25 2.20 2.16 2.11 2.07
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49 2.42 2.35 2.28 2.24 2.19 2.15 2.11 2.06 2.01
17 4.45 3.59 3.20 2.96 2.81 2.70 2.61 2.55 2.49 2.45 2.38 2.31 2.23 2.19 2.15 2.10 2.06 2.01 1.96
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41 2.34 2.27 2.19 2.15 2.11 2.06 2.02 1.97 1.92
19 4.38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.42 2.38 2.31 2.23 2.16 2.11 2.07 2.03 1.98 1.93 1.88
20 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.39 2.35 2.28 2.20 2.12 2.08 2.04 1.99 1.95 1.90 1.84
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32 2.25 2.18 2.10 2.05 2.01 1.96 1.92 1.87 1.81
22 4.30 3.44 3.05 2.82 2.66 2.55 2.46 2.40 2.34 2.30 2.23 2.15 2.07 2.03 1.98 1.94 1.89 1.84 1.78
23 4.28 3.42 3.03 2.80 2.64 2.53 2.44 2.37 2.32 2.27 2.20 2.13 2.05 2.01 1.96 1.91 1.86 1.81 1.76
24 4.26 3.40 3.01 2.78 2.62 2.51 2.42 2.36 2.30 2.25 2.18 2.11 2.03 1.98 1.94 1.89 1.84 1.79 1.73
25 4.24 3.39 2.99 2.76 2.60 2.49 2.40 2.34 2.28 2.24 2.16 2.09 2.01 1.96 1.92 1.87 1.82 1.77 1.71
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22 2.15 2.07 1.99 1.95 1.90 1.85 1.80 1.75 1.69
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.20 2.13 2.06 1.97 1.93 1.88 1.84 1.79 1.73 1.67
28 4.20 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19 2.12 2.04 1.96 1.91 1.87 1.82 1.77 1.71 1.65
29 4.18 3.33 2.93 2.70 2.55 2.43 2.35 2.28 2.22 2.18 2.10 2.03 1.94 1.90 1.85 1.81 1.75 1.70 1.64
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16 2.09 2.01 1.93 1.89 1.84 1.79 1.74 1.68 1.62
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08 2.00 1.92 1.84 1.79 1.74 1.69 1.64 1.58 1.51
60 4.00 3.15 2.76 2.53 2.37 2.25 2.17 2.10 2.04 1.99 1.92 1.84 1.75 1.70 1.65 1.59 1.53 1.47 1.39
120 3.92 3.07 2.68 2.45 2.29 2.17 2.09 2.02 1.96 1.91 1.83 1.75 1.66 1.61 1.55 1.50 1.43 1.35 1.25
3.84 3.00 2.60 2.37 2.21 2.10 2.01 1.94 1.88 1.83 1.75 1.67 1.57 1.52 1.46 1.39 1.32 1.22 1.00
2
9
2
Tabla A.6.1: Distribuci on F
nm
. P(F
nm
a) = 0.025
Grados de Grados del libertad del numerador (n)
libertad del
denominador (m) 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120
1 647.80 799.50 864.20 899.60 921.80 937.10 948.20 956.70 963.30 968.60 976.70 984.90 993.10 997.20 1001.00 1006.00 1010.00 1014.00 1018.00
2 38.51 39.00 39.17 39.25 39.30 39.33 39.36 39.37 39.39 39.40 39.41 39.43 39.45 39.46 39.46 39.47 39.48 39.49 39.50
3 17.44 16.04 15.44 15.10 14.88 14.73 14.62 14.54 14.47 14.42 14.34 14.25 14.17 14.12 14.08 14.04 13.99 13.95 13.90
4 12.22 10.65 9.98 9.60 9.36 9.20 9.07 8.98 8.90 8.84 8.75 8.66 8.56 8.51 8.46 8.41 8.36 8.31 8.26
5 10.01 8.43 7.76 7.39 7.15 6.98 6.85 6.76 6.68 6.62 6.52 6.43 6.33 6.28 6.23 6.18 6.12 6.07 6.02
6 8.81 7.26 6.60 6.23 5.99 5.82 5.70 5.60 5.52 5.46 5.37 5.27 5.17 5.12 5.07 5.01 4.96 4.90 4.85
7 8.07 6.54 5.89 5.52 5.29 5.12 4.99 4.90 4.82 4.76 4.67 4.57 4.47 4.41 4.36 4.31 4.25 4.20 4.14
8 7.57 6.06 5.42 5.05 4.82 4.65 4.53 4.43 4.36 4.30 4.20 4.10 4.00 3.95 3.89 3.84 3.78 3.73 3.67
9 7.21 5.71 5.08 4.72 4.48 4.32 4.20 4.10 4.03 3.96 3.87 3.77 3.67 3.61 3.56 3.51 3.45 3.39 3.33
10 6.94 5.46 4.83 4.47 4.24 4.07 3.95 3.85 3.78 3.72 3.62 3.52 3.42 3.37 3.31 3.26 3.20 3.14 3.08
11 6.72 5.26 4.63 4.28 4.04 3.88 3.76 3.66 3.59 3.53 3.43 3.33 3.23 3.17 3.12 3.06 3.00 2.94 2.88
12 6.55 5.10 4.47 4.12 3.89 3.73 3.61 3.51 3.44 3.37 3.28 3.18 3.07 3.02 2.96 2.91 2.85 2.79 2.72
13 6.41 4.97 4.35 4.00 3.77 3.60 3.48 3.39 3.31 3.25 3.15 3.05 2.95 2.89 2.84 2.78 2.72 2.66 2.60
14 6.30 4.86 4.24 3.89 3.66 3.50 3.38 3.29 3.21 3.15 3.05 2.95 2.84 2.79 2.73 2.67 2.61 2.55 2.49
15 6.20 4.77 4.15 3.80 3.58 3.41 3.29 3.20 3.12 3.06 2.96 2.86 2.76 2.70 2.64 2.59 2.52 2.46 2.40
16 6.12 4.69 4.08 3.73 3.50 3.34 3.22 3.12 3.05 2.99 2.89 2.79 2.68 2.63 2.57 2.51 2.45 2.38 2.32
17 6.04 4.62 4.01 3.66 3.44 3.28 3.16 3.06 2.98 2.92 2.82 2.72 2.62 2.56 2.50 2.44 2.38 2.32 2.25
18 5.98 4.56 3.95 3.61 3.38 3.22 3.10 3.01 2.93 2.87 2.77 2.67 2.56 2.50 2.44 2.38 2.32 2.26 2.19
19 5.92 4.51 3.90 3.56 3.33 3.17 3.05 2.96 2.88 2.82 2.72 2.62 2.51 2.45 2.39 2.33 2.27 2.20 2.13
20 5.87 4.46 3.86 3.51 3.29 3.13 3.01 2.91 2.84 2.77 2.68 2.57 2.46 2.41 2.35 2.29 2.22 2.16 2.09
21 5.83 4.42 3.82 3.48 3.25 3.09 2.97 2.87 2.80 2.73 2.64 2.53 2.42 2.37 2.31 2.25 2.18 2.11 2.04
22 5.79 4.38 3.78 3.44 3.22 3.05 2.93 2.84 2.76 2.70 2.60 2.50 2.39 2.33 2.27 2.21 2.14 2.08 2.00
23 5.75 4.35 3.75 3.41 3.18 3.02 2.90 2.81 2.73 2.67 2.57 2.47 2.36 2.30 2.24 2.18 2.11 2.04 1.97
24 5.72 4.32 3.72 3.38 3.15 2.99 2.87 2.78 2.70 2.64 2.54 2.44 2.33 2.27 2.21 2.15 2.08 2.01 1.94
25 5.69 4.29 3.69 3.35 3.13 2.97 2.85 2.75 2.68 2.61 2.51 2.41 2.30 2.24 2.18 2.12 2.05 1.98 1.91
26 5.66 4.27 3.67 3.33 3.10 2.94 2.82 2.73 2.65 2.59 2.49 2.39 2.28 2.22 2.16 2.09 2.03 1.95 1.88
27 5.63 4.24 3.65 3.31 3.08 2.92 2.80 2.71 2.63 2.57 2.47 2.36 2.25 2.19 2.13 2.07 2.00 1.93 1.85
28 5.61 4.22 3.63 3.29 3.06 2.90 2.78 2.69 2.61 2.55 2.45 2.34 2.23 2.17 2.11 2.05 1.98 1.91 1.83
29 5.59 4.20 3.61 3.27 3.04 2.88 2.76 2.67 2.59 2.53 2.43 2.32 2.21 2.15 2.09 2.03 1.96 1.89 1.81
30 5.57 4.18 3.59 3.25 3.03 2.87 2.75 2.65 2.57 2.51 2.41 2.31 2.20 2.14 2.07 2.01 1.94 1.87 1.79
40 5.42 4.05 3.46 3.13 2.90 2.74 2.62 2.53 2.45 2.39 2.29 2.18 2.07 2.01 1.94 1.88 1.80 1.72 1.64
60 5.29 3.93 3.34 3.01 2.79 2.63 2.51 2.41 2.33 2.27 2.17 2.06 1.94 1.88 1.82 1.74 1.67 1.58 1.68
120 5.15 3.80 3.23 2.89 2.67 2.52 2.39 2.30 2.22 2.16 2.05 1.94 1.82 1.76 1.69 1.61 1.53 1.43 1.31
5.02 3.69 3.12 2.79 2.57 2.41 2.29 2.19 2.11 2.05 1.94 1.83 1.71 1.64 1.57 1.48 1.39 1.27 1.00
2
9
3
Tabla A.6.1: Distribuci on F
nm
. P(F
nm
a) = 0.01
Grados de Grados del libertad del numerador (n)
libertad del
denominador (m) 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120
1 4052.19 4999.50 5403.00 5625.00 5764.00 5859.00 5928.00 5982.00 6022.00 6056.00 6106.00 6157.00 6209.00 6235.00 6261.00 6287.00 6313.00 6399.00 6366.00
2 98.50 99.00 99.17 99.25 99.30 99.33 99.36 99.37 99.39 99.40 99.42 99.43 99.45 99.46 99.47 99.47 99.48 99.49 99.00
3 34.12 30.82 29.46 28.71 28.24 27.91 27.67 27.49 27.35 27.23 27.05 26.87 26.69 26.60 26.50 26.41 26.32 26.22 26.13
4 21.20 18.00 16.69 15.98 15.52 15.21 14.98 14.80 14.66 14.55 14.37 14.20 14.02 13.93 13.84 13.75 13.65 13.56 13.46
5 16.26 13.27 12.06 11.39 10.97 10.67 10.46 10.29 10.16 10.05 9.89 9.72 9.55 9.47 9.38 9.29 9.20 9.11 9.02
6 13.75 10.92 9.78 9.15 8.75 8.47 8.26 8.10 7.98 7.87 7.72 7.56 7.40 7.31 7.23 7.14 7.06 6.97 6.88
7 12.25 9.55 8.45 7.85 7.46 7.19 6.99 6.84 6.72 6.62 6.47 6.31 6.16 6.07 5.99 5.91 5.82 5.74 5.65
8 11.26 8.65 7.59 7.01 6.63 6.37 6.18 6.03 5.91 5.81 5.67 5.52 5.36 5.28 5.20 5.12 5.03 4.95 4.86
9 10.56 8.02 6.99 6.42 6.06 5.80 5.61 5.47 5.35 5.26 5.11 4.96 4.81 4.73 4.65 4.57 4.48 4.40 4.31
10 10.04 7.56 6.55 5.99 5.64 5.39 5.20 5.06 4.94 4.85 4.71 4.56 4.41 4.33 4.25 4.17 4.08 4.00 3.91
11 9.65 7.21 6.22 5.67 5.32 5.07 4.89 4.74 4.63 4.54 4.40 4.25 4.10 4.02 3.94 3.86 3.78 3.69 3.60
12 9.33 6.93 5.95 5.41 5.06 4.82 4.64 4.50 4.39 4.30 4.16 4.01 3.86 3.78 3.70 3.62 3.54 3.45 3.36
13 9.07 6.70 5.74 5.21 4.86 4.62 4.44 4.30 4.19 4.10 3.96 3.82 3.66 3.59 3.51 3.43 3.34 3.25 3.17
14 8.86 6.51 5.56 5.04 4.69 4.46 4.28 4.14 4.03 3.94 3.80 3.66 3.51 3.43 3.35 3.27 3.18 3.09 3.00
15 8.68 6.36 5.42 4.89 4.56 4.32 4.14 4.00 3.89 3.80 3.67 3.52 3.37 3.29 3.21 3.13 3.05 2.96 2.87
16 8.53 6.23 5.29 4.77 4.44 4.20 4.03 3.89 3.78 3.69 3.55 3.41 3.26 3.18 3.10 3.02 2.93 2.84 2.75
17 8.40 6.11 5.19 4.67 4.34 4.10 3.93 3.79 3.68 3.59 3.46 3.31 3.16 3.08 3.00 2.92 2.83 2.75 2.65
18 8.29 6.01 5.09 4.58 4.25 4.01 3.84 3.71 3.60 3.51 3.37 3.23 3.08 3.00 2.92 2.84 2.75 2.66 2.57
19 8.18 5.93 5.01 4.50 4.17 3.94 3.77 3.63 3.52 3.43 3.30 3.15 3.00 2.92 2.84 2.76 2.67 2.58 2.49
20 8.10 5.85 4.94 4.43 4.10 3.87 3.70 3.56 3.46 3.37 3.23 3.09 2.94 2.86 2.78 2.69 2.61 2.52 2.42
21 8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51 3.40 3.31 3.17 3.03 2.88 2.80 2.72 2.64 2.55 2.46 2.36
22 7.95 5.72 4.82 4.31 3.99 3.76 3.59 3.45 3.35 3.26 3.12 2.98 2.83 2.75 2.67 2.58 2.50 2.40 2.31
23 7.88 5.66 4.76 4.26 3.94 3.71 3.54 3.41 3.30 3.21 3.07 2.93 2.78 2.70 2.62 2.54 2.45 2.35 2.26
24 7.82 5.61 4.72 4.22 3.90 3.67 3.50 3.36 3.26 3.17 3.03 2.89 2.74 2.66 2.58 2.49 2.40 2.31 2.21
25 7.77 5.57 4.68 4.18 3.85 3.63 3.46 3.32 3.22 3.13 2.99 2.85 2.70 2.62 2.54 2.45 2.36 2.27 2.17
26 7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29 3.18 3.09 2.96 2.81 2.66 2.58 2.50 2.42 2.33 2.23 2.13
27 7.68 5.49 4.60 4.11 3.78 3.56 3.39 3.26 3.15 3.06 2.93 2.78 2.63 2.55 2.47 2.38 2.29 2.20 2.10
28 7.64 5.45 4.57 4.07 3.75 3.53 3.36 3.23 3.12 3.03 2.90 2.75 2.60 2.52 2.44 2.35 2.26 2.17 2.06
29 7.60 5.42 4.54 4.04 3.73 3.50 3.33 3.20 3.09 3.00 2.87 2.73 2.57 2.49 2.41 2.33 2.23 2.14 2.03
30 7.56 5.39 4.51 4.02 3.70 3.47 3.30 3.17 3.07 2.98 2.84 2.70 2.55 2.47 2.39 2.30 2.21 2.11 2.01
40 7.31 5.18 4.31 3.83 3.51 3.29 3.12 2.99 2.89 2.80 2.66 2.52 2.37 2.29 2.20 2.11 2.02 1.92 1.80
60 7.08 4.98 4.13 3.65 3.34 3.12 2.95 2.82 2.72 2.63 2.50 2.35 2.20 2.12 2.03 1.94 1.84 1.73 1.60
120 6.85 4.79 3.95 3.48 3.17 2.96 2.79 2.66 2.56 2.47 2.34 2.19 2.03 1.95 1.86 1.76 1.66 1.53 1.38
6.63 4.61 3.78 3.32 3.02 2.80 2.64 2.51 2.41 2.32 2.18 2.04 1.88 1.79 1.70 1.59 1.47 1.32 1.00
2
9
4
Tabla A.6.1: Distribuci on F
nm
. P(F
nm
a) = 0.005
Grados de Grados del libertad del numerador (n)
libertad del
denominador (m) 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120
1 162.11

200.00

216.15

225.00

230.56

234.37

237.15

239.25

240.91

242.24

244.26

246.30

248.36

249.40

250.44

251.48

252.53

253.59

254.65

2 198.50 199.00 199.17 199.25 199.30 199.33 199.36 199.37 199.39 199.40 199.42 199.43 199.45 199.46 199.47 199.47 199.48 199.49 199.50
3 55.55 49.80 47.47 46.19 45.39 44.84 44.43 44.13 43.88 43.69 43.39 43.08 42.78 42.62 42.47 42.31 42.15 41.99 41.83
4 31.33 26.28 24.26 23.15 22.46 21.97 21.62 21.35 21.14 20.97 20.70 20.44 20.17 20.03 19.89 19.75 19.61 19.47 19.32
5 22.78 18.31 16.53 15.56 14.94 14.51 14.20 13.96 13.77 13.62 13.38 13.15 12.90 12.78 12.66 12.53 12.40 12.27 12.14
6 18.63 14.54 12.92 12.03 11.46 11.07 10.79 10.57 10.39 10.25 10.03 9.81 9.59 9.47 9.36 9.24 9.12 9.00 8.88
7 16.24 12.40 10.88 10.05 9.52 9.16 8.89 8.68 8.51 8.38 8.18 7.97 7.75 7.64 7.53 7.42 7.31 7.19 7.08
8 14.69 11.04 9.60 8.81 8.30 7.95 7.69 7.50 7.34 7.21 7.01 6.81 6.61 6.50 6.40 6.29 6.18 6.06 5.95
9 13.61 10.11 8.72 7.96 7.47 7.13 6.88 6.69 6.54 6.42 6.23 6.03 5.83 5.73 5.62 5.52 5.41 5.30 5.19
10 12.83 9.43 8.08 7.34 6.87 6.54 6.30 6.12 5.97 5.85 5.66 5.47 5.27 5.17 5.07 4.97 4.86 4.75 4.64
11 12.23 8.91 7.60 6.88 6.42 6.10 5.86 5.68 5.54 5.42 5.24 5.05 4.86 4.76 4.65 4.55 4.44 4.34 4.23
12 11.75 8.51 7.23 6.52 6.07 5.76 5.52 5.35 5.20 5.09 4.91 4.72 4.53 4.43 4.33 4.23 4.12 4.01 3.90
13 11.37 8.19 6.93 6.23 5.79 5.48 5.25 5.08 4.94 4.82 4.64 4.46 4.27 4.17 4.07 3.97 3.87 3.76 3.65
14 11.06 7.92 6.68 6.00 5.56 5.26 5.03 4.86 4.72 4.60 4.43 4.25 4.06 3.96 3.86 3.76 3.66 3.55 3.44
15 10.80 7.70 6.48 5.80 5.37 5.07 4.85 4.67 4.54 4.42 4.25 4.07 3.88 3.79 3.69 3.58 3.48 3.37 3.26
16 10.58 7.51 6.30 5.64 5.21 4.91 4.69 4.52 4.38 4.27 4.10 3.92 3.73 3.64 3.54 3.44 3.33 3.22 3.11
17 10.38 7.35 6.16 5.50 5.07 4.78 4.56 4.39 4.25 4.14 3.97 3.79 3.61 3.51 3.41 3.31 3.21 3.10 2.98
18 10.22 7.21 6.03 5.37 4.96 4.66 4.44 4.28 4.14 4.03 3.86 3.68 3.50 3.40 3.30 3.20 3.10 2.99 2.87
19 10.07 7.09 5.92 5.27 4.85 4.56 4.34 4.18 4.04 3.93 3.76 3.59 3.40 3.31 3.21 3.11 3.00 2.89 2.78
20 9.94 6.99 5.82 5.17 4.76 4.47 4.26 4.09 3.96 3.85 3.68 3.50 3.32 3.22 3.12 3.02 2.92 2.81 2.69
21 9.83 6.89 5.73 5.09 4.68 4.39 4.18 4.01 3.88 3.77 3.60 3.43 3.24 3.15 3.05 2.95 2.84 2.73 2.61
22 9.73 6.81 5.65 5.02 4.61 4.32 4.11 3.94 3.81 3.70 3.54 3.36 3.18 3.08 2.98 2.88 2.77 2.66 2.55
23 9.63 6.73 5.58 4.95 4.54 4.26 4.05 3.88 3.75 3.64 3.47 3.30 3.12 3.02 2.92 2.82 2.71 2.60 2.48
24 9.55 6.66 5.52 4.89 4.49 4.20 3.99 3.83 3.69 3.59 3.42 3.25 3.06 2.97 2.87 2.77 2.66 2.55 2.43
25 9.48 6.60 5.46 4.84 4.43 4.15 3.94 3.78 3.64 3.54 3.37 3.20 3.01 2.92 2.82 2.72 2.61 2.50 2.38
26 9.41 6.54 5.41 4.79 4.38 4.10 3.89 3.73 3.60 3.49 3.33 3.15 2.97 2.87 2.77 2.67 2.56 2.45 2.33
27 9.34 6.49 5.36 4.74 4.34 4.06 3.85 3.69 3.56 3.45 3.28 3.11 2.93 2.83 2.73 2.63 2.52 2.41 2.29
28 9.28 6.44 5.32 4.70 4.30 4.02 3.81 3.65 3.52 3.41 3.25 3.07 2.89 2.79 2.69 2.59 2.48 2.37 2.25
29 9.23 6.40 5.28 4.66 4.26 3.98 3.77 3.61 3.48 3.38 3.21 3.04 2.86 2.76 2.66 2.56 2.45 2.33 2.21
30 9.18 6.35 5.24 4.62 4.23 3.95 3.74 3.58 3.45 3.34 3.18 3.01 2.82 2.73 2.63 2.52 2.42 2.30 2.18
40 8.83 6.07 4.98 4.37 3.99 3.71 3.51 3.35 3.22 3.12 2.95 2.78 2.60 2.50 2.40 2.30 2.18 2.06 1.93
60 8.49 5.79 4.73 4.14 3.76 3.49 3.29 3.13 3.01 2.90 2.74 2.57 2.39 2.29 2.19 2.08 1.96 1.83 1.69
120 8.18 5.54 4.50 3.92 3.55 3.28 3.09 2.93 2.81 2.71 2.54 2.37 2.19 2.09 1.98 1.87 1.75 1.61 1.43
7.88 5.30 4.28 3.72 3.35 3.09 2.90 2.74 2.62 2.52 2.36 2.19 2.00 1.90 1.79 1.67 1.53 1.36 1.00
* Muliplicar por 100
2
9
5
Tabla A.6.1: Distribuci on F
nm
. P(F
nm
a) = 0.001
Grados de Grados del libertad del numerador (n)
libertad del
denominador (m) 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120
1 4053

5000

5404

5625

5764

5859

5929

5981

6023

6056

6107

6158

6209

6235

6261

6287

6313

6340

6366

2 998.50 999.00 999.20 999.20 999.30 999.30 999.40 999.40 999.40 999.40 999.40 999.40 999.40 999.50 999.50 999.50 999.50 999.50 999.50
3 167.00 148.50 141.10 137.10 134.60 132.80 131.60 130.60 129.90 129.20 128.30 127.40 126.40 125.90 125.40 125.00 124.50 124.00 123.50
4 74.14 61.25 56.18 53.44 51.71 50.53 49.66 49.00 48.47 48.05 47.41 46.76 46.10 45.77 45.43 45.09 44.75 44.40 44.05
5 47.18 37.12 33.20 31.09 29.75 28.83 28.16 27.65 27.24 26.92 26.42 25.91 25.39 25.13 24.87 24.60 24.33 24.06 23.79
6 35.51 27.00 23.70 21.92 20.80 20.03 19.46 19.03 18.69 18.41 17.99 17.56 17.12 16.90 16.67 16.44 16.21 15.98 15.75
7 29.25 21.69 18.77 17.20 16.21 15.52 15.02 14.63 14.33 14.08 13.71 13.32 12.93 12.73 12.53 12.33 12.12 11.91 11.70
8 25.41 18.49 15.83 14.39 13.48 12.86 12.40 12.05 11.77 11.54 11.19 10.84 10.48 10.30 10.11 9.92 9.73 9.53 9.33
9 22.86 16.39 13.90 12.56 11.71 11.13 10.70 10.37 10.11 9.89 9.57 9.24 8.90 8.72 8.55 8.37 8.19 8.00 7.81
10 21.04 14.91 12.55 11.28 10.48 9.93 9.52 9.20 8.96 8.75 8.45 8.13 7.80 7.64 7.47 7.30 7.12 6.94 6.76
11 19.69 13.81 11.56 10.35 9.58 9.05 8.66 8.35 8.12 7.92 7.63 7.32 7.01 6.85 6.68 6.52 6.35 6.17 6.00
12 18.64 12.97 10.80 9.63 8.89 8.38 8.00 7.71 7.48 7.29 7.00 6.71 6.40 6.25 6.09 5.93 5.76 5.59 5.42
13 17.82 12.31 10.21 9.07 8.35 7.86 7.49 7.21 6.98 6.80 6.52 6.23 5.93 5.78 5.63 5.47 5.30 5.14 4.97
14 17.14 11.78 9.73 8.62 7.92 7.44 7.08 6.80 6.58 6.40 6.13 5.85 5.56 5.41 5.25 5.10 4.94 4.77 4.60
15 16.59 11.34 9.34 8.25 7.57 7.09 6.74 6.47 6.26 6.08 5.81 5.54 5.25 5.10 4.95 4.80 4.64 4.47 4.31
16 16.12 10.97 9.01 7.94 7.27 6.80 6.46 6.19 5.98 5.81 5.55 5.27 4.99 4.85 4.70 4.54 4.39 4.23 4.06
17 15.72 10.66 8.73 7.68 7.02 6.56 6.22 5.96 5.75 5.58 5.32 5.05 4.78 4.63 4.48 4.33 4.18 4.02 3.85
18 15.38 10.39 8.49 7.46 6.81 6.35 6.02 5.76 5.56 5.39 5.13 4.87 4.59 4.45 4.30 4.15 4.00 3.84 3.67
19 15.08 10.16 8.28 7.27 6.62 6.18 5.85 5.59 5.39 5.22 4.97 4.70 4.43 4.29 4.14 3.99 3.84 3.68 3.51
20 14.82 9.95 8.10 7.10 6.46 6.02 5.69 5.44 5.24 5.08 4.82 4.56 4.29 4.15 4.00 3.86 3.70 3.54 3.38
21 14.59 9.77 7.94 6.95 6.32 5.88 5.56 5.31 5.11 4.95 4.70 4.44 4.17 4.03 3.88 3.74 3.58 3.42 3.26
22 14.38 9.61 7.80 6.81 6.19 5.76 5.44 5.19 4.99 4.83 4.58 4.33 4.06 3.92 3.78 3.63 3.48 3.32 3.15
23 14.20 9.47 7.67 6.70 6.08 5.65 5.33 5.09 4.89 4.73 4.48 4.23 3.96 3.82 3.68 3.53 3.38 3.22 3.05
24 14.03 9.34 7.55 6.59 5.98 5.55 5.23 4.99 4.80 4.64 4.39 4.14 3.87 3.74 3.59 3.45 3.29 3.14 2.97
25 13.88 9.22 7.45 6.49 5.89 5.46 5.15 4.91 4.71 4.56 4.31 4.06 3.79 3.66 3.52 3.37 3.22 3.06 2.89
26 13.74 9.12 7.36 6.41 5.80 5.38 5.07 4.83 4.64 4.48 4.24 3.99 3.72 3.59 3.44 3.30 3.15 2.99 2.82
27 13.61 9.02 7.27 6.33 5.73 5.31 5.00 4.76 4.57 4.41 4.17 3.92 3.66 3.52 3.38 3.23 3.08 2.92 2.75
28 13.50 8.93 7.19 6.25 5.66 5.24 4.93 4.69 4.50 4.35 4.11 3.86 3.60 3.46 3.32 3.18 3.02 2.86 2.69
29 13.39 8.85 7.12 6.19 5.59 5.18 4.87 4.64 4.45 4.29 4.05 3.80 3.54 3.41 3.27 3.12 2.97 2.81 2.64
30 13.29 8.77 7.05 6.12 5.53 5.12 4.82 4.58 4.39 4.24 4.00 3.75 3.49 3.36 3.22 3.07 2.92 2.76 2.59
40 12.61 8.25 6.59 5.70 5.13 4.73 4.44 4.21 4.02 3.87 3.64 3.40 3.14 3.01 2.87 2.73 2.57 2.41 2.23
60 11.97 7.77 6.17 5.31 4.76 4.37 4.09 3.86 3.69 3.54 3.32 3.08 2.83 2.69 2.55 2.41 2.25 2.08 1.89
120 11.38 7.32 5.78 4.95 4.42 4.04 3.77 3.55 3.38 3.24 3.02 2.78 2.53 2.40 2.26 2.11 1.95 1.76 1.54
10.83 6.91 5.42 4.62 4.10 3.74 3.47 3.27 3.10 2.96 2.74 2.51 2.27 2.13 1.99 1.84 1.66 1.45 1.00
* Muliplicar por 100
2
9
6
Tabla A.7: Distribucion del Estadstico
n
de Kolmogorov-Smirnov. P(
n
> x) = p
p 0.2 0.1 0.05 0.02 0.01
n
2 0.684 0.776 0.842 0.900 0.929
3 0.565 0.636 0.708 0.785 0.829
4 0.493 0.565 0.624 0.689 0.734
5 0.447 0.509 0.563 0.627 0.669
6 0.410 0.468 0.519 0.577 0.617
7 0.381 0.436 0.483 0.538 0.576
8 0.358 0.410 0.454 0.507 0.542
9 0.339 0.387 0.430 0.480 0.513
10 0.323 0.369 0.409 0.457 0.489
11 0.308 0.352 0.391 0.437 0.468
12 0.296 0.338 0.375 0.419 0.449
13 0.285 0.325 0.361 0.404 0.432
14 0.275 0.314 0.349 0.390 0.418
15 0.266 0.304 0.338 0.377 0.404
16 0.258 0.295 0.327 0.366 0.392
17 0.250 0.286 0.318 0.355 0.381
18 0.244 0.279 0.309 0.346 0.371
19 0.237 0.271 0.301 0.337 0.361
20 0.232 0.265 0.294 0.329 0.352
21 0.226 0.259 0.287 0.321 0.344
22 0.221 0.253 0.281 0.314 0.337
23 0.216 0.247 0.275 0.307 0.330
24 0.212 0.242 0.269 0.301 0.323
25 0.208 0.238 0.264 0.295 0.317
26 0.204 0.233 0.259 0.290 0.311
27 0.200 0.229 0.254 0.284 0.305
28 0.197 0.225 0.250 0.279 0.300
29 0.193 0.221 0.246 0.275 0.295
30 0.190 0.218 0.242 0.270 0.290
31 0.187 0.214 0.238 0.266 0.285
32 0.184 0.211 0.234 0.262 0.281
33 0.182 0.208 0.231 0.258 0.277
34 0.179 0.205 0.227 0.254 0.273
35 0.177 0.202 0.224 0.251 0.269
36 0.174 0.199 0.221 0.247 0.265
37 0.172 0.196 0.218 0.244 0.262
38 0.170 0.194 0.215 0.241 0.258
39 0.168 0.191 0.213 0.238 0.255
40 0.165 0.189 0.210 0.235 0.252
n > 40 1.07/

n 1.22/

n 1.36/

n 1.52/

n 1.63/

n
297
Cuadro A.8: Distribuci on del estadstico de Wilcoxon. P{T
+
> x} = p
p 0.1 0.05 0.025 0.01
n
3 4 6 6 6
4 9 10 10 10
5 12 14 15 15
6 17 18 20 21
7 22 24 25 27
8 27 30 32 34
9 34 36 39 41
10 40 44 46 49
11 48 52 55 58
12 56 60 64 67
13 64 69 73 78
14 73 79 84 89
15 83 89 94 100
16 93 100 106 112
17 104 111 118 125
18 115 123 130 138
19 127 136 143 152
20 140 149 157 166
298
Cuadro A.9: Distribuci on del estadstico de Kendall. P{|T| > x} = p
p 0.2 0.1 0.05 0.02
n
3 1.0000 1.0000 1.0000 1.0000
4 0.6667 0.6667 1.0000 1.0000
5 0.6000 0.6000 0.8000 0.8000
6 0.4667 0.6000 0.7333 0.7333
7 0.4286 0.5238 0.6190 0.7143
8 0.4128 0.5000 0.5714 0.6429
9 0.3333 0.4444 0.5000 0.6111
10 0.3333 0.4222 0.4667 0.5556
299
Cuadro A.10: Distribuci on del estadstico de Mann-Whitney. P{V > x} = p
m 2 3 4 5 6 7 8 9 10
n p
2 0.100 4 5 7 8 10 12 13 15 16
0.050 4 6 8 9 11 13 14 16 18
0.025 4 6 8 10 12 14 15 17 19
0.010 4 6 8 10 12 14 16 18 20
3 0.100 7 10 12 14 16 18 21 23
0.050 8 11 13 15 18 20 22 25
0.025 9 11 14 16 19 21 24 26
0.010 9 12 15 18 20 22 25 28
4 0.100 12 15 18 21 24 26 29
0.050 14 17 20 23 26 29 32
0.025 15 18 21 24 27 31 34
0.010 16 19 22 26 29 32 36
5 0.100 19 22 26 29 32 36
0.050 20 24 28 31 35 38
0.025 22 26 29 33 37 41
0.010 23 27 31 35 39 43
6 0.100 26 30 34 38 42
0.050 28 33 37 41 45
0.025 30 35 39 43 48
0.010 32 37 41 46 51
7 0.100 35 39 44 48
0.050 37 42 47 52
0.025 40 45 50 55
0.010 42 48 53 58
8 0.100 44 49 55
0.050 48 53 59
0.025 50 56 62
0.010 54 60 66
9 0.100 55 61
0.050 59 65
0.025 63 69
0.010 66 73
10 0.100 67
0.050 72
0.025 76
0.010 80
300
Cuadro A.11: Distribuci on del estadstico de Spearman. P{R
S
> x} = p
p 0.1 0.05 0.025 0.01 0.005 0.001
n
4 0.8000 0.8000
5 0.7000 0.8000 0.9000 0.9000
6 0.6000 0.7714 0.8286 0.8857 0.9429
7 0.5357 0.6786 0.7450 0.8571 0.8929 0.9643
8 0.5000 0.6190 0.7143 0.8095 0.8571 0.9286
9 0.4667 0.5833 0.6833 0.7667 0.8167 0.9000
10 0.4424 0.5515 0.6364 0.7333 0.7818 0.8667
11 0.4182 0.5273 0.6091 0.7000 0.7545 0.8364
12 0.3986 0.4965 0.5804 0.6713 0.7273 0.8182
13 0.3791 0.4780 0.5549 0.6429 0.6978 0.7912
14 0.3626 0.4593 0.5341 0.6220 0.6747 0.7670
15 0.3500 0.4429 0.5179 0.6000 0.6536 0.7464
16 0.3382 0.4264 0.5000 0.5824 0.6324 0.7265
17 0.3260 0.4118 0.4853 0.5637 0.6152 0.7083
18 0.3148 0.3994 0.4716 0.5480 0.5975 0.6904
19 0.3070 0.3895 0.4579 0.5333 0.5825 0.6737
20 0.2977 0.3789 0.4451 0.5203 0.5684 0.6586
21 0.2909 0.3688 0.4351 0.5078 0.5545 0.6455
22 0.2829 0.3597 0.4241 0.4963 0.5426 0.6318
23 0.2767 0.3518 0.4150 0.4852 0.5306 0.6186
24 0.2704 0.3435 0.4061 0.4748 0.5200 0.6070
25 0.2646 0.3362 0.3977 0.4654 0.5100 0.5962
26 0.2588 0.3299 0.3894 0.4564 0.5002 0.5856
27 0.2540 0.3236 0.3822 0.4481 0.4915 0.5757
28 0.2490 0.3175 0.3749 0.4401 0.4828 0.5660
29 0.2443 0.3113 0.3685 0.4320 0.4744 0.5567
30 0.2400 0.3059 0.3620 0.4251 0.4665 0.5479
301
302
B
Resumen
de distribuciones
303
Distribucion F. de densidad F. Caracterstica Esperanza Varianza
Bernoulli B(1, p) p
x
q
1x
x = 0, 1 q +pe
it
p pq
Binomial B(n, p)
_
n
x
_
p
x
q
nx
x = 0, 1, . . . , n (q +pe
it
)
n
np npq
Poisson P()

x
x!
e

x = 0, 1, . . . e
(e
it
1)

Hipergeometrica H(n, N, A)
_
K
x
__
N A
n x
_
_
N
n
_ x = 0, 1, . . . , n n
A
N
= np
n(N n)pq
N 1
Geometrica G(p) pq
x
x = 0, 1, . . .
p
1 qe
it
q
p
q
p
2
Binomial Negativa BN(r, p)
_
x +r 1
x
_
p
r
q
x
x = 0, 1, . . .
p
r
(1 qe
it
)
r
q
p
r
q
p
2
r
3
0
4
Distribucion F. de densidad F. Caracterstica Esperanza Varianza
Uniforme U(a, b)
1
b a
a < x < b
e
ibt
e
iat
i(b a)t
a +b
2
(b a)
2
12
Normal N(, )
1

2
e

1
2
_
x

_
2
x R e
it
1
2
t
2

2

2
Log-Normal Log-N(, )
1
x

2
e

1
2
_
Lx

_
2
x 0 e
+
1
2

2
(e

2
1)e
2+
2
Pearson
2
n
1
2
n/2

_
n
2
_x
n/21
e
x/2
x 0 (1 2it)
n/2
n 2n
t-Student t
n

_
n + 1
2
_

n
_
n
2
_
_
1 +
x
2
n
_

n + 1
2
x R 0 (n > 1)
n
n 2
(n > 2)
F-Snedecor F
n,m
n
n/2
m
m/2

_
n +m
2
_

_
n
2
_

_
m
2
_ x
n/21
(m+nx)

n +m
2
x 0
m
m2
2m
2
(n +m2)
n(m2)
2
(m4)
3
0
5
Distribucion F. de densidad F. Caracterstica Esperanza Varianza
Exponencial Exp() e
x
x 0

it
1

2
Erlang Er(n, )

n
(n)
x
n1
e
x
x 0
_

it
_
n
n

2
Gamma G(p, q)
q
p
(p)
x
p1
e
qx
x 0
_
q
q it
_
p
p
q
p
q
2
Weibull W(r, ) rx
r1
e
x
r
x 0
1/r

_
1 +
1
r
_

2/r
_

_
1 +
2
r
_

2
_
1 +
1
r
__
Beta B(p, q)
1
(p, q)
x
p1
(1 x)
q1
0 x 1
p
p +q
pq
(p +q)
2
(p +q + 1)
Normal Bidimensional f(x, y) =
1
2
x

y
_
1
2
exp
_

1
2(1
2
)
_
_
x
x

x
_
2
2
_
x
x

x
__
y
y

y
_
+
_
y
y

y
_
2
__
3
0
6

You might also like