You are on page 1of 46

Ampliación

de inferencia
estadística
Ramon Alemany Leira
Joan Baró Llinàs
Josep Gibergans Bàguena
PID_00212763
© FUOC • PID_00212763 Ampliación de inferencia estadística

Ninguna parte de esta publicación, incluido el diseño general y la cubierta, puede ser copiada,
reproducida, almacenada o transmitida de ninguna forma, ni por ningún medio, sea éste eléctrico,
químico, mecánico, óptico, grabación, fotocopia, o cualquier otro, sin la previa autorización escrita
de los titulares del copyright.
© FUOC • PID_00212763 Ampliación de inferencia estadística

Índice

1. El análisis de la varianza (ANOVA)............................................... 5


1.1. La información muestral ............................................................. 6
1.2. La variabilidad de la muestra global: las sumas de cuadrados .... 9
1.3. Hipótesis sobre los datos para llevar a cabo el ANOVA .............. 11
1.4. El ANOVA es un contraste de hipótesis ...................................... 12
1.5. Construcción de la tabla del ANOVA ......................................... 13
1.6. Resumen ...................................................................................... 15
1.7. Ejercicios de autoevaluación ....................................................... 15
1.8. Solucionario ejercicios de autoevaluación .................................. 16

2. Contrastación no paramétrica....................................................... 21
2.1. 2
Prueba χ de ajuste de una distribución teórica ......................... 22
2.2. 2
Prueba χ de independencia ....................................................... 25
2.3. Prueba de las rachas .................................................................... 28
2.4. Prueba de los signos .................................................................... 33
2.5. Prueba de Wilcoxon .................................................................... 37
2.6. Prueba U de Mann-Whitney ....................................................... 42
© FUOC • PID_00212763 5 Ampliación de inferencia estadística

1. El análisis de la varianza (ANOVA)

AUTOR:
Josep�Gibergans�Bàguena

Supongamos que nos planteamos el problema de comparar la vida media de


dos clases de bombillas A y B; cogemos una muestra de bombillas de la clase
A y medimos los tiempos de vida. Hacemos lo mismo con una muestra de
bombillas de la clase B.

Normalmente, las medias de los tiempos de vida no serán iguales. La


diferencia puede ser debida al azar o al hecho de que las bombillas de una clase
son de calidad superior a las de la otra. Precisamente es eso lo que queremos
saber, si hay una diferencia de calidad o si no la hay.

La técnica del contraste de hipótesis sirve para comprobar si una determina-


da hipótesis sobre un hecho vinculado a un experimento aleatorio se puede
aceptar o se tiene que rechazar.

Establecemos las hipótesis:

• Hipótesis nula: las bombillas de la marca A tienen una vida media igual a
la vida media de las bombillas de la marca B:

• Hipótesis alternativa: las bombillas de la marca A y las de la marca B no


tienen la misma vida media:

Ahora podemos hacer un contraste de la diferencia de medias para decidir si


los dos tipos de bombillas provienen de poblaciones de bombillas con vidas
medias iguales.

Sin embargo, imaginemos que en lugar de comparar dos clases de bombillas,


queremos comparar cuatro. Si queremos utilizar el contraste de diferencias de
medias, es preciso contrastar dos a dos estas clases y, por tanto, tenemos:
© FUOC • PID_00212763 6 Ampliación de inferencia estadística

contrastes, es decir, seis comparaciones de dos medias. Después hay que ana-
lizar y comparar todos los resultados. Evidentemente, no es una tarea fácil.

Todo esto nos indica que esta manera de proceder no es la más adecuada para
tratar este tipo de problemas. Utilizaremos una nueva técnica que se conoce
como el análisis de la varianza, que sirve para estudiar la generalización de
este problema en caso de que tengamos más de dos muestras.

Teoría del análisis de la


El análisis de la varianza (ANOVA) de un conjunto de muestras consiste varianza
en contrastar la hipótesis nula “todas las medias poblacionales de las
La abreviatura ANOVA provie-
que provienen las muestras son iguales”, contra la hipótesis alternativa ne del inglés ANalysis Of VA-
riance (análisis de la varianza).
“no todas las medias son iguales” con un nivel de significación π pre- La teoría y metodología del
fijado. análisis de la varianza fueron
desarrolladas e introducidas
por R.A. Fisher durante los pri-
meros años de la segunda dé-
Ejemplos de experimentos con el ANOVA cada del siglo xx.
El número de análisis de la va-
A continuación presentamos algunos ejemplos de experimentos en los que se utiliza el rianza que utiliza ANOVA pro-
viene del hecho de que, a pe-
ANOVA:
sar de que comparamos me-
dias, el estadístico de contraste
a) Comparaciones de vidas medias de todo tipo de dispositivos para diferentes marcas. que utiliza ANOVA se basa en
el cociente de dos estimadores
b) Comparaciones entre el número de conexiones a un servidor en diferentes franjas de la varianza.
horarias.

c) Comparación de las cualificaciones entre estudiantes que han cursado una asignatura
con profesores diferentes.

d) Comparación del número medio de accidentes para diferentes intervalos de edad de


los conductores.

e) Comparación entre las ventas medias mensuales de diferentes grandes almacenes.

Se dan muchas situaciones experimentales en las que hay dos o más factores
de interés al mismo tiempo. Por ejemplo, se podrían analizar tres tipos de
gasolina fijándonos en dos factores: el consumo y el nivel de contaminación.
Para tratar este problema se utiliza el� análisis� de� la� varianza� con� factores
múltiples, pero aquí no lo estudiaremos.

En esta sesión nos ocuparemos de la situación en la que queremos comparar


un número k de muestras (o grupos) a partir de una única característica del
individuo observado (variable o factor).

1.1. La información muestral

La tabla siguiente registra la notación que utilizaremos a lo largo de la sesión:


© FUOC • PID_00212763 7 Ampliación de inferencia estadística

Subíndices

Cada observación xij lleva dos


subíndices que nos informan
de que se trata de la observa-
ción i-ésima de la muestra j-
ésima.

No existe ningún motivo para que las muestras tengan el mismo tamaño, de
manera que con nj indicaremos el tamaño de la muestra j-ésima. Calcularemos
la media de la muestra j-ésima mediante la expresión siguiente:

La varianza muestral de esta muestra j-ésima vendrá dada por:

Si ahora consideramos el conjunto de todas las observaciones formado por


los individuos de todas las muestras, éste estará formado por un número de
individuos igual a la suma de los individuos de todas las muestras, es decir:

n = n1 + n2 + ... + nk
© FUOC • PID_00212763 8 Ampliación de inferencia estadística

Y de este conjunto global también podemos calcular la media global: Media global y media de
las medias

Es importante no confundir la
media global con la media de
las medias. Sólo son lo mismo
en caso de que las muestras
tengan el mismo tamaño.

así como la varianza global:

Ejemplo de las tres marcas de ordenadores

Consideremos que se lleva a cabo un experimento para comparar el tiempo que tardan
tres marcas de ordenadores de diferente marca en cargar un mismo sistema operativo.

Se toma una muestra de cuatro ordenadores de la marca A, es decir, se mide el tiempo (en
segundos) que tardan en cargar el sistema operativo cuatro ordenadores de esta marca.
De la marca B se toman seis medidas y cinco de la marca C. La tabla siguiente registra
los resultados del experimento:

Marca�A 10,7 11,2 12,0 15,5

Marca�B 13,4 11,5 11,2 15,1 13,3 12,9

Marca�C 11,5 12,7 15,4 16,1 15,2

Utilizando la notación que hemos presentado anteriormente, tenemos:

Observando estos resultados, podemos pensar que las muestras de los ordenadores A y
B pueden provenir de poblaciones con la misma media, dado que las medias muestrales
12,35 y 12,90, respectivamente, son bastante cercanas. La media muestral de la marca C
es 14,18; ésta está más alejada de las otras, pero presenta una mayor dispersión que las
© FUOC • PID_00212763 9 Ampliación de inferencia estadística

anteriores; no es tan fácil, pues, pensar si esta muestra proviene de una población con la
misma media que los ordenadores de las marcas A y B.

Observación

La tarea de comparar más de dos muestras no es fácil.

Es posible representar esta situación mediante los diagramas de caja de las tres muestras:

1.2. La variabilidad de la muestra global: las sumas de cuadrados

Hemos visto que podemos considerar el conjunto global formado por todos los
elementos de las muestras y, después, calcular la media de este conjunto global.
A continuación intentaremos explicar a qué se deben las diferencias entre los
valores de las observaciones xij y el valor de la media global Entenderemos
por variabilidad la diferencia entre los valores observados y la media. Veremos
que esta variabilidad se debe a dos factores:

1) Variabilidad dentro de cada muestra: diferencia entre la observación y la


media de la muestra .

2) Variabilidad entre las muestras: diferencia entre la media de la muestra y


la media global .

Si existe mucha variabilidad entre las muestras, podremos pensar que este he- Observación
cho se debe a que se trata de muestras extraídas de poblaciones diferentes o
Las medias muestrales pueden
simplemente al origen aleatorio de las muestras. A continuación veremos có- ser diferentes por el hecho de
mo podemos separar estos dos efectos provocados por la variabilidad dentro que provienen de poblaciones
con medias diferentes o sim-
de cada muestra y por la variabilidad entre las muestras. plemente por el origen aleato-
rio de las muestras.

Si sumamos al cuadrado la última expresión, todas las observaciones mediante


un doble sumatorio, uno para las muestras y otro para las observaciones de
cada muestra, tenemos:
© FUOC • PID_00212763 10 Ampliación de inferencia estadística

donde podemos ver que el último sumando es cero:

ya que:

Con todo, la variabilidad de la muestra global se puede descomponer en dos


partes:

SCT = SCD + SCE

Suma de cuadrados totales (SCT) = suma de cuadrados dentro de las


muestras (SCD) + suma de cuadrados entre muestras (SCE)

Consideramos cada uno de estos sumandos: Obtención de la varianza


de la muestra global

• La Suma de Cuadrados Totales (SCT) nos informa de la variabilidad de la Es inmediato ver que si dividi-
muestra global. mos SCT/(n – 1), tenemos la
varianza de la muestra global.

• La Suma de Cuadrados Dentro de las muestras (SCD) es una medida de la


variación dentro de las muestras.

• La Suma de Cuadrados Entre muestras (SCE) es una medida de la variación


entre las muestras; la calculamos a partir de la diferencia entre las medias
de las muestras y la media total. Si las medias son muy diferentes, entonces
esta cantidad es grande.

Si dividimos SCD y SCE por n – k y k – 1, respectivamente, obtenemos los


estadísticos siguientes:
© FUOC • PID_00212763 11 Ampliación de inferencia estadística

que, como veremos a continuación, son necesarios para llevar a cabo el


ANOVA.

1.3. Hipótesis sobre los datos para llevar a cabo el ANOVA

Para poder llevar a cabo un análisis de este tipo, hay que tener las hipótesis
siguientes:

1) Las k muestras deben ser aleatorias�e�independientes entre sí.

2) Las poblaciones deben ser normales.

3) Las varianzas de las k poblaciones deben ser idénticas:

Bajo estas hipótesis y cuando se cumple μ1 = μ2 = ... = μk = μ, es decir, si las


medias poblacionales son todas iguales, las sumas de cuadrados SCE y SCD se
distribuyen según distribuciones χ2 con (k – 1) y (n – k) grados de libertad,
respectivamente.

Para muestras de una población normal N(μ, σ) siempre se cumple que:

2
tiene una distribución χ con n – 1 grados de libertad.

Y dado que son independientes, una importante consecuencia es que el co- Cociente de variables
ciente entre estos estadísticos: aleatorias

Si X es una variable aleatoria


2
que tiene una distribución χ
con n grados de libertad, Y es
otra variable aleatoria que tie-
2
ne una distribución χ con m
grados de libertad y X e Y son
independientes, entonces la
se distribuye según una distribución F de Snedecor con (k – 1) grados de liber- variable:
tad en el numerador y (n – k) en el denominador.

se distribuye según una F de


A continuación veremos cómo podemos utilizar esta descomposición de la Snedecor con n y m grados de
variabilidad de los datos muestrales para construir un contraste de hipótesis libertad en el numerador y de-
nominador, respectivamente.
que nos permita tomar una decisión sobre la igualdad de las medias de las
poblaciones de procedencia de las muestras del estudio.
© FUOC • PID_00212763 12 Ampliación de inferencia estadística

1.4. El ANOVA es un contraste de hipótesis

El estadístico de contraste que utilizaremos en el análisis de la varianza se basa


en el hecho de comparar los dos orígenes de la variabilidad de las muestras
que hemos encontrado en el apartado anterior: la variación entre las muestras
y la variación dentro de las muestras. Supondremos que se cumplen las hipó-
tesis del modelo. Una vez hechos estos supuestos, procederemos de la manera
siguiente:

1) Plantearemos nuestras hipótesis:

• Hipótesis nula: H0: todas las medias son iguales:

• Hipótesis alternativa: H1: no todas las medias son iguales.

2) Fijaremos un nivel significativo α.

3) Calcularemos el estadístico de contraste a partir de las sumas de cuadrados:

que, como hemos visto en el apartado anterior, si se cumple la hipótesis nula


(igualdad de medias) es una observación de una distribución F de Snedecor
con n – k grados de libertad en el denominador y k – 1 grados de libertad en
el numerador.

4) Finalmente, podemos actuar de dos maneras: El p-valor

El p-valor es la probabilidad del


a) A partir del p-valor. Este valor es: p = P(F > f): resultado observado o de otro
más alejado si la hipótesis nula
es cierta.
• Si p ≤ α, se rechaza la hipótesis nula H0.

• Si p > α, no se rechaza la hipótesis nula H0. No rechazar o rechazar la


H0

b) A partir del valor crítico Fα,k–1,n–k, que separa la región de aceptación de la No rechazar la H0 no significa
exactamente que aceptemos
región de rechazo: la hipótesis, sino simplemen-
te que nada se opone a pensar
que la H0 pueda ser cierta.
• Si f > Fα,k–1,n–k, se rechaza la hipótesis nula H0. Rechazar la H0 no significa ne-
cesariamente que todas las
medias sean diferentes, sino
que significa que alguna (quizá
• Si f ≤ Fα,k–1,n–k, no se rechaza la hipótesis nula H0. todas) es diferente de otra.
© FUOC • PID_00212763 13 Ampliación de inferencia estadística

Si queremos determinar cuáles son los grupos que presentan unas diferencias
lo bastante significativas, haremos pruebas t de Student para comparación de
medias, tal como se planteaba al inicio de la sesión.

1.5. Construcción de la tabla del ANOVA

En este apartado estamos interesados en plantear una forma conveniente y


habitual de presentar los cálculos y resultados del análisis de la varianza. Es-
ta manera de sintetizar estos cálculos es en forma de tabla, llamada tabla del
ANOVA. Podemos llevar a cabo todos los cálculos de la tabla a partir de las
medias y varianzas de las diferentes muestras o de la media de la mues-
tra global.

Podemos escribir las sumas de cuadrados que necesitamos para calcular el es-
tadístico de contraste de la manera siguiente:

SCT = SCD + SCE


© FUOC • PID_00212763 14 Ampliación de inferencia estadística

Ejemplo de las tres marcas de ordenadores (II)

Volvamos al ejemplo de la comparación de tiempo de carga de un sistema operativo para


tres marcas diferentes de ordenadores.

Haremos un análisis de la varianza con nivel significativo α = 0,05 para determinar si


podemos considerar que las medias de los tiempos de los tres ordenadores son iguales.

Hipótesis nula: H0: μ1 = μ2 = μ3.

Hipótesis alternativa: H1: no todas las medias son iguales.

Ya habíamos calculado:

De manera que la media de la muestra global es:

A continuación podemos encontrar las sumas de cuadrados:

Y construir la tabla del ANOVA:


© FUOC • PID_00212763 15 Ampliación de inferencia estadística

Tabla del análisis de la varianza Regla de


decisión

Fuente�de Suma�de Grados�de Media�de Estadístico


variación cuadrados libertad cuadrados de�prueba

Entre grupos SCE = 8,226 3–1=2 8,226/2 = 4,113

Dentro de los SCD = 39,80 15 – 3 = 12 39,80/12 = 3,32


grupos

Total SCT = 48,026 15 – 1 = 14 -

k = 3 (número de muestras), n = 15 (tamaño de la muestra total)

Estadístico de contraste:

Este estadístico sigue una distribución F de Snedecor con k – 1 = 2 y n – k = 12 grados de


libertad en el numerador y en el denominador, respectivamente.

1) A partir del p-valor:

P(F > f) = P(F > 1,24) = 0,3239 > 0,05

Por tanto, no rechazamos la hipótesis nula.

2) A partir del valor crítico:

Para un nivel significativo α = 0,05, tenemos un valor crítico:

F0,05;2;12 = 3,89

Si comparamos este valor con el estadístico de contraste, f = 1,24, tenemos que 1,24 <
3,89 y, por tanto, no rechazamos la hipótesis nula.

Así pues, podemos concluir que no hay una diferencia significativa entre los tiempos que
tardan las tres marcas de ordenadores en cargar el sistema operativo.

1.6. Resumen

Hemos presentado la técnica de análisis de la varianza (ANOVA) para la com-


paración de las medias para más de dos muestras. Hemos comprobado que la
variación de las observaciones se debe a dos factores: la variabilidad dentro
de cada muestra y la variabilidad entre las muestras. Hemos expresado estas
variaciones de forma numérica mediantre sumas de cuadrados. Con las sumas
de cuadrados hemos podido encontrar un estadístico de prueba para contras-
tar la igualdad de las medias de las muestras. Finalmente, hemos aprendido a
resumir todos los cálculos en la llamada tabla del ANOVA.

1.7. Ejercicios de autoevaluación

Ejercicio�1
© FUOC • PID_00212763 16 Ampliación de inferencia estadística

Consideremos cuatro compañías (A, B, C y D), cuyas acciones cotizan en bolsa.


Seleccionamos de forma aleatoria las cotizaciones de estas acciones durante
diferentes instantes de tiempo a lo largo de un mes. Así pues, para la compañía
A se observa la cotización en cinco instantes aleatorios, para la B se observa en
cuatro, para la C se observa en seis y, finalmente, para la compañía D, en cinco.

En la tabla siguiente se da la cotización en céntimos de euro de las diferentes


acciones en los instantes de tiempo seleccionados:

A 670, 840, 780, 610, 900

B 600, 800, 690, 650

C 800, 810, 730, 690, 750, 720

D 970, 840, 930, 790, 920

Contrastad el nivel del 5% si las cotizaciones medias de las acciones de cada


una de las cuatro compañías se pueden considerar iguales. Confeccionad la
tabla de análisis de la varianza.

Ejercicio�2

Los estudiantes de segundo curso de una escuela universitaria de ingeniería


estuvieron repartidos de forma aleatoria en tres grupos. En cada grupo se en-
señó estadística con una estrategia docente diferente. Al final del curso todos
los alumnos hicieron el mismo examen. Se seleccionaron de forma aleatoria
algunas cualificaciones obtenidas por algunos alumnos de los tres grupos. Los
resultados son los siguientes:

a) ¿Sobre qué supuestos podréis hacer un análisis de la varianza?

b) Haced un análisis de la varianza e indicad si podéis asegurar a un nivel sig-


nificativo del 0,05 que el resultado obtenido depende de la técnica de ense-
ñanza utilizada.

1.8. Solucionario ejercicios de autoevaluación

Ejercicio�1
© FUOC • PID_00212763 17 Ampliación de inferencia estadística

En este problema estamos interesados en comparar cuatro poblaciones, y uti-


lizaremos un análisis de la varianza o ANOVA. Sabemos que el ANOVA nos
permite comparar las medias de varios grupos.

Hipótesis nula: H0: las medias son iguales: μ1 = μ2 = μ3 = μ4

Hipótesis alternativa: H1: las medias no son iguales.

Para construir la tabla del análisis de la varianza:

Primero calculamos las medias y las varianzas de cada muestra:

Y la media total de las muestras:

A continuación podemos encontrar las sumas de cuadrados:

En esta expresión hemos tenido en cuenta que:

Ahora ya podemos construir la tabla:


© FUOC • PID_00212763 18 Ampliación de inferencia estadística

Estadístico de contraste:

El estadístico sigue una distribución F de Snedecor con k – 1 = 3 y n – k = 16


grados de libertad.

Calculamos el p-valor:

P(F > f) = P(F > 4,96) = 0,0127 < 0,05

de manera que rechazamos H0. Con una confianza del 95%, existe diferencia
significativa entre las cuatro compañías.

Ejercicio�2

a) Para poder aplicar esta técnica con fiabilidad, son necesarias las restricciones
previas que presentamos a continuación:

1. Las muestras deben ser independientes.

2. Las poblaciones (o subpoblaciones) siguen distribuciones normales; por otra


parte, la muestra elegida debe ser lo bastante grande (más de treinta observa-
ciones en cada submuestra). En nuestro caso, las muestras son menores que
treinta. Por tanto, para poder aplicar el ANOVA, debemos suponer que las po-
blaciones siguen distribuciones normales.

3. La varianza para cada población (o subpoblación) es la misma.


© FUOC • PID_00212763 19 Ampliación de inferencia estadística

b) En este problema estamos interesados en comparar tres poblaciones y uti-


lizaremos un análisis de la varianza o ANOVA. Sabemos que el ANOVA nos
permite comparar las medias de varios grupos.

Hipótesis nula: H0: las medias son iguales: μ1 = μ2 = μ3

Hipótesis alternativa: H1: las medias no son iguales

Para realizar la tabla del análisis de la varianza, en primer lugar calculamos las
medias y las varianzas de cada muestra:

A continuación podemos encontrar las sumas de cuadrados mediante estas


expresiones:
© FUOC • PID_00212763 20 Ampliación de inferencia estadística

En esta expresión hemos tenido en cuenta que:

Ahora ya podemos calcular el estadístico de contraste. Primero construimos la


tabla de análisis de la varianza:

Estadístico de contraste:

El estadístico sigue una distribución F de Snedecor con k – 1 = 2 y n – k = 14


grados de libertad. Tenemos un p-valor:

P(F > f) = P(F > 1,268) = 0,3118 > 0,05

No rechazamos H0, de manera que podemos asegurar a un nivel significativo


del 0,05 que el resultado obtenido no depende de la estrategia docente utili-
zada.
© FUOC • PID_00212763 21 Ampliación de inferencia estadística

2. Contrastación no paramétrica

AUTORES:
Ramon�Alemany�Leira
Joan�Baró�Llinàs

Los métodos de inferencia estadística considerados hasta ahora partían de


unos supuestos sobre la población determinados, que permitían encontrar el
estadístico correspondiente para obtener un intervalo o para hacer un con-
traste de hipótesis.

A menudo hemos planteado problemas a partir de poblaciones básicas norma-


les o, en su defecto, a partir de muestras grandes, de varianzas poblacionales
iguales, de variables cuantitativas, de muestras independientes, etc. Es muy
frecuente, sin embargo, que en el caso de una investigación estadística no se
dé alguna de estas condiciones.

En estos casos, tenemos que recurrir o a técnicas de distribuciones libres, váli-


das para cualquier distribución poblacional, o a técnicas no paramétricas que
no planteen restricciones sobre los parámetros. A pesar de que no son lo mis-
mo, habitualmente se enmarcan estas dos técnicas bajo un mismo epígrafe: el
de la contrastación no paramétrica.

Los contrastes�no�paramétricos acostumbran a no plantear demasiadas exi-


gencias de aplicación y utilizan procedimientos sencillos, sin la carga teórica
de los contrastes clásicos, y permiten soluciones cómodas y de lectura fácil,
pero su utilización está restringida a aquellos casos en que resulte inviable la
prueba paramétrica, dado que ésta es más eficiente que la no paramétrica en
igualdad de condiciones en el sentido de que es capaz, con mayor probabili-
dad, de rechazar hipótesis falsas. En pocas palabras, el test paramétrico es más
potente que el test no paramétrico; este último tiene que aplicarse de forma
residual.

En este apartado sobre la contrastación no paramétrica aprenderéis:

• A hacer contrastes no paramétricos sobre el ajuste de una distribución


muestral a una distribución teórica y sobre la independencia estadística.

• A hacer contrastes no paramétricos de aleatoriedad y de asociación entre


variables.

• A hacer contrastes para la comparación de una muestra de datos apareja-


dos o de dos muestras de datos independientes.
© FUOC • PID_00212763 22 Ampliación de inferencia estadística

2.1. Prueba χ2 de ajuste de una distribución teórica

La distribución χ2 de Pearson tiene muchas aplicaciones en inferencia


estadística.

En este epígrafe la utilizaremos para averiguar si una muestra se ha extraído de


una determinada población o, lo que sería equivalente, para discutir la validez
de un modelo teórico a partir de los datos de una muestra.

A menudo hemos planteado problemas del tipo: los coches que cada minuto
pasan por un peaje de autopista siguen una ley de Poisson, el peso neto de
los botes de mermelada de una determinada marca sigue una ley normal, etc.
Para todos estos casos ya sabemos calcular probabilidades pero, en la práctica,
un paso previo que habría que hacer sería comprobar la validez de aquellos
modelos teóricos antes de continuar. El test se basa en que la χ2 es una de las
diferentes pruebas no paramétricas que se pueden utilizar.

Veamos cuál es su procedimiento. En primer lugar, compararemos la distribu-


ción muestral con la que, teóricamente, según el modelo de probabilidad es-
pecificado, tendría que resultar. Relacionamos, pues, las frecuencias empíricas
ni con las esperadas , de acuerdo con el modelo:

Podríamos haber presentado la distribución por medio de intervalos en lugar


de hacerlo mediante valores puntuales de la variable; lo importante es que el
número de intervalos o de clases dé lugar a unas frecuencias lo suficientemente
grandes como para hacer que la prueba sea fiable. En la práctica, es suficiente
con que m ≥ 3 y que ni ≥ 5 para poder utilizar el test χ2�de�adherencia.

Lo que ahora nos cuestionamos es saber si las divergencias entre las frecuencias
observadas ni y las frecuencias esperadas se deben al azar o son tan grandes
que responden a una especificación incorrecta del modelo de probabilidad.
Para contrastar la hipótesis:
© FUOC • PID_00212763 23 Ampliación de inferencia estadística

H0: hay una buena adherencia del modelo teórico a los datos,

tendremos que utilizar el estadístico siguiente:

donde es el valor crítico en una prueba unilateral de significación α y m Recordad

– 1 grados de libertad (si hiciésemos un estudio más completo de este test, ve- Cuando se dice que “acep-
tamos” una hipótesis, quere-
ríamos que los grados de libertad pueden llegar a cambiar) que compararemos mos decir que no la rechaza-
con el estadístico de contraste. Si éste es mayor que el punto crítico, rechaza- mos, que sería el sentido más
correcto de la conclusión del
remos la hipótesis nula, y si es más pequeño que el punto crítico, aceptaremos contraste.
la hipótesis nula.

Ejemplo

Una mutua aseguradora ha registrado, después de 360 días, el número de ac-


cidentes que ha habido.

Accidentes 0 1 2 3 4 5 6 7 8 más de 8

Días 0 18 105 117 60 36 18 3 3 0

Queremos saber, operando con un 10% de significación, si la muestra proviene


de una ley de Poisson de una media de tres accidentes al día.

A continuación, presentamos la información reagrupada para conseguir unas


frecuencias suficientemente grandes (ni ≥ 5).
© FUOC • PID_00212763 24 Ampliación de inferencia estadística

2
En las tablas χ , con m – 1 = 7 – 1 = 6 grados de libertad y α = 0,1, encontramos
el punto crítico = 10,6 y, en consecuencia:

Actividades

1. Si después de observar a 120 clientes de unos grandes almacenes, vemos que 26 han
pagado en la caja 1, 17 en la caja 2, 18 en la 3, 19 en la 4, 25 en la 5 y 15 en la 6,
¿estamos en condiciones de afirmar que las seis cajas que hay para ir a pagar operan a
un mismo ritmo de trabajo? Se entiende que la muestra ha sido elegida al azar y que es
representativa del movimiento que hay en los grandes almacenes.

Comprobad si la equiprobabilidad (1/6) es admisible, con un 5% de significación, para


todas las cajas.

Tenéis que llegar a la conclusión de que la hipótesis no es rechazable.

2. De una muestra de 150 amas de casa, se comprobó qué número de paquetes de deter-
gente de medida estándar se habían utilizado durante el último mes. Los datos que se
obtuvieron son los que vemos a continuación:

Número de paquetes Número de amas de casa

0 14

1 38

2 40

3 52
© FUOC • PID_00212763 25 Ampliación de inferencia estadística

Número de paquetes Número de amas de casa

4 4

5 2

más de 5 0

¿Se puede afirmar que, con una significación del 10%, la muestra procede de una ley de
Poisson de parámetro λ = 2?

Veréis cómo, después de agrupar la información, las frecuencias observadas y las frecuen-
cias teóricas son demasiado grandes para poder aceptar el modelo de Poisson.

14 38 40 52 6

20,3 40,6 40,6 27 21,5

2.2. Prueba χ2 de independencia

Ejemplo en que se
Esta prueba permite detectar la independencia entre atributos o la ho- utilizaría esta prueba
mogeneidad de una población que ha sido estratificada.
• Para detectar la indepen-
dencia entre atributos: en
el caso de estudiar la rela-
ción entre el estado civil y
Se trata, a partir de una tabla de contingencia, de comparar las frecuencias los hábitos de ahorro.
observadas nij con las que, en teoría, se tendrían que dar si hubiese indepen-
• Para detectar la homoge-
dencia entre las dos clasificaciones . neidad de la estratificación
de una población: en el ca-
so de querer determinar si
la estructura de voto en las
La siguiente tabla de doble entrada recopila resultados muestrales: elecciones es la misma en
cada comarca.

B1 B2 ... Bk

A1 n11 n12 ... n1k n(A1)

A2 n21 n22 ... n2k n(A2)

... ... ... ... ... ...

AL nL1 nL2 ... nLk n(AL)

n(B1) n(B2) ... n(Bk) n

y las frecuencias, en caso de independencia, tendrían que ser:


© FUOC • PID_00212763 26 Ampliación de inferencia estadística

La cuestión consiste en determinar si debemos considerar las diferencias


como errores debidos al azar y, por tanto, admitir la independencia
entre las dos clasificaciones o bien como errores demasiado grandes para asig-
nárselos al azar, caso en el que tenemos que admitir que hay algún tipo de
asociación entre las dos estratificaciones.

Para contrastar la hipótesis:

H0: hay independencia,

tendremos que obtener el estadístico correspondiente mediante la vía empírica


y efectuar el test:

2
donde el punto crítico resulta del modelo χ de Pearson con significación α y
(L – 1) (K – 1) grados de libertad. Si el estadístico de contraste es superior al
punto crítico, rechazaremos la hipótesis nula de independencia y si es inferior,
no rechazaremos la hipótesis nula.

Ejemplo

Suponed que hemos tomado una muestra de las empresas medias y grandes
dedicadas al sector de servicios, que hemos dividido en comercio, hostelería,
transportes y comunicaciones y otros servicios. De manera simultánea, hemos
calculado la relación:

y hemos establecido tres grupos: menor de 8%, entre 8% y 16% y mayor de


16%, lo cual ha permitido construir la siguiente tabla de contingencia para las
273 empresas observadas.

Comercio Hostelería Transpor- Otros


tes y comu-
nicaciones

Menor�de�8 11 35 24 12

8-16 17 19 18 19

Mayor�de�16 46 12 6 54
© FUOC • PID_00212763 27 Ampliación de inferencia estadística

Queremos determinar, con una significación del 5%, si en las empresas de ser-
vicios la rentabilidad alcanzada es independiente del subsector al que perte-
necen.

En el cuadro siguiente recopilamos las frecuencias observadas (arriba) y las que


obtendríamos en el caso de que existiese independencia (abajo).

Comercio Hostelería Transpor- Otros Total


tes y comu-
nicaciones

Menor�de�8 11 35 24 12 82
22,23 19,82 14,42 25,53

8-16 17 19 18 19 73
19,79 17,65 12,84 22,73

Mayor�de�16 46 12 6 54 118
31,98 28,53 20,74 36,74

Total 74 66 48 85 273

El estadístico para la prueba será:

lo cual nos permite afirmar la existencia de relación entre el subsector y el


indicador de rentabilidad. Rechazamos, pues, la independencia de aquellas
dos clasificaciones con un 5% de significación.

Actividades

3. Suponemos cuatro tipos de defectos de pinturas detectados en los bajos de los coches:
PVC (defecto 1), SGC (defecto 2), sellado (defecto 3) y cataforesis (defecto 4) y una mues-
tra de 1.525 coches, con alguno de estos defectos, tratados en los turnos de trabajo de
mañana, tarde y noche. Los resultados han sido:

Turno Defecto 1 Defecto 2 Defecto 3 Defecto 4

Mañana 234 34 107 19

Tarde 312 56 145 28

Noche 335 67 156 32

Queremos saber si hay alguna relación entre el tipo de defecto detectado y el turno de
trabajo responsable, utilizando un nivel 0,1 de significación. Tenéis que llegar a la con-
clusión de que no hay ninguna razón que nos impida admitir la independencia entre las
dos características que hemos tenido en cuenta al comparar las frecuencias observadas
y las frecuencias teóricas.
© FUOC • PID_00212763 28 Ampliación de inferencia estadística

Turno Defecto 1 Defecto 2 Defecto 3 Defecto 4 Total

Mañana 234 34 107 19 394


227,62 40,56 105,41 20,41

Tarde 312 56 145 28 541


312,54 55,70 144,74 28,03

Noche 335 67 156 32 590


340,85 60,74 157,85 30,56

Total 881 157 408 79 1.525

4. A partir de una muestra de 400 obreros no cualificados del sector del metal, construi-
mos la tabla de frecuencias conjuntas de antigüedad y de salarios que hallamos a conti-
nuación:

Antigüedad Salarios

Bajos Medios Altos

Poca 124 28 4

Media 20 76 18

Mucha 4 24 102

Discutid al 1% de significación la posible independencia entre ambas características. Ve-


réis que no es posible aceptar que antigüedad y salarios sean conceptos independientes.

2.3. Prueba de las rachas

Este test nos permite determinar si los resultados de una muestra se pueden Rachas
considerar aleatorios. Lógicamente, si el método de selección muestral es alea-
Secuencia de rúbricas iguales.
torio, hay que esperar que también lo sean los resultados; pero, ¿qué pasa
cuando sabemos que la muestra no ha sido elegida al azar?, ¿podemos consi-
derar que los resultados no son aleatorios?

Con esta prueba podemos discutir la independencia de los datos mues-


trales o, lo que sería lo mismo, la aleatoriedad de los resultados en fun-
ción de la alternancia que presenten los grupos en los que hayamos di-
vidido las observaciones.
© FUOC • PID_00212763 29 Ampliación de inferencia estadística

Si, después de lanzar catorce monedas, el resultado hubiese sido: La falacia

La falacia de las secuencias


C+C+C+C+C+C+C+ aleatorias queda reflejada en
la anécdota de Pólya, la cual
hace referencia al médico que
se puede sospechar que la secuencia no es la propia de un proceso aleatorio, conforta a su paciente dicién-
dole: “Usted tiene una enfer-
lo mismo que habríamos pensado si el resultado hubiese sido: medad muy grave. Sólo una
de cada diez personas que la
sufren sobrevive, pero no se
CCCCCCC+++++++ preocupe. Es usted afortunado
por el hecho de venir a verme,
ya que últimamente he tenido
nuevos pacientes con esta en-
y es que tenemos un número muy grande o muy pequeño de rachas. Todo fermedad y todos han muer-
hace pensar que, después de un experimento como el de lanzar una moneda, to”. Por otro lado, el filósofo
alemán Karl Macbe, a partir de
los resultados aleatorios deberían generar un número de rachas ni exagerada- un estudio efectuado en Bavie-
ra, afirmaba que la probabili-
mente grande ni exageradamente pequeño, como por ejemplo: dad de que una pareja tenga
un niño aumenta si antes han
nacido muchas niñas.
+CC+C+++CC++CC

CCC++C++++CC+C

El sistema de asignar rúbricas para discutir la aleatoriedad puede ser tan varia-
do como se quiera y puede cambiar el resultado de la prueba.

Por ejemplo, hemos pedido al encuestador que tomase una muestra de quince
compradores en unos grandes almacenes y que anotase sus edades siguiendo
el orden en que hacía la encuesta. Éstas podrían ser:

43 27 45 51 62 36 29 40 18 62 76 40 51 22 47

Una clasificación podría venir fijada teniendo en cuenta si la edad de los en-
cuestados se corresponde con el número par (P) o con el impar (I), lo cual nos
daría un total de siete rachas:

IIIIPPIPPPPPIPI

Tenemos otra clasificación posible en función de si la edad se encuentra por


encima (E) o por debajo (D) de la media (43). Ahora, con una serie de catorce
observaciones (hemos anulado la primera), salen ocho rachas:

DEEEDDDDEEDEDE

También podríamos haber elegido el criterio de si el dato es superior (S) o


inferior (I) al precedente. Si anulamos el primer dato, las catorce observaciones
generan diez rachas:

ISSSIISISSISIS
© FUOC • PID_00212763 30 Ampliación de inferencia estadística

Otras clasificaciones posibles serían: distinción entre comprador (hombre) y


compradora (mujer), una única compra o más de una compra, etc.

Esta prueba también se podría aplicar para determinar si dos colectivos pre-
sentan o no diferencias significativas, de manera que ahora sólo un número
de rachas pequeño nos hará pensar en colectivos diferenciados.

Si, por ejemplo, hemos ordenado la muestra de clientes por el tíquet de com-
pra, de más a menos dinero gastado, y por sexos: hombre (H) y mujer (M),
deberíamos entender que hay diferencia en la cantidad que gastan hombres y
mujeres si el resultado de la ordenación fuese:

HHHHHMMMMMMMMM

En cambio, un número de rachas grande o medio debe demostrar que no exis-


te diferencia entre los grupos y que, por tanto, el sexo no es un factor discri-
minador de la cantidad gastada. Por ejemplo:

MMHMMHMHMHMMHM

Para ambas aplicaciones, esta prueba no paramétrica exige anotar los


datos de acuerdo con algún orden (creciente, de ocurrencia, etc.) y fijar
un criterio discriminador entre dos grupos asignando rúbricas y contan-
do las rachas (R*) que salen y comprobando si el resultado se encuentra
o no en la región crítica (de rechazo) de la H0.

Para el caso de la prueba�bilateral tenemos:

H0: aleatoriedad de los datos.

Zona de no-rechazo H0: R* ∈ (R1 – α/2, Rα/2).

Zona de rechazo H0: R* ∉ (R1 – α/2, Rα/2).


© FUOC • PID_00212763 31 Ampliación de inferencia estadística

donde R1 – α/2 y Rα/2 son puntos encontrados en la tabla de las rachas corres-
pondiente, conociendo sólo los elementos que pertenecen a cada rúbrica y el
nivel de significación (en nuestro caso, del 5%).

Mientras que para el caso de prueba�unilateral:

H0: no hay diferencia entre grupos.

Zona de no-rechazo H0: R* > R1 – α.

Zona de rechazo H0: R* < R1 – α.

R1 – α es el punto crítico, para una prueba unilateral, obtenido en la tabla de


las rachas para un significación α (en nuestro caso, del 2,5%).

Ejemplo

Suponed que una muestra de coches aparcados delante de la Universidad de


Lérida daba la siguiente serie de matrículas L (de Lérida) y A (de otras):
© FUOC • PID_00212763 32 Ampliación de inferencia estadística

LLALLLALAALLALLLA

y que queremos determinar si, de acuerdo con la matrícula, la muestra puede


ser considerada aleatoria con una significación del 0,05. En este caso, n1 = 11,
n2 = 6 y R* = 10.

Dado que 10 ∈ (4, 13), no podemos rechazar la hipótesis de que la muestra


se haya elegido al azar.

Actividad

5. Supongamos que un auditor ha tomado una muestra de dieciséis cargos de la cuenta


de gastos generales y que los importes que ha obtenido, de manera sucesiva, son los
siguientes:

87.215, 76.050, 41.119, 11.236, 45.778, 67.108, 32.511, 24.216, 8.000, 88.214, 12.300,
53.721, 44.520, 14.323, 29.680, 38.423.

Queremos discutir, con un 5% de significación, el carácter aleatorio de la muestra utili-


zando la prueba de las rachas y el criterio que discrimina los grupos según se trate de
anotaciones de más o de menos de 50.000 u.m.

Fijaos en que para los cinco cargos superiores a las 50.000 pesetas salen ocho rachas,
mientras que el intervalo de no-rechazo queda acotado entre 4 y 11, cuestión que hace
admisible la hipótesis de la aleatoriedad.

De hecho, si las muestras son suficientmente grandes (n1, n2 > 10), podemos
utilizar la distribución normal para el test, teniendo en cuenta la asintoticidad
del estadístico R:

y hacer el contraste de una o de dos colas a partir de:


© FUOC • PID_00212763 33 Ampliación de inferencia estadística

para cualquier nivel de significación α, es decir, sin las limitaciones vistas an-
teriormente.

Ejemplo

Juntamos una muestra de veinte trabajadores del grupo de mañana y otra de


veinte del grupo de tarde y las ordenamos por salarios. Obtenemos:

M M M T M M T ... T T T

lo cual representa un total de catorce rachas.

Ahora queremos determinar, con un nivel de significación de 0,1, si es posible


aceptar la H0: no hay diferencia entre los salarios de los dos turnos.

Si contamos con que las muestras son suficientemente grandes (n1 = n2 = 20),
podemos utilizar la prueba asintótica:

Si la H0 es cierta, tendremos:

con R* = 14

por lo cual rechazamos la H0. Es más verosímil creer que existe una diferencia
de salarios entre los turnos de mañana y de tarde.

2.4. Prueba de los signos

Este test nos tiene que ser útil para comparar los resultados de dos mues-
tras aparejadas o para comparar los resultados de dos experimentos he-
chos en una misma muestra.

Es el caso de la comparación de las puntuaciones que un padre y un hijo otor-


gan a diferentes programas de televisión:
© FUOC • PID_00212763 34 Ampliación de inferencia estadística

Programación Padre Hijo

Cine de noche 7 5

Más allá del 2000 6 9

Todo el deporte 8 9

... ... ...

Un ejemplo en el que se utilizaría la prueba de los signos sería para comparar la velocidad
que se consigue con dos máquinas de escribir después de calcular las pulsaciones conse-
guidas por un equipo de mecanógrafos:

Mecanógrafo Máquina A Máquina B

1 219 228

2 246 247

3 185 180

... ... ...

El método de trabajo comporta, una vez emparejadas las respuestas, fijar


un signo para cada elemento muestral que no presente un resultado
idéntico en los dos experimentos:

Prueba 1 Prueba 2

X1 Y1

X2 Y2

... ...

XN YN

Xi > Yi signo +
Xi < Yi signo –
Xi = Yi anulación del elemento

En condiciones de aceptación de la H0: no hay diferencia entre las dos pruebas, el


número de signos positivos y negativos será el mismo o muy parecido, de ma-
nera que habrá que esperar para los n elementos no descartados que P(positivo)
= P(negativo) = 0,5. Por tanto, con la asunción de la H0, los signos de uno
o de otro tipo seguirán una distribución binomial, B(n; 0,5). En este modelo
podremos determinar la siguiente región crítica:
© FUOC • PID_00212763 35 Ampliación de inferencia estadística

de manera que con rm = número de signos menos frecuente, o con rM = número


de signos más frecuente, tendremos:

Zona de no-rechazo H0: rm o rM ∈ (r1 – α/2, rα/2)

Zona de rechazo H0: rm o rM ∉ (r1 – α/2, rα/2)

Ejemplo

Un control de productividad efectuado al principio y al final de la jornada la-


boral sobre once trabajadores daba la cantidad de unidades acabadas siguiente:

Trabajador 1.
er
control 2.º control

1 23 21

2 36 33

3 19 20

4 25 22

5 24 22

6 27 28

7 30 31

8 25 25

9 21 20

10 28 31

11 18 16

Queremos determinar, con un nivel de significación próximo al 10%, si la


posibilidad no cambia de un control a otro.
© FUOC • PID_00212763 36 Ampliación de inferencia estadística

Si fijamos signos para cada trabajador de la siguiente manera: signo positivo


cuando el primer control da más unidades y signo negativo cuando da menos,
tenemos un total de seis signos positivos (rM = 6) y de cuatro signos negativos
(rm = 4), lo cual representa trabajar con una muestra de diez observaciones,
dado que hemos eliminado el octavo trabajador de la muestra (Xi = Yi).

En el modelo binomial (n = 10 y P = 0,5) encontramos:

y, ya que tanto el 4 como el 6 están fuera de la región crítica, no debemos


rechazar el supuesto de una productividad igual en los dos controles, con una
significación de poco más del 10%.

Gracias al teorema de De Moivre sabemos que la ley binomial es asintótica-


mente normal si np ≥ 5 y nq ≥ 5. Esto quiere decir que, para muestras de diez
o más observaciones emparejadas, es posible resolver la prueba de los signos
por aproximación a la normal:

por tanto, desde la tipificación del estadístico podemos discutir la variable

H0: los resultados son similares en los dos colectivos.

Zona de no-rechazo H0:

Zona de rechazo H0:

Ejemplo
© FUOC • PID_00212763 37 Ampliación de inferencia estadística

Una empresa distribuidora de productos de lujo quiere determinar si hay sín-


tomas de reactivación económica entre las unidades económicas de consumo,
cuestión para la cual ha reunido la cifra de pedidos servidos en febrero de 2006
y en el mismo mes de 2007 con detalle provincial. Los resultados para 40 pro-
vincias del Estado español son los siguientes:

Provincias Variación con respecto al año anterior

León Empeoramiento

Badajoz Mejora

Cuenca Mejora

Tarragona Empeoramiento

... ...

Almería Mejora

Se produce una mejora de la cartera de pedidos en 27 provincias y un empeo-


ramiento en las trece restantes. ¿Permite esto rechazar la hipótesis de que la
situación no ha cambiado en el transcurso de este año si trabajamos con un
5% de significación?

H0: no hay diferencia en los dos periodos.

Este hecho nos lleva a rechazar la hipótesis de una misma situación económica
en los dos periodos, con un nivel de significación del 5%.

2.5. Prueba de Wilcoxon

Igual que el test de signos que acabamos de estudiar, esta prueba permite dis-
cutir si hay o no suficiente parecido entre parejas de datos.

El test de Wilcoxon
El test de Wilcoxon también calcula las diferencias y su signo, pero la
ventaja añadida es que ordena estas diferencias asignando rangos a cada “Wilcoxon matched pairs signed
rank test” es la mejor prueba
una de ellas. Wilcoxon resulta una prueba más potente y, por tanto, más no paramétrica para analizar
las diferencias entre parejas de
fiable que la de los signos. datos. La prueba de Wilcoxon
ha inspirado otros tests que es-
tudiaremos posteriormente,
como el de Mann y Whitney o
Si observásemos el consumo semanal de leche de seis familias en verano y en el de Kruskall y Wallis.

invierno y obtuviéramos los resultados siguientes:


© FUOC • PID_00212763 38 Ampliación de inferencia estadística

Familia Verano Invierno

1 2,35 2,29

2 1,25 3,12

3 1,96 2,74

4 3,44 3,43

5 4,17 4,14

6 2,56 4,09

veríamos que los signos están repartidos, pero que las diferencias son mayores
para un signo que para el otro.

Familia Diferencia Signo Rango de la dife-


rencia absoluta

1 0,06 + 3

2 –1,87 – 6

3 –0,78 – 4

4 0,01 + 1

5 0,03 + 2

6 –1,53 – 5

La prueba de los signos nos diría que en verano y en invierno los consumos
de leche son parecidos, pero si analizamos con detalle las diferencias, veremos
que los signos negativos corresponden a diferencias mayores que los signos
positivos; Wilcoxon tiene en cuenta esta circunstancia en el momento de ha-
cer la contrastación. Veamos los pasos que hay que seguir para su aplicación.

En primer lugar, calcularemos el rango para las diferencias en valor absoluto


de las parejas de datos; en caso de que haya diferencias nulas, no las tendremos
en cuenta y, en caso de encontrar diferencias idénticas, les asignaremos un
rango para su aplicación.

A partir de aquí obtendremos la suma T(+) de los rangos de las diferencias po-
sitivas y T(–) de las negativas; se puede comprobar que T(+) + T(–) = n(n + 1)/2,
donde n equivale al número de parejas de datos para las cuales las diferencias
son no nulas.

Tras fijar un nivel de significación α y con el auxilio de las tablas de Wilcoxon,


encontraremos los puntos críticos T1 – α/2 y Tα/2, que nos permitirán contrastar
la hipótesis:
© FUOC • PID_00212763 39 Ampliación de inferencia estadística

H0: no hay diferencia entre los dos grupos de datos,

de acuerdo con el criterio:

(T(+) o T(–)) ∈ (T1 – α/2, Tα/2) → Zona de no-rechazo de H0

(T(+) o T(–)) ∉ (T1 – α/2, Tα/2) → Zona de rechazo de H0

Ejemplo

Hemos observado la productividad de once operarios de una fábrica en lunes


y en viernes. El total de piezas fabricadas por día y operario es el siguiente:

Operario Lunes Viernes

1 62,1 66,5

2 67,4 68,9

3 71,6 70,9

4 57,5 57,5

5 59,1 63,9

6 62,2 64,2

7 43,9 43,0

8 82,0 80,0

9 71,4 71,4

10 74,1 77,8

11 80,3 84,3
© FUOC • PID_00212763 40 Ampliación de inferencia estadística

Queremos determinar si es posible aceptar la hipótesis de igual productividad


por operario en lunes y en viernes, trabajando con una significación del 10%.

Aplicando el test de Wilcoxon tendremos:

Xi–Yi rango |Xi–Yi| ∀Xi≠Yi

–4,4 8,0

–1,5 3,0

0,7 1,0

0,0 –

–4,8 9,0

–2,0 4,5

0,9 2,0

2,0 4,5

0,0 –

–3,7 6,0

–4,0 7,0

T(+) = 1 + 2 + 4,5 = 7,5

T(–) = 8 + 3 + 9 + 4,5 + 6 + 7 = 37,5

Observad que:

Dado que los puntos críticos son 8 y 37, tendremos que:

7,5 o 37,5 ∉ (8,37)

y, en consecuencia, rechazamos la H0.

Actividades

6. Resolved este mismo problema aplicando la prueba de los signos y comprobad que el
resultado es contrario al obtenido aplicando la prueba de Wilcoxon.

7. Dado que la prueba de Wilcoxon es más potente que la de los signos, es decir, tiene una
probabilidad mayor de rechazar la hipótesis falsa, ¿qué sentido tiene el test de los signos?
¿Existe algún caso donde no sea posible aplicar Wilcoxon y tengamos que recurrir al test
de los signos? Inventad un ejercicio que sólo pueda ser resuelto mediante la prueba de
los signos.
© FUOC • PID_00212763 41 Ampliación de inferencia estadística

Con muestras grandes (número de rangos superior a 25), se puede utilizar la


expresión asintótica:

que permite utilizar la distribución normal para efectuar el contraste:

Ejemplo

Suponed que, para comparar la eficacia de dos fertilizantes, se han elegido


treinta zonas de terreno que han sido divididas en dos partes iguales donde
se han aplicado indistintamente los dos productos y que, con posterioridad,
se ha determinado el rendimiento de la cosecha en kilogramos de cebada. Los
resultados que se reflejan en el siguiente cuadro:

Zona Fertilizante A Fertilizante B

1 211,4 218,3

2 207,5 209,0

... ... ...

30 224,2 224,6

dan lugar a los estadísticos de Wilcoxon T(+) = 198 y T(–) = 217.

Queremos contrastar la hipótesis de igual rendimiento con los dos fertilizan-


tes, al 5% de significación.

La aplicación de la prueba asintótica será:

Por tanto, no rechazamos que los fertilizantes sean igualmente eficaces.


© FUOC • PID_00212763 42 Ampliación de inferencia estadística

2.6. Prueba U de Mann-Whitney

La prueba U de Mann-Whitney permite discutir si hay alguna diferencia


entre dos poblaciones de las cuales hemos extraído dos muestras inde-
pendientes.

Notad que ahora los datos no están emparejados y que, por tanto, las muestras
pueden ser de medida diferente (n1 y n2).

Esto exige una ordenación combinada de las dos muestras con rangos asigna-
dos:

Ordenación mínimo (Xi,Yj) ... máximo (Xi,Yj)

Rangos 1 ... n1 + n2

Si contamos el número de observaciones de una de las muestras que preceden


a cada observación de la otra muestra, o si utilizamos directamente los esta-
dísticos:

se puede demostrar que U1 + U2 = n1 × n2; podemos contrastar la hipótesis H0:


no hay diferencia entre poblaciones.

A partir de las tablas estadísticas de la prueba U encontramos los puntos crí-


ticos:

Zona de no-rechazo H0: U1, U2 ∈ (U1 – α/2, Uα/2)

Zona de rechazo H0: U1, U2 ∉ (U1 – α/2, Uα/2)


© FUOC • PID_00212763 43 Ampliación de inferencia estadística

Ejemplo

Suponed que dos máquinas trabajan láminas de acero de longitud aleatoria.


Queremos determinar si las medidas de las láminas que corta cada máquina
son parecidas. Una pequeña muestra de láminas cortadas con cada máquina
ha dado los resultados siguientes (en centímetros):

Máquina A: 42,1 42,4 42,7 42,5 40,2

Máquina B: 38,5 42,3 39,7

Queremos contrastar, con un 25% de significación, que no existe ninguna


diferencia entre las longitudes que proporcionan las dos máquinas.

Ya sabemos que con muestras más grandes o en poblaciones básicas normales


podríamos hacer contrastes t de Student; pero estos supuestos no se ajustan
al problema que tratamos, por lo cual tenemos que utilizar una prueba no
paramétrica como la de U de Mann-Whitney. (También podríamos utilizar la
prueba unilateral de las rachas, pero es menos potente que la prueba U).

Si combinamos las dos muestras, observaremos que presentan la ordenación


decreciente (que también podría haber sido creciente) siguiente:

Orden A A A B A A B B

Posición 1 2 3 4 5 6 7 8

con los estadísticos:


© FUOC • PID_00212763 44 Ampliación de inferencia estadística

Notad que U1 + U2 = n1 × n2 = 15

Con una significación α = 0,25, encontramos en las tablas los puntos críticos
que permiten contrastar la hipótesis planteada. Éstos son U1 –α/2 = 3 y Uα/2 = 12
y, dado que (2,13) ∉ (3,12), no podemos aceptar que las dos máquinas corten
láminas de longitud parecida.

Actividades

8. El análisis financiero de balances utiliza muy a menudo como medida de autofinan-


ciación empresarial la relación:

autofinanciación / total activo neto

Para comprobar si existen diferencias significativas entre los ratios que presentan las in-
dustrias alimenticias y los productos químicos, se han seleccionado dos muestras repre-
sentativas de estas dos actividades. Los resultados que se han obtenido son los siguientes:

Sector alimenticio: 12,20; 15,14; 13,17; 11,94; 14,61 y 12,27.

Sector químico: 13,19; 12,29; 14,11 y14,85.

Queremos averiguar si la estructura de autofinanciación de las empresas de ambos secto-


res es similar teniendo en cuenta el ratio calculado y aplicando el test U.

Si ordenamos los resultados de menos a más, encontraremos los estadísticos U1 = 16 y


U2 = 8 y, si vamos a las tablas para muestras de seis y de cuatro elementos (es lo mismo
que muestras de 4 y 6), encontraremos los puntos de la cola inferior U1 –α/2. Si queremos,
podemos calcular los puntos críticos superiores a partir de Uα/2 = 24 – U1 –α/2, lo cual os
permitirá distinguir situaciones diferentes.

α/2 U1 –α/2 Uα/2

0,005 0 24

0,010 1 23

0,019 2 22

0,033 3 21

0,057 4 20

Así pues, para niveles de significación α ≤ 0,1(α/2 ≤ 0,05), tenemos que admitir que los
ratios de autofinanciación son parecidos en los dos sectores.

(De hecho, la conclusión sería admisible hasta un nivel de significación tan alto como
es el de 0,476).

9. Un taller de madera trabaja con una determinada marca de cola de impacto y ha reci-
bido la oferta de una nueva marca, por este motivo se plantea la posibilidad de utilizarla.
Dado que las características de precio, color y conservación son parecidas, el único crite-
rio decisivo tiene que ser el tiempo necesario para conseguir una adherencia completa.
© FUOC • PID_00212763 45 Ampliación de inferencia estadística

Una primera prueba con la marca vieja, con diferentes tipos de madera (siete observacio-
nes), proporciona la secuencia de tiempo: 43 39 45 62 29 46 71.

Otra prueba con la marca nueva proporciona, después de seis observaciones, obtiene los
resultados: 38 51 54 48 68 37.

Aplicad la prueba U de Mann-Whitney para determinar si los tiempos de espera de secado


de la cola son parecidos.

Una vez ordenados los datos, encontraréis que U1 = 23 y que U2 = 19. Estos resultados
hacen admisible la hipótesis de tiempos de secado igual para las dos colas a los niveles
habituales del 5%, del 10% y de otros porcentajes.

Si las muestras son suficientemente grandes (n1, n2 > 10), podemos utilizar la
ley normal para hacer la prueba:

A partir del estadístico:

Ejemplo

Volviendo al ejemplo de las láminas de acero, si ahora aumentásemos la mues-


tra de láminas que salen de las dos máquinas y ordenásemos los resultados por
longitudes y obtuviéramos la secuencia:

A A A A A B A A A B A B B A A B B B B A B B B B B

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

tendríamos:

El valor del estadístico de la prueba sería:


© FUOC • PID_00212763 46 Ampliación de inferencia estadística

que claramente se localiza en la zona de rechazo de la hipótesis nula con un


nivel de significación α = 0,25.

*
λ = 3,1 ∉ ± 1,15

Actividad

10. Con facilidad os podéis dar cuenta de que el ejercicio anterior se podía resolver me-
diante una prueba unilateral de rachas. A pesar de que este último test es menos potente,
intentad resolver la cuestión planteada utilizando la prueba de las rachas.

Resolved el problema con el mismo nivel α = 0,25, lo cual exige la aproximación asin-
tótica a la normal, y veréis que en este caso la prueba unilateral de las rachas también
rechaza la igualdad de longitudes de las piezas que salen de las dos máquinas.

You might also like