Professional Documents
Culture Documents
8.1 INTRODUCCIÓN
Figura 8.1
1
La distribución t-Student se construye como un cociente entre una normal y la raíz de una ji cuadrado
independientes.
Cuando hay dos muestras: g.l.= (n-1) + (m-1)= (n+m-2) = N-2, siendo N la
suma de los individuos de los dos grupos.
Para entender de manera más sencilla el test vamos a desarrollar el siguiente ejemplo.
Ejemplo 8.1:
Supongamos que se desea comparar el efecto de dos dietas. Es decir queremos saber
si el cambio de peso (kg. adelgazados) de distintas personas obesas, que han seguido
o bien la dieta 1 o bien la dieta 2, depende de la dieta seguida por cada uno.
Figura 8.2
Nuestro objetivo es comparar la media de los kilogramos adelgazados por parte de los
sujetos que siguieron la dieta 1 con la media de los kilogramos adelgazados por los
que siguieron la dieta 2.
A partir de estas hipótesis hay que comprobar si la diferencia que existe entre las dos
medias es debida a que realmente es más efectiva una dieta que la otra o bien, si las
diferencias observadas se podrían explicar simplemente por azar.
x1 x2
t n m2
EEDM
08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 3 - 23
Diplomado en Salud Pública
2. Metodología en Salud Pública
Como en la mayoría de los test estadísticos, todo el secreto está en dividir la diferencia
observada por un término de error que estima la variabilidad biológica aleatoria.
x1 x2 18.57 17.54
t 28 0.30
EEDM 3.4
Como hay 30 individuos en total y se comparan dos grupos, nuestra t tiene 28 grados
de libertad (g.l. = 30-2 = 28).
En este ejemplo la t vale 0,3, es decir, el efecto observado (diferencia entre las dos
dietas) es sólo el 30% de la variabilidad biológica esperada. Casi sin necesidad de
mirar las tablas ya se puede decir que la diferencia entre las dietas es insignificante,
mucho menor que lo esperado por el azar.
Sólo nos falta saber qué es eso del error estándar de la diferencia de medias
(EEDM). ¿De dónde ha salido la cantidad 3,4 que aparece en el denominador y que
estima la variabilidad aleatoria esperada en este ejemplo?
1 1 1 1
EEDM s p 8.97 3.4
n m 19 11
Antes de aplicar el test que acabamos de ver, debemos comprobar si se cumplen las
condiciones de aplicación.
Las condiciones de aplicación del test t para comparar dos medias son:
A) NORMALIDAD
Comprobar que el máximo y el mínimo queden dentro del intervalo definido por:
Media + 3 desviaciones estándar
Que la asimetría (en valor absoluto) sea menor que dos veces su error
estándar: |Asimetría| < 2 errores estándar de asimetría
Que la curtosis (en valor absoluto) sea menor que dos veces su error estándar:
|Curtosis| < 2 errores estándar de curtosis
2
Recordad el teorema central del límite estudiado en el tema 3.
Los test de normalidad más utilizados y que podemos obtener con SPSS son el test
de Kolmogorov-Smirnov o el test de Shapiro-Wilks (utilizado si n ≤ 50).
Además de seguir una distribución normal hay que comprobar que las varianzas de
ambos grupos sean iguales, es decir, homogéneas.
varianza mayor
F
varianza menor
Cuando las varianzas sean distintas, se puede emplear el t-test pero hay que hacer
en él una modificación que afecta al error estándar y a los grados de libertad. Esta t
modificada se conoce como aproximación de Welch o test de Welch y nos aparecerá
cuando realizamos una t de Student en SPSS.
3
Veremos las pruebas no paramétricas en el tema 9.
Con lo visto hasta ahora hemos resuelto el problema de la comparación de dos grupos
independientes, pero se ha llegado a una conclusión algo limitada: “no existen
diferencias significativas”. Falta algo imprescindible: estimar la magnitud de la
diferencia entre ambos grupos. Vimos que esto se resolvía calculando unos límites de
confianza a la diferencia de medias.
IC1 1 2 ( X 1 X 2 ) t ; N 2
EEDM
2
Interpretación: “La diferencia de kilogramos adelgazados por parte de los que siguen la
dieta 1 fue de un promedio de 1,03 Kg. más que en el grupo que siguió la dieta 2. Con
una confianza del 95% podemos decir que este intervalo sería uno de los que
contienen la diferencia poblacional de Kg. adelgazados, si repitiésemos la estimación
100 veces”. No hay diferencias significativas4, los que siguen la dieta 1 pueden
adelgazar 8 Kg. más o 6 Kg. menos que los que siguen la dieta 2.
Como hemos visto, antes de hacer el test empezamos por comprobar la normalidad
en cada grupo.
4
Recordad la relación entre contrastes de hipótesis e intervalos de confianza: El valor p será significativo,
sólo cuando el I.C. no incluya el 0.
Para comparar las medias de una variable cuantitativa continua entre dos grupos
independientes, seleccionamos Analizar / Comparar medias / Prueba T para
muestras independientes
El procedimiento calculará las medias de la variable continua para los dos grupos
seleccionados de la variable cualitativa y creará el contraste para determinar si
existen diferencias significativas o no entre las medias de dos muestras
independientes.
Prueba de Levene
para la igualdad de
v arianzas Prueba T para la igualdad de medias
95% Interv alo de
confianza para la
Dif erencia Error típ. de dif erencia
F Sig. t gl Sig. (bilateral) de medias la diferencia Inferior Superior
red_peso Se han asumido
,111 ,742 ,304 28 ,763 1,033 3,400 -5,932 7,999
v arianzas iguales
No se han asumido
,312 22,704 ,758 1,033 3,313 -5,825 7,892
v arianzas iguales
Interpretación:
El test de Levene para analizar la igualdad de varianzas entre los dos grupos,
concluye que no existen diferencias significativas entre la variabilidad de dichos grupos
(p=0,742 > 0,05).
De las dos soluciones para el test de medias que nos proporciona el programa, nos
quedamos con la primera: t=0,304, significación p=0,763 > 0,05. Luego no se rechaza
la hipótesis nula y por tanto no hay diferencias significativas entre el peso
perdido con las dos dietas.
En el apartado anterior hemos visto cómo comparar las medias de dos grupos
independientes. Ahora vamos a estudiar la situación en la que cada observación de
un grupo está relacionada con una observación del otro. Se trata de un diseño
emparejado.
Ejemplo 8.2:
Utilizando la opción que los tests de normalidad que nos ofrece SPSS, vemos que
ambos tests dan un valor de p no significativo (p>0,05) (como n<50 es más correcto
utilizar el test de Shapiro-Wilks). No hay evidencias para rechazar la hipótesis nula
de normalidad.
EEMDIF S DIF 11 .1 2 .0
N 30
En una t de Student para datos emparejados los grados de libertad son N-1, siendo
siempre N el total de individuos estudiados.
N Correlación Sig.
Par 1 FREC_PRE y
30 ,828 ,000
FREC_POST
En la última tabla es donde aparecen los resultados interesantes del t test. Estos
resultados se basan en una variable que crea internamente SPSS y que equivale a la
que hemos creado nosotros y hemos llamado DIF.
Diferencias relacionadas
95% Interv alo de
confianza para la
Desv iación Error típ. de diferencia
Media típ. la media Inf erior Superior t gl Sig. (bilateral)
Par 1 FREC_PRE -
9,1333 11,1254 2,0312 4,9790 13,2876 4,496 29 ,000
FREC_POST
Interpretación:
Puede estimarse con una confianza del 95% que la verdadera diferencia entre las
medias se encuentra entre 4,97 y 13,28 pulsaciones (a favor de la frecuencia cardiaca
antes del entrenamiento).
Obtenemos una valor t=4,496 con un p-valor=0,000, luego podemos rechazar nuestra
H0. Existen evidencias (con una confianza del 95%) para afirmar que el programa de
entrenamiento se ha acompañado de un descenso en la frecuencia cardiaca. El
descenso medio estimado fue de 9 latidos por minuto después del programa de
entrenamiento.
Figura 8.4
Cuando hay más de dos grupos, no es correcto usar la t de Student, pues esto
supondría hacer varios tests por parejas, incrementándose globalmente la tasa de
error. En estos casos, se debe utilizar el análisis de la varianza de una vía5.
La t de Student para dos medias independientes es sólo un caso particular del análisis
de la varianza. Si se recurriese al ANOVA para comparar sólo dos grupos, se
obtendrían exactamente los mismos resultados que con la t de Student.
5
Caso más simple del ANOVA
El ANOVA contrasta la hipótesis nula de que todas las poblaciones de las que
proceden los grupos tienen medias idénticas. La hipótesis alternativa es
simplemente que los grupos son distintos entre sí.
H0: 1 2 ... K
H1: al menos una de las medias es distinta
Al igual que en otros tests, este cociente da como resultado un valor, en este caso se
llama F6. Este valor F es el que, comparándolo con el de las tablas correspondientes
(distribución F), se transforma en un valor p.
Dicho valor p se interpreta como la probabilidad de hallar unas medias de los grupos
tan diferentes entre sí como las observadas (o más aún), si procediesen de
poblaciones que tienen exactamente la misma media (hipótesis nula).
x x
2
SC
varianza
i
n 1 g.l.
6
F de Snedecor (o de Fisher, que fue quien lo describió).
Cuanto más diferentes sean los grupos entre sí, mayor proporción de la SC total
vendrá de la diferencia de las medias de los distintos grupos entre sí.
Los modelos ANOVA se basan en la idea de que la variabilidad total de los datos es
la suma de dos componentes: la variabilidad debida a las diferencias entre los
distintos sujetos y la debida a las diferencias entre las medidas para cada sujeto.
Ejemplo 8.3:
Se realiza una investigación para averiguar cómo distintos tipos de intervención sobre
la dieta influyen en el cambio de los niveles de colesterol después de 6 meses de
intervención en voluntarios que no presentan hipercolesterolemia.
Se han asignado 5 voluntarios al grupo control, 5 a una dieta moderada y 4 a una dieta
estricta.
Los resultados del cambio de colesterol LDL (mg/dl) se recogen en la siguiente tabla:
Como vemos, en nuestra muestra, hay pequeñas diferencias entre las medias de los
tres grupos:
Veamos en nuestro ejemplo los pasos que hay que seguir para hacer los cálculos de
un ANOVA:
SCG 637,2
Varianzas entre grupos 318,6
g.l.g 2
SCR 670,8
Varianza residual 61
g.l.r 11
Siempre que el valor F encontrado sea superior al tabulado, diremos que hay
significación estadística.
Para que los resultados del ANOVA puedan considerarse válidos hay que comprobar
que se cumplen unas condiciones de aplicación. Estas condiciones son:
A) TIPOS DE VARIABLES
B) NORMALIDAD
Aunque suele decirse que el requisito es que la variable dependiente siga una
distribución normal, lo realmente importante es que la distribución de los residuales
(diferencia entre cada valor y la media de su grupo) se aproxime bien a una
normal.
En SPSS se crea la variable que llamaremos residual y se comprueba su normalidad
mediante el test de Kolmogorov-Smirnov o Shapiro-Wilks.
En el ejemplo 8.3, podemos asumir que los residuos siguen una distribución normal:
Pruebas de normali dad
a
Kolmogorov -Smirnov Shapiro-Wilk
Estadíst ico gl Sig. Estadíst ico gl Sig.
resid ,109 14 ,200* ,962 14 ,758
*. Este es un lí mit e inf erior de la signif icación v erdadera.
a. Corrección de la signif icación de Lillief ors
Las varianzas de cada grupo deben ser iguales 12 22 ... K2 . Es decir, las
dispersiones de los datos no deben diferir entre los grupos a comparar.
Esto se comprueba en SPSS con el test de Levene
En el ejemplo 8.3, nos podríamos preguntar si los individuos del grupo control tienen
un cambio significativamente peor que los individuos de los dos grupos de intervención
con dieta (moderada y estricta). O bien, si los de la dieta estricta han disminuido más
su colesterol que los de la dieta moderada.
Los más clásicos y conocidos (que podemos obtener con SPSS como muestra
la figura 8.7) son el de Bonferroni y el de Scheffé.
Figura 8.7