You are on page 1of 16

Análisis de datos

en psicología II

Formulario
Capítulo 1
Introducción a la inferencia

Distribución muestral del estadístico media

– Si Y1, Y2, ..., Yn, son variables aleatorias continuas: y .

– Si las variables Y1, Y2, ..., Yn se distribuyen normalmente con parámetros y , entonces la
distribución muestral de es también normal con parámetros y .
– Y de acuerdo con el teorema del límite central siendo Y1, Y2, ..., Yn, variables aleatorias
independientes e igualmente distribuidas (cualquiera que sea su distribución) con parámetros
y , ambos finitos, la distribución muestral de tiende a la normalidad, con parámetros
y a medida que n va aumentando.
– Si es una variable aleatoria que, bajo las mencionadas circunstancias, se distribuye nor-
malmente, entonces:

Y con desconocida:

Distribución muestral del estadístico proporción

Si: – X es una variable dicotómica: 1 = “éxito” y 0 = “fracaso”;


– Medida en una muestra aleatoria de tamaño n;
– Con proporción de éxito (1) constante en cada extracción;
– n1 = “número de éxitos en las n extracciones”, es decir: ;
– P1 = n1/n = “proporción de éxitos en las n extracciones”.

Entonces:

Y a medida que el tamaño muestral va aumentando:


Intervalo de confianza para el parámetro media

– Con conocida (o tamaño muestral grande):

– Con desconocida:

Intervalo de confianza para el parámetro proporción

Precisión de la estimación y tamaño de la muestra

– En el caso de la media, con conocida:

– En el caso de la media, con desconocida:

– En el caso de la proporción:
Capítulo 2
Inferencia con una variable

Una variable dicotómica: contraste sobre una proporción

* Variable dicotómica.
* Muestra aleatoria de tamaño n.
* 1 = probabilidad asociada a una de las dos categorías de la variable.

1. Hipótesis:
a. Contraste bilateral: H0: 1 = k0 ; H1: 1 =/ k0 .
b. Contraste unilateral derecho: H0: 1 < $ k0 ; H1: 1 > k0 .
c. Contraste unilateral izquierdo: H0: 1 > $ k0 ; H1: 1 < k0 .
(k0 se refiere a la proporción concreta que interesa contrastar).
2. Supuestos: muestra aleatoria de n observaciones con probabilidad de éxito constante en cada
extracción.
3. Estadísticos del contraste:
3.1. n1 ' «número de éxitos en los n ensayos».
P1 ' n1 / n ' «proporción de éxitos en los n ensayos».

3.2. = =

4. Distribuciones muestrales:
4.1. n1 y P1 se distribuyen según el modelo binomial con parámetros n y 1 .
4.2. Z se aproxima a la distribución N (0, 1) a medida que n va aumentando3.
5. Reglas de decisión:
a. Contraste bilateral:
a.1. Se rechaza H0 si n1 o P1 toman un valor tan alejado de su valor esperado bajo H0 que
la probabilidad de obtener un valor tan alejado como ése o más es menor que  /2.
a.2. Se rechaza H0 si Z < $ Z/2 o Z $
> Z1! /2 .
b. Contraste unilateral derecho:
b.1. Se rechaza H0 si n1 o P1 toman un valor tan grande que la probabilidad de obtener
un valor como ése o mayor es menor que .
b.2. Se rechaza H0 si Z > $ Z1!  .
c. Contraste unilateral izquierdo:
c.1. Se rechaza H0 si n1 o P1 toman un valor tan pequeño que la probabilidad de obtener
un valor como ése o más pequeño es menor que .
c.2. Se rechaza H0 si Z < $ Z .
6. Intervalo de confianza: = .
Una variable politómica: contraste sobre bondad de ajuste

* Variable categórica (X ) con I categorías.


* Muestra aleatoria de tamaño n.
* Cada observación puede ser clasificada en una (y sólo una) de las I categorías de la variable Xi.
* El subíndice i se refiere, de forma genérica, a una cualquiera de esas categorías (i = 1, 2, ..., I).
* i = la probabilidad asociada a cada categoría.
* Con n extracciones se tiene, como resultado muestral, n1 observaciones en la categoría 1, n2
observaciones en la categoría 2, ..., nI observaciones en la categoría I.
X
1 2 ... i ... I
ni n1 n2 ... ni ... nI n

X = variable categórica.
ni = número de sujetos clasificados en la categoría i (frecuencias observadas).
mi = n i (Frecuencias esperadas: número de sujetos que cabe esperar en la categoría i ).

En este contexto, el concepto de bondad de ajuste se refiere al grado en que lo encontrado en la


muestra (ni) se parece (se ajusta) a lo que teóricamente debería haberse encontrado (mi).

1. Hipótesis:
H0 : f (ni ) = M (n; 1, 2, ..., I ).
Es decir, la función de probabilidad de la variable ni es multinomial con probabilidades teóricas
1, 2, ..., I asociadas a cada categoría i de la variable X.
H1 : f (ni ) =/ M (n; 1, 2, ..., I ).
Es decir, la función de probabilidad de la variable ni no es la propuesta en H0.
2. Supuestos: tenemos una muestra aleatoria de n observaciones (n ensayos) clasificada en las I
categorías exclusivas y exhaustivas de una variable categórica. La probabilidad de que una
observación pertenezca a cada una de las categorías de la variable se mantiene constante en los
n ensayos (es decir, las n observaciones son independientes entre sí).Y no más del 20 % de las
frecuencias esperadas (mi ) son menores que 5.

3. Estadístico del contraste (ver ecuación [9.4]): =

4. Distribución muestral: se aproxima a con I ! 1 grados de libertad. La aproximación es


tanto mejor cuanto mayores son las frecuencias esperadas de las casillas.
5. Zona crítica: $
> .
6. Regla de decisión: se rechaza H0 si el estadístico cae en la zona crítica; en caso contrario,
se mantiene.
7. Intervalo de confianza para la proporción teórica de cada casilla: siendo Pi = ni /n y teniendo en
cuenta que la frecuencia de cada casilla se distribuye según el modelo de probabilidad binomial:

Si se rechaza H0, este intervalo de confianza permite determinar en qué categorías de la variable
falla el ajuste. En concreto, decidiremos que el ajuste se rompe en una categoría cualquiera i
cuando el intervalo construido para esa categoría a partir de Pi no incluya el valor de la corres-
pondiente proporción teórica i .
Una variable cuantitativa: contraste sobre una media

1. Hipótesis:
a. Contraste bilateral: H0: Y = k0 ; H1: Y =/ k0 .
b. Contraste unilateral derecho: H0: Y < $ k0 ; H1: Y > k0 .
c. Contraste unilateral izquierdo: H0: Y > $ k0 ; H1: Y < k0 .
(k0 se refiere al valor concreto de Y que interesa contrastar).
2. Supuestos: muestra aleatoria de tamaño n extraída de una población normal (el supuesto de
normalidad va perdiendo importancia conforme el tamaño muestral va aumentando).

3. Estadístico del contraste: =

4. Distribución muestral: T se distribuye según t con n ! 1 grados de libertad (tn ! 1 ).


5. Zona crítica:
$ tn !1;  /2 y T >
a. Contraste bilateral: T < $ tn !1; .
$ tn !1; 1!  .
1!  /2
b. Contraste unilateral derecho: T >
c. Contraste unilateral izquierdo: T $ < tn !1; .
6. Regla de decisión: se rechaza H0 si el estadístico del contraste cae en la zona crítica; en caso
contrario, se mantiene.
7. Nivel crítico (valor p):
$ *Th*)], siendo Th el valor muestral concreto que toma el
a. Contraste bilateral: p = 2 [P (T >
estadístico T.
b. Contraste unilateral derecho: p = P (T >$ Th ).
c. Contraste unilateral izquierdo: p = P (T <$ Th).
8. Intervalo de confianza (ver ecuación [7.11]): = .
Capítulo 3
Inferencia con dos variables categóricas
Prueba X 2 de Pearson

* Dos variables: la primera, X , con I categorías a cada una de las cuales nos referiremos con el
subíndice i (i = 1, 2, ..., I ); la segunda, Y , con J categorías a cada una de las cuales nos refe-
riremos con el subíndice j ( j = 1, 2, ..., J ).
* n observaciones de una muestra aleatoria son clasificadas según dos criterios: las I categorías
de la variable X y las J categorías de la variable Y.
* Llamaremos i+ a la probabilidad de que una observación cualquiera pertenezca a la categoría
i de la variable Xi. Llamaremos +j a la probabilidad de que una observación cualquiera per-
tenezca a la categoría j de la variable Yj. Y llamaremos, por último, ij a la probabilidad de que
una observación cualquiera pertenezca a una de las IJ casillas.

Y
X 1 2 AAA j AAA J ni+
1 n11 n12 AAA n1 j AAA n1 J n1+ n i j = frecuencias conjuntas de X e Y.
2 n21 n22 AAA n2 j AAA n2 J n2+ n i + = frecuencias marginales de X.
AAA AAA AAA AAA AAA AAA AAA AAA
i ni 1 ni 2 AAA nij AAA ni J ni + n+ j = frecuencias marginales de Y.
AAA AAA AAA AAA AAA AAA AAA AAA
I nI 1 nI 2 AAA nI j AAA nI J nI + n = número total de casos.
n+j n+1 n+2 AAA n+ j AAA n+J n

1. Hipótesis:
H0: X e Y son variables independientes (es decir, = , para todo ij ).
H1: X e Y no son variables independientes (es decir, =/ , para algún ij ).
2. Supuestos: una muestra aleatoria de n observaciones es clasificada en las I × J combinaciones
(casillas) resultantes de combinar dos variables categóricas; la probabilidad de que una obser-
vación cualquiera pertenezca a cada una de las casillas se mantiene constante durante todo el
proceso de clasificación; no más del 20 % de las frecuencias esperadas son menores que 5 (ver,
en el Apéndice 9, el apartado Supuestos del estadístico X 2 de Pearson).

3. Estadístico del contraste (ver 10.7]: = ( )

4. Distribución muestral: se aproxima a con (I !1) (J !1) grados de libertad.


5. Zona crítica: $
> (ver Tabla D del Apéndice final).
6. Regla de decisión: se rechaza H0 si el estadístico cae en la zona crítica; en caso contrario,
se mantiene. Si se rechaza H0 se concluye que las variables X e Y están relacionadas.

Residuos tipificados corregidos: =

Medidas de asociación: C = , =
Prueba de McNemar

Y n1+ ' nº de casos con X ' 1


X 1 2 Total n+1 ' nº de casos con Y ' 1
1 n11 n12 n1+ n11 , n22 ' nº de casos con X ' Y
2 n21 n22 n2+ n12 ' nº de casos con X < Y
n21 ' nº de casos con X > Y
Total n+1 n+2 n
n ' nº total de casos

1+ = proporción de “unos” en X o en el momento “antes”.


+1 = proporción de “unos” en Y o en el momento “después”.

1. Hipótesis:
a. Contraste bilateral: H0 : 1+ = +1 ; H1: 1+ =/ +1 .
b. Contraste unilateral derecho: H0 : 1+ <$ +1 ; H1: 1+ > +1 .
c. Contraste unilateral izquierdo: H0 : 1+ >$ +1 ; H1: 1+ < +1 .
2. Supuestos: muestra aleatoria de n sujetos en la que se ha medido una variable dicotómica en dos
momentos distintos (X e Y ) o dos variables dicotómicas (X e Y ) con las mismas categorías; o
bien, muestra aleatoria de n pares (X e Y ) de sujetos en la que se ha medido una variable
dicotómica.
3. Estadístico del contraste: = .
4. Distribución muestral: se aproxima a la distribución ji-cuadrado con 1 grado de liber-
tad ( ). La aproximación es buena incluso con muestras pequeñas.
5. Zonas críticas:
a. Contraste bilateral: $
> .
b. Contraste unilateral derecho : 2
$
> .
c. Contraste unilateral izquierdo2: $
> .
6. Decisión: se rechaza H0 si el estadístico del contraste cae en la zona crítica; en caso contrario,
se mantiene.
7. Nivel crítico (valor p):
a. Contraste bilateral: p = [P ( $
> )].
b. Contraste unilateral derecho: p = 2 [P ( $
> )].
c. Contraste unilateral izquierdo: p = 2 [P ( $
> )].
8. Intervalo de confianza (ver [3.6]): = .

Índice de riesgo relativo: =

Odds ratio: = =
Capítulo 4
Inferencia con dos variables cuantitativas
Prueba T para dos medias relacionadas

D = Y1 ! Y2

1. Hipótesis:
a. Contraste bilateral: H0: = k0 ; H1: =/ k0.
b. Contraste unilateral derecho: H0: $ k0 ; H1:
< > k0 .
c. Contraste unilateral izquierdo: H0: $ k0 ; H1:
> < k0 .
2. Supuestos: muestra aleatoria de n diferencias procedentes de una población normal (el supuesto
de normalidad va perdiendo importancia conforme el tamaño muestral va aumentando).
3. Estadístico del contraste: T =
4. Distribución muestral: T se distribuye según t con n !1 grados de libertad (tn !1).
5. Zona crítica:
$ tn !1;  / 2 y T >
a. Contraste bilateral: T < $ t n !1; .
$ tn !1; 1 !  .
1 !  /2

b. Contraste unilateral derecho: T >


c. Contraste unilateral izquierdo: T < $ tn !1;  .
6. Regla de decisión: se rechaza H0 si el estadístico del contraste cae en la zona crítica; en caso
contrario, se mantiene.
7. Intervalo de confianza: =

Contraste sobre el coeficiente de correlación de Pearson

1. Hipótesis:
a. Contraste bilateral: H0: XY = 0; H1: XY =/ 0.
b. Contraste unilateral derecho: H0: XY <$ 0; H1: XY > 0.
$ 0 ; H1: XY < 0.
c. Contraste unilateral izquierdo: H0: XY >
2. Supuestos: muestra aleatoria de n pares XY independientes entre sí procedentes de una población
normal (el supuesto de normalidad va perdiendo importancia conforme va aumentando el
tamaño muestral).
3. Estadístico del contraste: T =
4. Distribución muestral: T se distribuye según t con n ! 2 grados de libertad (tn !2).
5. Zona crítica:
$ tn !2;  / 2 y T >
a. Contraste bilateral: T < $ tn !2; .
b. Contraste unilateral derecho: T $
1!  / 2

> tn !2; 1!  .
c. Contraste unilateral izquierdo: T < $ tn !2;  .
6. Regla de decisión: se rechaza H0 si el estadístico del contraste cae en la zona crítica; en caso
contrario, se mantiene.

$ 50), puede rechazarse la hipótesis nula de independencia lineal


Con tamaños muestrales grandes (n >
cuando > (con p = 1 !  /2 si el contraste es bilateral y p = 1 !  si el contraste es
unilateral).
Contraste sobre el coeficiente de correlación de Spearman

1. Hipótesis:
a. Contraste bilateral: H0: X e Y no están relacionadas.
H1: la relación entre X e Y es monótona.
b. Contraste unilat. derecho: H0: X e Y no están relacionadas.
H1: la relación entre X e Y es monótona creciente.
c. Contraste unilat. izquierdo: H0: X e Y no están relacionadas.
H1: la relación entre X e Y es monótona decreciente.
2. Supuestos: muestra aleatoria de n pares de puntuaciones, independientes entre sí, obtenidos al
medir dos variables al menos ordinales.
3. Estadísticos del contraste:

3.1. RS =1!

3.2. T =

4. Distribución muestral:
4.1. Los puntos críticos r1 !  de la distribución muestral de RS se encuentran en la Tabla R del
Apéndice final para n <$ 30 y algunos valores de .
4.2. La distribución del estadístico T se aproxima al modelo de probabilidad t de Student con
n ! 2 grados de libertad (tn !2).
5. Zona crítica:
a. Contraste bilateral:
a.1. RS < r / 2 y RS > r1 !  / 2 .
a.2. T < $ tn !2;  / 2 y T >
$ tn !2; 1 !  / 2 .
b. Contraste unilateral derecho:
b.1. RS > r .
b.2. T > $ tn !2; 1 !  .
c. Contraste unilateral izquierdo:
c.1. RS < r1 !  .
c.2. T < $ tn !2;  .
6. Regla de decisión: se rechaza H0 si el estadístico del contraste cae en la zona crítica; en caso
contrario, se mantiene.
7. Nivel crítico (valor p):
$ *Th*)], siendo Th el valor muestral concreto que toma el
a. Contraste bilateral: p = 2[P (T >
estadístico T.
b. Contraste unilateral derecho: p = P (T >$ Th).
c. Contraste unilateral izquierdo: p = P (T $< Th).
Capítulo 5
Inferencia con una variable categórica
y una cuantitativa

Prueba T para dos medias independientes


1. Hipótesis:
a. Contraste bilateral: H0: ! = k0 ; H1: ! =/ k0.
b. Contraste unilateral derecho: H0: ! $ k0 ; H1:
< ! > k0 .
c. Contraste unilateral izquierdo: H0: ! $ k0 ; H1:
> ! < k0 .
2. Supuestos: tenemos dos muestras de tamaños n1 y n2 seleccionadas aleatoria e independiente-
mente de dos poblaciones normales.
3. Estadístico del contraste5:

3.1. Si puede asumirse = : T =

3.2. Si no puede asumirse = : TN =

4. Distribución muestral: T y T N se distribuyen según .


4.1. Para T, gl = n1 + n2 ! 2

4.2. Para T N, gl =

5. Zona crítica:
a. $
Contraste bilateral: T o T N < $
y T o TN > .
b. $
Contraste unilateral derecho: T o T N > .
c. $
Contraste unilateral izquierdo: T o T N < .
6. Regla de decisión: rechazar H0 si el estadístico T cae en la zona crítica; en caso contrario, man-
tenerla.
7. Intervalo de confianza: =

Medidas del tamaño del efecto

RXY =
Capítulo 6
Análisis de varianza (I)
Un factor completamente aleatorizado
ANOVA de un factor completamente aleatorizado (A-CA)

1. Hipótesis: H0: = = ··· = (todas las medias son iguales).


H1: =/ para algún j o jN ( j =/ jN) (no todas las medias son iguales).
2. Supuestos: J muestras aleatoriamente seleccionadas de J poblaciones normales con la misma
varianza.
3. Estadístico del contraste (ver ecuación [6.6]): F = =

4. Distribución muestral: F se distribuye según F con J !1 y N ! J grados de libertad.


5. $ FJ ! 1, N ! J ; 1 !  .
Zona crítica: F >
6. Regla de decisión: se rechaza H0 si el estadístico F cae en la zona crítica; en caso contrario, se
mantiene. El rechazo de H0 indica que no todas las medias poblacionales son iguales, es decir,
que hay al menos una media que difiere de al menos otra.
7. $ Fh ), siendo Fh el valor muestral concreto que toma el es-
Nivel crítico (valor p): p = P (F >
tadístico F.

Medidas del tamaño del efecto

! =

! = (efectos fijos)

! = (efectos aleatorios)

Comparaciones planeadas o a priori

Prueba de Dunn-Bonferroni

1. Hipótesis: H0 (h) : = c1  1 + c2  2 + · · · + cJ J = 0
2. Supuestos: los mismos que los del ANOVA.
3. Estadísticos del contraste:
3.1. Asumiendo varianzas iguales: TDB =

N =
3.2. No asumiendo varianzas iguales: T DB
4. Distribución muestral: la Tabla J del Apéndice final contiene los puntos críticos t bilaterales
de la distribución muestral de TDB y T NDB para F = 0,05 y F = 0,01, y para diferentes valores de
k (número de comparaciones) y glerror. En el caso de TDB , glerror = N ! J. En el caso de T NDB,

glNerror =

5. Decisión: se rechaza la hipótesis nula si el valor de TDB o de T NDB es mayor que el corres-
pondiente punto crítico de la Tabla J.
6. Intervalo de confianza: = ±

Comparaciones de tendencia

Si la VI es cuantitativa y sus niveles se encuentran igualmente espaciados, puede utilizarse el pro-


cedimiento del apartado anterior para estudiar el tipo de relación entre la VI y la VD. Lo único que
hay que hacer es seleccionar los coeficientes oportunos de la tabla de polinomios ortogonales (tabla
H del Apéndice final).

Prueba de Dunnett para comparaciones con un grupo control

DMS Dunnett =

donde t es el valor de la Tabla K del Apéndice final que corresponde a un nivel de significación F
con J medias (incluida la del grupo control) y N ! J grados de libertad. La tabla ofrece puntos críticos
para  F = 0,05 y  F = 0,01, y para contrastes bilaterales y unilaterales

Comparaciones post hoc o a posteriori

Prueba de Tukey
DMS Tukey =

donde q es el cuantil de la distribución del rango studentizado (Tabla L del apéndice final) que
corresponde a un nivel de significación  F con J medias y N ! J grados de libertad. Los puntos
críticos de la Tabla L se refieren siempre a contrastes bilaterales.
Con tamaños muestrales desiguales: DMS Tukey-Kramer =
_ _
Intervalo de confianza para la diferencia entre dos medias: = | Y j ! Y j N | ± DMS Tukey

Prueba de Scheffé

DMS Scheffé =

Intervalo de confianza: = ]

Si no puede asumirse homocedasticidad: DMS Brown-Forsythe =

con glNerror =
Capítulo 7. Análisis de varianza (II)
Dos factores completamente aleatorizados

Factor B
Factor A b1 b2 ··· bk ··· bK Suma
a1 ··· ···
a2 ··· ···
··· ··· ··· ··· ··· ··· ··· ···
aj ··· ···
··· ··· ··· ··· ··· ··· ··· ···
aJ ··· ···

Suma ··· ···

1. Hipótesis:
a. H0 (A) :  1+ =  2+ = · · · =  J+ (las medias poblacionales correspondientes a los J niveles
del factor A son iguales). Es decir, no existe efecto del factor A.
H1 (A):  j + =/  j’+ para algún j o j N (con j =/ j N ) (no todas las medias correspondientes a los
niveles del factor A son iguales). Es decir, existe efecto del factor A.
b. H0 (B) :  +1 =  +2 = · · · =  +K (las medias poblacionales correspondientes a los K niveles
del factor B son iguales). Es decir, no existe efecto del factor B.
H1 (B):  + k =/  + k’ para algún k o k N (con k =/ k N ) (no todas las medias correspondientes a
los niveles del factor B son iguales). Es decir, existe efecto del factor B.
c. H0 (AB) :  jk !  j’k =  j + !  j‘+ para todo j, j N o k (con j =/ jN) (la diferencia entre las medias
de dos casillas cualesquiera de la misma columna es igual a la diferencia entre las medias
marginales correspondientes a esas casillas). Es decir, no existe efecto de la interacción.
H1 (AB) : jk !  j‘k =/  j + !  j‘+ para algún j, jN o k (con j =/ jN) (no todas las diferencias entre
las medias de dos casillas cualesquiera de la misma columna son iguales a la diferencia entre
las medias marginales correspondientes a esas casillas). Es decir, existe efecto de la
interacción.
2. Supuestos: JK muestras de tamaño n aleatoriamente seleccionadas de JK poblaciones normales
con la misma varianza.
3. Estadísticos del contraste:

a. Para H0 (A) : FA =

b. Para H0 (B) : FB =

c. Para H0 (AB) : FAB =


4. Distribuciones muestrales:
a. FA se distribuye según F con J !1 y N ! JK grados de libertad.
b. FB se distribuye según F con K !1 y N ! JK grados de libertad.
c. FAB se distribuye según F con (J !1)(K !1) y N ! JK grados de libertad.
5. Zonas críticas:
a. FA $> FJ !1, N !JK; 1!  .
b. FB $> FK !1, N !JK; 1!  .
c. FAB $> F(J !1)(K !1), N !JK; 1!  .
6. Reglas de decisión:
a. Se rechaza H0 (A) si el estadístico FA cae en la zona crítica; en caso contrario, se mantiene. El
rechazo de H0 (A) implica que existe efecto significativo del factor A.
b. Se rechaza H0 (B) si el estadístico FB cae en la zona crítica; en caso contrario, se mantiene. El
rechazo de H0 (B) implica que existe efecto significativo del factor B.
c. Se rechaza H0 (AB) si el estadístico FAB cae en la zona crítica; en caso contrario, se mantiene.
El rechazo de H0 (AB) implica que existe efecto significativo de la interacción AB.

Medidas del tamaño del efecto

! =

! =

! =
Capítulo 8. Análisis de varianza (III)
Un factor con medidas repetidas

ANOVA de un factor con medidas repetidas (A-MR)

1. Hipótesis: H0: = = ··· = (todas las medias son iguales).


H1: =/ para algún j o jN ( j =/ jN) (no todas las medias son iguales).
2. Supuestos: J muestras aleatoriamente seleccionadas de J poblaciones normales con la misma
varianza; asumimos también que las varianzas de las diferencias entre cada par de medidas son
iguales (ver siguiente apartado).

3. Estadístico del contraste: F =

4. Distribución muestral: F se distribuye según FJ ! 1, (n !1) (J ! 1) .


5. $ FJ ! 1, (J !1) (n ! 1) ; 1 !  .
Zona crítica: F >
6. Regla de decisión: se rechaza H0 si el estadístico F cae en la zona crítica; en caso contrario, se
mantiene. El rechazo de H0 indica que no todas las medias poblacionales son iguales, es decir,
que hay al menos una media que difiere de al menos otra.
7. $ Fh ), siendo Fh el valor muestral concreto que toma el esta-
Nivel crítico (valor p): p = P (F >
dístico F.

Medidas del tamaño del efecto

! = (efectos fijos)

! = (efectos aleatorios)

! =

You might also like