CONTRASTES PARAMETRICOS PARA MAS DE DOS MUESTRAS INDEPENDIENTES CON
UN FACTOR (TEMA 12)
Se trata de comparar ms de dos muestras, ello nos dar una idea mucho mayor de la relacin que se pueda establecer entre las variables. Cuantos ms valores de la variable independiente se muestreen, mejor ser la evaluacin de nuestra influencia sobre la variable dependiente dada. Tiene por objeto estudiar la influencia de ms de dos valores de la variable independiente sobre la variable dependiente. Tiene la posibilidad de contrastar ms de dos valores de la variable independiente, lo cual nos dar una idea de la relacin que se establece entre esta y la variable dependiente objeto de estudio. Una de las caractersticas ms importantes del diseo experimental es la aleatoriedad. La variabilidad est formada por dos partes o componentes: Factor estudiado: (Variabilidad debida a las distintas dosis establecidas) Error experimental: (Variabilidad debida a factores extraos y no controlados) ANALI SI S DE VARI ANZA: Su cometido es discernir que variabilidad corresponde a cada parte. Factor: Variable independiente. Niveles: Categoras en que se dividen los factores o variables independientes. Diseo de efectos aleatorios o modelo aleatorio: Da igual unas dosis que otras, siempre que se pueda establecer un sentido ascendente o descendente. Modelo de efectos fijos o modelo fijo: Son niveles establecidos que interesan al investigador. Modelo no equilibrado: Las muestras son de distinto nmero de elementos. Modelo equilibrado: Todas las muestras son iguales. ANALI SI S DE VARI ANZA: Su finalidad es contrastar la diferencia de medias de varias muestras. Hiptesis nula: Afirmar que no existe diferencia alguna entre las medias (en la variable dependiente) de los distintos grupos. Hiptesis alternativa: Afirmar que existe diferencia al menos en una de las medias (en la variable dependiente) de los distintos grupos. Varianza intergrupos: (Varianza entre grupo). Varianza atribuible a los distintos niveles del factor en estudio. Varianza intragrupo: (Varianza de error). Varianza atribuible al error. De la comparacin de ambas varianzas obtenemos la aceptacin o el rechazo de la hiptesis nula. ANALI SI S DE VARI ANZA: Su razonamiento es el siguiente: lgicamente dentro de un mismo nivel, como el efecto del factor es nico, las puntuaciones deberan ser semejantes, es decir, presentar una variabilidad prcticamente nula; en tanto en cuanto esta variabilidad dentro de los grupos sea grande (dado que a todos los sujetos de un mismo grupo se les ha dado un mismo tratamiento), es que estn influyendo factores extraos y no controlados en el diseo. As pues la varianza dentro de cada grupo o nivel podemos considerarla como varianza de error. Si la varianza intergrupos es significativamente mayor que la varianza intragrupos (o de error), se admite que hay diferencia entre los grupos; de lo contrario se acepta la hiptesis nula.
.- ANALISIS DE VARIANZA DE UN FACTOR (Efectos fijos) Restricciones paramtricas del anlisis de varianza: 1. Independencia de las observaciones 2. Normalidad de las distribuciones 3. Homogeneidad de las varianzas (homocedasticidad) Suma de Cuadrados Total: Variabilidad total. SCinter: Es la suma de la media de cada nivel menos la media total, mide la variabilidad entre los niveles. Es un estimador sesgado pues su esperanza es igual a la varianza ms un sumando. SCintra: Es la suma de cada puntuacin menos la media de su nivel al cuadrado, mide la variabilidad dentro de cada nivel. Es un estimador insesgado de la varianza poblacional.
Fuentes de Variacin Suma de Cuadrados g.l. Medias Cuadrticas F Entre niveles SCinter I-1 MCinter = SCinter / I-1 F = MCinter / MCintra Dentro de los niveles SCintra N-I MCintra = SCintra / N-I Total SCtotal N-1 Comparaciones mltiples: Al rechazar la hiptesis nula se est afirmando que algn B i es distinto de cero, pero no se sabe cul. Al menos entre dos medias hay diferencias, para ver entre que par de medias est la diferencia que ha hecho que se rechace la hiptesis nula. (Efectos aleatorios) Si el modelo es de efectos aleatorios los niveles del factor son una muestra aleatoria de todos los niveles posibles. El modo de probar la hiptesis nula es ahora sobre su varianza.
.- COMPARACIONES MULTIPLES Las comparaciones mltiples permiten establecer una informacin ms exacta sobre la importancia de cada uno de los niveles de la variable independiente. Comparaciones planificadas o a priori: Son aquellas en las que el investigador est interesado antes de llevar a cabo el experimento. Comparaciones no planificadas, a posteriori o post hoc: Son aquellas en que el investigador, una vez realizado el anlisis de varianza y obtenido un resultado significativo, desea tener un conocimiento ms exacto sobe la causa de las diferencias. El objeto de las comparaciones mltiples es reducir la cantidad del error Tipo I que cometeramos si comparsemos, sin ms, dos a dos todas las muestras. H0 cierta H0 no cierta (falsa) Aceptar H0 Error Tipo II | No aceptar H0 (rechazar) Error Tipo I o
o es la probabilidad de rechazar H 0 siendo cierta. es la probabilidad de aceptar H 0 siendo falsa.
(Comparaciones planificadas o a priori) Lo que interesa es realizar unas determinadas comparaciones entre unos grupos, pero no entre todos los que entran en la investigacin. Para evitar la acumulacin de error de Tipo I, se acude al anlisis de varianza pero no es su resultado lo que nos interesa, sino esas comparaciones respecto a nuestras hiptesis especficas diseadas de antemano. En la prctica las comparaciones planificadas son aquellas que son importantes en trminos de las variables experimentales, si esas comparaciones son redundantes o no, no tiene demasiada importancia. La importancia de las comparaciones planificadas radica en su naturaleza de <<a priori>>, no en su independencia. Comparaciones planificadas no ortogonales: () Se puede comparar todas las medias o grupos de medias que se quiera sin preocuparse de que las comparaciones sean independientes. Los coeficientes de comparacin son aquellos cuya suma en valores absolutos, sea igual a 2. Comparaciones planificadas ortogonales: () Slo se pueden comparar las medias o grupos de medias cuando k-1 son independientes.
(Comparaciones no planificadas, a posteriori o post hoc) Son aquellas que no se deciden sino despus de que el investigador haya obtenido los resultados del anlisis de varianza. Prueba de Tukey (HSD): Realiza comparaciones entre pares de medias, comparaciones dos a dos, fijando la tasa de error tipo I en o. La diferencia mnima que debe existir entre dos medias muestrales para, a partir de ah, decir que hay una diferencia entre las correspondientes medias poblacionales. Una comparacin entre dos medias es significativa si su diferencia, en valor absoluto, excede del valor HSD que se obtenga. Prueba de Scheff: Permite realizar comparaciones complejas. Fija la tasa de error de tipo I en el o al que estemos trabajando. Es ms conservadora que la anterior.
.- SUPUESTOS DEL ANALISIS DE VARIANZA Independencia de las observaciones: Las distintas muestras o grupos a comparar hayan sido obtenidas aleatoriamente. Tanto las muestras como las observaciones deben ser independientes. Normalidad de las distribuciones: Las muestras o grupos deben proceder de poblaciones que se distribuyan normalmente, en la variable estudiada. Homogeneidad de la varianzas: Los grupos a comparar deben proceder de poblaciones que no difieran significativamente en sus varianzas.
(Independencia de las observaciones) Los grupos a comparar no deben estar relacionados. Las observaciones deben ser aleatorias. Test de Rachas: La H 0 que se establece, al aplicar esta prueba, es la de independencia de todas las observaciones. La alternativa es que existe dependencia entre las observaciones. Es necesario dicotomizar la variable observada utilizando la mediana como factor de dicotomizacin. (Normalidad de las distribuciones) Las muestras o grupo a comparar deben proceder de poblaciones que se distribuyen normalmente en la variable estudiada. Se aplican los test de bondad de ajuste de las observaciones a la curva normal: Chi cuadrado de Pearson, Test de Kolmogorov - Smirnov. (Homogeneidad de las varianza) Los grupos deben proceder de poblaciones que no difieran significativamente en sus varianzas, en la variable estudiada. Esta condicin es la que ms va a distorsionar los resultados en caso de no cumplirse. Test de Cochran (modelos equilibrados): La H 0 que se establece, es que las varianzas de las poblaciones son iguales. La alternativa es que al menos una es distinta. Se utilizan las varianzas de los grupos o muestras que queremos comparar, realizndose un cociente entre las varianza mayor y la suma de todas ellas. Test de Bartlett (modelos no equilibrados): Para aplicarlo parte de las varianzas insesgadas de los grupos o muestras y obtiene una varianza insesgada ponderada de todas ellas. Es muy sensible a la no-normalidad de los datos, por lo que s se sospecha que stos no son normales no debe utilizarse. (Consecuencia del no-cumplimiento de los supuestos) No produce serias consecuencias, sobre todo cuando las muestras son equilibradas y el modelo es de efectos fijos, debido a que F es un test robusto. Cuando las desviaciones son importantes hay que acudir a determinadas transformaciones de las puntuaciones, que las corrijan.
.- F<1 Aparecen a veces Segn Snedecor no presentan mayor importancia, por atribuirlos a variaciones del muestreo. Segn Ostle, implica o bien que no se cumplen los supuestos del anlisis de varianza; o bien que el modelo utilizado no es el adecuado.
CONTRASTES PARAMETRICOS PARA MAS DE DOS MUESTRAS INDEPENDIENTES CON DOS FACTORES (TEMA 13)
En el Anlisis de Varianza de un solo factor tenamos una sola variable independiente (factor) y queramos ver su influencia sobre una variable dependiente. En el modelo con dos factores vamos a estudiar la influencia que sobre una variable dependiente ejercen dos variables independientes (factores) Modelo bifactorial.
.- MODELO BIFACTORIAL: Es aquel en el que existen dos factores, de modo que todos los niveles de uno de los factores se combinan con todos los niveles del otro factor. Adems del modelo aleatorio y modelo fijo, existe un tercer modelo: Modelo mixto: Es cuando un factor es de efecto fijo y el otro de efecto aleatorio. (Modelo bifactorial sin interaccin. Efectos fijos) Aditividad: Se cumple cuando los sumatorios de cada factor son igual a cero. Sobre las hiptesis estadsticas, existen dos hiptesis nulas con sus correspondientes alternativas, una para cada factor. Supuestos: Independencia de las observaciones, Normalidad de las distribuciones y Homogeneidad de las varianzas. Si MCfilas es muy grande (ms de lo que cabra esperar por efecto del azar en el muestreo) respecto a MCerror se admite que algn factor es diferente de cero. Pues en teora si los factores son igual a cero, las dos esperanzas sern iguales y, por tanto el cociente igual a la unidad. Si MCfilas no es muy grande respecto a MCerror se admite que los factores son igual a cero y ello implica que no hay diferencia entre los tratamientos o niveles del factor que se est analizando. Regin crtica: para afirmar si MCfilas es o no grande respecto a MCerror se determina por la distribucin F con los grados de libertad del numerador y del denominador. Fuentes de Variacin Suma de Cuadrados g.l. Medias Cuadrticas F Entre niveles SCfilas T-1 MCfilas = SCfilas / T-1 F = MCfilas / MCerror Dentro de los niveles SCcolumnas I-1 MCcolumnas = SCcolumnas / I-1 F = MCcolumnas / MCerror Residual SCerror N-T-I+1 MCerror = SCerror / N-T-I+1 Total SCtotal N-1 (Modelo bifactorial con interaccin. Efectos fijos) Adems de la influencia que ejercen por separado cada uno de los factores, existe tambin una influencia debida a la interaccin entre los factores, es decir, que el efecto producido por los niveles de uno de los factores, depende de los niveles del otro factor. Con respecto a las hiptesis estadsticas existen tres hiptesis nulas (con sus correspondientes alternativa) una para cada factor y otra para la interaccin. La variabilidad total o suma de cuadrados total (SCtotal) se descompone en la suma de cuatro variabilidades: SCtotal = SCfilas + SCcolumnas + SCinteraccin + SCerror La MCerror es un estimador insesgado de la varianza poblacional. La MCfilas y la MCcolumnas son estimadores sesgados pues su esperanza es igual a la varianza poblacional ms un sumando. La MCinteraccin es tambin un estimador sesgado con un sesgo aditivo, funcin de la interaccin de los factores A y B. Regin crtica: para afirmar si MCfilas es o no grande respecto a MCerror se determina por la distribucin F con los grados de libertad del numerador y del denominador. El primer valor de F que debemos probar es el debido a la interaccin, pues, si aceptamos la hiptesis nula de la interaccin, es decir que esta no existe, el modelo se considera aditivo. Fuentes de Variacin Suma de Cuadrados g.l. Medias Cuadrticas F Entre filas SCfilas T-1 MCfilas = SCfilas / T-1 F = MCfilas / MCerror Entre columnas SCcolumnas I-1 MCcolumnas = SCcolumnas / I-1 F = MCcolumnas / MCerror Interaccin SCinteraccin (T-1)(I-1) MCinteraccin = SCinterac / (T-1)(I-1) F = MCinteracc / MCerror Residual SCerror TI(n-1) MCerror = SCerror / TI(n-1) Total SCtotal N-1 Si el modelo no es equilibrado los clculos son los mismos salvo que en el denominador habra que poner la cantidad de individuos que componen cada muestra. ( Efectos fijos, aleatorios y modelo mixto) Modelo de efectos fijos: Los niveles en los que trabajamos, en ambos factores, son los que nos interesan y sobre los que hemos de realizar la inferencia. Modelo de efectos aleatorios: En los dos factores, los niveles de la variable independiente con los que estamos trabajando son una muestra posible de todos los posibles niveles. Las hiptesis no se plantean sobre las medias poblacionales de los efectos de los factores, sino sobre sus varianzas. La varianza de todas las medias ser cero cuando todas ellas sean iguales. Modelo mixto: Uno de los factores es de efectos fijos y el otro de efectos aleatorios. Modelo bifactorial aditivo: La muestras aleatorias de niveles se suponen distribuidas N(0,o B ) para el factor B y N(0,o A ) para el factor A. Modelo bifactorial aditivo con efectos aleatorios: Las hiptesis no se plantean sobre las medias poblacionales de los efectos de los factores, sino sobre sus varianzas. La varianza de todas las medias ser cero cuando todas ellas sean iguales.
.- MODELO CON CLASIFICACION SUBORDINADA O JERARQUICO Ciertos niveles de un factor estn ligados a ciertos niveles del otro, es decir, que ciertos niveles de un factor slo pueden darse en ciertos niveles del otro. No se pueden cruzar los factores. En el modelo de efectos fijos las hiptesis nulas a probar son: que todas las B i = 0 y que todas las A t(i) = 0. Si las dos hiptesis se aceptan, el efecto del tratamiento es . Respecto a las hiptesis estadsticas se tienen dos hiptesis nulas (con sus correspondientes alternativas) una para cada factor. La variabilidad total o suma de cuadrados total (SCtotal) se descompone en la suma de tres variabilidades: SCtotal = SCprincipal + SCsecundario + SCerror Regin crtica: para afirmar si MCprincipal es o no grande respecto a MCerror se determina por la distribucin F con los grados de libertad del numerador y del denominador.
CONTRASTES PARAMETRICOS PARA MAS DE DOS MUESTRAS DEPENDIENTES: ANALISIS DE VARIANZA CON MEDIDAS REPETIDAS CON UN FACTOR (TEMA 14)
ALEATORIZACIN: Es la asignacin de los sujetos al azar a los distintos niveles del factor para que todos tengan la misma probabilidad de recibir un nivel concreto. (Se aplica el mismo tratamiento a todos lo sujetos de la muestra). + Con esto se consigue que las variables extraas al experimento estn repartidas aleatoriamente entre grupos. + Puede ocurrir que el influjo de alguna variable extraa sea tan importante que llegue a distorsionar los posibles efectos atribuibles a los tratamientos DISEO DE BLOQUES HOMOGNEOS: Los bloques estarn constituidos por k sujetos homogneos, similares en cuanto a la variable extraa se refiere. Los tratamientos se asignan al azar dentro de cada bloque, de modo que cada tratamiento aparezca una sola vez en cada uno. Por ello el diseo se llama aleatorizado en bloques completos. (Un bloque / sujeto pasa o se le aplican todos los tratamientos del contraste). + Los diseos de medidas repetidas o con ms de dos muestras dependientes, son muy importantes en los trabajos experimentales porque los elementos que forman la poblacin estadstica suelen ser personas y stas pueden dar una gran variedad de respuestas ante los mismos tratamientos. + Es importante poder separar la fuente de variabilidad intersujetos del efecto de los tratamientos del error experimental, ya que lo que nos interesa primordialmente es la diferencia entre tratamientos y no entre personas. + Uno de los objetivos principales de los experimentos en que se evala al sujeto bajo cada uno de los tratamientos es conseguir un control de las diferencias entre sujetos. En estos experimentos se miden los efectos del tratamiento para el sujeto j, con respecto al promedio de respuestas dadas por ese sujeto a todos los tratamientos. As cada sujeto acta como su propio control. + Estos diseos conllevan el peligro de que la secuencia en que se les pasan los tratamientos influya en los resultados.
.- MODELOS Y SUPUESTOS + Este modelo de medidas repetidas requiere de un supuesto adicional referido al nuevo trmino P j . El modelo supone que Pj es una variable aleatoria distribuida normalmente e independientemente de los B j y los c ij . Vamos a llamar aditividad a esta condicin de independencia entre los P j , los B j y los c ij . Este supuesto implica que los tratamientos no interactan con los sujetos: unos tratamientos difieren o no de otros independientemente de los sujetos sobre los que se aplican. Como adems los errores se suponen aleatorios, las varianzas de cada sujeto sern iguales. Y como consecuencia de esto y de la independencia entre los P j y los cij, las covarianzas entre las puntuaciones de cada par de tratamientos sern tambin iguales. Todo ello est reflejado en el modelo pues los componentes B j y los P j estn combinados aditivamente (se suman), no existiendo ningn trmino referido a la interaccin entre ambos. + Los supuestos a verificar son: 1. Las n observaciones bajo cada tratamiento son aleatorias e independientes. 2. Las I poblaciones - tratamiento tienen distribucin normal. 3. Las I poblaciones - tratamiento tienen la misma varianza. 4. Las I(I-1)/2 covarianzas entre las I poblaciones - tratamiento son iguales (aditividad o no-interaccin personas - tratamiento). Este supuesto es una condicin suficiente pero no necesaria. Una condicin necesaria y suficiente tiene que ver con las varianzas de las diferencias entre cada par de tratamientos (supuesto de circularidad). 5. Variable medida, al menos, a nivel de intervalo. + Variabilidad del sistema: SCtotal = SCintersujetos + SCintrasujetos + La diferencia entre dos observaciones del mismo sujeto (que genera la variabilidad intrasujetos), depende en parte de la diferencia debida a los efectos de los tratamientos y en parte a la varianza residual o error (los efectos incontrolados.
.- ESTADISTICO DE CONTRASTE. + La hiptesis nula del modelo que queremos contrastar es que las I medias ( i ) del factor B son iguales (B i = 0 para todo i).
.- CALCULOS + Las medias cuadrticas se obtienen dividiendo las correspondientes sumas cuadrticas por sus respectivos g.l., y la razn F=MCtrat. / MCerror contrasta la hiptesis de que las medias de los tratamientos no difieren entre s.
Fuentes de Variacin Suma de Cuadrados g.l. Medias Cuadrticas F Intersujetos SCintersuj n-1 MCintersuj = SCintersuj / n-1 Intrasujetos SCintrasuj n(I-1) MCintrasuj = SCintrasuj / n(I-1) Tratamientos SCtrat I-1 Mctrat = SCtrat / I-1 F = MCtrat / MCerror Error SCerror (n-1)(I-1) MCerror = SCerror / (n-1)(I-1) Total SCtotal In-1
.- SUPUESTO DE ADITIVIDAD, SIMETRIA COMPUESTA Y CIRCULARIDAD ADITIVIDAD: Cuando la interaccin entre los tratamientos y los sujetos es nula. SIMETRA COMPUESTA: Las I varianzas de los I tratamientos tiene que ser iguales (homocedasticidad) y asimismo tiene que ser iguales las I(I-1)/2 covarianzas entre los I tratamientos (lo que significa que la correlacin entre cada par de tratamientos debe ser la misma). CIRCULARIDAD O ESFERICIDAD: En el modelo de medidas repetidas o bloques es que las varianzas de las diferencias entre cada dos tratamientos son iguales en la poblacin. + Este supuesto de circularidad es condicin necesaria y suficiente para que el estadstico F tenga distribucin muestral exacta. + La condicin necesaria y suficiente tiene que ver ms bien con las varianzas de las diferencias entre cada par de tratamientos. Puesto que todos los sujetos reciben los I tratamientos, es posible reorganizar los datos en trminos de todos los posibles pares de combinaciones entre tratamientos. + Cumple las dos condiciones anteriores y es menos objetable. + Si el supuesto de circularidad no se cumple, se corre el riesgo de que la utilizacin del estadstico de contraste F nos lleve a conclusiones errneas ya que aumenta el error Tipo I. AJUSTE DE BOX: Se pueden ajustar los grados de libertad del estadstico F para compensar el posible no- cumplimiento de este supuesto.
.- COMPARACIONES MULTIPLES + Depende de s se puede asumir el supuesto de circularidad o no. (Asumiendo el supuesto de circularidad) + Sustituyendo la MCerror de sus respectivos estadsticos por las MCerror (intrasujetos). + Test de Tukey: Las diferencias entre las medias de dos tratamientos i y g sern significativas si su diferencia en valor absoluto es mayor (>) o igual (=) el valor del criterio denominado HSD (Honestly Significant Difference). + Test de Scheff: (Sin asumir el supuesto de circularidad) + Cuando no podemos asumir el supuesto de circularidad, las comparaciones mltiples tambin se pueden llevar a cabo mediante Tukey o Scheff, sustituyendo la MCerror de sus respectivos estadsticos por una MCerror especfica de cada comparacin a realizar y utilizando slo (n-1) g.l. asociados al error en lugar de (n-1)(I-1) como en el caso anterior. + Test de Tukey: + Test de Scheff: El valor del estadstico de contraste F se compara con el valor del criterio de Scheff al cuadrado, pero utilizando (n-1) g.l. asociados al error (este procedimiento es equivalente al habitual)
CONTRASTES PARAMETRICOS PARA MAS DE DOS MUESTRAS DEPENDIENTES: ANALISIS DE VARIANZA CON MEDIDAS REPETIDAS CON DOS FACTORES (TEMA 15)
En un factor todos los sujetos pasaban por todas las condiciones experimentales. Con dos factores tendremos que utilizar los mismos sujetos, en todas o parte de las TI combinaciones entre los niveles de los tratamientos. El modelo es aditivo en lo relativo al efecto de los sujetos. La variable dependiente est medida al menos a nivel de intervalo. (Variabilidad del sistema) SCtotal = SCintertrat + SCsujetos + SCerror (Estadstico de contraste) Las tres hiptesis principales del modelo que se quiere contrastar son: 1. Las T medias t del factor A son iguales (A t = 0 para todo t). 2. Las I medias i del factor B son iguales (B i = 0 para todo i). 3. El efecto de la interaccin es nulo (Ab ti = 0 para toda combinacin ti). De los valores esperados de cada una de las medias cuadrticas del modelo se deduce que el efecto de cualquiera de las fuentes de variacin puede comprobarse por medio del cociente entre su media cuadrtica y la media cuadrtica error. (Comparaciones mltiples) Si asumimos el supuesto de circularidad, valdran todos los procedimientos de comparaciones mltiples del modelo de dos factores completamente aleatorizados de clasificacin cruzada (aquellos donde cada nivel de un factor se combina con todos los niveles del otro factor, a diferencia del modelo jerrquico). nicamente hay que tener en cuenta que los grados de libertad de las medias cuadrticas error son ahora diferentes, es decir, en lugar de ser (n-1)(TI) como ocurra en el caso de dos factores con muestras independientes, en este caso sern (n-1)(TI-1).
.- ANALISIS DE VARIANZA DE DOS FACTORES CON MEDIDAS REPETIDAS EN UNO DE ELLOS. En este diseo todos los n sujetos pasan por todos los niveles de uno de los factores (en este caso por los niveles del factor B), pero por un solo nivel del otro (los n 1 sujetos slo pasarn por A 1 ). Uno de los factores aqu el B, es intrasujetos mientras que el otro el A, es intersujetos, de ah que a este diseo se le suele llamar mixto o tambin split-plot. (Variabilidad del sistema) SCtotal = SCintersujetos + SCintrasujetos (Estadstico de contraste) Las tres hiptesis principales del modelo que se quiere contrastar son: 1. Las T medias t del factor A son iguales (A t = 0 para todo t). 2. Las I medias i del factor B son iguales (B i = 0 para todo i). 3. El efecto de la interaccin es nulo (Ab ti = 0 para toda combinacin ti).
CONTRASTES NO PARAMETRICOS PARA MAS DE DOS MUESTRAS (TEMA 16)
La prueba F es un test robusto o fuerte (es decir, pueden apreciarse desviaciones en los supuestos sin que los resultados se vean seriamente afectados). En ocasiones las desviaciones son tan grandes que resulta imposible acudir a la distribucin F y tenemos que acudir a pruebas no paramtricas que aunque tienen la ventaja de tener menos restricciones, tambin suelen tener, como contrapartida, una potencia menor.
.- CONTRASTES NO PARAMETRICOS PARA MAS DE DOS MUESTRAS INDEPENDIENTES. (Test de Kruskal Wallis) Se trata de una generalizacin del test de Wilcoxon, para tres o ms muestras independientes. Se utiliza cuando el nivel de medida de los datos no est en una escala de intervalo. Se utiliza en diseos de un solo factor. Cuando la distribucin de la variable es continua. Las k muestras que se quieren comparar son aleatorias e independientes. Se necesita al menos una medida ordinal de la variable. Este test pone a prueba si la diferencia entre la suma de los rangos de cada columna es significativa, dado que si el factor cuya influencia estamos estudiando no produce efectos distintos en la variable, las diferencias que se aprecien entre las puntuaciones, se distribuirn al azar y, por lo tanto, tambin lo harn los rangos. Mientras que si el factor influye, las diferencias no estarn al azar sino que una (o unas) determinada/s columna/s tendr/n valores superiores a las otras y, por lo tanto puntuaciones de rango tambin mayores, y la suma de esa columna ser significativamente mayor que las otras. (Test de Jonckheere) Tambin es una generalizacin del test de Wilcoxon para ms de dos muestras independientes, como el test de Kruskal Wallis. La diferencia entre ambas pruebas est en que el test de Jonckheere asume no slo que la variable est medida a un nivel ordinal sino que se establece un orden de prediccin (prelacin, ordenacin natural) entre los factores cuyo efecto se quiere probar. Este orden predictivo debe hacerse independientemente de los datos. Se utiliza en diseos de un solo factor cuando la distribucin de la variable es continua. Las k muestras que se quieren comparar son aleatorias e independientes, establecindose un orden de prediccin entre ellas. Se necesita al menos una medida ordinal de la variable. Si el nmero de muestras es mayor de tres y/o el nmero de observaciones en alguna de ellas es mayor de cinco, el estadstico de contraste (S) se aproxima a la distribucin normal.
.- CONTRASTES NO PARAMETRICOS PARA MAS DE DOS MUESTRAS RELACIONADAS. (Test de Friedman) Es la contrapartida de la de Kruskal Wallis cuando las muestras estn relacionadas. Es equivalente al test de Signos cuando comparbamos slo dos muestras. Ms de dos muestras equilibradas y relacionadas. Asume que los resultados de los sujetos (las observaciones) son independientes y que son un conjunto de datos ordinales. (Test de Crochan) Es una generalizacin de McNemar, para ms de dos muestras relacionadas. Sirve para probar si tres o ms conjuntos de frecuencias o proporciones difieren significativamente entre s. Tres o ms muestras aleatorias, relacionadas y equilibradas. Los datos sean dicotmicos o se puedan dicotomizar (en los referente a la escala de medida).
REGRESION LINEAL Y CORRELACION SIMPLE (TEMA 17)
- El anlisis de regresin lineal simple estudia la naturaleza de las relaciones entre dos variables, X e Y, con el objetivo fundamental de hacer predicciones. - Se considera que se trata de variables cuantitativas (medidas en una escala de intervalo o de razn) que mantienen entre s una relacin lineal. - Y i = o + |X i donde o y | son constantes y reciben el nombre de ordenada en el origen y pendiente. - El problema consiste en determinar los parmetros de esta recta de regresin haciendo mnimos los errores en nuestras predicciones de Y, ya que sabemos que dichas predicciones no sern nunca exactas a causa de la variabilidad o dispersin de las puntuaciones que se apartan de la recta de regresin (mtodo de mnimos cuadrados). - El objetivo del anlisis de correlacin lineal simple es estudiar la fuerza o intensidad de la relacin entre estas dos variables cuantitativas. Para este propsito se utilizar el coeficiente de correlacin de Pearson, r xy .
.-REGRESION LINEAL SIMPLE. (Introduccin a la regresin) - La regresin mltiple permite analizar la relacin entre una variable dependiente cuantitativa (variable criterio) y una o ms variables independientes o predictoras que pueden ser cuantitativas y binarias. - El anlisis de regresin tiene dos vertientes, una descriptiva y otra inferencial. - La ecuacin de la recta viene dada por: Y = o + |X donde o indica el valor de Y para X=0 (punto de corte de la recta con el eje de ordenadas) y | representa su pendiente, es decir, el incremento de Y por cada unidad que se incrementa X. - Los coeficientes A y B obtenidos con el criterio de mnimos cuadrados son los estimadores de los parmetros o y | de la recta de regresin definida en la poblacin. - El estimador de la varianza residual, puede interpretarse como una medida de la bondad de ajuste de la regresin a los puntos en los casos en que se puede asumir la normalidad de los errores. Cuando no se verifica este supuesto no podemos hacer inferencias con respecto al parmetro, de ah la necesidad de definir un nuevo estadstico denominado coeficiente de determinacin, que nos ayude a interpretar el significado de la varianza residual en los casos que no se asume el supuesto de normalidad. - El coeficiente de determinacin: Es posible descomponer la variacin total de la variable Y en la parte explicada por la recta de regresin ajustada y en la no explicada o residual. - Si la recta de regresin ha sido ajustada con el criterio de mnimos cuadrados se demuestra que la suma de cuadrados de las desviaciones totales, denominada varianza total, se descompone de igual manera que en el anlisis de varianza (propiedad aditiva de la suma de cuadrados). - En primer trmino: La suma de cuadrados total (SCtotal) es el error total o desviacin total. Se puede considerar como el error cometido al pronosticar a un individuo la puntuacin media total, cuando no se usa la ecuacin de regresin para esta finalidad. - En segundo trmino: La suma de cuadrados debida a la regresin de Y sobre X (SCreg) y es la cantidad de error eliminado o explicado cuando la recta de regresin se ajusta a los puntos de la muestra. - En tercer trmino: La suma de cuadrados residual o error (SCresidual) es la desviacin con respecto a la recta de regresin o error no explicado; es el error que todava queda despus de aplicar la recta de regresin. - La varianza error o varianza de las desviaciones de la regresin, no es ms que la media cuadrtica de los errores no explicados por la recta de regresin (MCresidual). Cuando estos errores son cero, Y i coincidir con la recta y tendremos un ajuste perfecto de los puntos a la recta. - El ajuste perfecto se presenta cuando la recta de regresin explica completamente la variacin total, es decir, cuando la variacin explicada por la recta de regresin es igual a la varianza total. En este caso la varianza residual ser nula y todos los puntos estarn sobre la recta de regresin. - El ajuste nulo se presenta cuando la regresin no explica nada de la variacin total, es decir, cuando la variacin explicada por la regresin es cero. En este caso la variacin residual coincide con la variacin total y la recta de regresin es horizontal. - Para mejorar el porcentaje de varianza explicada y el ajuste: 1. Efectuar transformaciones de las variables para mejorar la linealidad de la nube de puntos. 2. Disminuir los errores de medicin de las variables dependientes y el error aleatorio asociado al entorno experimental y a las tcnicas utilizadas. 3. Incorporar nuevas variables predictivas y realizar un ajuste mediante tcnicas de regresin mltiple.
(El modelo de la regresin lineal simple) - Supuestos: 1. La variable X, que podemos llamar independiente o predictora presenta unos valores prefijados de antemano, no es una variable aleatoria sino fija 2. La variable Y es aleatoria y para cada uno de los valores fijos de X existe una distribucin de valores de Y o una subpoblacin total de valores de Y. Se requiere que tanto la variable dependiente como la independiente estn medidas al menos a nivel de intervalo. 3. Si suponemos que los valores medios y/x estn situados sobre una recta, esta recta ser la llamada lnea de regresin verdadera y su ecuacin: E(Y/X i ) = y/x = o + | xj es la regresin lineal poblacional de Y sobre X, que nos da los valores esperados o medias de Y, E(Y), dado el valor fijo de X. 4. Llamaremos Y ij a la puntuacin obtenida por una persona i de la subpoblacin de Y, dado X=x j . 5. Yi y cij son variables aleatorias, ya que no podemos conocer con certeza cual ser un valor dado de E(Yj). 6. Homocedasticidad: La varianza Var(Y/X) es la varianza de la regresin. Se supone que es constante para las distintas subpoblaciones de Y. Esta varianza es lo mismo que la varianza de los errores. 7. c ij es estadsticamente independiente de x j . Los distintos c ij son independientes. 8. Los valores Y i , Y k pertenecientes a subpoblaciones diferentes son estadsticamente independientes. 9. Para poder hacer contrastes de hiptesis a partir de las estimaciones muestrales, es necesario incluir el supuesto de distribucin normal de los errores, y en consecuencia de la variable Y, que es funcin lineal de stos. - Propiedades de los estimadores A y B: Los estimadores de o y | que nos proporciona el mtodo de mnimos cuadrados, presentan una serie de caractersticas deseables en un buen estimador: 1. Linealidad en las Y. 2. Carencia de sesgo: A y B son estimadores insesgados de o y |. 3. Varianza mnima: A y B son estimadores de varianza mnima.
.- CONTRASTE DE HIPOTESIS PARA LOS PARAMETROS DE LA REGRESION LINEAL SIMPLE. - Para cada parmetro se establecer nicamente una hiptesis alternativa y se realizar slo el contraste bilateral. - Se asumen los supuestos del modelo de regresin lineal, supuesto de normalidad y que las dos variables estn medidas al menos a nivel de intervalo. (Determinacin de intervalos de confianza para valores concretos Y ij ) - La diferencia entre el valor real y el pronosticado, lo llamaremos error de pronstico. Estos errores constituirn una variable normalmente distribuida por ser combinacin lineal de variables normales y su distribucin vendr definida por su media y su varianza.
.- CONTRASTE DE HIPOTESIS PARA LA ECUACION DE LA REGRESION. - SCresid = SCtotal - SCreg
.- MODELO DE LA CORRELACION LINEAL SIMPLE. - En el modelo de la regresin lineal simple se consideraba a la variable X como predictora o independiente y a la variable Y como criterio o dependiente, siendo objetivo del estudio conjunto de X e Y, la prediccin de valores de Y a partir del conocimiento de los valores de X. - El objetivo principal del anlisis de la correlacin se centra en averiguar la fuerza de la relacin entre las variables, es decir, el objetivo es estudiar la variacin conjunta o covariacin de dos variables aleatorias X e Y. - Se le denomina modelo de correlacin lineal simple porque slo involucra dos variables y supone que estn relacionadas de modo lineal. Y i = o + |X + c i . - o xy es la covarianza, una medida de covariabilidad o varianza comn entre X e Y. - Supuestos: Como no tenemos informacin acerca de la correlacin en la poblacin, debemos tenerla a partir de una muestra y para que las inferencias sean vlidas, se debern cumplir los siguientes supuestos. 1. Las dos variables X e Y son variables aleatorias y se requiere que estn medidas al menos a nivel de intervalo. 2. Su funcin de densidad de probabilidad conjunta debe ser la bivariada normal. - Una poblacin bivariante normal es aquella que, entre otras cosas, representa la distribucin conjunta de dos variables X e Y, ambas normalmente distribuidas. El coeficiente de correlacin poblacional como medida de la covariacin de X e Y supone una distribucin bivariada. 3. Para cada valor de X hay una subpoblacin de valores Y distribuida normalmente. 4. Las n subpoblaciones tienen sus medias en la misma lnea recta.
.- CONTRASTE DE HIPOTESIS PARA EL COEFICIENTE DE CORRELACION DE PEARSON. - Se necesita conocer su distribucin muestral. Para que esto sea posible, se necesita que la poblacin tenga una distribucin bivariante normal.
.- CONTRASTE DE HIPOTESIS PARA OTROS COEFICIENTES DE CORRELACION. ( Coeficiente de correlacin biserial puntual, bp ) - Se utiliza cuando se relaciona una variable cuantitativa X, con otra variable Y, que slo admite dos valores (dicotmica o dicotomizada). - La hiptesis nula para el coeficiente de correlacin biserial puntual es equivalente a contrastar la hiptesis de que las medias de las puntuaciones de los dos grupos establecidos mediante al variable dicotmica son iguales. ( Coeficiente de correlacin de Spearman, s ) - Se utiliza cuando nos encontramos dos variables medidas en una escala ordinal (no es ms que el coeficiente de correlacin de Pearson aplicado a n pares de observaciones de las que nicamente consideramos sus propiedades ordinales). ( Coeficiente de correlacin Phi, |) - Se utiliza con dos variables dicotmicas o con dos variables de naturaleza continua que se han dicotomizado.
REGRESION Y CORRELACION LINEAL MULTIPLE (TEMA 18)
El modelo de correlacin lineal simple se generaliza a un modelo de regresin lineal mltiple cuando se incorporan ms variables predictoras. Una forma de acercarnos ms a la realidad de un problema psicolgico es identificarlo al mayor nmero posible de fuentes de variacin que influyan en la variabilidad del mismo. Cuando queremos estimar la contribucin de dos a ms variables independientes actuando sobre una variable dependiente es cuando podemos utilizar el anlisis de regresin lineal mltiple, siempre que se cumplan los supuestos para su aplicacin. El objetivo es determinar a partir de los datos obtenidos en la muestra de n sujetos, el hiperplano de mnimos cuadrados.
.- MODELO Y SUPUESTOS. Slo nos vamos a referir al modelo de regresin lineal mltiple para valores fijos de las variables X j . Es un conjunto particular de valores de X fijados para el cual existe una subpoblacin de valores de Y, normalmente distribuidos, cuya media se encuentra sobre el hiperplano de regresin, siendo iguales las varianzas de las distintas subpoblaciones de Y. El hiperplano sobre el que se encuentra las medias de Y es el hiperplano de regresin de la poblacin. Los errores c j al igual que ocurra en la regresin lineal simple, presentan la propiedad de estar normalmente distribuidos con media 0 y varianza. La variable dependiente como las independientes estn medidas al menos a nivel de intervalo.
.- INTERPRETACION DE LA ECUACION DE REGRESION. (Coeficientes de regresin parcial) Los trminos B j de la ecuacin de regresin se denominan coeficientes de regresin parcial, y representan el cambio promedio en la variable Y correspondiente a un incremento de una unidad en la variable X j cuando las restantes variables independientes de la ecuacin se mantienen constantes. (Coeficientes de regresin tipificados o coeficientes Beta) Estos se crearon con el propsito de dar una interpretacin ms clara del peso (o la importancia relativa) de la diferentes variables independientes X j , para el pronstico de la variable dependiente. (Coeficientes de determinacin mltiple y correlacin mltiple) Se desea conocer la bondad de ajuste del plano de regresin construido a los datos muestrales. La desviacin de cada una de las puntuaciones individuales con respecto a este plano, puede presentarse como (Y j - Y) y se denominar desviacin o error total. El coeficiente de determinacin mltiple expresar la relacin de la varianza explicada por medio de la regresin (SCreg) con respecto a la varianza total (SCtotal) de la variable. El coeficiente de correlacin mltiple es la raz cuadrada del coeficiente de determinacin.
.- CONTRASTE DE HIPOTESIS EN REGRESIN MULTIPLE. (Contraste de hiptesis para los parmetros de la regresin lineal mltiple) Los estimadores de los coeficientes de regresin poblacionales | j son los coeficientes de regresin muestrales B j . El parmetro o, que es la altura del plano de regresin poblacional por medio de A.
.- COEFICIENTES DE CORRELACION PARCIAL Y CORRELACION MULTIPLE. Correlacin parcial: Medida del grado de covariacin entre variables residuales de las que se ha eliminado el influjo de una o ms variables. Correlacin esprea: Es aquella en la que la relacin entre dos variables est correlacionada con una tercera variable que tambin puede utilizarse como predictor.
ANALISIS DE VARIANZA Y ANALISIS DE REGRESION (TEMA 19)
En el ANOVA se consideraba una variable independiente categrica de efectos fijos, no aleatorios. En el anlisis de regresin tambin disponemos de una variable independiente de valores fijados. En el ANOVA hacamos el supuesto de que los errores eran independientes, con distribucin normal, media cero y varianza; y el mismo supuesto se haca en el anlisis de regresin. En el ANOVA se contrastaba la hiptesis de la igualdad de medias de los tratamientos y en el anlisis de regresin se contrastaba la igualdad de pendientes a cero. En ambas tcnicas se descompona la varianza de la variable dependiente. Ambas tcnicas son ejemplos del mismo modelo lineal general.
.- EL MODELO LINEAL GENERAL. Y = f(u, X) + c representa el modelo lineal general, donde Y, los datos empricos constituyen un conjunto de medidas u observaciones tomadas sobre una o ms variables dependientes en funcin de una o ms variables independientes; f(u, X). Se denomina lineal porque en su formulacin se establece una funcin lineal entre la variable dependiente y los parmetros. Es general porque no especifica la naturaleza precisa de las variables, tanto independientes como dependientes, ni del trmino error. La linealidad o no-linealidad de este modelo se determina por la forma en que los parmetros entran en el modelo y no por la forma en que lo hacen las variables independientes. Modelos probit y logit representan casos particulares del modelo de regresin lineal cuando la variable dependiente es cualitativa. (El modelo de regresin lineal) Con una variable independiente o explicativa, X, y una variable dependiente o explicada, Y, ambas cuantitativas. Los supuestos bsicos sobre los errores, que debe satisfacer el modelo de regresin lineal con una variable independiente y una variable dependiente, son: 1. Los errores tienen esperanza nula 2. La varianza del error es constante y no depende de los valores que toma X. 3. Los errores son independientes entre si. 4. Los errores se distribuyen normalmente. El incumplimientos de los supuestos (2) y (3) se llama heterocedasticidad y correlacin serial (o autocorrelacin), respectivamente. La cuatro condiciones anteriores pueden expresarse igualmente respecto a la variable dependiente: 1. La esperanza de la variable dependientes Y i , donde Y i es una variable aleatoria, es funcin lineal de los parmetros | 0 y | 1 , y de la variable independiente X i , donde X i , es una variable fija no aleatoria. 2. La varianza de la distribucin de Y i para cada valor de X i es constante. 3. Las observaciones Y i son independientes entre s. 4. La distribucin de Yi para cada valor de X i es normal. La variable dependiente debe ser cuantitativa y medida al menos, en una escala de intervalo. (Los modelos de diseo experimental: el modelo de anlisis de varianza) Lo que en modelo de regresin mltiple son las variables independientes, en estos modelos de diseo son especficamente los tratamientos o niveles del factor o condiciones manipuladas por el experimentador. Los supuestos son: 1. Independencia. 2. Normalidad. 3. Homocedasticidad. 4. Linealidad. El modelo de anlisis de varianza ms simple es el modelo de anlisis de varianza unifactorial, en el que tratamos de comparar un nmero I de niveles de un factor o variable independiente, y se mide una caracterstica Y en cada sujeto. La MCintra y la MCtotal son estimadores insesgados de la varianza poblacional. La MCinter es un estimador insesgado de la varianza poblacional slo si la hiptesis nula es verdadera, es decir, si las medias de cada tratamiento son iguales.
.- ANALISIS DE REGRESION CON VARIABLES INDEPENDIENTES CATEGORICAS. Variable categrica o nominal o atributo: Es aquella en la que las observaciones difieren en tipo, pero no en cantidad. El objetivo ser determinar si la razn de correlacin o determinacin uso de la informacin que proporciona la pertenencia a un grupo o clase reduce los errores de pronstico de la variable dependiente. (La razn de correlacin o de determinacin) El coeficiente de determinacin mide el grado de linealidad o de aproximacin de los puntos a la recta de regresin y sobre X, mientras que la razn de correlacin o determinacin indica el grado de relacin que puede ser de cualquier tipo, no necesariamente lineal. Se suele utilizar como medida de la relacin curvilnea entre dos variables. X puede ser cuantitativa o categrica, pero nunca se tendr en cuenta sus valores numricos para el clculo de la razn de correlacin o determinacin. (Uso de variables mudas en la ecuacin de regresin) Se puede indicar la pertenencia a un grupo o categora mediante el uso de una variable muda. Variable muda: Es un vector mediante el cual a los miembros de una categora dada se les asigna un nmero arbitrario, mientras que en todos los sujetos que no pertenecen a dicha categora se les asigna otro nmero tambin arbitrario. Este tipo de variables son muy importantes en el anlisis de regresin cuando alguna de las variables independientes es categrica. El introducir una variable auxiliar muda es slo uno de los posibles sistemas de codificacin.
.- COMENTARIOS SOBRE LOS USOS DEL ANALISIS DE VARIANZA Y EL ANALISIS DE REGRESION. La intercambiabilidad entre ambos mtodos se puede extender ms all del modelo equilibrado de efectos fijos y un solo factor. Se pueden utilizar procedimientos de regresin mltiple para todos los diseos de efectos fijos sean equilibrados o no. A pesar de que los dos mtodos son intercambiables, el mtodo de la regresin lineal mltiple ser preferible al ANOVA en los siguientes casos. 1. Cuando la variable independiente es cuantitativa, ya que en estos casos puede haber usualmente desviaciones de la linealidad y el anlisis de regresin es ms sensible. 2. Cuando mezclamos en un mismo anlisis variables cuantitativas y categricas. 3. Cuando las frecuencias de las distintas casillas en un diseo factorial son distintas y no proporcionadas. 4. Cuando estudiamos tendencias en los datos. Frecuentemente la regresin mltiple es el mejor mtodo de anlisis de los datos no experimentales.
ANALISIS DE COVARIANZA (UN FACTOR) (TEMA 20)
E Existen dos mtodos generales para el control de la variabilidad debida al error experimental: el control experimental directo y el control estadstico o indirecto. E Un ejemplo de control indirecto sera el anlisis de covarianza o ANCOVA. E El ANCOVA proporciona el control estadstico de una o ms variables que puedan afectar a los resultados de un experimento, tratando de analizar cmo habran sido los resultados del anlisis de varianza si se hubieran controlado o mantenido constantes estas variables. E En el ANCOVA ms sencillo, existe un factor B dividido en I niveles o tratamientos y tambin existe una variable dependiente cuantitativa Y al igual que en el caso del anlisis de varianza. Sin embargo, adems existe otra variable cuantitativa X que representa una fuente de variacin sobre Y que se aade a la debida al factor B. Los diversos niveles del factor B pueden tambin diferir en funcin de los valores medios de X. Cuando esto ocurre as, las diferencias encontradas entre las medias de Y en los niveles de B pueden no deberse nicamente al efecto de B sino a la regresin de Y sobre X. El problema de la variable extraa X se podra evitar haciendo grupos experimentales para los distintos niveles de B que tengan los mismos valores medios en X. E En todos estos casos podemos recurrir al ANCOVA como un mtodo para ajustar los niveles del factor B una vez que se ha realizado el experimento. E Si realmente la variable extraa X se hubiera mantenido constante; esta ltima variable la denominaremos concomitante o covariante, mientras que la variable Y ser simplemente la variable dependiente. E Las tcnicas utilizadas para realizar este ajuste estn basadas en los modelos de regresin, lineal simple o mltiple, y no lineal; esto hace que el anlisis de covarianza pueda considerarse una sntesis del anlisis de varianza y el de regresin. E El anlisis de covarianza es un anlisis de varianza verificado sobre unas puntuaciones ajustadas mediante una recta de regresin y que mientras en el ANOVA la variabilidad (o suma de cuadrados) total quedaba descompuesta en dos componentes aditivos (suma de cuadrados intergrupo o intragrupo), ahora la covariabilidad (o suma de productos) total va a quedar descompuesta en dos componentes aditivos (suma de productos intergrupo e intragrupo).
.- MODELO Y SUPUESTOS. E Se consideran dos modelos diferentes en el anlisis de covarianza: 1. El primero supone la homogeneidad intragrupo de los coeficientes de regresin (anlisis de covarianza). 2. El segundo considera coeficientes de regresin heterogneos. E Es un modelo aditivo y los supuestos a verificar son los referentes al anlisis de varianza de un factor y una serie de supuestos adicionales relacionados con el anlisis de regresin lineal simple, incluyendo el supuesto de homogeneidad de las pendientes de regresin intragrupo. E Se requiere que la variable dependiente est medida al menos a nivel de intervalo.
.- FUENTES DE COVARIABILIDAD. E Se descompone la variabilidad total (en este caso covariabilidad o suma de productos) en dos componentes aditivos: 1. La covariabilidad debida a las diferencias producidas entre los diferentes tratamientos (covariabilidad intergrupo) 2. La covariabilidad debida a las diferencias producidas dentro del mismo grupo (covariabilidad intragrupo o error).
.- SUMAS DE CUADRADOS CORREGIDAS. E Para obtener las sumas de cuadrados ajustadas debemos restar a cada puntuacin Y ij la parte que es debida a la regresin de Y sobre X.
.- ESTADISTICO DE CONTRASTE. E Para comprobar la hiptesis nula, es decir, que las medias en la variable Y son iguales dentro de cada una de la I poblaciones sometidas a I tratamientos distintos, tendremos que valernos de las puntuaciones ajustadas mediante la regresin lineal de Y sobre X, de manera que si entre dichas medias se encontraran diferencias significativas, stas se podran atribuir al efecto de los tratamientos y no al de la covariante X.
.- COMPARACIONES MULTIPLES. E Al igual que en el anlisis de varianza, cuando la f obtenida en el ANCOVA es significativa, esto nos indica que existen diferencias entre los tratamientos pero no nos dice entre cuales. E Test de Tukey y Test de Schef.
.- COMPROBACION DE SUPUESTOS. 1. Los efectos debidos al tratamiento y debidos a la regresin deben ser aditivos. 2. Los errores asociados con cada uno de los valores de la variable dependiente ( ij ) son independientes entre s, estn normalmente distribuidos, tienen media 0 y varianzas iguales para los distintos tratamientos. 3. La covariante no debe estar afectada por los efectos de los tratamientos. Este supuesto se cumple siempre que las medidas en la covariante se tomen antes de la aplicacin de los tratamientos experimentales. 4. Homogeneidad de las pendientes de regresin intragrupo. 5. Linealidad de la regresin de Y sobre X.
.- OBTENCION DE LOS ESTIMADORES DE LOS COEFICIENTES DE LA REGRESION Y CORRELACIONES ENTRE X E Y. E El ANCOVA es un ANOVA efectuado sobre una variable (Y) ajustada mediante otra variable (X) y este ajuste depende del grado de relacin, y por tanto de regresin, de Y sobre X. Esta regresin se puede entender de tres maneras: 1. Regresin intragrupo o regresin de Y sobre X dentro de cada tratamiento. La magnitud de esta regresin viene dada por los coeficientes de regresin intragrupo, B xyi (habr uno por cada tratamiento). Es importante que los coeficientes de regresin intragrupo sean iguales, ya que este es uno de los supuestos del ANCOVA. 2. Regresin intergrupo o regresin de Y sobre X a partir de los I pares de medias. Esta regresin viene cuantificada por el coeficiente de regresin intragrupo, Binter. 3. Regresin total o regresin de Y sobre X considerando todos los N pares (Y, X) del diseo. Esta regresin viene dada por el coeficiente de regresin total, Btotal.
ANALISIS DE COVARIANZA (DOS FACTORES) (TEMA 21)
Se trata de analizar el efecto que dos variables independientes (A y B) producen sobre una variable dependiente (Y) despus de haber controlado el efecto de una variable extraa recogida en la covariante o covariable (X).
.-ESTADISTICOS DE CONTRASTE. Las T medias t del factor A son iguales (A t = 0 para todo t). Las I medias i del factor B son iguales (B i = 0 para todo i) El efecto de la interaccin es nulo (Ab ti = 0 para toda combinacin ti).
.-COMPARACIONES MULTIPLES. Al igual que en modelo de ANCOVA con un factor, las comparaciones entre medias se efectan en este modelo a partir de las medias ajustadas. Despus de calcular las diferencias entre cada par de medias ajustadas y, para contrastar si dos tratamientos cualesquiera difieren entre s, podemos aplicar cualquiera de los test de comparaciones mltiples como el test de Tukey o el de Scheff.
.-COMPROBACIONES DE SUPUESTOS. Para la correcta aplicacin del ANCOVA se tienen que cumplir todos los supuestos del ANOVA (normalidad, independencia y homocedasticidad) y adems, unos supuestos propios: 1. La covariante no debe estar afectada por los tratamientos o por la combinacin de tratamientos, la forma de garantizar su cumplimiento consiste en tomar las medidas de la covariante antes de aplicar los tratamientos experimentales. 2. Los coeficientes de regresin de Y sobre X (| ti ) son iguales para todas las TI casillas (Los TI coeficientes de regresin (| ti ) intracelda (uno por casilla o combinacin de tratamiento) son iguales. 3. La regresin de Y sobre X es lineal, si el coeficiente de regresin utilizado por el modelo (|) es significativamente distinto de cero.