You are on page 1of 3

Con frecuencia, el propósito de la investigación va más allá de describir las distribuciones de

las variables: se pretende probar hipótesis y generalizar los resultados obtenidos en la muestra
a la población o universo. Los datos casi siempre se recolectan de una muestra y sus resultados
estadísticos se denominan estadígrafos; la media o la desviación estándar de la distribución de
una muestra son estadígrafos. A las estadísticas de la población se les conoce como
parámetros. Éstos no son calculados, porque no se recolectan datos de toda la población, pero
pueden ser inferidos de los estadígrafos, de ahí el nombre de estadística inferencial. (305)

Entonces, la estadística inferencial se utiliza fundamentalmente para dos procedimientos


vinculados (Wiersma y Jurs, 2008; Asadoorian, 2008):

a) Probar hipótesis poblacionales: Determina si la hipótesis es congruente con los datos de la


muestra (Wiersma y Jurs, 2008; Gordon, 2010). Para comprender lo que es la prueba de
hipótesis en la estadística inferencial es necesario revisar los conceptos de distribución
muestral y nivel de significancia.

Distribución muestral: Conjunto de valores sobre una estadística calculada de todas las
muestras posibles de una población

Ejemplo: Supongamos que nuestro universo son los automovilistas de una ciudad y deseamos
averiguar cuánto tiempo pasan diariamente manejando (“al volante”). De este universo podría
extraerse una muestra representativa. Vamos a suponer que el tamaño adecuado de muestra
es de 512 automovilistas (n = 512). Del mismo universo se podrían extraer diferentes
muestras, cada una con 512 personas. Teóricamente, incluso podría elegirse al azar una, dos,
tres, cuatro muestras, y las veces que fuera necesario hacerlo, hasta agotar todas las muestras
posibles de 512 automovilistas de esa ciudad (todos los individuos serían seleccionados en
varias muestras). En cada muestra se obtendría una media del tiempo que pasan los
automovilistas manejando. Tendríamos pues, una gran cantidad de medias, tantas como las
muestras extraídas (X _ 1, X _ 2, X _ 3, X _ 4, X _ 5, … X _ k ). Y con éstas elaboraríamos una
distribución de medias. Habría muestras que, en promedio, pasaran más tiempo “al volante”
que otras. Si calculáramos la media de todas las medias de las muestras, prácticamente
obtendríamos el valor de la media poblacional. De hecho, casi nunca se obtiene la distribución
muestral (la distribución de las medias de todas las muestras posibles). Es más bien un
concepto teórico definido por la estadística para los investigadores. Lo que comúnmente
hacemos es extraer una sola muestra.

Nivel de significancia o nivel alfa: Es un nivel de la probabilidad de equivocarse y que fi ja


probar hipótesis inferenciales el investigador. ¿Con qué porcentaje de confianza el
investigador generaliza, para suponer que tal cercanía es real y no por un error de muestreo?
Existen dos niveles convenidos en ciencias sociales:

a ) El nivel de significancia de 0.05, el cual implica que el investigador tiene 95% de seguridad
para generalizar sin equivocarse y sólo 5% en contra. En términos de probabilidad, 0.95 y 0.05,
respectivamente; ambos suman la unidad.

b ) El nivel de significancia de 0.01, el cual implica que el investigador tiene 99% en su favor y
1% en contra (0.99 y 0.01 = 1.00) para generalizar sin temor.

Cuando uno lee en un reporte de investigación que los resultados fueron significativos al nivel
del 0.05 (p < 0.05), indica lo que se comentó: que existe 5% de posibilidad de error al aceptar
la hipótesis, correlación o valor obtenido al aplicar una prueba estadística; o 5% de riesgo de
que se rechace una hipótesis nula cuando era verdadera (Mertens, 2005; Babbie, 2009).

b) Estimar parámetros (306)

¿Qué es la chi cuadrada o χ2?: es una prueba estadística para evaluar hipótesis acerca de la
relación entre dos variables categóricas. Se simboliza: χ2.

Hipótesis a probar: correlacionales.

Variables involucradas: dos.

La prueba chi cuadrada no considera relaciones causales.

Nivel de medición de las variables: nominal u ordinal (o intervalos o razón reducidos a


ordinales).

Procedimiento: se calcula por medio de una tabla de contingencia o tabulación cruzada, que es
un cuadro de dos dimensiones, y cada dimensión contiene una variable. A su vez, cada variable
se subdivide en dos o más categorías. En esencia, la chi cuadrada es una comparación entre la
tabla de frecuencias observadas y la denominada tabla de frecuencias esperadas, la cual
constituye la tabla que esperaríamos encontrar si las variables fueran estadísticamente
independientes o no estuvieran relacionadas (Wright, 1979). Es una prueba que parte del
supuesto de “no relación entre variables” y el investigador evalúa si en su caso esto es cierto o
no, analiza si las frecuencias observadas son diferentes de lo que pudiera esperarse en caso de
ausencia de correlación. La lógica es así: “si no hay relación entre las variables, debe tenerse
una tabla así (la de las frecuencias esperadas). Si hay relación, la tabla que obtengamos como
resultado en nuestra investigación tiene que ser muy diferente respecto de la tabla de
frecuencias esperadas”. Es decir, lo que se contó versus lo que se esperaría del azar. Algunas
veces, solamente se utiliza el valor de chi cuadrada simplemente para ver si hay o no relación
entre las variables. (327)

¿Qué es el análisis de varianza unidireccional o de un factor? (ANOVA): Es una prueba


estadística para analizar si más de dos grupos difieren significativamente entre sí en cuanto a
sus medias y varianzas. El análisis de varianza unidireccional se usa para tres, cuatro o más
grupos. Aunque con dos grupos se puede utilizar también. (322)

Hipótesis: de diferencia entre más de dos grupos. La hipótesis de investigación propone que
los grupos difieren significativamente entre sí y la hipótesis nula propone que los grupos no
difieren significativamente.

Variables: una variable independiente y una variable dependiente. Nivel de medición de las
variables: la variable independiente es categórica y la dependiente es por intervalos o razón. El
hecho de que la variable independiente sea categórica significa que es posible formar grupos
diferentes. Puede ser una variable nominal, ordinal, por intervalos o de razón (pero en estos
últimos dos casos la variable debe reducirse a categorías).

Por ejemplo: Religión, nivel socioeconómico (muy alto, alto, medio, bajo y muy bajo),
antigüedad en la empresa (de cero a un año, más de un año a cinco años, más de cinco años a
10, más de 10 años a 20 y más de 20 años).
Interpretación: el análisis de varianza unidireccional produce un valor conocido como F o razón
F, que se basa en una distribución muestral, conocida como distribución F, el cual es otro
miembro de la familia de distribuciones muestrales. La razón F compara las variaciones en las
puntuaciones debidas a dos diferentes fuentes: variaciones entre los grupos que se comparan
y variaciones dentro de los grupos. Si el valor F es significativo implica que los grupos difieren
entre sí en sus promedios. Entonces se acepta la hipótesis de investigación y se rechaza la nula.
(323)

U de Mann-Whitney : Al grupo de pruebas que aborda cómo evaluar una variable ordinal o
cuantitativa de libre distribución o, en otras palabras, que no tiene distribución normal se le
llama “estadística no paramétrica” y la más característica de ellas es la U de Mann-Whitney,
que contrasta las medianas de dos grupos independientes con libre distribución.
(http://www.medigraphic.com/pdfs/imss/im-2013/im134k.pdf, pag 1)

La prueba t-Student se utiliza para contrastar hipótesis sobre medias en poblaciones con
distribución normal. También proporciona resultados aproximados para los contrastes de
medias en muestras suficientemente grandes cuando estas poblaciones no se distribuyen
normalmente. (…)Existen dos versiones de la prueba t-Student: una que supone que las
varianzas poblacionales son iguales y otra versión que no asume esto último. Para decidir si se
puede suponer o no la igualdad de varianza en las dos poblaciones, se debe realizar
previamente la prueba F-Snedecor de comparación de dos varianzas.
(http://virtual.uptc.edu.co/ova/estadistica/docs/libros/tstudent.pdf )

La Prueba de Rangos con signos de Wilcoxon: Es usada para hacer pruebas de hipótesis acerca
de la mediana. La prueba estadística se basa en el estadístico de Wilcoxon (1945), el cual se
calcula de la siguiente manera: Se resta de cada dato el valor de la mediana que se considera
en la hipótesis nula. Se calcula los rangos de las diferencias sin tomar en cuenta el signo de las
mismas (o sea en valor absoluto). En el caso de haber empate se asigna un rango promedio a
todas las diferencias empatadas es decir; se les asigna el rango: (menor rango del grupo del
empate + mayor rango del grupo del empate) número de empates mero de empates.

El estadístico W de Wilcoxon será la suma de los rangos correspondientes a las diferencias


positivas. A diferencia de la prueba de los signos, la prueba Rangos con signos de Wilcoxo n
toma en cuenta la magnitud de la diferencia. Los pasos son:

 Se ordenan las diferencias por valor absoluto -- diferencias positivas tienen un signo +
 Diferencias negativas tienen un signo -
 Se suman las diferencias con signo + y las diferencias con signo –
 Bajo la Ho de que la mediana = 0 se espera que la muestra tenga aproximadamente
igual número de ( + ) que de ( – ) o sea que: suma de rangos positivos = suma de
rangos negativo
(http://www.iuma.ulpgc.es/~nunez/mastertecnologiastelecomunicacion/RecursosGen
erales/AnalisisEstadisticoClase9.pdf) Edgar Acuña UNIVERSIDAD DE PUERTO RICO
RECINTO UNI RECINTO UNIVERSITARIO DE MAYAGUEZ

You might also like