You are on page 1of 24

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE

EMPRESAS . UNAMBA

UNIVERSIDAD NACIONAL MICAELA BASTIDAS DE


APURMAC
FACULTAD DE ADMINISTRACIN
ESCUELA ACADMICO PROFESIONAL DE ADMINISTRACIN DE
EMPRESAS

ESTADISTICA PARA LA TOMA DE DESICIONES


PRUEBAS NO PARAMETRICAS
DOCENTE:
EDWAR ILLASACA CAHUATA
RESPONSABLE:
-JOEL MENACHO ALVAREZ
-JORGE WILLIAM QUISPE ARCIBIA
Abancay - Apurmac
2013

Pgina 1

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

INTRODUCCIN

El uso de la Estadstica es de gran importancia en la investigacin


cientfica. Casi todas las investigaciones aplicadas requieren algn tipo
de anlisis estadstico para que sea posible evaluar sus resultados. En algunos
casos, para resolver un problema de carcter emprico, es preciso llevar a cabo un
anlisis bastante complejo; otras veces, basta con efectuar un anlisis muy simple
y directo. La eleccin de uno u otro tipo de anlisis estadstico depende del
problema que se plantee en el estudio as como de la naturaleza de los datos.
Desde este punto de vista, la Estadstica constituye un instrumento
de investigacin y no un producto final de esta ltima.
El trabajo coherente, las acciones integradas, la no extrapolacin de elementos de
un lugar a otro, el verdadero diagnstico de la realidad han de ser prcticas
permanentes en el accionar del investigador y el estadstico aplicado.
Dentro de la estadstica se aplican en la investigacin los test o dcimas
paramtricos y no paramtricos, el presente trabajo esta dedicado al estudio de
dos pruebas no paramtricas que por su importancia merecen ser tratadas de
forma independiente, ellas son las pruebas de Kolmogorov-Smirnov para una y
dos muestras.
Entre los tests no paramtricos que comnmente se utilizan para verificar si
una distribucin se ajusta o no a una distribucin esperada, en particular a la
distribucin normal se encuentran el test de Kolmogorov-Smirnov. El test de
Kolmogorov-Smirnov es bastante potente con muestras grandes. El nivel
de medicin de la variable y su distribucin son elementos que intervienen en
la seleccin del test que se utilizar en el procesamiento posterior. De hecho, si la
variable
es
continua
con
distribucin
normal,
se
podrn
aplicar tcnicas paramtricas. Si es una variable discreta o continua no normal,
solo son aplicables tcnicas no paramtricas pues aplicar las primeras arrojara
resultados de dudosa validez.

ESTADSTICA NO PARAMTRICA Y SUS PRUEBAS


Pgina 2

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

La estadstica no paramtrica es una rama de la estadstica que estudia las


pruebas y modelos estadsticos cuya distribucin subyacente no se ajusta a los
llamados criterios paramtricos. Su distribucin no puede ser definida a priori,
pues son los datos observados los que la determinan. La utilizacin de estos
mtodos se hace recomendable cuando no se puede asumir que los datos se
ajusten a una distribucin conocida, cuando el nivel de medida empleado no sea,
como mnimo, de intervalo.
Las principales pruebas no paramtricas son las siguientes:

Prueba de Pearson

Prueba binomial

Prueba de Anderson-Darling

Prueba de Cochran

Prueba de Cohen kappa

Prueba de Fisher

Prueba de Friedman

Prueba de Kendall

Prueba de Kolmogrov-Smirnov

Prueba de Kruskal-Wallis

Prueba de Kuiper

Prueba de Mann-Whitney o prueba de Wilcoxon

Prueba de McNemar

Prueba de la mediana

Pgina 3

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

Prueba de Siegel-Tukey

Prueba de los signos

Coeficiente de correlacin de Spearman

Tablas de contingencia

Prueba de Wald-Wolfowitz

Prueba de los rangos con signo de Wilcoxon

1.- Prueba de Pearson


La prueba de Pearson es considerada como una prueba no paramtrica que
mide la discrepancia entre una distribucin observada y otra terica (bondad de
ajuste), indicando en qu medida las diferencias existentes entre ambas, de
haberlas, se deben al azar en el contraste de hiptesis. Tambin se utiliza para
probar la independencia de dos variables entre s, mediante la presentacin de los
datos en tablas de contingencia.
La frmula que da el estadstico es la siguiente:

Cuanto mayor sea el valor de , menos verosmil es que la hiptesis sea


correcta. De la misma forma, cuanto ms se aproxima a cero el valor de chicuadrado, ms ajustadas estn ambas distribuciones.
Los grados de libertad gl vienen dados por :
gl= (r-1)(k-1). Donde r es el nmero de filas y k el de columnas.

Criterio de decisin:

Pgina 4

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

No se rechaza
rechaza.

cuando

. En caso contrario s se

Donde t representa el valor proporcionado por las tablas, segn el nivel de


significacin estadstica elegido.

Ejemplo: Un psiclogo de animales afirma que el 25% de los chimpancs


muestran conductas de indefensin aprendida ante un determinado estmulo
aversivo, el 40% muestran una conducta de huida y el 35% muestran indiferencia.
En su muestra de 30 especimenes encuentra que 12 muestran indefensin, 15
huida y 3 indiferencia. Apoyan estos datos su teora con =0,05?
1. Hiptesis
H0: f (x) = f0 (x)
(es decir, 1 = 0,25, 2 = 0,40 y 3 = 0,35)
H1: f (x) f0 (x)
2. Supuestos
Muestra aleatoria
Probabilidades constantes en cada extraccin

3. Estadstico de contraste

ni

Indefensin

Huida

Indiferencia

12

15

30

Pgina 5

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

mi

m1 = n1

m2 = n2

m3 = n3

=30 (0,25)
= 7,5

=30 (0,4)
= 12

=30 (0,35)
= 10,5

30

4. Estadistisco de prueba
2
2
2
(127 , 5) (1512) (310)
+
=8.81
7.5
12
10.5

con 2 grados de libertad


2

5. . zona critica X 0,95

x2

2 =5,99

6. Decisin: Rechazar H0
2.- PRUEBA BINOMIAL

La prueba binomial analiza variables dicotmicas y compara las frecuencias


observadas en cada categora con las que cabra esperar segn una distribucin
binomial de parmetro

El experimento aleatorio consiste en repetir un cierto nmero de veces, "n",


una determinada prueba.

En cada prueba del experimento, slo son posibles dos resultados: el


suceso A, que llamaremos xito y su complementario, llamado fracaso.

El resultado de cada prueba es independiente de los resultados obtenidos


anteriormente, es decir, el resultado obtenido en la primera prueba, no
influye para nada en el posible resultado de la segunda o la tercera.

Pgina 6

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

La probabilidad de que ocurra el xito es siempre la misma y la


expresaremos como "p", y por tanto, la probabilidad de fracaso ser q = 1 p.

Todo experimento aleatorio con estas caractersticas se dice que sigue el modelo
de la distribucin binomial, y a la variable X que expresa el nmero de xitos
obtenidos en las n repeticiones de la prueba, se le llama variable aleatoria
binomial y se representa por

B( n , p ); donde "n" es el nmero de repeticiones

de la prueba y "p" la probabilidad de xito.

Ejemplos de variables que siguen una distribucin binomial:

Nmero de caras al lanzar 7 monedas.

Nmero de piezas defectuosas que fabrica una mquina.

Nmero de chinchetas que al caer quedan de punta.

Pgina 7

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

Pgina 8

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

5.- Prueba de Anderson-Darling


En estadstica, la prueba de Anderson-Darling es una prueba no paramtrica
sobre si los datos de una muestra provienen de una distribucin especfica. La
frmula para el estadstico A determina si los datos

(observar

que los datos se deben ordenar) vienen de una distribucin con funcin
acumulativa

donde

El estadstico de la prueba se puede entonces comparar contra las distribuciones


del estadstico de prueba (dependiendo que

se utiliza) para determinar el P-

valor.

6.- Prueba de Cochran


Esta prueba utiliza la estadstica:

Los parmetros de la distribucin muestral de ste estadstico son


tratamientos y
percentiles del

nmero de

, los grados de libertad para cada varianza. Los


y

de la distribucin del estadstico

tabla D8 pg 980 (Winer). Se rechaza

son dados en la

si
Pgina 9

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

En muchas situaciones encontradas en la prctica la prueba de Cochran y Hartley


conducen a las mismas decisiones; pero, ya que la prueba de Cochran utiliza ms
informacin, es generalmente algo ms sensible que la prueba de Hartley.
Cuando el nmero de observaciones en cada tratamiento no sea igual pero
relativamente cercano, el mayor de los

puede usarse en lugar de

para

determinar los grados de libertad requeridos en las tablas.


NOTA: para propsitos de detectar grandes desviaciones del supuesto de
homogeneidad de varianza en muchos casos prcticos es recomendable las
pruebas de Hartley y Cochran.

7.- Cohen kappa


Coeficiente kappa de Cohen es una estadstica medida de acuerdo entre los
evaluadores o inter-anotador acuerdo para cualitativas (categricas) artculos. En
general se piensa que es una medida ms robusta que la simple clculo acuerdo
ciento desde tiene en cuenta el acuerdo ocurra por casualidad. Algunos
investigadores han expresado su preocupacin por la tendencia para tomar las
frecuencias de las categoras observadas "como un dato previo, que pueden tener
el efecto de subestimar acuerdo para una categora que es tambin de uso, por
esta razn, es considerado un excesivamente medida conservadora de acuerdo.
Clculo
Kappa de Cohen mide el acuerdo entre dos evaluadores que cada clasificar N
elementos en las categoras C mutuamente excluyentes. La primera mencin de
una estadstica kappa-como se le atribuye a Galton (1892
La ecuacin para es:

Pgina 10

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

donde Pr (a) es el acuerdo entre evaluadores relativa observada, y Pr (e) es la


probabilidad hipottica de la posibilidad de acuerdo, utilizando los datos
observados para el clculo de las probabilidades de cada observador
aleatoriamente diciendo cada categora. Si los evaluadores estn completamente
de acuerdo entonces = 1. Si no hay acuerdo entre los calificadores distintos de lo
que cabra esperar por azar (segn lo definido por Pr (e)), = 0.
El papel seminal kappa introducir como una nueva tcnica fue publicado por Jacob
Cohen en la revista Medicin Educativa y Psicolgica en 1960.
Una estadstica similar, llamado pi , fue propuesto por Scott (1955). Kappa de
Cohen y pi de Scott difieren en cuanto a la forma Pr (e) se calcula.
Tenga en cuenta que de acuerdo kappa de Cohen medidas entre dos evaluadores
solamente. Para que una medida similar de acuerdo ( kappa Fleiss ' ) que se
utiliza cuando existen ms de dos evaluadores, ver Fleiss (1971). El kappa Fleiss,
sin embargo, es una generalizacin multi-evaluador de Scott pi estadstica no,
kappa de Cohen.
Supongamos que se estaban analizando los datos relativos a las personas que
solicitan una subvencin. Cada propuesta de subvencin fue ledo por dos
personas y cada lector sea dicho "S" o "No" a la propuesta. Supongamos que los
datos fueron los siguientes, donde las filas son el lector A y lector B columnas son:
B

No

La

20

La

No

10

15
Pgina 11

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

Tenga en cuenta que hubo 20 propuestas que fueron otorgados tanto por el lector
A y B lector, y 15 propuestas que fueron rechazadas tanto por los lectores. As, el
porcentaje de acuerdo observado es Pr (a) = (20 + 15) / 50 = 0,70
Para calcular Pr (e) (la probabilidad de acuerdo aleatorio), observamos que:

Un lector dijo "S" a 25 solicitantes y "No" a 25 solicitantes. As, el lector A


dicho "s" el 50% de las veces.

Lector B dijo "S" a 30 solicitantes y "No" a 20 solicitantes. As lector B dijo


"S" 60% de las veces.

Por lo tanto, la probabilidad de que dos de ellos dira "S" al azar es de 0,50 0,60
= 0,30 y la probabilidad de que dos de ellos deca: "No" es de 0,50 0,40 = 0,20.
As, la probabilidad general de acuerdo al azar es Pr (e) = 0,3 + 0,2 = 0,5.
As que ahora la aplicacin de nuestra frmula de Kappa de Cohen se obtiene:

mismo pero diferente nmero


Un caso a veces considerado un problema con Kappa de Cohen se produce
cuando la comparacin de la Kappa calcula para dos pares de evaluadores con
los dos evaluadores de cada par que tienen el porcentaje de acuerdo misma, pero
un par dar un nmero similar de notas, mientras que el otro par dar una muy
nmero diferente de calificaciones. Por ejemplo, en los siguientes dos casos
existe un acuerdo equitativo entre A y B (60 de 100 en ambos casos) por lo que se
esperara que los valores relativos de Kappa de Cohen para reflejar esto. Sin
embargo, el clculo de Kappa de Cohen para cada uno:

Pgina 12

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

No

45

15

No

25

15

No

25

35

No

35

encontramos que muestra una mayor similitud entre A y B en el segundo caso, en


comparacin con el primero.

8.- Prueba F de Fisher


En estadstica se denomina prueba F de Snedecor a cualquier prueba en la que el
estadstico utilizado sigue una distribucin F si la hiptesis nula no puede ser
rechazada. El nombre fue acuado en honor a Ronald Fisher.
En estadstica aplicada se prueban muchas hiptesis mediante el test F, entre
ellas:

La hiptesis de que las medidas de mltiples poblaciones normalmente


distribuidas y con la misma desviacin estndar son iguales. Esta es,

Pgina 13

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

quizs, la ms conocida de las hiptesis verificada mediante el test F y el


problema ms simple del anlisis de varianza.

La hiptesis de que las desviaciones estndar de dos poblaciones


normalmente distribuidas son iguales, lo cual se cumple.

En muchos casos, el test F puede resolverse mediante un proceso directo. Se


requieren dos modelos de regresin, uno de los cuales restringe uno o ms de los
coeficientes de regresin conforme a la hiptesis nula. El test entonces se basa en
un cociente modificado de la suma de cuadrados de residuos de los dos modelos
como sigue:
Dadas n observaciones, donde el modelo 1 tiene k coeficientes no restringidos, y
el modelo 0 restringe m coeficientes, el test F puede calcularse como

El valor resultante debe entonces compararse con la entrada correspondiente de


la tabla de valores crticos.
Uso de la tabla de F del anlisis de variancia (ANOVA)
En la tabla 5 se ilustra la estructura de una tabla de F para un nivel de significacin
de 0,01 o 1% y 0,05 o 5%.

Pgina 14

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

Clculo de la razn F a partir de datos muestrales

Para calcular F se debe seguir el siguiente procedimiento


1) Calcular la estimacin interna (Denominador)

Pgina 15

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

2) Calcular la estimacin intermediante (Numerador)

Ejemplo
Los pesos en kg por 1,7 m de estatura se ilustran en la siguiente tabla. La finalidad
es determinar si existen diferencias reales entre las cuatro muestras. Emplear un
nivel de significacin de 0,05

Pgina 16

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

Solucin:
Las hiptesis Nula y Alternativa son:

Calculando las medias aritmticas se obtiene:

Pgina 17

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

Se llena la siguiente tabla para calcular las varianzas muestrales:

Remplazando los datos en la frmula de la varianza se obtienen las varianzas de


las 4 muestras.

Pgina 18

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

Calculando la estimacin interna de varianza se obtiene:

Para calcular la estimacin intermediante de varianza primero se calcular la


varianza de las medias aritmticas

Se llena la siguiente tabla:

Se remplaza los datos de la tabla para calcular varianza de las medias aritmticas

Calculando la estimacin intermediante de varianza se obtiene:


Pgina 19

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

Decisin:

9.- Prueba de Friedman


En estadstica la prueba de Friedman es una prueba no paramtrica desarrollado
por el economista Milton Friedman. Equivalente a la prueba ANOVA para medidas
repetidas en la versin no paramtrica, el mtodo consiste en ordenar los datos
por filas o bloques, reemplazndolos por su respectivo orden. Al ordenarlos,
debemos considerar la existencia de datos idnticos.
Mtodo
1. Sea

una tabla de datos, donde

son las filas (bloques) y

las

columnas (tratamientos). Una vez calculado el orden de cada dato en su


bloque, reemplazamos al tabla original con otra
es el orden de

donde el valor

en cada bloque .
Pgina 20

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

2. Clculo de las varianzas intra e inter grupo:

3. El estadstico viene dado por

4. El criterio de decisin es

Pgina 21

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

Conclusin
La mayora de estos test estadsticos estn programados en los paquetes
estadsticos ms frecuentes, quedando para el investigador, simplemente,
la tarea de decidir por cul de todos ellos guiarse o qu hacer en caso de
que dos test nos den resultados opuestos. Hay que decir que, para poder
aplicar cada uno existen diversas hiptesis nulas y condiciones que deben
cumplir nuestros datos para que los resultados de aplicar el test sean
fiables. Esto es, no se puede aplicar todos los test y quedarse con el que
mejor convenga para la investigacin sin verificar si se cumplen las
hiptesis y condiciones necesarias pues, si se violan, invalidan cualquier
resultado posterior y son una de las causas ms frecuentes de que un
estudio sea estadsticamente incorrecto. Esto ocurre sobre todo cuando el
investigador desconoce la naturaleza interna de los test y se limita a
aplicarlos sistemticamente.
Es importante mencionar que si la distribucin de los datos se ajusta a un
tipo de distribucin conocida, existen otras que, en la prctica, son ms
aconsejables pero que as mismo requieren otros supuestos. En este caso,
la estadstica a emplear es la estadstica paramtrica, dentro de la cual
muchas veces podemos encontrar equivalencias entre pruebas pero con
diferencias en la potencia entre ambas siendo siempre la potencia de las
pruebas no paramtricas menor que la potencia de las pruebas
paramtricas equivalentes. Aun as, el uso adecuado de los tamaos
mustrales disminuye la posibilidad de cometer un [error tipo II], puesto que
aumenta al mismo tiempo la eficacia de la prueba . Es decir, a medida que
se aumenta el tamao de la muestra, disminuye la posibilidad de cometer

Pgina 22

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

un error tipo II (un falso negativo: No rechazar la hiptesis nula cuando sta
en realidad es falsa).

BIBLIOGRAFA

Alvarez de Zayas, Carlos: (1995). Metodologa de la investigacin cientfica.


Santiago de Cuba. Centro de Estudio Superior "Manuel F. Grau".

Cerda Gutierrez, Hugo: (1993). Los elementos de la investigacin. Cmo


reconocerlos, cmo disearlos y construirlos?. Quito. Edit. El Buho.

Cols Bravo, Mara del Pilar: (1992). Investigacin educativa. Sevilla.


Librera Canaima.

Cu
Muiz,
Juan:
Habana: Empresa Nacional
de Educacin Superior.

Friedrich, Walter: (1968). Mtodos de la investigacin social. La Habana:


Editorial Ciencias Sociales.

Garca, M.: (1993:16-18). Test para la evaluacin de habilidades visuales en


deportistas. Boletn de Informacin y Documentacin UNISPORT (Andaluca)
21(1).

Grau Avalos, Ricardo: (1994). Estadstica aplicada utilizando paquetes


de software. Centro de Documentacin e Investigacin, Facultad
deMatemtica, Fsica y Computacin. Universidad Central de Las Villas. Villa
Clara, Cuba.

Guerra Bustillo, Caridad W.: (1987). Estadstica. Ciudad de La Habana.


Editorial Pueblo y Educacin.

Karpman, U. L.:(1988). Las pruebas en medicina deportiva. Mosc: Editorial

(1987).
Estadstica.
Ciudad
de Produccin del

de
la
Ministerio

Fis.

Pgina 23

ESTADISTICA PARA LA TOMA DE DECISIONES - ADMINISTRACION DE


EMPRESAS . UNAMBA

Mesa Anoceto, Magda: (1998). Determinacin de la validez predictiva de los


tests en el deporte. En Memorias del II Simposio Internacional de Educacin
Fsica y Deporte Escolar. Cienfuegos, Cuba.

Norat Soto, Teresa:(1991:81-86). Estadstica aplicada al deporte: las


pruebas de comparacin mltiple. En revista cubana de Medicina del Deporte y
la Cultura Fsica. 2(2): abril-,junio..

Siegel, Sidney: (1986). Estadstica no paramtrica aplicada a las Ciencias


de la Conducta. Mxico, D.F., Editorial Trillas.

Pgina 24

You might also like