You are on page 1of 24

Desarrollo

Conceptos

Inferencia Estadstica

Es una parte de la Estadstica que permite realizar afirmaciones de naturaleza probabilstica respecto a una poblacin, en base a los resultados obtenidos en una muestra seleccionada de esa poblacin. Puesto que las poblaciones son descritas por medidas numricas descriptivas, llamados parmetros, se puede hacer Inferencias acerca de la poblacin haciendo Inferencias respecto a sus parmetros.

Estimacin
En inferencia estadstica se llama estimacin al conjunto de tcnicas que permiten dar un valor aproximado de un parmetro de una poblacin a partir de los datos proporcionados por una muestra. Por ejemplo, una estimacin de la media de una determinada caracterstica de una poblacin de tamao N podra ser la media de esa misma caracterstica para una muestra de tamao n. El trmino estimacin tambin se utiliza en ciencias aplicadas para hacer referencia a un clculo aproximado, que normalmente se apoya en la herramienta estadstica aunque puede no hacerlo. En este sentido, un ejemplo clsico son los poco conocidos pero tiles en economa problemas de Fermi.

Prueba de Hiptesis
Es una aseveracin de una poblacin elaborado con el propsito de poner a prueba, para verificar si la afirmacin es razonable se usan datos. En el anlisis estadstico se hace una aseveracin, es decir, se plantea una hiptesis, despus se hacen las pruebas para verificar la aseveracin o para determinar que no es verdadera. Por tanto, la prueba de hiptesis es un procedimiento basado en la evidencia muestral y la teora de probabilidad; se emplea para determinar si la hiptesis es una afirmacin razonable.

Estimacinciones: puntual y por intervalos de confianza


ESTIMACION El objetivo principal de la estadstica inferencial es la estimacin, esto es que mediante el estudio de una muestra de una poblacin se quiere generalizar las conclusiones al total de la misma. Como vimos en la seccin anterior, los estadsticos varan mucho dentro de sus distribuciones muestrales, y mientras menor sea el error estndar de un estadstico, ms cercanos sern unos de otros sus valores. Existen dos tipos de estimaciones para parmetros; puntuales y por intervalo. Una estimacin puntual es un nico valor estadstico y se usa para estimar un parmetro. El estadstico usado se denomina estimador. Una estimacin por intervalo es un rango, generalmente de ancho finito, que se espera que contenga el parmetro.

Estimacin puntual La Estadstica Inferencial estudia cmo sacar conclusiones generales para toda la poblacin a partir del estudio de una muestra. Existen dos formas de hacer Inferencia Estadstica: - La estimacin de parmetros. - Las pruebas de hiptesis.(definicin pgina) En la Inferencia Estadstica hay varios mtodos, pero en cualquier caso es necesario utilizar una muestra que represente a la poblacin, esto se consigue con las Tcnicas de muestreo. A partir de una muestra nos proponemos dos objetivos: - Obtener valores aproximados de parmetros poblacionales: Estimaci poblacionales: Estimacin puntual. Esencialmente son tres los parmetros de inters: - En el caso de que investiguemos una variable cuantitativa: a) Para la media de la poblacin tomaremos como aproximacin la media de la muestra.

= b) Para la varianza de la poblacin 2 tomaremos la cuasivarianza de la muestra.

- Si el estudio se centra en el estudio de un carcter cualitativo el parmetro de inters ser la proporcin de elementos de la poblacin que pertenecen a cierta categora C que lo aproximaremos con la correspondiente proporcin en la muestra.

PROPIEDADES DE UN ESTIMADOR Existe una propiedad que comprende conjuntamente las propiedades de insesgamiento y eficiencia. Se trata del error cuadrtico medio. Sea T un estimador del parmetro . El error cuadrtico medio de T,

denotado ECM(T), se define como el valor esperado de (T- )2 . ECM(T) = E[(T- )2] Cul es la informacin que nos proporciona el error cuadrtico medio? Nos referimos al promedio de los cuadrados de las observaciones. Si ste es pequeo, debemos aceptar que hay una tendencia para que los valores (T- ) sean pequeos, y as lo ser tambin la diferencia (T- ), lo que quiere decir que T tiende a producir respuestas numricas prximas al parmetro . El poder que tenga T para producir valores prximos a depende de dos condiciones bsicas. Una es la fuerza o intensidad con la que tiende a dar esos valores (insesgamiento) y la otra es la fuerza que tenga para no permitir que se aparte de del camino que lo conduce a (eficiencia).Estas dos condiciones matemticamente establecidas y precisadas en el teorema siguiente: quedan

TEOREMA Si T es un estimador del parmetro Demostracin: ECM(T) = E[(T- )2] = E[T2 - 2 T + E(T) + E(
2 2

, ECM(T) = V[T] [ -E(T)]2

] = E(T2)-E(2 T)+E(
2

) = E(T2) -2

) = E(T2) [E(T)]2 + [E(T)]2 - 2 E(T) +


2

= (E(T2) [E(T)]2) +

([E(T)]2 - 2 E(T) +

) = V(T) + [

- E(T)]2.

De esta expresin deducimos que el error cuadrtico medio sera pequeo en la medida que lo sea su varianza y lo mismo ocurra con [ -E(T)]2, es decir -E(T). -E(T) sea pequeo quiere decir que E(T) El valor pequeo de la varianza quiere decir que T presenta poca variabilidad; el hecho de que tiende al valor a medida que el experimento se repite, lo que indica que T tiende a dar valores prximos al parmetro. La diferencia -E(T) se llama sesgo del estimador.

Estudiaremos un ejemplo que nos muestra como las dos propiedades anteriores pueden no ser suficientes paradeterminar el mejor estimador: Ejemplo: Sea X1, X2, ..., Xn una muestra aleatoria de una poblacin de media desconocida y varianza =81. Consideremos T1= yT2= como estimadores de la media, si obtenemos el error cuadrtico medio para el primer estimador utilizando el teorema anterior obtenemos mismo para el segundo estimador obtenemos . haciendo lo

Supongamos que tenemos que escoger uno de los dos estimadores. Para ello debemos tomar aquel que tenga menor error cuadrtico medio. Trabajando con las frmulas podemos observar que va a depender del valor de la media. En este ejemplo observamos que para escoger el mejor estimador tendramos que saber cul es el verdadero valor de la media poblacional. Pero nosotros pretendemos es contar con criterios que garanticen una

buena seleccin del estimador, sin importar el valor particular del parmetro objeto de estudio. Para precisar estos criterios estudiaremos el error cuadrtico medio en sus partes y as iniciamos el estudio de la diferencia - E(T). , si se

Se dice que una estadstica T es un estimador insesgado de cumple que E(T)= para cualquier valor de .

Volviendo al ejemplo anterior tendramos que la media muestral es un estimador insesgado de la media de la poblacin mientras queT2 no lo es. Tambin podemos decir que un estimador insesgadoes aquel que tiene sesgo igual a cero. TEOREMA: Sea X1, X2, ..., Xn una muestra aleatoria de cierta distribucin de media varianza a)T1= . Entonces: . . y

es un estimador insesgado de

b)T2=S2 es un estimador insesgado de

La propiedad de insesgamiento nos garantiza que las estimaciones que hagamos con el estimador se encuentran alrededor del parmetro en cuestin, de esto podemos deducir la siguienteREGLA DE PROCEDIMIENTO: REGLA 1 : Si tenemos T1 y T2 estimadores del parmetro es insesgado, entonces escoja el insesgado. y uno de ellos

Continuando con el ejemplo escogeramos la media muestral como mejor estimador de la media. Los siguientes grficos ilustran el significado de estimador insesgado y estimador sesgado

Una vez que tenemos dos estimadores con el mismo sesgo deberamos tener otra regla que nos permita elegir uno en lugar del otro, as llegamos a la SEGUNDA REGLA DE PROCEDIMIENTO : REGLA 2: Si tenemos T1 y T2 estimadores del parmetro insesgado, entonces escoja el de menor varianza. Tenemos que tener en cuenta estimadores consistencia y eficiencia. otras propiedades ambos de los

La consistencia se refiere al comportamiento de un estimador, a medida que la muestra se va tomando de un tamao mayor. T es un estimador consistente para cuando n tiende a infinito. , si se cumple que ,

Es decir un estimador es consistente si a medida que aumenta el tamao de la muestra, la probabilidad de que se acerque al parmetro va siendo mayor. Un estimador T del parmetro es suficiente cuando es capaz de sustraer de la muestra toda la informacin que sta contengaacerca del parmetro. Los estimadores de mayor uso como la media muestral, la varianza muestral y la proporcin muestral son buenos estimadores.

La pregunta que nos podemos hacer es cmo se obtiene un estimador? Los mtodos ms comunes son el de mxima verosimilitud, mtodo de los momentos muestrales y mtodo de los mnimos cuadrados. ESTIMACIN DE MXIMA VEROSIMILITUD La estimacin de mxima verosimilitud consiste en considerar todos los valores posibles del parmetro de la poblacin y calcular la probabilidad de que se obtenga ese estimador particular, dados todos los valores posibles del parmetro. Ejemplo: Deseamos conocer la proporcin de estudiantes de cierta universidad que estn a favor de un cambio de sede. Se escogieron aleatoriamente 10 estudiantes y 4 de ellos respondieron si. Es decir n=10,x=4, donde X= nmero de estudiantes que respondieron si. Ahora vamos a calcular la probabilidad de obtener 4 respuestas s de acuerdo con la proporcin verdadera que pueda darse en la poblacin universitaria. Consideraremos que la variable aleatoria definida sigue una binomial con lo que : ; x=0,1,2,...,10.

Si tomamos x=4 tenemos

Calcularemos las probabilidades respectivas para los distintos valores de y los reflejamos en la siguiente tabla: P[X=4] 00 01 02 03 04 05 06 00000 00112 00881 02001 02508 02051 01115

07 08 09 10

00368 00055 00001 00000

En la tabla podemos notar que la mxima probabilidad se da para =04 que coincide precisamente con la proporcin muestral. Es decir, el valor de la proporcin muestral que hace mxima la funcin, L( )=210 4(1- )6. Naturalmente la proporcin verdadera puede ser distinta del valor muestral obtenido. Pero es un riesgo que viene producido por proceder por muestreo y no investigar a toda la poblacin. Tambin podramos haber tomado otros valores de distintos a los de la tabla anterior y de esta manera sera ms preciso considerar la funcin L( ) como una funcin continua definida en el intervalo [0,1]. Esta funcin la llamaremos funcin de verosimilitud y formalmente queda definida como: L( )=210
4

(1- )6; 0

1.

De esta forma la funcin anterior es la probabilidad condicional de X = 4 dado = p y su grfica es la siguiente:

Aunque en la grfica se puede observar el mximo, podemos recurrir a la herramienta matemtica conocida como criterio de la derivada para obtencin de valores extremos . Veamos que ocurre en general:

Sea X una variable aleatoria con funcin de densidad f(x,

) determinada

por el parmetro . Supongamos que de la poblacin extraemos una muestra de tamao n que proporciona los datos x1, x2, ...xn. Con estos datos formamos el producto f(x1, )f(x2, llama funcin de mxima verosimilitud. L( ) = f(x1; ) f(x2; ) ... f(xn; ) , es aquel )...f(xn, ). Este producto se

Una estimacin de mxima verosimilitud para el parmetro valor de donde la funcin de verosimilitud asuma su mximo

La expresin de

en trminos de la muestra aleatoria X1, X2, ..., Xn se .

llama estimador de mxima verosimilitud de

ESTIMADORES DE LOS PARMETROS MS USUALES:

1. =

, Media Muestral. Se emplea para estimar

y se escribe

2. S2= estimar

, Varianza Muestral. Este estimador se emplea para y se escribe =S2.

3. S=

, Desviacin

Tpica

Muestral. Este

estimador

se

emplea para estimar

y se escribe

= S.

4.

, Proporcin Muestral. , y se escribe .

Este estimador se emplea para estimar 5. T=N

, Total Poblacional. Este estimador se emplea para estimar el y se escribe =N .

total poblacional

6. T=N , Total Poblacional. Este estimador se emplea para estimar el total poblacional de individuos que poseen una determinada caracterstica y se escribe =N .

EL ERROR ESTNDAR Un mismo estimador ofrece distintos valores para distintas muestras del mismo tamao extradas de la misma poblacin. Por lo tanto deberamos tener una medida de la variabilidad del estimador respecto del parmetro que se trata de estimar. Esta variabilidad se mide en trminos de la desviacin estndar del estimador, la cual recibe el nombre de error estndar. El error estndar de un estimador T de un parmetro estndar del estimador. As por ejemplo, si tomamos estndar est dado por . como estimador de es la desviacin

, entonces el error

Error de estimacin es el valor absoluto de la diferencia entre una estimacin particular y el valor del parmetro. En realidad por cada valor estimado del parmetro se tiene un error de estimacin por lo general diferente. Sin embargo, es posible fijar un intervalo dentro del cual se encontrarn la mayora de los valores de error de estimacin para un estimador y parmetro dados. En la tabla siguiente se dan las frmulas de los errores de estimacin para algunos estimadores y los estimadores para tales errores. Los estimadores se usan cuando los parmetros que se incluyen en las frmulas de los errores de estimacin son desconocidos. PARMETRO ESTIMADOR ERROR ESTNDAR ESTIMADOR ERROR DEL

N =

Estimacin por Intervalo de Confianza A diferencia de la estimacin puntual donde la estimacin la efectubamos dando un valor concreto, en esta ocasin el planteamiento es otro. Lo que haremos es dar un intervalo donde afirmaremos o pronosticaremos que en

su interior se encontrar el parmetro a estimar, con una probabilidad de acertar previamente fijada y que trataremos que sea la mayor posible, es decir prxima a 1. Para ello se establecer la notacin a utilizar:

Se dicho que vamos a proponer un intervalo donde se encontrar el parmetro a estimar, con una probabilidad de acierto alta. Al valor de esta probabilidad la representaremos por 1-, y la llamaremos nivel de confianza. A mayor valor de 1- , ms probabilidad de acierto en nuestra estimacin, por tanto eso implica que tendr que ser pequeo, prximo a 0. Recordemos que 1- representa siempre una probabilidad por lo que ser un valor entre 0 y 1, si bien en la mayora de los enunciados de los problemas suele ser enunciado en trminos de tanto por ciento. As cuando, por ejemplo, se dice que el nivel de confianza es del 90%, significa que 1- vale 0,9 y por tanto vale 0,1. Para interpretar bien estos conceptos veamos un ejemplo: Supongamos que deseamos estimar la media de la estatura de una poblacin mediante un intervalo de confianza al 95% de nivel de confianza, con una muestra de tamao 50. Supongamos que tras los clculos necesarios, el intervalo en cuestin es (a,b). Pues bien, esto quiere decir que si elegimos 100 muestras de tamao 50 y cada vez calculamos el intervalo de confianza resultante, acertaremos en nuestro pronstico en 95 de las 100 veces que realizaramos la estimacin con cada muestra. Un dato importante como es de esperar, es el tamao de la muestra, que representaremos por n. Es evidente que, a igual nivel de confianza, cuanto mayor tamao tenga la muestra, el intervalo de confianza se reducir puesto que el valor obtenido en la muestra se acercar ms al valor real de la poblacin y por tanto el margen de error cometido (radio del intervalo) se har ms pequeo. Si el tamao de la muestra permanece constante y variamos 1- . el tamao del intervalo se har ms grande cuanto ms aumente 1- , es decir que el margen de error se har ms grande cuanto ms precisin exijamos. Por ejemplo, si para dar un intervalo de confianza de la media de la estatura de una poblacin de adultos de un pas, es seguro que acertara al cien por cien si el intervalo que diese fuese (150 cm, 190 cm), pero

sera una estimacin absurda ya que no sabra apreciar realmente la media. Por tanto se trata de dar un intervalo lo ms reducido posible. Clculo de intervalos de confianza. Mtodo del pivote. El clculo de intervalos de confianza no es un proceso fcil cuando la variable en estudio no sigue unas pautas de normalidad, por lo que nosotros vamos a suponer siempre que la variable con la que vamos a trabajar sigue una distribucin normal. Dicho esto, el proceso para obtener el intervalo es dar una variable aleatoria donde intervenga el parmetro a estimar y el correspondiente de la muestra. A esta variable se le llama estadstico pivote y debe seguir una distribucin de probabilidad conocida. Por ejemplo para el clculo de un intervalo de confianza de la media se utiliza el siguiente estadstico pivote:

Pues bien, esa expresin donde interviene la media muestral, la media poblacional, la cuasi desviacin tpica y el tamao muestral, sigue una distribucin de probabilidad conocida que se encuentra tabulada, llamada t-Student con n-1 grados de libertad. Se trata pues de dar un intervalo (a,b) de modo que , siendo g el estadstico pivote correspondiente. Una vez establecida esa desigualdad, despejamos el parmetro poblacional que es el que queremos centrar en el intervalo. Clculo del intervalo de confianza para la media, conocida la desviacin tpica de la poblacin en una variable aleatoria normal.

Se utiliza es estadstico pivote:

que sigue una N(0,1)

Recordemos que es la media muestral, sigue una distribucin normal de media y desviacin tpica como probaremos a continuacin: Calculemos la esperanza y la varianza de X:

Por tanto la desv. Tip. Es Estamos pues ante la siguiente situacin:

A la expresin se le denomina margen de error y en ocasiones se expresa en tanto por ciento. Obsrvese que se trata del radio del intervalo. Veamos un ejemplo prctico: Se desea estimar la media del tiempo empleado por un nadador en una prueba olmpica, para lo cual se cronometran 10 pruebas, obtenindose una media de 41,5 minutos. Sabiendo por otras pruebas que la desviacin tpica de esta variable para este nadador es de 0,3 minutos, obtener un intervalo de confianza con un 95% de confianza. Cuantas pruebas habra que cronometrar para que el margen de error en la estimacin de la media fuese inferior a tres segundos. (Suponemos

siempre que la variable que mide el tiempo del nadador sigue una distribucin normal.) Estamos en el caso de un intervalo de confianza para la media conociendo la desviacin tpica de la poblacin. Del enunciado del problema se desprenden directamente los siguientes datos:

Tenemos que buscar un valor z/2, de modo que en la distribucin N(0,1) deje una rea de probabilidad a la derecha igual a /2, es decir 0,025. Como la funcin de distribucin de probabilidad de la tabla N (0,1) me da el rea de probabilidad acumulada, es decir a la izquierda, tengo que ver que valor de z me deja a la izquierda 0,975, que se corresponde para un valor de z=1,96. As pues el intervalo buscado es:

Tambin se puede expresar as: Se estima que la media es 41,5 ms menos un margen de error del 18,59%. (Recordemos que el margen de error cometido en la estima es el radio del intervalo, es decir 0,1859) En cuanto a la segunda parte del problema, nos piden el tamao de la muestra para que en las mismas condiciones el margen de error sea inferior a 3 seg, es decir 0,05 minutos (Debemos pasar todo a las mismas unidades). Que el error sea inferior al 5% es acotar el radio del intervalo de confianza con ese valor:

En consecuencia, para obtener un error inferior a 0,05 minutos, deberemos tomar una muestra de al menos 139 pruebas cronometradas.

Anlisis de Regresin y Correlacin Regresin es una palabra un tanto rara. La utilizan los bilogos, los mdicos, los psiclogos... y suena como "ir hacia atrs", "volver al pasado", y realmente este esverdadero significado del vocablo. Fue un bilogo y estadstico ingls, SIR FRANCIS GALTON*, quien introdujo en 1889 el trmino regresin en Estadstica. Emple este concepto para indicar la relacin que exista entre la estatura de los nios de una muestra y la estatura de su padre. Observ, que si los padres son altos, los hijos generalmente tambin lo son, y si los padres son bajos los hijos son tambin de menor estatura. Pero ocurra un hecho curioso: cuando el padre es muy alto o muy bajo, aparece una perceptible "regresin" hacia la estatura media de la poblacin, de modo que sus hijos retroceden hacia la media de la que sus padres, por cierto, estn muy alejados. Hoy da, el trmino no se utiliza en ese sentido. En muchas ocasiones, se desea conocer algo acerca de la relacin o dependencia entre dos caractersticas cuantitativas, o msde una, consideradas sobre la misma poblacin objeto de estudio (por ejemplo la talla y el peso). Hay muchos casos en los que ya de antemano se "sospecha" que puede existir algn tipo de relacin, y por consiguiente, se pretende saber por ejemplo, en el caso de que tengamos nicamente dos variables: 1.- Si ambas variables estn realmente relacionadas entre s o si, por el contrario, pueden considerarse independientes.

2.- Si existe dependencia, es necesario conocer el "grado de relacin", as como el "tipo" de relacin entre ambas. 3.- Si puede predecirse la variable que es considerada como dependiente a partir de los valores de la otra, que es considerada independiente, y si es as, con qu precisin. Cundo existe regresin? De una forma general, lo primero que suele hacerse para ver si dos variables aleatorias estn relacionadas o no (de ahora en adelante las llamaremos X e Y, denotando con Y a la variable dependiente, y X a la variable independiente o regresora), consiste en tomar una muestra aleatoria. Sobre cada individuo de la muestra se analizan las dos caractersticas en estudio, de modo que para cada individuo tenemos un para de valores (xi, yi) (i=1,...,n). Seguidamente, representamos dichos valores en unos ejes cartesianos, dando lugar al diagrama conocido como diagrama de dispersin o nube de puntos. As, cada individuo vendr representado por un punto en el grfico, de coordenadas, xi, yi. De esa forma, podremos obtener una primera idea acerca de la forma y de la dispersin de la nube de puntos. Al dibujar la nube de puntos, podemos encontrarnos, entre otros, los casos a los que hace referencia la figura 1 En primer lugar deberemos distinguir entre dependencia funcional y dependencia estocstica. En el primer caso la relacin es perfecta: Y=f(X) (ver figura 1 grafica e); es decir, los puntos del diagrama de dispersin correspondiente, aparecen sobre la funcin Y=f(X). Por ejemplo, el caso de la figura 1d sera Y=a+bX. Sin embargo, lo que suele ocurrir es que no existe una dependencia funcional perfecta, sino otra dependencia o relacin menos rigurosa que se denomina dependencia estocstica (figura 1b y c); entonces, la relacin entre X e Y, podramos escribirla (en el caso de la figura 6.1.b) de la forma Y=a+bX+e, donde e es un error o un residual, debido por ejemplo, a no incluir variables en el modelo que sean importantes a la hora de explicar el comportamiento de Y, y cuyos efectos sean diferentes a los de X; errores aleatorios o de medida, o simplemente a que estamos especificando mal el modelo (por ejemplo, que en lugar de ser una recta, sea una parbola).

Figura 1: Tipos de relacin entre dos variables X e Y

El caso de la figura 6.1a se corresponde con el de ausencia de relacin, o independencia. En la dependencia estocstica, se distinguen dos tipos de tcnicas: 1.- Anlisis de Regresin 2.- Anlisis de Correlacin (* El orden de exposicin de los dos Anlisis es arbitrario. El orden para su estudio puede invertirse)

El Anlisis de correlacin, tiene como fin dar respuesta a las preguntas: a.- Existe dependencia estocstica entre las variables? b.- Cul es el grado de dicha dependencia?

El Anlisis de regresin, : a.- Cul es el tipo de dependencia entre las dos variables?

b.- Pueden estimarse los valores de Y a partir de los de X?. Con qu precisin?. De modo general, diremos que existe regresin de los valores de una variable con respecto a los de otra, cuando hay alguna lnea, llamada lnea de regresin que se ajusta ms o menos claramente a la nube de puntos. Si existe regresin, a la ecuacin que nos describe la relacin entre las dos variables la denominamos ecuacin de regresin. Por ejemplo: Y=a+bX Y=a+bX+cX2 En general, la variable X se conoce como variable independiente, y la Y como variable dependiente. Evidentemente puede ser arbitrario el determinar la existencia de regresin as como el tipo de la misma, ya que depende del autor o del estado de nimo de la persona en un momento determinado. Por lo tanto, se hacen necesarios mtodos estadsticos objetivos, independientes del investigador, para determinar la existencia o no de relacin y el tipo de la misma.

Tipos de regresin Si las dos variables X e Y se relacionan segn un modelo de lnea recta, hablaremos de Regresin Lineal Simple: Y=a+bx. Cuando las variables X e Y se relacionan segn una lnea curva, hablaremos de Regresin no lineal o curvilnea. Aqu podemos distinguir entre Regresin parablica, Exponencial, Potencial, etc. Cuando tenemos ms de una variable independiente (X1, X2,..., Xp), y una sola variable dependiente Y, hablaremos de Regresin mltiple, a las variables Xi, se las denomina, regresoras, predictoras o independientes. Se dice que dos variables estn variando conjuntamente, y en el mismo sentido, cuando al crecer los valores de una de las variables tambin aumentan los de la otra. En cambio, estn variando conjuntamente, pero en sentido contrario, cuando al aumentar los valores de una, los de la otra disminuyen. Definiremos como covarianza de dos variables X e Y, y denotaremos por SXY, el estadstico

que nos permite analizar la variacin conjunta de dos variables. Viene dado por la siguiente expresin:

Si cada pareja de observaciones (xi,yi) se repitiese un nmero de veces, deberamos introducir en la expresin anterior la correspondiente frecuencia, anlogamente a como se hace en la expresin de la varianza. La covarianza, puede ser utilizada como una medida inicial de la asociacin lineal entre las dos variables. Para ello, observaremos detenidamente el grfico de la figura 2

Figura 2: Grfico que pone de manifiesto la importancia de la covarianza como medida de la asociacin lineal

Referencias bibliogrficas http://www.slideshare.net/requeabaddorothy/inferencia-estadstica-1554972 http://es.wikipedia.org/wiki/Estimacion_estadistica http://thales.cica.es/rd/Recursos/rd99/ed99-0018-04/MESTPUNT.html http://maralboran.org/wikipedia/index.php/Estimaci%C3%B3n_puntual http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo8/B0C8 m1t7.htm http://www.iesxunqueira1.com/Download/pdf/teointervalos.pdf http://biplot.usal.es/ALUMNOS/BIOLOGIA/5BIOLOGIA/Regresionsimple.pdf

You might also like