La probabilidad es un mtodo mediante el cual se obtiene la frecuencia de un suceso determinado mediante la realizacin de un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables.
Qu se entiende por experimento aleatorio, espacio muestral y suceso aleatorio? Ejemplo. experimento aleatorio: En Teora de la probabilidad un experimento aleatorio es aquel que bajo el mismo conjunto aparente de condiciones iniciales, puede presentar resultados diferentes, es decir, no se puede predecir o reproducir el resultado exacto de cada experiencia particular. (Ej: Lanzamiento de un dado). espacio muestral: En la teora de probabilidades, el espacio muestral o espacio de muestreo (denotado E, S, o U) consiste en el conjunto de todos los posibles resultados individuales de un experimento aleatorio. Por ejemplo, si el experimento consiste en lanzar dos monedas, el espacio de muestreo es el conjunto {(cara, cara), (cara, cruz), (cruz, cara) y (cruz, cruz)}. Un evento o suceso es cualquier subconjunto del espacio muestral, llamndose a los sucesos que contengan un nico elemento sucesos elementales. En el ejemplo, el suceso "sacar cara en el primer lanzamiento", o {(cara, cara), (cara, cruz)}, estara formado por los sucesos elementales {(cara, cara)} y {(cara, cruz)}.
suceso aleatorio: Llamamos Suceso de un experimento aleatorio (o simplemente Suceso Aleatorio) a cada uno de los subconjuntos del Espacio Muestral E. El Conjunto de todos los sucesos de un experimento aleatorio se denomina Espacio de Sucesos y se representa por la letra S.
Distintos tipos de sucesos: Excluyente, exhaustivo, independientes. Suceso Excluyente: Los eventos mutuamente excluyentes son aquellos en los que si un evento sucede significa que el otro no puede ocurrir. Tipos de sucesos
Exhaustivo: se dice que dos o ms sucesos son exhaustivos si se consideran todos los posibles resultados. Simblicamente: p (A o B o...) = 1 No exhaustivos: se dice que dos o ms sucesos son exhaustivos si no cubren todos los posibles resultados. Mutuamente excluyentes: sucesos que no pueden ocurrir en forma simultnea: P(A y B) = 0 y p(A o B) = p(A) + p (B) Ejemplo: hombres, mujeres No mutuamente excluyentes: sucesos que pueden ocurrir en forma simultnea: P (A o B) = p (A) + p (B) ? p (A y B) Ejemplo: hombres, ojos cafs Independientes: Sucesos cuya probabilidad no se ve afectada por la ocurrencia o no ocurrencia del otro : P ( AI B ) = P ( A ); P ( BIA ) = P (B) Y P (A Y B) = P(A) P(B) Ejemplo: sexo y color de ojos Dependientes: sucesos cuya probabilidad cambia dependiendo de la ocurrencia o no ocurrencia del otro: P ( AI B ) difiere de p (A); P ( BIA ) difiere de P(B); Y P (A Y B)= P ( A ) P ( BIA )= P (B) P ( AI B ) Ejemplo: raza y color de ojos
Condiciones para que dos sucesos sean independientes.
Dos sucesos son independientes si y slo si p(A B) = p(A) p(B). Si dos sucesos son independientes y del mismo modo p(B|A) = p(B). Esta propiedad coincide ms con la idea intuitiva de independencia y algunos textos la dan como definicin. Hay que notar, sin embargo, que ambas definiciones no son estrictamente equivalentes. Ejemplo 7: Para un hijo de una mujer portadora de Duchenne, el sexo y la enfermedad son independientes? Segn vimos en el Ejemplo 3 el espacio muestral es W = {xX, xY, XX, XY} Definimos los sucesos A = {varn} = {xY, XY}; B = {enfermo} = {xY} A B = {xY} por lo tanto p(A) = 0,5; p(B) = 0,25; p(A B) = 0,25 p(A) p(B) NO son independientes.
Clculo de probabilidad segn la definicin clsica. La probabilidad es la caracterstica de un evento, que hace que existan razones para creer que ste se realizar. La probabilidad p de que suceda un evento S de un total de n casos posibles igualmente probables es igual a la razn entre el nmero de ocurrencias h de dicho evento (casos favorables) y el nmero total de casos posibles n.
La probabilidad es un nmero (valor) que varia entre 0 y 1. Cuando el evento es imposible se dice que su probabilidad es 0, si el evento es cierto y siempre tiene que ocurrir su probabilidad es 1. La probabilidad de no ocurrencia de un evento est dada por q, donde:
Sabemos que p es la probabilidad de que ocurra un evento y q es la probabilidad de que no ocurra, entonces p + q = 1 Simblicamente el espacio de resultados, que normalmente se denota por , es el espacio que consiste en todos los resultados que son posibles. Los resultados, que se denota por , etctera, son elementos del espacio .
Diferentes tipos de probabilidad: Marginal, Total, Conjunta, Condicional. Probabilidad marginal: Probabilidad marginal de un evento es la probabilidad simple de ese evento, pero expresada como una suma de probabilidades conjuntas. Probabilidad total: Sean A1, A2,, An un conjunto completo de sucesos incompatibles entre s. Sea B el suceso del cual se conocen las probabilidades condicionadas P(B/Ai), entonces, la probabilidad de ocurrencia de B se conoce como probabilidad total (completa) y su valor se determina mediante la expresin: P(B) = P(A1)*P(B/A1) + P(A2)*P(B/A2) + + P(An)*P(B/An) Es importante destacar que la probabilidad total puede entenderse como la suma de las probabilidades compuestas P(Ai B). Probabilidad conjunta: Dada la experiencia aleatoria con espacio muestral y dos eventos A y B, se define un nuevo evento llamado conjuncin de A y B, que se denota AB, de la siguiente manera: AB ocurre siempre que ocurra A y ocurra B, es decir, que ocurran ambos simultneamente. La probabilidad de AB, que simboliza P(A B), se le llama probabilidad conjunta de A y B. Probabilidad condicional: La probabilidad de que un evento ocurra cuando se sabe que ya ocurrio un evento se llama probabilidad condicional y se denota por que por lo general se lee como probabilidad de que "ocurra B dado que ocurri A". Esta probabilidad se define como:
La probabilidad condicional es una funcin de probabilidad, definida como
Cmo se calculan de acuerdo al tipo de suceso excluyente o independiente? Sucesos
Llamamos sucesos a los posibles resultados de una accin que depende del azar.
Distinguimos 3 tipos de sucesos: Suceso posible: Es un resultado que se puede dar. Por ejemplo, el 5 es un suceso posible cuando lanzamos un dado. Suceso imposible: Es un resultado que no se puede dar. Por ejemplo, el 7 es un suceso imposible cuando lanzamos un dado (el dado no tiene el nmero 7). Suceso seguro: Es un resultado que siempre se va a dar.
Por ejemplo, "nmero menor de 7" es un suceso seguro cuando lanzamos un dado (cualquier nmero que salga al lanzar el dado ser menor que 7). ara calcular probabilidades se utiliza la siguiente frmula:
Probabilidad = Casos favorables / Casos posibles
El resultado se multiplica por 100 para expresarlo en porcentaje.
Veamos algunos ejemplos:
a) Calcular la probabilidad de que salga "cara" al lanzar una moneda: Casos favorables: 1 (que salga "cara") Casos posibles: 2 (puede salir "cara" o "cruz") Probabilidad = (1 / 2 ) * 100 = 50 %
b) Calcular la probabilidad de que salga "3" al lanzar un dado: Casos favorables: 1 (que salga "3") Casos posibles: 6 (puede salir "1, 2, 3, 4, 5 o 6") Probabilidad = (1 / 6 ) * 100 = 16,6 %
c) Calcular la probabilidad de que salga "un nmero entre 1 y 4 " al lanzar un dado: Casos favorables: 4 (sera vlido cualquiera de los siguientes resultados "1, 2, 3, o 4") Casos posibles: 6 (puede salir "1, 2, 3, 4, 5 o 6") Probabilidad = (4 / 6 ) * 100 = 66,6 %
d) Calcular la probabilidad de que salga el nmero 76 al sacar una bolita de una bolsa con 100 bolitas numeradas del 1 al 100: Casos favorables: 1 (sacar el nmero 76) Casos posibles: 100 (hay 100 nmeros en la bolsa) Probabilidad = (1 / 100 ) * 100 = 1 %
e) Calcular la probabilidad de que salga "un nmero entre 1 y 98" al sacar una bolita de una bolsa con 100 bolitas numeradas del 1 al 100: Casos favorables: 98 (valdra cualquier nmero entre 1 y 98) Casos posibles: 100 (hay 100 nmeros en la bolsa) Probabilidad = (98 / 100 ) * 100 = 98 %
Regla de la Suma para determinar probabilidades totales. La regla de la adicin o regla de la suma establece que la probabilidad de ocurrencia de cualquier evento en particular es igual a la suma de las probabilidades individuales, si es que los eventos son mutuamente excluyentes, es decir, que dos no pueden ocurrir al mismo tiempo. P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente. P(A o B) = P(A) + P(B) P(A y B) si A y B son no excluyentes. Siendo: P(A) = probabilidad de ocurrencia del evento A. P(B) = probabilidad de ocurrencia del evento B. P(A y B) = probabilidad de ocurrencia simultnea de los eventos A y B.
Regla del producto para determinar probabilidades conjuntas. La regla de la multiplicacin establece que la probabilidad de ocurrencia de dos o ms eventos estadsticamente independientes es igual al producto de sus probabilidades individuales. P(A y B) = P(A B) = P(A)P(B) si A y B son independientes. P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes
Qu es una tabla de doble entrada o contingencia y cul es su utilizacin. Tablas de doble entrada: Tambin llamadas tablas de contingencias, son aquellas tablas de datos referentes a dos variables, formada, en las cabeceras de las filas, por las categoras o valores de una variable y en las de las columnas por los de la otra, y en las casillas de la tabla, por las frecuencias o numero de elementos que renen a la vez las dos categoras o valores de las dos variables que se cruzan en cada casilla. Para la tabulacin de un material agrupado de observaciones simultaneas de dos variables aleatorias necesitaremos una tabla descrita como anteriormente lo describimos, las reglas para agrupar son las mismas que en el caso de una sola variable. Este tipo de tablas brindan informacin estadstica de dos eventos relacionados entre s, es til en casos en los cuales los experimentos son dependientes de otro experimento, mas adelante aparecen ms aplicaciones del anlisis estadstico bivariable. Uso : Presentacin de la informacin en un formato multidimensional de filas y columnas, donde cada elemento est asociado a otro. Por ejemplo, un tipo de prestacin podra estar asociado a un centro de vacaciones en particular.
VARIABLES ALEATORIAS Qu es la variable aleatoria y cmo se genera. Es una variable estadstica cuyos valores se obtienen de mediciones en algn tipo de experimento aleatorio. Formalmente, una variable aleatoria es una funcin, que asigna eventos (p.e., los posibles resultados de tirar un dado dos veces: (1, 1), (1, 2), etc.) a nmeros reales (p.e., su suma). Los valores posibles de una variable aleatoria pueden representar los posibles resultados de un experimento an no realizado, o los posibles valores de una cantidad cuyo valor actualmente existente es incierto (p.e., como resultado de medicin incompleta o imprecisa). Intuitivamente, una variable aleatoria puede tomarse como una cantidad cuyo valor no es fijo pero puede tomar diferentes valores; una distribucin de probabilidad se usa para describir la probabilidad de que se den los diferentes valores. Las variables aleatorias suelen tomar valores reales, pero se pueden considerar valores aleatorios como valores lgicos, funciones... El trmino elemento aleatorio se utiliza para englobar todo ese tipo de conceptos relacionados. Un concepto relacionado es el de proceso estocstico, un conjunto de variables aleatorias ordenadas (habitualmente por orden o tiempo).
Una variable aleatoria (v.a.) X es una funcin real definida en el espacio muestral, , asociado a un experimento aleatorio. 1
2
La definicin formal anterior involucra conceptos matemticos sofisticados procedentes de la teora de la medida, concretamente la nocin de espacio de probabilidad. 3
4
Dado un espacio de probabilidad y un espacio medible , una aplicacin es una variable aleatoria si es una aplicacin -medible. En la mayora de los de ), quedando pues la definicin de esta manera: Dado un espacio de probabilidad una variable aleatoria real es cualquier funcin -medible donde es la-lgebra boreliana.
Variable Aleatoria Discreta (VAD) Qu es una funcin de probabilidad? Variable aleatoria discreta: una v.a. es discreta si su recorrido es un conjunto discreto. La variable del ejemplo anterior es discreta. Sus probabilidades se recogen en la funcin de cuanta (vanse las distribuciones de variable discreta).
Especificar las condiciones que debe cumplir una funcin para ser funcin de probabilidad. Cul es su representacin grfica? Para hacer una definicin rigurosa de la probabilidad, necesitamos precisar ciertas leyes o axiomas que deba cumplir una funcin de probabilidad. Intuitivamente estos axiomas deberan implicar, entre otras, las siguientes cuestiones, que nos parecen lgicas en trminos de lo que se puede esperar de una funcin de probabilidad: La probabilidad slo puede tomar valores comprendidos entre 0 y 1(no puede haber sucesos cuya probabilidad de ocurrir sea del ni del ; La probabilidad del suceso seguro es 1, es decir, el ; La probabilidad del suceso imposible debe ser 0. La probabilidad de la interseccin de dos sucesos debe ser menor o igual que la probabilidad de cada uno de los sucesos por separado, es decir,
La probabilidad de la unin de sucesos debe ser mayor que la de cada uno de los sucesos por separado:
Ms an, si los sucesos son disjuntos (incompatibles) debe ocurrir que
La probabilidad del suceso contrario de A, debe valer . Esto en realidad puede deducirse del siguiente razonamiento:
Concepto de Valor Medio Esperado o Esperanza Matemtica. Clculo de la Variancia. La esperanza matemtica (o simplemente esperanza) o valor esperado de una v.a. es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso. Si todos los sucesos son de igual probabilidad la esperanza es la media aritmtica. Para una variable aleatoria discreta con valores posibles y sus probabilidades representadas por la funcin de probabilidad la esperanza se calcula como:
Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los valores y la funcin de densidad :
o La esperanza tambin se suele simbolizar con El concepto de esperanza se asocia comnmente en los juegos de azar al de beneficio medio o beneficio esperado a largo plazo.
La varianza es una medida de dispersin de una variable aleatoria respecto a su esperanza . Se define como la esperanzade la transformacin :
o bien
Distribucin de Probabilidad Binomial Proceso Bernoulli. Condiciones del experimento aleatorio para aplicar esta distribucin. En estadstica, la distribucin binomial es una distribucin de probabilidad discreta que mide el nmero de xitos en una secuencia de nensayos de Bernoulli independientes entre s, con una probabilidad fija pde ocurrencia del xito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotmico, esto es, slo son posibles dos resultados. A uno de estos se denomina xito y tiene una probabilidad de ocurrenciap y al otro, fracaso, con una probabilidad q = 1 - p. En la distribucin binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado nmero de xitos. Para n = 1, la binomial se convierte, de hecho, en unadistribucin de Bernoulli. Para representar que una variable aleatoria X sigue una distribucin binomial de parmetros n y p, se escribe:
La distribucin binomial es la base del test binomial de significacin estadstica.
Distribucin de probabilidad binomial. Cul es la funcin de probabilidad? Representacin grfica. Parmetros de la distribucin. Calculo de la Esperanza Matemtica y Variancia. Variable Aleatoria Continua (VAC) Funcin de Densidad de Probabilidad- concepto. Variable aleatoria continua: una v.a. es continua si su recorrido no es un conjunto numerable. Intuitivamente esto significa que el conjunto de posibles valores de la variable abarca todo un intervalo de nmeros reales. Por ejemplo, la variable que asigna laestatura a una persona extrada de una determinada poblacin es una variable continua ya que, tericamente, todo valor entre, pongamos por caso, 0 y 2,50 m, es posible. 6 (vanse las distribuciones de variable continua) Funcin de densidad de una v.a. continua[editar editar cdigo] Artculo principal: Funcin de densidad de probabilidad. La funcin de densidad de probabilidad (FDP) o, simplemente, funcin de densidad, representada comnmente como f(x), se utiliza con el propsito de conocer cmo se distribuyen las probabilidades de un suceso o evento, en relacin al resultado del suceso. La FDP es la derivada (ordinaria o en el sentido de las distribuciones) de la funcin de distribucin de probabilidad F(x), o de manera inversa, la funcin de distribucin es la integral de la funcin de densidad:
La funcin de densidad de una v.a. determina la concentracin de probabilidad alrededor de los valores de una variable aleatoria continua.
Distribucin de la probabilidad normal Caractersticas de la funcin. Parmetros de la distribucin. En estadstica y probabilidad se llama distribucin normal, distribucin de Gauss o distribucin gaussiana, a una de las distribuciones de probabilidad de variable continua que con ms frecuencia aparece aproximada en fenmenos reales. La grfica de su funcin de densidad tiene una forma acampanada y es simtrica respecto de un determinado parmetro estadstico. Esta curva se conoce como campana de Gauss y es el grfico de una funcin gaussiana.
La distribucin normal tambin es importante por su relacin con la estimacin por mnimos cuadrados, uno de los mtodos de estimacin ms simples y antiguos. Algunos ejemplos de variables asociadas a fenmenos naturales que siguen el modelo de la normal son: caracteres morfolgicos de individuos como la estatura; caracteres fisiolgicos como el efecto de un frmaco; caracteres sociolgicos como el consumo de cierto producto por un mismo grupo de individuos; caracteres psicolgicos como el cociente intelectual; nivel de ruido en telecomunicaciones; errores cometidos al medir ciertas magnitudes; etc. La distribucin normal tambin aparece en muchas reas de la propia estadstica. Por ejemplo, la distribucin muestral de las medias muestrales es aproximadamente normal, cuando la distribucin de la poblacin de la cual se extrae la muestra no es normal. 1 Adems, la distribucin normal maximiza la entropa entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la eleccin natural de la distribucin subyacente a una lista de datos resumidos en trminos de media muestral y varianza. La distribucin normal es la ms extendida en estadstica y muchos tests estadsticos estn basados en una supuesta "normalidad". En probabilidad, la distribucin normal aparece como el lmite de varias distribuciones de probabilidad continuas y discretas.
Distribucin de la Probabilidad Normal Estandarizacin, normalizacin o tipificacin de una variable. A la hora de resumir variables, se suele calcular alguna medida de tendencia (como la media), otra de dispersin (como la desviacin tpica) y una ms relacionada con la forma de la distribucin. De todas las formas que puede tomar una distribucin, nos centraremos en la normal. La distribucin normal es una curva de gran inters, se utiliza como histograma ideal con el que comparar los histogramas de nuestros datos. Al tipo de variable que tiene un nmero infinito de alternativas de respuesta se le llama continua (edad, altura,peso...). es con estas variables, de naturaleza terica, con las que tiene sentido pensar una distribucin normal, igual de terica. Propiedades de la distribucin normal:
. Simtrica: se puede dividir en dos mitades iguales, simtricas.
. Conocidas la media y la desviacin tpica de una distribucin normal, podemos calcular la proporcin de casos existente en cualquier intervalo de la distribucin.
Clculo de la proporcin de casos (reas de la curva) en una distribucin normal.
De todas las posibles distribuciones normales existentes trabajamos con la distribucin normal tipificada - estandarizada, con la variable Z, con media 0 y desviacin tpica 1. * Otras distribuciones La distribucin normal, no es la ms normal de las distribuciones. En la prctica, raro es encontrar distribuciones normales. Se utiliza como referencia para hablar de otro tipo de distribucines. Distribuciones simtricas - asimtricas Cuando una distribucin no se puede partir en dos mitades iguales, es asimtrica. Si la mayora de los individuos se sitan en torno a los valores inferiores de la variables, mientras que unos pocos se decantan por el extremo superior de la distribucin, tendremos asimetra positiva. En caso contrario, ser negativa. En la positiva, la media ser superior a la mediana. En la negativa, a la inversa. Para saber si una distribucin es simtrica o asimtrica (y de que tipo de asimetra se trata) hay que calcular el coeficiente de simetra.
Distribucin de Probabilidad Normal Calculo de Probabilidad mediante manejo de la tabla Casos Directo e inverso. - Uso de la tabla normal Para calcular un rea de la curva, la proporcin de casos o la probabilidad de obtener un caso en un intervalo determinado, que todo es lo mismo, tendramos que entrar en un problema de integrales. Para evitarlo, existe una tabla que muestra la proporcin de casos existentes en cualquier intervalo de la distribucin. En los mrgenes de la tabla se incluyen los valores de Z; en la vertical las unidades y el primer decimal y en las horizontales el segundo decimal; en el centro de la tabla se muestra la proporcin de casos o lo que es lo mismo, la probabilidad de obtener un caso o el rea de la curva para un valor Z < Zi. Clculo de los intervalos correspondientes a reas o proporciones de casos en una curva normal. La operacin contraria es calcular el intervalo en el que est comprendida una determinada proporcin de casos y se hace calculando el valor del percentil o calculando el valor de los intervalos centrales.