You are on page 1of 8

Probabilidad condicional e independencia.

Probabilidad condicional es la probabilidad de que ocurra un evento A,


sabiendo que tambin sucede otro evento B. La probabilidad condicional se
escribe P(A|B), y se lee la probabilidad de A dado B.
No tiene por qu haber una relacin causal o temporal entre A y B. A puede
preceder en el tiempo a B, sucederlo o pueden ocurrir
simultneamente. A puede causar B, viceversa o pueden no tener relacin
causal. Las relaciones causales o temporales son nociones que no
pertenecen al mbito de la probabilidad. Pueden desempear un papel o no
dependiendo de la interpretacin que se le d a los eventos.
Un ejemplo clsico es el lanzamiento de una moneda para luego lanzar un
dado. Cul es la probabilidad de obtener una cara (moneda) y luego un 6
(dado)? Pues eso se escribira como P (Cara | 6).
El condicionamiento de probabilidades puede lograrse aplicando el teorema
de Bayes.
Dado un espacio de probabilidad
sucesos)
con
de A dado B est definida como:

y dos eventos (o
, la probabilidad condicional

Tomando los mundos en los que B se cumple,


se puede
interpretar como la fraccin en los que tambin se cumple A. Si el evento B
es, por ejemplo, tener la gripe, y el evento A es tener dolor de
cabeza,
sera la probabilidad de tener dolor de cabeza cuando se
est enfermo de gripe.
Grficamente, si se interpreta el espacio de la ilustracin como el espacio de
todos los mundos posibles, A seran los mundos en los que se tiene dolor de
cabeza y B el espacio en el que se tiene gripe. La zona verde de la
interseccin representara los mundos en los que se tiene gripe y dolor de
cabeza
. En este caso
, es decir, la probabilidad de que
alguien tenga dolor de cabeza sabiendo que tiene gripe, sera la proporcin
de mundos con gripe y dolor de cabeza (color verde) de todos los mundos
con gripe: El rea verde dividida por el rea de B. Como el rea verde
representa
tiene que:

y el rea de B representa a

, formalmente se

propiedades

Es decir, si todos los que tienen gripe siempre tienen dolor de cabeza,
entonces la probabilidad de tener dolor de cabeza dado que tengo gripe es
1.

Independencia de sucesos
Dos sucesos aleatorios A y B son independientes si y slo si:

O sea que si A y B son independientes, su probabilidad conjunta,

puede ser expresada como el producto de las probabilidades individuales.


Equivalentemente:

En otras palabras, si A y B son independientes, la probabilidad condicional


de A dado B es simplemente la probabilidad de A y viceversa.
Exclusividad mutua
Dos sucesos A y B son mutuamente excluyentes si y slo si
Entonces,
Adems, si

.
entonces

es igual a 0.

La falacia de la probabilidad condicional


La falacia de la probabilidad condicional se basa en asumir que P(A|B) es
casi igual a P(B|A). El matemtico John Allen Paulos analiza en su libro El
hombre anumrico este error muy comn cometido por personas que
desconocen la probabilidad.
La verdadera relacin entre P(A|B) y P(B|A) es la siguiente:

(Teorema de Bayes)

Teorema de Bayes
El teorema de Bayes, en la teora de la probabilidad, es una proposicin
planteada por el filsofo ingls Thomas Bayes ( 1702-1761)1 en 1763,2 que
expresa la probabilidad condicional de un evento aleatorio A dado B en
trminos de la distribucin de probabilidad condicional del
evento B dado A y la distribucin de probabilidad marginal de slo A.
En trminos ms generales y menos matemticos, el teorema de Bayes es
de enorme relevancia puesto que vincula la probabilidad de A dado B con la
probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un
dolor de cabeza dado que se tiene gripe, se podra saber (si se tiene algn
dato ms), la probabilidad de tener gripe si se tiene un dolor de cabeza,
muestra este sencillo ejemplo la alta relevancia del teorema en cuestin
para la ciencia en todas sus ramas, puesto que tiene vinculacin ntima con
la comprensin de la probabilidad de aspectos causales dados los efectos
observados.
Sea
un conjunto de sucesos mutuamente
excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos
es distinta de cero (0). Sea B un suceso cualquiera del que se conocen las
probabilidades condicionales
viene dada por la expresin:

. Entonces, la probabilidad

donde:
son las probabilidades a priori.
es la probabilidad de

en la hiptesis

son las probabilidades a posteriori.

Thomas Bayes (1763)


Con base en la definicin de Probabilidad condicionada, obtenemos la
Frmula de Bayes, tambin conocida como la Regla de Bayes:

Esta frmula nos permite calcular la probabilidad condicional


cualquiera de los eventos
, dado . La frmula
muchas especulaciones filosficas y controversias".

de

"ha originado

El teorema de Bayes es vlido en todas las aplicaciones de la teora de la


probabilidad. Sin embargo, hay una controversia sobre el tipo de
probabilidades que emplea. En esencia, los seguidores de
la estadstica tradicional slo admiten probabilidades basadas en
experimentos repetibles y que tengan una confirmacin emprica mientras
que los llamados estadsticos bayesianos permiten probabilidades
subjetivas. El teorema puede servir entonces para indicar cmo debemos
modificar nuestras probabilidades subjetivas cuando recibimos informacin
adicional de un experimento. La estadstica bayesiana est demostrando su
utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a
priori y el hecho de permitir revisar esas estimaciones en funcin de la
evidencia emprica es lo que est abriendo nuevas formas de hacer
conocimiento. Una aplicacin de esto son los clasificadores bayesianos que
son frecuentemente usados en implementaciones de filtros de correo basura
o spam, que se adaptan con el uso.

Como observacin, se tiene


trivial.

y su demostracin resulta

Como aplicaciones puntuales:


El diagnstico de cncer.
Evaluacin de probabilidades durante el desarrollo de un juego de bridge
por Dan F. Waugh y Frederick V. Waugh.
Probabilidades a priori y a posteriori.
Un uso controvertido en La ley de sucesin de Laplace

Distribucin Marginal Conjunta


Dentro de la teora de probabilidades, dadas dos variables
aleatorias juntas X&Y, la distribucin marginal de X es simplemente la ley de
probabilidad de X haciendo caso omiso de la informacin referente a Y. Este
tipo de clculo se produce cuando se considera el estudio de una tabla de
contingencia.1
Para las variables aleatorias discretas, la ley de probabilidad marginal
Pr(X=x) se escribe

Pr(X=x,Y=y) es la distribucin conjunta de X&Y, mientras que Pr(X =x| Y=y)


es la distribucin condicional de Xconociendo Y. sta es la leccin principal
del Teorema de la probabilidad total.
Del mismo modo, para variables aleatorias continuas, la densidad de
probabilidad marginal 'pX (x) verifica

donde
da la distribucin conjunta de X&Y, y
condicional de X conociendo Y.

la distribucin

variable aleatoria discreta


Formalmente, una variable aleatoria es una ecuacion, que designa eventos
(p.e.f.g.f, posibles de los resultados de tirar uno, dos o tres dados dado dos
veces: (1, 49), (1, 41), evitar 2 numeros alreves etc.) a nmeros reales
(p.e.f,g,f , su suma o resta o lo que haya indefinidamente de las 2 partes o
ninguna). Una variable aleatoria o variable estocstica es una variable
estadstica.
Los valores posibles de una variable aleatoria pueden ser posibles
resultados en un experimento realizado y los posibles valores y
cualitisidades de una o varias cantidades cocuyo valor actualmente o
indiferente mente existente es incierto (p.e., como resultado de medicin
incompleta o imprecisa). Intuitivamente, una variable aleatoria puede
tomarse como una cantidad cuyo valor no es fijo pero puede tomar
diferentes valores; una distribucin de probabilidad se usa para describir la
probabilidad de que se den los diferentes valores.
Las variables aleatorias suelen tomar valores reales, pero se pueden
considerar valores aleatorios como valores lgicos, funciones... El
trmino elemento aleatorio se utiliza para englobar todo ese tipo de
conceptos relacionados. Un concepto relacionado es el deproceso
estocstico, un conjunto de variables aleatorias ordenadas (habitualmente
por orden o tiempo).
Tipos de variables aleatorias
Para comprender de una manera ms amplia y rigurosa los tipos de
variables, es necesario conocer la definicin de conjunto discreto. Un
conjunto es discreto si est formado por un nmero finito de elementos, o si
sus elementos se pueden enumerar en secuencia de modo que haya un
primer elemento, un segundo elemento, un tercer elemento, y as
sucesivamente.5

Variable aleatoria discreta: una v.a. es discreta si su recorrido es un conjunto


discreto. La variable del ejemplo anterior es discreta. Sus probabilidades se
recogen en la funcin de cuanta. (Vanse las distribuciones de variable
discreta).
Variable aleatoria continua: una v.a. es continua si su recorrido no es
un conjunto numerable. Intuitivamente esto significa que el conjunto de
posibles valores de la variable abarca todo un intervalo de nmeros reales.
Por ejemplo, la variable que asigna laestatura a una persona extrada de
una determinada poblacin es una variable continua ya que, tericamente,
todo valor entre, pongamos por caso, 0 y 2,50 m, es posible.6 (Vanse
las distribuciones de variable continua).

Funcin de probabilidad y de distribucin (discreta)

Cuando hablamos de la funcin de probabilidad, estamos evaluando la


posibilidad de que una variable aleatoria tome un valor especfico o bien al
hablar de una funcin de distribucin nos referimos al hecho de que una
variable aleatoria tom algn valor dentro de un intervalo (donde una
variable aleatoria es una variable continua) pero estos conceptos no
contemplan el hecho de que se requiera conocer la informacin de un valor
esperado, valor medio o esperanza matemtica de una variable aleatoria.

DISTRIBUCIN DE PROBABILIDAD DISCRETA.


Caractersticas:
Es generada por una variable discreta (x).

xVariable que solo toma valores enteros


x0, 1, 2, 3, 4, 5, 6, 7, 8, ... etc,etc.

2. p(xi)0 Las probabilidades asociadas a cada uno de los valores que toma
x deben ser mayores o iguales a cero.

3.p(xi) = 1 La sumatoria de las probabilidades asociadas a cada uno de los


valores que toma x debe ser igual a 1.

Valor esperado y momentos

CALCULO DE MEDIA (valor esperado) Y DESVIACIN ESTNDAR PARA UNA


DISTRIBUCIN DISCRETA

1.
Media o valor esperado de x.- Para determinar la media de la
distribucin discreta se utiliza la siguiente frmula:

E( x ) xi* p( xi )

Donde:
= media de la distribucin
E(x) = valor esperado de x
xi = valores que toma la variable
p(xi) = probabilidad asociada a cada uno de los valores de la variable x

Desviacin estndar. Para determinar la desviacin estndar de la


distribucin discreta se utiliza la siguiente frmula:

( xi )

* p( xi )

Donde:
= desviacin estndar
= media o valor esperado de x
xi = valores que toma la variable x
p(xi) = probabilidad asociada a cada uno de los valores que toma x

You might also like