You are on page 1of 79

MAESTRIA EN ESTADISTICA - Curso de Nivelacin

Curso elemental de

Probabiliidad y Estadstica
Teora y Prctica

Enero - Febrero 2009

Csar Amarilla
Anselmo Maciel

Facultad de Ciencias Exactas y Naturales


Departamento de Matemtica

Csar Amarilla

ndice general
1. Anlisis Combinatorio Bsico
1.1. Introduccin . . . . . . . . .
1.2. Principio Bsico . . . . . . .
1.3. Problemas de conteo . . . .
1.4. Ejercicios . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

2. Probabilidad
2.1. Introduccin . . . . . . . . . . . . . . . .
2.2. Operaciones con conjuntos . . . . . . . .
2.3. Definicin y ejemplos . . . . . . . . . . .
2.4. Definicin de Probabilidad . . . . . . . .
2.5. Probabilidad condicional e independencia
2.6. Ejercicios . . . . . . . . . . . . . . . . .
3. Variables aleatorias
3.1. Introduccin . . . . . . . . . . .
3.2. Definicin y ejemplos . . . . . .
3.3. Funciones de distribucin . . . .
3.4. Esperanza, varianza y momentos
3.5. Ejercicios . . . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

4. Estadstica
4.1. Consideraciones preliminares . . . . . . .
4.2. Muestra aleatoria . . . . . . . . . . . . .
4.3. Distribuciones muestrales de estimadores
4.4. Estimador y sus propiedades . . . . . . .
4.5. Estimacin puntual y por intervalo . . . .
4.6. Ejercicios . . . . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

5
5
5
7
11

.
.
.
.
.
.

13
13
14
16
18
25
31

.
.
.
.
.

37
37
37
40
44
49

.
.
.
.
.
.

55
55
58
61
68
73
76

NDICE GENERAL

Csar Amarilla

NDICE GENERAL

Captulo 1
Anlisis Combinatorio Bsico
1.1.

Introduccin

Las combinatoria es el nombre que recibe las tcnicas que se utilizan para resolver problemas de conteo.
En este captulo introducuremos las tcnicas bsicas de la combinatoria que necesitaremos en este curso.
Estas tecnicas no son ms que una nfima parte de toda esta teora. En extricto rigor la combinatoria es
mucho ms que tcnicas de conteo y es por eso que preferimos llamar a este captulo combinatroria bsica
y no combinatoria a secas.
Se podra decir que las tcnicas de conteo son anteriores incluso a la matemtica. La operacin bsica
de contar era utilizada por los pastores de antao para saber si perda alguna oveja al volver a casa en pocas
anteriores al concepto de suma de nmeros. El pastor simplemente llenaba su morral de piedras con una
por cada oveja que sala y luego al regresar las devolva a medida que las ovejas regresaban a casa. Si le
sobraban piedras saba que haba perdido algunas, si alcansaban justo entonces volvi con lo que se fue y
si le faltaban piedras entonces se haba apropiado de las ovejas de alguien ms.
Es cierto que los griegos no prestaron mucha antencin a la combinatoria con la honrosa exepcin del
estudio de los nmeros poligonales realizada por los pitagricos. En India en el siglo XII ya se conoca los
coeficientes binomiales. Fue Lev Ben Gerson en el siglo XIV el que realiz un estudio detallado de lo que
se conoce hoy en da como permutaciones y combinaciones de un conjunto de objetos. Esto fue recuperado
por Pascal y Fermat en sus estudios de los juegos de azar. A pesar de que al parecer fue Pascal el primero
en relacuionar los coeficientes binomiales con el teorema del binomio estos coeficientes ya eran conocidos
para los rabes en el siglo XIII y por los chinos en el siglo XIV. De hecho Nicolo Fontano de Bresia ms
conocido como Tartaglia en su obra pstuma. Tratado general sobre el nmero y la medida estudi el
rectngulo aritmtico que es equivalente al tringulo de Pascal.

1.2.

Principio Bsico

El objetivo de esta seccin no es aprender a contar, se supone que toda persona sabe hacerlo medianamente bien. El objetivo es formalizar un sistema para contar ordenadamente. vamos a enunciar dos
principios bsicos en la teora de combinatoria, el Principio de Multiplicaciny el Principio de Suma.
5

1.2. PRINCIPIO BSICO

CAPTULO 1. ANLISIS COMBINATORIO BSICO

Principio de multiplicacin
Si un procedimiento A1 puede efectuarse de n formas distintas y un segundo procedimiento A2 puede
realizarse de m formas diferentes y adems cualquier resultado de la primer procedimiento es compatible
con cualquier resultado del segundo procedimiento , entonces el total de formas en que puede efectuarse
el primer procedimiento seguido del segundo es el producto n m, en teora de conjuntos esto se expresa
como #(A1 A2 ) = #A1 #A2 , donde #(A1 A2 ) es el producto cartesiano y # significa cardinal del conjunto
finito, cuyas definiciones veremos en el captulo 2.

Ejemplo 1.2.1
Suponga que un cierto experimento consiste en lanzar un dado y despus seleccionar al azar una letra
del alfabeto. Cul es la cantidad total de formas diferentes que se pueden presentar los resultados en el
experimento?.
Solucin
El experimento de lanzar un dado puede arrojar 6 resultados posibles que son A1 = {1, 2, 3, 4, 5, 6} y
consideremos que tenemos un alfabeto de 26 letras A2 = {a, b, c, d, . . . , y, z}. Entonces por el principio de
multiplicacin la cantidad total de formas diferentes que se pueden presentar los resultados en el experimento es
6 26 = 156

Observacin: El Principio de multiplicacin se extiende a ms de dos procedimientos (digamos


k) de manera natural, es decir, si los procedimientos A1 , A2 , . . . , Am pueden efectuarse de n1 , n2 , . . . , nm formas distintas respectivamente, entonces el total de formas en que puede efectuarse los procedimientos A1
seguido de A2 , seguido de A3 , . . . ,seguido de Am , es n1 n2 nm .
En teoria de conjuntos si A1 , A2 , . . . , An son conjuntos finitos esto se expresa como
#(A1 A2 Ak ) = #A1 #A2 #Ak

Ejemplo 1.2.2
Un hombre tiene 4 pantalones distintos, 6 camisas, y dos pares de zapatos. De cuntas formas distintas
puede el hombre vestirse con estas prendas?
Solucin
La cantidad de formas distintas que el hombre puede vestirse con estas prendas es 4 6 2 = 48

Principio Suma
Si una operacin da n1 resultados distintos y otra operacin da n2 resultados distintos entre s y de todos
los resultados de la primera operacin y adems slo se puede realizar una de las dos operaciones ( es decir
Csar Amarilla

CAPTULO 1. ANLISIS COMBINATORIO BSICO

1.3. PROBLEMAS DE CONTEO

realizar una de las operaciones no permite realizar la otra ). Entonces el total de maneras distintas de realizar
la operacin conjunta ( es decir la primera o la segunda ) es n1 + n2 .
De manera conjuntista esto quiere decir que dados dos conjuntos finitos y que no tienen elementos en
comun se tiene que
#(A1 A2 ) = #A1 + #A2
donde A1 A2 significa A unin B cuya definicin veremos en el capitulo 2.

Ejemplo 1.2.3
Si lanzo un dado de seis lados o una moneda entonces los resultados posibles son 6 + 2 = 8.

Observacin: Lo mismo se aplica a un nmero mayor de operaciones digamos(k). Entonces si la


primera operacin tiene n1 posibilidades, la segunda n2 posibilidades y as sucesivamente, entonces el total
de maneras distintas de realizar la operacin conjunta ser
n1 + n2 + + nk
En teora de conjuntos si A1 , A2 , . . . , Ak son conjuntos finitos entonces
#(A1 A2 Ak ) = #A1 + #A2 + + #Ak

1.3.

Problemas de conteo

Consideremos a continuacin diferentes esquemas y contextos en donde es posible encontrar una frmula matemtica para ciertos problemas de conteo. En todos ellos aplicaremos el principio de multiplicacin.
El esquema general es el de extraer al azar k objetos, uno a la vez, de una urna con n objetos distintos.
Definicin 1.3.1 (Ordenaciones con repeticin: Muestras con orden y con reemplazo)
Suponga entonces que tenemos una urna con n objetos distintos. Deseamos realizar k extracciones al
azar de un objeto a la vez. Al efectuar una extraccin, registramos el objeto escogido y lo regresamos a la
urna, de esta forma el mismo objeto puede ser extrado varias veces. El total de arreglos que se pueden obtener
de esta urna al hacer k extracciones es el nmero nk , pues en cada extraccin tenemos n objetos posibles para
escoger y efectuamos k extracciones. Esta frmula es consecuencia del principio de multiplicacin enunciado
antes. A este nmero se le llama ordenaciones con repeticin. Se dice que la muestra es con orden pues es
importante el orden en el que se van obteniendo los objetos, y es con reemplazo pues cada objeto seleccionado
se reincorpora a la urna.

Ejemplo 1.3.1
Suponga que tenemos un conjunto de 60 caracteres diferentes que contiene todas las letras minsculas
del alfabeto, las letras maysculas, los diez dgitos y algunos caracteres especiales. Cuntos passwords o
palabras clave de longitud 4 se pueden construir usando el conjunto de 60 caracteres?
Csar Amarilla

1.3. PROBLEMAS DE CONTEO

CAPTULO 1. ANLISIS COMBINATORIO BSICO

Solucin
Este es un ejemplo de una ordenacin de 60 caracteres en donde se permiten las repeticiones. Como cada
caracter de los 60 disponibles puede ser escogido para ser colocado en cada una de las cuatro posiciones de
la palabra clave, entonces se pueden construir
60 60 60 60 = 604 = 12960000
distintos passwords de longitud 4.
Definicin 1.3.2 (Ordenaciones sin repeticin: Muestras con orden y sin reemplazo)
Suponga que se tiene la misma situacin que antes, una urna con n objetos y de los cuales se deben extraer, uno a uno, k objetos. Suponga esta vez que el muestreo es sin reemplazo, es decir, una vez seleccionado
un objeto ste ya no se reincorpora a la urna. El total de arreglos distintos que se pueden obtener de este
modo es el nmero:
n (n 1) (n 2) (n k + 1)
Primeramente debemos observar que hay k factores en la expresin anterior. El primer factor es n y
ello es debido a que tenemos cualesquiera de los n objetos para ser colocado en primera posicin, para la
segunda posicin tenemos ahora n 1 objetos, para la tercera n 2 objetos, etc. Este razonamiento termina
al escoger el k-simo objeto para cual tenemos nicamente n k + 1 posibilidades. Nuevamente por el
principio multiplicativo, la respuesta es el producto indicado. La expresin encontrada puede escribirse
como sigue:
n!
Pkn =
(n k)!
y se lee permutaciones de n en k. En el caso particular cuando la muestra es exhaustiva, es decir, cuando
k = n, o bien cuando todos los objetos son extrados uno por uno, entonces se tienen todas las permutaciones
o distintos rdenes en que se pueden colocar n objetos.

Ejemplo 1.3.2
De cuntas formas distintas pueden asignarse los premios primero, segundo y tercero en una rifa de 10
boletos numerados del 1 al 10?.
Solucin
Claramente se trata de una ordenacin sin repeticin de 10 objetos en donde se deben extraer 3 de ellos.
La respuesta es entonces que existen 10 9 8 = 720 distintas asignaciones para los tres primeros lugares en
la rifa.
Definicin 1.3.3 (Permutaciones: Muestras exhaustivas con orden y sin reemplazo)
La pregunta bsica acerca del total de formas en que podemos poner en orden lineal (uno detrs de otro
y por lo tanto no hay repeticin) n objetos distintos tiene como respuesta (aplicacin 1.2.1) el factorial de n,
denotado por n! y definido como sigue:
n! = n (n 1) (n 2) 3 2 1
Csar Amarilla

CAPTULO 1. ANLISIS COMBINATORIO BSICO

1.3. PROBLEMAS DE CONTEO

A este nmero tambin se le conoce como las permutaciones de n objetos, y se usa la notacin P(n) = n!.
Adicionalmente y por conveniencia se define 0! = 1. Observe que las permutaciones de n objetos es un caso
particular de la situacin mencionada en la seccin anterior sobre ordenaciones sin repeticin pero ahora
cuando la muestra es exhaustiva, es decir, cuando se extraen los n objetos de la urna.

Ejemplo 1.3.3
Si deseamos conocer el total de formas distintas en que podemos colocar una enciclopedia de 5 volmenes
en un librero
Solucin
El razonamiento es el siguiente: Cualquiera de los cinco libros puede ser colocado al principio, quedan
cuatro libros por colocar en la segunda posicin, restan entonces tres posibilidades para la tercera posicin,etc. Por el principio de multiplicacin la respuesta es el producto de estos nmeros, es decir
5! = 5 4 3 2 1 = 120

Definicin 1.3.4 (Combinaciones: Muestras sin orden y sin reemplazo)


Supongamos nuevamente que tenemos un conjunto de n objetos distinguibles y nos interesa obtener una
muestra de tamao k. Supongamos ahora que las muestras deben ser sin orden y sin reemplazo. Es decir, en
la muestra no debe haber elementos repetidos, pues no hay reemplazo, y adems la muestra debe verse como
un conjunto pues no debe haber orden entre sus elementos. Cuntas diferentes muestras podemos obtener
de estas caractersticas? Para responder a esta pregunta seguiremos el siguiente razonamiento. Cuando el
orden importa hemos encontrado antes la frmula
n (n 1) (n k + 1) =

n!
(n k)!

Ahora que no nos interesa el orden, observamos que cada uno de los arreglos de la frmula anterior,
est siendo contado k! veces, las veces en que los mismos k elementos pueden ser permutados unos con
otros, siendo que el conjunto de elementos es el mismo. Para obtener arreglos en donde el orden no importa,
debemos entonces dividir por k! La frmula a la que hemos llegado se llama combinaciones de n en k, que
denotaremos como sigue:
 
n
n!
=
k
k!(n k)!
A este nmero tambin se le conoce con el nombre de coeficiente binomial de n en k, pues aparece en
el famoso teorema del binomio:
n  
n nk k
n
(a + b) =
a b
k=0 k
Para los casos n = 2 y n = 3 el teorema del binomio se reduce a las siguientes frmulas:
(a + b)2 = a2 + 2ab + b2
Csar Amarilla

1.3. PROBLEMAS DE CONTEO

CAPTULO 1. ANLISIS COMBINATORIO BSICO

(a + b)3 = a3 + 3a2 b + 3ab2 + b3

Ejemplo
Cuntos equipos distintos de tres personas pueden escogerse de un grupo de 5 personas?
Solucin
Observe que el orden de las tres personas escogidas no es importante de modo que la respuesta es
 
5!
5
=
= 10
3
3!(5 3)!
Definicin 1.3.5 (Coeficiente multinomial)
Ahora consideremos que tenemos n objetos no necesariamente distintos unos de otros. Por ejemplo,
supongamos que tenemos k1 objetos de un primer tipo, k2 objetos de un segundo tipo, y as sucesivamente,
hasta km objetos del tipo m, en donde k1 + k2 + + km = n. Estos n objetos pueden todos ordenarse uno
detrs de otro de tantas formas distintas como indica el as llamado coeficiente multinomial:


n
n!
=
k1 ! k2 ! . . . km1 ! km !
k1 k2 . . . km1 km
Un razonamiento para obtener esta frmula es el siguiente. Si consideramos que los n objetos son todos
distintos, entonces claramente las distintas formas en que pueden escribirse todos estos objetos uno detrs
de otro es n!. Pero para cada uno de estos arreglos, los k1 objetos del primer tipo, supuestos inicialmente
distintos cuando en realidad no lo son, pueden permutarse entre s de k1 ! formas diferentes, siendo que el
arreglo total es el mismo. De aqui que debamos dividir por k1 ! . Lo mismo sucede con los elementos del
segundo tipo y as sucesivamente hasta los elementos del tipo m. El coeficiente multinomial aparece en la
siguiente frmula:
n1
n
n
n

(a1 + a2 + + am ) =

nk1

ki 

ki =0

k1 =0 k2 =0

km =0


n
ak11 ak22 . . . akmm
k1 k2 . . . km1 km

en donde la suma se efecta sobre todos los posibles valores enteros no negativos de k1 , k2 , . . . , km , tales que
k1 + k2 + + km = n. Por ejemplo, para n = 3 la frmula anterior produce la siguiente expresin:
(a + b + c)2 = a2 + b2 + c2 + 2ab + 2ac + 2bc
Puede usted desarrollar (a + b + c)3 ? Es interesante observar que cuando hay nicamente dos tipos de
objetos, el coeficiente multinomial se reduce al coeficiente binomial.
Definicin 1.3.6 (Muestras sin orden y con reemplazo)
Finalmente consideremos el caso de hacer k extracciones de una urna de n objetos con las condiciones
de que cada objeto extrado es regresado a la urna (y entonces puede ser elegido nuevamente), y en donde
Csar Amarilla

10

CAPTULO 1. ANLISIS COMBINATORIO BSICO

1.4. EJERCICIOS

el orden de la muestra no es relevante. Para encontrar una frmula para el total de muestras que pueden
obtenerse con estas caractersticas usaremos una modelacin distinta pero equivalente. Consideremos el
arreglo de n casillas de la Figura 1.1 junto con la siguiente interpretacion.
k xx |
1

| x | x | |
2

| x k
n1

Figura 1.1
La primera casilla tiene dos cruces y eso indica que la bola uno fue seleccionada dos veces, la segunda
casilla esta vaca y ello significa que la bola dos no fue seleccionada, etc. El nmero de cruces en la casilla
i indica entonces el nmero de veces que la bola i fue seleccionada. En total debe haber k cruces pues es el
total de extracciones. Deseamos entonces conocer el nmero de posibles arreglos que pueden obtenerse con
estas caractersticas, y debe ser claro, despus de algunos momentos de reflexin, que ste es el nmero de
muestras de tamao k, con reemplazo y sin orden, que se pueden obtener de un conjunto de n elementos
distinguibles. Consideremos que las dos paredes en los extremos de este arreglo son fijas, estas paredes
se encuentran ligeramente remarcadas. Consideremos adems que las posiciones intermedias, cruz o linea
vertical, pueden moverse. En total hay n +k 1 objetos movibles y cambiar de posicin estos objetos produce
las distintas configuraciones posibles que nos interesan. El nmero total de estos arreglos es


n+k1
k
que equivale a colocar dentro de las n + k 1 posiciones las k cruces, dejando en los lugares restantes las
paredes movibles.

1.4.

Ejercicios

1. Cuntas seales diferentes, cada una de 6 banderas colgadas en una linea vertical, pueden formarse
con 4 banderas rojas idnticas y 2 azules idnticas?. Rta 15
2. Cuntas permutaciones distintas pueden formarse con las letras de cada una de las palabras
a) tema

Rta. 24

b) campana

Rta. 840

c) estadstica?

Rta. 9.979.200

3. Cuatro libros diferentes de matemticas, seis diferentes de fsica y dos diferentes de qumica se colocan en un estante. De cuntas maneras distintas es posible ordenarlos si:
a) los libros de cada asignatura deben estar juntos

Rta. 207.360

b) solamente los libros de matemtica deben estar juntos?

Rta. 8.709.120

4. Se ordenan en una fila 5 bolas rojas, 2 bolas blancas y 3 bolas bolas azules. Si las bolas de igual color
no se distinguen entre s. De cuntas formas posibles pueden ordenarse?. Rta 2520
Csar Amarilla

11

1.4. EJERCICIOS

CAPTULO 1. ANLISIS COMBINATORIO BSICO

5. De un total de 5 matemticos y 7 fsicos, se forma un comit de 2 matemticos y 3 fsicos. De


cuntas formas puede formarse el comit si
a) puede pertenecer a l cualquier matemtico y fsico

Rta. 350

b) un fsico determinado debe pertenecer al comit

Rta. 150

c) dos matemticos determinados no pueden estar en el comit?

Rta. 105

6. Cuntas ensaladas pueden prepararse con lechuga, escarola, endibia, berro y achicoria?. Rta. 31
7. De cuntas maneras puede un profesor escoger uno o ms estudiantas de seis elegibles?. Rta 63
8. En una clase hay 12 estudiantes. De cuntas maneras los 12 estudiantes pueden presentar 3 pruebas
diferentes si a cada prueba le corresponde 4 estudiantes?. Rta. 34650
9. Una comisin de 10 personas est formada por 2 ingleses, e escoceses, 2 japoneses y el resto de otras
nacionalidades (todas distintas). De cuntas maneras pueden ponerse en fila sin que haya dos de la
misma nacionalidad contiguos?. De cuntas maneras pueden sentarse en una mesa redonda?
10. Cuntos nmeros enteros mayores que 3000 y menores que 4000 se pueden formar con los dgitos
2, 3, 6 y 9 si:
a) cada dgito aparece una sola vez
b) cada dgito se puede ocupar ms de una vez
11. Cuntas palabras diferentes se pueden obtener con las letras de la palabra MANICOMIO?
12. De un grupo de 6 hombres y 4 mujeres se forma un comit de 3 personas
a) Cuntos comits distintos se pueden formar?
b) Cuntos comits distintos con un solo hombre se pueden formar?
c) Cuntos comits distintos con almenos un hombre se pueden formar?
13. Pedro va a comprar 10 frutas entre naranjas, manzanas y pltanos al supermercado. Cuntas posibilidades diferentes tiene Pedro para comprar?.

Csar Amarilla

12

Captulo 2
Probabilidad
2.1.

Introduccin

La teora de probabilidad tuvo como uno de sus primeros puntos de partida el intentar resolver un
problema particular concerniente a una apuesta de juego de dados entre dos personas. El problema al que
nos referimos involucraba una gran cantidad de dinero y puede plantearse de la siguiente forma:
Dos jugadores escogen cada uno de ellos un nmero del 1 al 6, distinto uno del otro, y apuestan 32
doblones de oro a que el nmero escogido por uno de ellos aparece en tres ocasiones antes que el nmero
del contrario al lanzar sucesivamente un dado. Suponga que el nmero de uno de los jugadores ha aparecido
dos veces y el nmero del otro una sola vez. Cmo debe dividirse el total de la apuesta si el juego se
suspende?
Uno de los apostadores, Antonio de Gombaud, popularmente conocido como el caballero De Mere,
deseando conocer la respuesta al problema plantea a Blaise Pascal (1623-1662) la situacin. Pascal a su vez
consulta con Pierre de Fermat (1601-1665) e inician un intercambio de cartas a propsito del problema. Esto
sucede en el ao de 1654. Los historiadores de la matemtica stan generalmente de acuerdo en considerar
este hecho como el origen del estudio de las probabilidades.
Con lo anteriormente mencionado se inician algunos esfuerzos por dar solucin a ste y otros problemas
similares que se plantean. Con el paso del tiempo se sientan las bases y las experiencias necesarias para la
bsqueda de una teora matemtica que sintetice los conceptos y los mtodos de solucin de los muchos
problemas particulares resueltos a lo largo de varios aos.
Las ideas de probabilidades permanecen circunscritas a los problemas de juegos de azar hasta que Pierre
Laplace (1749-1827) y Friedrich Gauss (1777-1855) hacen notar que las teorias desarrolladas son aplicables
tambin a otras actividades diferentes de los juegos de azar.
En el segundo congreso internacional de matemticas, celebrado en la ciudad de Paris en el ao 1900,
el matemtico David Hilbert (1862-1943) plantea 23 problemas matemticos de importancia. Uno de estos problemas es el de encontrar axiomas o postulados a partir de los cuales se pueda construir una teora
matemtica de la probabilidad. Aproximadamente treinta aos despus, en 1933, el matemtico ruso Andrei
Nikolaevich Kolmogorov (1903-1987) propone ciertos axiomas basados en la teora de la medida desarrollada por H. Lebesgue(1875-1941), que a la postre resultaron adecuados para la construccin de una teora
de la probabilidad. Esta teora prevalece hoy en da y ha adquirido el calificativo de teora clsica. Actualmente la teora clsica de la probabilidad se ha desarrollado y extendido enormemente gracias a muchos
pensadores que han contribudo a su crecimiento, y es sin duda una parte importante y bien establecida
13

2.2. OPERACIONES CON CONJUNTOS

CAPTULO 2. PROBABILIDAD

de las matemticas. Ha resultado til para resolver problemas puramente matemticos, pero sobre todo y
principalmente, para modelar situaciones reales o imaginarias, en donde el azar es relevante.

2.2.

Operaciones con conjuntos

Supondremos que el espacio muestral de un experimento aleatorio es una especie de conjunto uni/ Otros
versal, y cualquier elemento de lo denotaremos por . El conjunto vaco lo denotaremos por 0.
smbolos usuales son los de pertenencia (), o no pertenencia ()
/ de un elemento en un conjunto, y los de
inclusin (, ), o no inclusin (6) de un conjunto en otro. Si A es un conjunto, denotamos la cardinalidad o nmero de elementos de ese conjunto por el #A. Sean A y B dos subconjuntos cualesquiera de .
Recordamos a continuacin las operaciones bsicas de unin, interseccin, diferencia y complemento:
A B = { : A o B}
A B = { : A y B}
A B = { : A y
/ B}
Ac = { :
/ A}
Cuando los conjuntos se expresan en palabras, la operacin unin, A B, se lee A o B y la interseccin,
A B, se lee A y B. La diferencia entre dos conjuntos A y B se denota por A B, y corresponde a aquel
conjunto de elementos de A que no pertenecen a B, es decir, A B se define como A Bc . En general, el
conjunto A B es distinto de B A, de hecho estos conjuntos son siempre disjuntos. Puede usted comprobar
tal afirmacin?. En qu caso ambos conjuntos coinciden?. Por otro lado el complemento de un conjunto A
se denota por Ac y se define como la coleccin de aquellos elementos de que no pertenecen a A.

Ejemplo 2.2.1
Sea A el conjunto de aquellas personas que tienen hijos, y B la coleccin de aquellas personas que estan
casadas. Entonces el conjunto A B consta de aquellas personas que estn casadas y tienen hijos, mientras
que el conjunto A Bc est constituido por aquellas personas que tienen hijos pero no estn casadas.Quin
es Ac B? Observe que cada persona es un elemento de alguno de los siguientes conjuntos: A B, A Bc ,
Ac B Ac Bc . A cul pertenece usted?.
Es fcil verificar que el conjunto vaco y el conjunto total satisfacen las siguientes propiedades elementales:
A 0/ = A
A = A
A 0/ = 0/
A Ac =
A =
A Ac = 0/
Csar Amarilla

14

CAPTULO 2. PROBABILIDAD

2.2. OPERACIONES CON CONJUNTOS

Las operaciones unin e interseccin son asociativas, esto es, satisfacen las siguientes igualdades:
A (B C) = (A B) C
A (B C) = (A B) C
y tambin son distributivas, es decir,
A (B C) = (A B) (A C)
A (B C) = (A B) (A C)
Recordemos tambin la operacin diferencia simtrica entre dos conjuntos A y B, denotada por AB,
y definida como sigue: AB = (A B) (B A). En la Figura 1.3 ilustramos grficamente el conjunto
resultante de efectuar la diferencia simtrica entre los conjuntos A y B. Visualmente es fcil comprobar
que la diferencia simtrica tambin puede escribirse como (A B) (B A). Cmo podra expresarse en
palabras al conjunto AB?
Recordemos adems las muy tiles leyes de De Morgan:
(A B)c = Ac Bc
(A B)c = Ac Bc
La validez de estas dos igualdades puede extenderse a colecciones finitas e incluso arbitrarias de conjuntos.
Definicin 2.2.1 ( Conjuntos Disjuntos ) Decimos que dos conjuntos A y B son disjuntos (ajenos) si se
cumple la igualdad A B = 0/ , es decir, los conjuntos A y B son ajenos cuando no existe un elemento que
pertenezca tanto a A como a B.

Ejemplo 2.2.2
Considere el experimento de lanzar un dado legal, observamos que puede ocurrir que la cara que se
muestra hacia arriba tenga un punto, o dos puntos, . . . , o seis puntos. Por lo tanto el espacio muestral del
experimento es = {1, 2, 3, 4, 5, 6}. Consideremos los eventos A = {1, 2, 3} y B = {5, 6}. Por lo tanto los
conjuntos A y B son disjuntos pues no hay ningn elemento comn entre ellos.

Nota 1: El ejemplo ms importante de conjuntos disjuntos es entre los conjuntos A y Ac , es decir


entonces que cualquier evento y su complemento nunca pueden ocurrir al mismo tiempo.
El concepto de conjuntos disjuntos puede extenderse al caso cuando se tienen varios conjuntos. Decimos
que n conjuntos A1 , . . . , An son ajenos si A1 An = 0/ , y se dice que son ajenos dos a dos (o mutuamente
ajenos) si Ai A j = 0/ para cualesquiera valores de los ndices i, j = 1, 2, . . . , n, con i distinto de j.

Nota 2: Notemos que existe diferencia entre las dos definiciones dadas recientemente, es decir si
A1 An = 0/ no necesariamente Ai A j = 0/ para cualesquiera valores de los ndices i, j = 1, 2, . . . , n,
con i distinto de j.
Csar Amarilla

15

2.3. DEFINICIN Y EJEMPLOS

CAPTULO 2. PROBABILIDAD

Ejemplo 2.2.3
En el ejemplo del dado legal recordemos que = {1, 2, 3, 4, 5, 6}. Consideremos los eventos A = {1, 2},
/ pero A B = {2} y B C = {6}.
B = {2, 4, 6} y C = {3, 6}, entonces A B C = 0,
Definicin 2.2.2 ( Conjunto potencia ) El conjunto potencia de , denotado por 2 , es aquel conjunto
cuyos elementos son todos los subconjuntos posibles de .
Observe que los elementos del conjunto potencia son en si mismos conjuntos, y que en esta coleccin
estan contenidos todos los eventos que podran ser de inters en un experimento aleatorio. Por teoria de
conjuntos recuerde que que #(2 ) = 2# , es decir, el nmero de elementos en el conjunto 2 es exactamente
2 elevado a la potencia dada por la cardinalidad de . De este hecho proviene la notacin usada para el
conjunto potencia: 2 . Observe que la expresin 2 no tiene sentido matemtico, y debe considerarse como
un smbolo para denotar al conjunto potencia.

Ejemplo 2.2.4
Considere el experimento de lanzar una moneda legal. El espacio muestral est dado por = {Cara,Cruz},
/ {Cara}, {Cruz}, }.
por lo que el conjunto potencia es 2 = {0,
Definicin 2.2.3 Producto Cartesiano. El producto Cartesiano de dos conjuntos A y B, denotado por
A B, se define como la coleccin de todas las parejas ordenadas (a, b), en donde a es cualquier elemento de
A, y b es cualquier elemento de B. En smbolos, A B = {(a, b) : a A y b B}.

Ejemplo 2.2.5
Si A = {a1 , a2 } y B = {b1 , b2 , b3 }, entonces AB = {(a1 , b1 ), (a1 , b2 ), (a1 , b3 ), (a2 , b1 ), (a2 , b2 ), (a2 , b3 )}.
En general los conjuntos producto A B y B A son distintos pues la pareja (a, b) es distinta de (b, a),
sin embargo ambos conjuntos tienen la misma cardinalidad, esto es, ambos tienen el mismo nmero de
elementos. Ms an, si la cardinalidad de A es el nmero n, y la cardinalidad de B es m, entonces la
cardinalidad del conjunto A B es el producto n.m. Este resultado es llamado principio de multiplicacin
que usaremos ms adelante. Un poco ms generalmente, puede considerarse el producto Cartesiano de n
conjuntos y comprobarse que #(A1 An ) = #A1 . . . #An .

2.3.

Definicin y ejemplos

Definicin 2.3.1 ( Experimento ) Es cualquier procedimiento mediante el cual obtenemos una observacin.
En particular, para el estudio de la probabilidad nos interesa observar aquellos experimentos cuyo resultado no es pronosticable con certeza , esto es aquellos experimentos tales que cuando se les repite bajo las
mismas condiciones iniciales, el resultado que se obtiene no siempre es el mismo, es decir aquellos en que
existe aleatoriedad. Este tipo de experimento se denomina experimentos aleatorios smbolizado por .
Csar Amarilla

16

CAPTULO 2. PROBABILIDAD

2.3. DEFINICIN Y EJEMPLOS

Ejemplos
Lanzamiento de una moneda
Tomar un punto de un circulo
Elegir un alumno en el campus para preguntarle cuntos libros ha solicitado a prstamo en la biblioteca universitaria durante el ltimo mes.
Contar el nmero de cabellos en la cabeza de una persona.
Medir la resistencia elctrica de un componente electrnico
Definicin 2.3.2 ( Espacio Muestral ) Es el conjunto de todos los resultados individuales que puede
tener un experimento. El espacio muestral puede no ser nico. A cada uno de los elementos del espacio
muestral se le llama punto muestral.
Definicin 2.3.3 ( Evento ) Es cualquier resultado posible al realizar un experimento.
Si un evento tiene un nico elemento, se le llama evento simple. En general, a cualquier subconjunto
del espacio muestral se le llama evento compuesto.

Notacin
Sea el espacio muestral de un experimento aleatorio . Si es a lo ms numerable, denotaremos a los
eventos simples de por Ei , denotaremos a los eventos simples de por
Ei , i {1, 2, . . . , | |}

Ejemplo 2.3.1
Si un experimento aleatorio consiste en lanzar un dado y observar el nmero que aparece en la cara
superior, entonces claramente el espacio muestral es el conjunto = {1, 2, 3, 4, 5, 6}. Como ejemplo de
un evento para este experimento podemos definir el conjunto A = {2, 4, 6}, que corresponde al suceso
de obtener como resultado un nmero par. Si al lanzar el dado una vez se obtiene el nmero 4, decimos
entonces que se observ la ocurrencia del evento A, y si se obtiene por ejemplo el resultado 1, decimos que
no se observ la ocurrencia del evento A.

Ejemplo 2.3.2
Considere el experimento aleatorio de participar en un juego de lotera. Suponga que hay un milln de nmeros en esta lotera y un jugador participa con un boleto. Cul es un posible espacio muestral para este experimento?. Naturalmente al jugador le interesa conocer su suerte en este juego y puede
proponer como espacio muestral el conjunto = {ganar, perder}. Sin embargo puede tambin tomarse
como espacio muestral el conjunto que contiene a todos los posibles nmeros ganadores, es decir, =
{1, 2, . . . , 1000000}.
Csar Amarilla

17

2.4. DEFINICIN DE PROBABILIDAD

CAPTULO 2. PROBABILIDAD

Este ejemplo sencillo muestra que el espacio muestral de un experimento aleatorio no es nico y depende
del inters del observador.
Puesto que los conceptos de espacio muestral y evento involucran forzosamente la terminologa de
conjuntos, recordaremos a continuacin algunas operaciones entre estos objetos, y algunas propiedades que
nos seran de utilidad en el estudio de la probabilidad y la estadtica.

2.4.

Definicin de Probabilidad

La teora de la probabilidad es la parte de las matemticas que se encarga del estudio de los fenmenos
o experimentos aleatorios. La probabilidad de un evento A, es un nmero real en el intervalo [0, 1] que
denotaremos por P(A), y representa una medida de la frecuencia con la que se observa la ocurrencia del
evento A cuando se efecta el experimento aleatorio en cuestin. Existen al menos cuatro definiciones de
probabilidad las cuales explicamos a continuacin.

Probabilidad clsica
Sea A un subconjunto de un espacio muestral de cardinalidad # finita. Se define la probabilidad
clsica del evento A como el cociente:
#A
P(A) =
#
lo que usualmente se expresa diciendo
P(A) =

casos f avorables
casos posibles

que en rigor puede extenderse


numero de casos f avorables
numero de elementos de
en donde el smbolo #A denota la cardinalidad o nmero de elementos del conjunto A. Claramente esta
definicin es slo vlida para espacios muestrales finitos, pues forzosamente necesitamos suponer que el
nmero de elementos en es finito. Adems, el espacio muestral debe ser equiprobable, pues para calcular la probabilidad de un evento A, nicamente necesitamos contar cuntos elementos tiene A respecto del
total, sin importar exactamente qu elementos particulares sean. Por lo tanto, esta definicin de probabilidad
presupone que todos los elementos de son igualmente probables o tienen el mismo peso.
P(A) =

Ejemplo 2.4.1
Si consideramos nuevamente el experimento de lanzar una moneda legal y queremos calcular la probabilidad de que ocurra el evento A = {Cara} y B = {Sello}, tendremos
P(A) =

#A
#{Cara}
1
=
=
# #{Cara,Cruz} 2

P(B) =

#B
#{Cruz}
1
=
=
# #{Cara,Cruz} 2

Csar Amarilla

18

CAPTULO 2. PROBABILIDAD

2.4. DEFINICIN DE PROBABILIDAD

Probabilidad frecuentista
Suponga que se realizan n repeticiones de un cierto experimento aleatorio y sea A un evento cualquiera.
Denotemos por n(A) el nmero de veces que ocurre el evento A, en las n realizaciones del experimento. Se
define entonces la probabilidad frecuentista de A como indica el siguiente lmite
n(A)
n n

P(A) = lm

En este caso, debemos hacer notar que no es humanamente posible llevar a cabo una infinidad de veces
el experimento aleatorio, de modo que en la prctica no es posible encontrar mediante este mecanismo
la probabilidad de un evento cualquiera. Esta limitacin hace que esta definicin de probabilidad no sea
enteramente formal, pero tiene algunas ventajas.
Consideremos nuevamente el experimento aleatorio de lanzar un dado equilibrado y registrar la ocurrencia del evento A definido como el conjunto {2, 4, 6}. Despus de lanzar el dado 20 veces se obtuvieron
los siguientes resultados:

Nmero Resultado
1
2
3
4
5
6
7
8
9
10

n(A)
n

3
6
2
1
4
6
3
4
2
5

Nmero Resultado

0
1
1
2
2
3
2
4
3
5
4
6
4
7
5
8
6
9
6
10

11
12
13
14
15
16
17
18
19
20

2
5
1
6
3
1
5
5
2
6

n(A)
n
7
11
7
12
7
13
8
14
8
15
8
16
8
17
8
18
9
19
10
20

n(A)
Realizando un mayor nmero de observaciones del experimento, no es difcil creer que el cociente
n
1
se estabiliza en cuando n es grande y el dado es equilibrado. Se invita al lector intrigado a efectuar un ex2
perimento similar y corroborar esta interesante regularidad estadstica con este o cualquier otro experimento
aleatorio de su inters.

Probabilidad subjetiva
En este caso la probabilidad de un evento depende del observador, es decir, segn lo que el observador
conoce del fenmeno en estudio. Puede parecer un tanto informal y poco seria esta definicin de la probabilidad de un evento, sin embargo en muchas situaciones es necesario recurrir a un experto para tener por
lo menos una idea vaga de cmo se comporta el fenmeno de nuestro inters y saber si la probabilidad de
un evento es alta o baja.
Csar Amarilla

19

2.4. DEFINICIN DE PROBABILIDAD

CAPTULO 2. PROBABILIDAD

Ejemplo 2.4.2
Cul es la probabilidad de que un cierto equipo de ftbol gane en su prximo partido?. Ciertas circunstancias internas del equipo, las condiciones del equipo rival o cualquier otra condicin externa, son
elementos que slo algunas personas conocen y que podran darnos una idea ms exacta de esta probabilidad.
Esta forma subjetiva de asignar probabilidades a los distintos eventos debe, sin embargo, ser consistente
con una serie de reglas naturales que estudiaremos a continuacin.

Probabilidad axiomtica
En la definicin axiomtica de la probabilidad no se establece la forma explcita de calcular las probabilidades sino nicamente se proponen las reglas que el clculo de probabilidades debe satisfacer. Esta teora
axiomtica de la probabilidad fue desarrollada por el matemtico ruso Andrei N. Kolmogorov basandose
como dijimos en la introduccin de este captulo en la teora de la medida estructurada por H. Lebesgue. El
modelo matemtico propuesto por Kolmogorov en el ao 1933 para estudiar los experimentos aleatorios es
el llamado espacio de probabilidad .
Definicin 2.4.1 (Espacio de probabilidad) Un espacio de probabilidad es una terna (, F , P), en
donde es un conjunto arbitrario, F es un -lgebra de subconjuntos de , y P es una medida de probabilidad definida sobre F .

Observacin
: es el espacio muestral

F : es un conjunto arbitrario cuyos elementos son sub-conjuntos del espacio muestral que cumple
con las siguientes tres propiedades
a) F
b) Si A F , entonces Ac F
c) Si A1 , A2 , F , entonces

Ai

i=1

A la pareja (, F ) se le llama espacio medible y a los elementos de F se les llama eventos o conjuntos
medibles. Una -lgebra es entonces una estructura que nos permite agrupar ciertos subconjuntos de
de inters, aquellos a los cuales se desea calcular su probabilidad, y esta estructura constituye el dominio de definicin de una medida de probabilidad. Cuando el espacio muestral es finito normalmente
se toma como -lgebra el conjunto potencia de , pero para espacio muestrales ms generales no
siempre puede tomarse esa estructura tan grande, y deben considerarse entonces -lgebras ms pequeas, es por ello que se estudian estas estructuras. En general existen varias -lgebras que pueden
asociarse a un conjunto cualquiera no vaco como se muestra en el siguiente ejemplo.
Csar Amarilla

20

CAPTULO 2. PROBABILIDAD

2.4. DEFINICIN DE PROBABILIDAD

Ejemplo 2.4.3
Sea un conjunto cualquiera no vaco. Es inmediato comprobar que cada una de las siguientes
colecciones es una -lgebra de subconjuntos de . La -lgebra del primer inciso es la -lgebra
ms pequea que podemos asociar a un conjunto cualquiera , y la -lgebra del ltimo inciso es la
ms grande.
/ }
a) F = {0,
/ A, Ac }, en donde A
b) F = {0,
c) F = 2 , conjunto potencia
P: es una funcin definida de la siguiente manera P : F [0, 1] y que satisface las siguientes condiciones denominados axiomas de probabilidad

Axiomas de Probabilidad
Axioma 1 P(A) 0, con A F
Axioma 2 P() = 1
/ con i distintos de j, entonces
Axioma 3 Si A1 , A2 , F , tales que Ai A j = 0,
P(

)=

n=1

P(Ai)

n=1

Al tercer axioma se le conoce con el nombre de -aditividad. El nmero P(A) representa una forma
de medir la posibilidad de observar la ocurrencia del evento A, al efectuar una vez el experimento
aleatorio.
No es difcil verificar que las definiciones anteriores de probabilidad satisfacen estos tres axiomas. De
hecho, estos postulados han sido tomados directamente del anlisis cuidadoso y reflexivo de las definiciones de probabilidad mencionadas anteriormente.A cualquier funcin P que satisfaga los tres axiomas de
Kolmogorov se le llama medida de probabilidad, o simplemente probabilidad.
En base a los tres axiomas de Probabilidad, es posible demostrar una serie de proposiciones interesantes
que veremos a contiuacin.
Teorema 2.4.1 Para cualquier evento A, se tiene que P(Ac ) = 1 P(A).
Demostracin
De la teora elemental de conjuntos tenemos que = A Ac . Por el segundo axioma P() = 1 y como
A y Ac son eventos ajenos, por el tercer axioma, P(A Ac ) = P(A) + P(Ac ). Finalmente, P(A) + P(Ac ) = 1
con lo que obtenemos P(Ac ) = 1 P(A)
/ = 0.
Teorema 2.4.2 P(0)
Demostracin
/ = 1 P() = 1 1 = 0
Como 0/ = c , usando la propiedad anterior, tenemos que P(0)
Csar Amarilla

21

2.4. DEFINICIN DE PROBABILIDAD

CAPTULO 2. PROBABILIDAD

Teorema 2.4.3 Para cualesquiera eventos A y B, se tiene que P(A B) = P(A) P(A B)
Demostracin
Por igualdad de conjuntos sabemos que A = (A B) (A B), donde (A B) y (A B) son conjuntos
disjuntos. Por el tercer axioma tendremos que P((A B) (A B)) = P(A B) + P(A B) por lo tanto
P(A) = P(A B) + P(A B). Finalmente P(A B) = P(A) P(A B).
Teorema 2.4.4 Si A B, entonces P(B A) = P(B) P(A) y P(A) P(B).
Demostracin
Como A B, por igualdad de conjuntos podemos escribir B = A (B A). Como A y B A son eventos
mutuamente excluyente, por el tercer axioma, P(B) = P(A) + P(B A). Usando el primer axioma concluimos que P(B) P(A) = P(B A) 0. De aqui obtenemos P(B) P(A) 0 entonces P(B) P(A).

Ejercicio 2.4.1
Sean A B eventos tales que P(Ac ) = 0, 9 y P(Bc ) = 0, 6. Compruebe que P(B A) = 0, 3.
Teorema 2.4.5 Para cualquier evento A, 0 P(A) 1.
Demostracin
Como A , se tiene que P(A) P() = 1. La otra desigualdad, 0 P(A), es simplemente el primer
axioma.
Teorema 2.4.6 Para cualesquiera eventos A y B, se tiene que P(A B) = P(A) + P(B) P(A B).
Demostracin
Primeramente escribamos A B como unin disjunta de conjuntos. Por igualdad de conjuntos sabemos
que A B = B (A B), donde B y (A B) son disjuntos. Utilizando el tercer axioma obtendremos que
P(B (A B)) = P(B) + P(A B). Por el teorema 1.4.3 sabemos que P(A B) = P(A) P(A B), por lo
tanto P(B (A B)) = P(B) + P(A) P(A B). Finalmente P(A B) = P(A) + P(B) P(A B).

Ejercicio 2.4.2
Sean A y B eventos ajenos tales que P(B) = 0, 3 y P(A Bc ) = 0, 2. Compruebe que P(A B) = 0, 5.
Teorema 2.4.7 Para cualesquiera eventos A, B y C, se tiene que
P(A B C) = P(A) + P(B) + P(C) P(A B) P(A C) P(B C) + P(A B C)
Demostracin
Como la unin de conjuntos es asociativo se tiene que A B C = (A B) C. Por el teorema 1.4.6
sabemos que P((A B) C) = P(A B) + P(C) P((A B) C) y P(A B) = P(A) + P(B) P(A B).
Adems sabemos que las operaciones de unin e interseccin son distributivas una con respecto a la otra,
Csar Amarilla

22

CAPTULO 2. PROBABILIDAD

2.4. DEFINICIN DE PROBABILIDAD

por lo que obtenemos lo siguiente (A B) C = (A C) (B C), aplicando nuevamente el teorema 1.4.6


se tiene que P((A C) (B C)) = P(A C) + P(B C) P((A C) (B C)), entonces tendremos que
P((A B) C) = P(A) + P(B) P(A B) + P(C) [P(A C) + P(B C) P((A C) (B C))]. Por
propiedad de conjuntos (A C) (B C) = A B C. Finalmente concluimos que:
P(A B C) = P(A) + P(B) + P(C) P(A B) P(A C) P(B C) + P(A B C)

Observacin: Las propiedades anteriores son parte del estudio terico y general de la probabilidad. En general, supondremos que la forma explcita de calcular estos nmeros es conocida, o que se
puede suponer un cierto modelo para llevar a cabo estos clculos dependiendo del experimento aleatorio
en cuestin. Por ejemplo, cuando el espacio muestral es finito y cada resultado puede suponerse igualmente probable, entonces usaremos la definicin clsica de probabilidad. En otras situaciones asignaremos
probabilidades de acuerdo a ciertos modelos conocidos.
Abordaremos ahora la determinacin de la expresin que nos permitir calcular el valor numrico de la
probabilidad de ocurrencia de un suceso.
Teorema 2.4.8 Sea (, F ) un espacio medible y sea ( ) una medida de R con () < (medida finita),
entonces la funcin definida por
(A)
, AF
P(A) =
()
es una funin de probabilidad.
Demostracin
Para demostrar que P(A) es una medida de probabilidad debemos ver que cumpla con los tres axiomas
de probabilidad.
Como ( ) es una medida tendremos que A F siempre (A) 0 y por lo tanto
(A)
0
()

P(A) =

Adems como () < de inmediato se tiene


()
=1
()

P(A) =

Como toda medida


[ finita es aditiva entonces, osea que para toda sucesin de conjuntos medibles y
disjuntos se tiene ( Ai ) = Ai . Por lo tanto
i

(
[

P(

Ai ) =

Ai )

()

Ai
=

()

=
i

(A)
= P(Ai )
()
i

Particularmente si el espacio muestral es finito, para cada suceso A F se tiene que


(A) = cardinal de A = #A
Csar Amarilla

23

2.4. DEFINICIN DE PROBABILIDAD

CAPTULO 2. PROBABILIDAD

y entonces la probabilidad del suceso A, queda dada por:


#A
P(A) =
#
que es la definicin clsica de probabilidad.
Cuando el espacio muestral del experimento aleatorio, sea una longitud, un rea o un volumen, la probabilidad de un suceso A, por extensin a lo dicho precedentemente, se calcular por
longitud de A
P(A) =
longitud de
P(A) =
P(A) =

area de A
area de

volumen de A
volumen de

Tales espacios de probabilidad se conocen con el nombre de probabilidades geomtricas .

Ejemplo 2.4.4
Dos personas y deciden juntarse en un determinado lugar entre entre las 12:00 hs. y 13:00 hs. y
acueran esperar 15 minutos. Determinar la probabilidad de que se encuentren.
Demostracin
Sea x el instante en que llega e y el instante en que llega . Entonces el espacio muestral del experimento es
= {(x, y) : 0 x 60 0 y 60}
por lo que la medida de es el rea del cuadrado de lado 60, es decir
() = 602 = 3600
Sea A el suceso que indica el hecho y se encuentran, entonces
A = {(x, y) : |y x| 15}
Pero
|y x| 15
implica
15 y x 15
o bien
x 15 y x + 15
Asi A es la regin del cuadrado comprendida entre las rectas y = x 15 y y = x + 15 y por lo tanto su
medida es el rea de esa regin, es decir el rea de quitndole las reas de los triangulos issceles de
cateto igual a 45, por lo que
= 602 452 = 1575
Por lo tanto la probabilidad de que y se encuentran ser
P(A) =

Csar Amarilla

(A) 1575
7
=
=
() 3600 16
24

CAPTULO 2. PROBABILIDAD

2.5.

2.5. PROBABILIDAD CONDICIONAL E INDEPENDENCIA

Probabilidad condicional e independencia

Los conceptos de probabilidad condicional e independencia surgieron de manera natural en el proceso


de encontrar solucin a algunos problemas provenientes de situaciones reales. En esta seccin estudiaremos
estos conceptos y demostraremos adems dos resultados de amplia aplicacin: el teorema de probabilidad
total y el teorema de Bayes.
Antes de dar la definicin de probabilidad condicional veamos como motivacin una pequea historia
que se conoce como el dilema de los tres pricioneros.
Un prisionero recibe la informacin de que uno de los prisioneros en su celda ser ejecutado maana.
Con el son tres en la celda por lo que el prisionero considera que su probabilidad de morir con solo esa
informacin es 13 . Por curiosidad el prisionero le pregunta a uno de los guardias el nombre de alguno de los
otros prisioneros que no ser ejecutado maana. Como el guardia sabe que eso no le da ninguna informacin
al prisionero accede a darle el nombre. Pero ahora con la nueva informacin el pricionero razona que su
probabilidad de morir subi a 21 y lamenta profundamente haber hecho la pregunta al guardia.
Se puede notar entonces que la nueva informacin dada por el guardia al prisionero modifica la probabilidad de este sea ejecutado pero este hecho no lleva a ninguna contradiccin, ya que 12 es la probabilidad
de que el prisionero sea ejecutado sabiendo que uno de los ocupantes de su celda no ser ejecutado que no
es lo mismo que la probabilidad de que el muera sin informacin adicional.
Definicin 2.5.1 (Probabilidad condicional) En el espacio de probabilidad (, F , P), sean A y B dos
eventos en donde B es tal que su probabilidad es estrictamente positiva. La probabilidad condicional del
evento A dado que haocurrido el evento B, denotada por P(A|B), se define como sigue:
P(A|B) =

P(A B)
P(B)

La expresin P(A|B) se lee probabilidad condicional del evento A dado el evento B, o simplemente
probabilidad de A dado B. Es claro que para que la definicin tenga sentido se necesita suponer que P(B) >
0, y por otro lado no existe definicin para P(A|B) cuando P(B) = 0. Est definicin tendr validez siempre
que la funcin P(A|B) sea realmente una probabilidad, es decir cumpla con los tres axiomas de probabilidad.
Teorema 2.5.1 Si P(B) > 0, la funcin P(A|B) es una probabilidad en el espacio medible (, F ), es decir
1. P(A|B) 0

AF

2. P(|B) = 1
3. P(

Ai |B) = P(Ai |B) con A1 , A2 , F

i=1

y Ai A j

con i 6= j

i=1

Demostracin
Por hiptesis P(B) > 0 y como P(A B) 0, entonces P(A|B) =
probabdo el item 1.
Como
P(|B) =
Csar Amarilla

P( B) P(B)
=
=1
P(B)
P(B)
25

P(A B)
0 con lo cual queda
P(B)

2.5. PROBABILIDAD CONDICIONAL E INDEPENDENCIA

CAPTULO 2. PROBABILIDAD

con lo que probamos el item 2.


Finalmente

P(

P(

i=1

Ai |B) =

P(B)

i=1

[

P
(Ai B)

Ai B)
=

i=1

P(Ai B)

P(B)

i=1

P(A B)
= P(Ai |B)
i=1 P(B)
i=1

P(B)

con lo cual probamos el item 3.

Observacin: De acuerdo al teorema precedente resulta que cada propiedad establecida para una
funcin de probabilidad, es vlida tambin para la probabilidad condicionada y por ello se tiene:
/ =0
1. P(0)
2. P

n
[

Ai |B = P(Ai |B)

i=1

i=1

3. P(A|B) = 1 P(Ac |B)


4. P(A|B) P(C|B) con A B
5. 0 P(A|B) 1
6. P(A Cc |B) = P(A|B) P(A C|B)
7. P(A C|B) = P(A|B) + P(C|B) P(A C|B)
8. P(A B) = P(A|B) P(B) con P(B) > 0
P(A B) = P(B|A) P(A) con P(A) > 0
Ilustraremos con un ejemplo el significado de la probabilidad condicional y comprobaremos que el
evento B representa informacin adicional acerca del experimento aleatorio que modifica, en general, las
probabilidades de los distintos eventos.

Ejemplo 2.5.1
Considere el experimento de extraer un naipe de un mazo de 40 (baraja espaola), sean los eventos
A = {se extrae un as} y B = {el naipe extraido es de copas}. Como en el mazo de 40 barajas hay
1
un solo as de copas y 10 naipes de copas en total se tiene que P(A B) = 40
y P(B) = 10
40 , entonces la
probabilidad de que ocurra A dado que se sabe que ocurri B es
P(A|B) =

P(A B)
=
P(B)

1
40
10
40

1
10

Teorema 2.5.2 (Regla del Producto) En un espacio de probabilidad (, F , P) donde n sucesos cualesquiera para los cuales P(A1 A2 . . . An1 ) > 0, se tiene
P(A1 A2 . . . An ) = P(A1 ) P(A2 |A1 ) P(A3 |A1 A2 ) P(An |A1 A2 . . . An1 )
Csar Amarilla

26

CAPTULO 2. PROBABILIDAD

2.5. PROBABILIDAD CONDICIONAL E INDEPENDENCIA

Demostracin
Como primer paso probaremos la existencia de cada una de las probabilidades contenidas en la tesis, es
decir la existencia de
P(A1 ), P(A2 |A1 ), P(A3 |A1 A2 ), . . . , P(An |A1 A2 . . . An1 )
Por hiptesis P(A1 A2 . . . An1 ) > 0 y por teoria de conjuntos sabemos que
A1 A1 A2 A1 A2 A3 A1 A2 . . . An1
por lo que
P(A1 ) P(A1 A2 ) P(A1 A2 A3 ) P(A1 A2 . . . An1 ) > 0
con lo que se garantiza la existencia de las probabilidades contenidas en la tesis.
Por definicin de probabilidad condicional P(A2 |A1 ) =

P(A1 A2 )
, entonces
P(A1 )

P(A B) = P(A1 ) P(A2 |A1 )


El siguiente paso de la demostracin la realizaremos por el mtodo de induccin. Por lo tanto supongamos que lo anterior se cumple para n 1 eventos, es decir
P(A1 A2 . . . An1 ) = P(A1 ) P(A2 |A1 ) P(A3 |A1 A2 ) P(An1 |A1 A2 . . . An2 )
Tomemos ahora n eventos y calculemos P(A1 A2 . . . An ), entonces


P(A1 A2 . . . An ) = P (A1 A2 . . . An1 )An = P(A1 A2 . . . An1 ) P(An )
Por hiptesis de induccin
P(A1 A2 . . . An1 ) = P(A1 ) P(A2 |A1 ) P(A3 |A1 A2 ) P(An |A1 A2 . . . An2 )
con lo que tenemos
P(A1 A2 . . . An ) = P(A1 ) P(A2 |A1 ) P(A3 |A1 A2 ) P(An |A1 A2 . . . An1 )
con lo cual queda demostrado el teorema.

Ejemplo 2.5.2
Un lote de 100 artculos es sometido a inspeccin de acuerdo al siguiente criterio: el lote es rechazado
si uno almenos de 5 artculos sacados es defectuoso. Cul es la probabilidad de rechazar el lote, sabiendo
que el contiene siete artculos defectuoso?
Solucin
Sean A: el evento que represente el lote es rechazado y Bi : el evento el i-simo artculo seleccionado
es no defectuoso , entonces
P(Ac ) = P(B1 ) P(B2 |B1 ) P(B3 |B1 B2 ) P(B4 |B1 B2 B3 ) P(B5 |B1 B2 B3 B4 )
Csar Amarilla

27

2.5. PROBABILIDAD CONDICIONAL E INDEPENDENCIA

CAPTULO 2. PROBABILIDAD

por lo tanto
93 92 91 90 89

= 0, 6903
100 99 98 97 96
Finalmente P(A) = 1 P(Ac ), entonces
P(Ac ) =

P(A) = 1 0, 6903 = 0, 3097


Antes de enunciar el Teorema de probabilidad total recordaremos el concepto de particin de un
conjunto. Una particin finita de un conjunto es una coleccin B1 , . . . , Bn de subconjuntos de tal que
/ i
cada uno de estos conjuntos es distinto del vaco, es decir Bi 6= 0,
/
la coleccin es disjunta dos a dos, esto es, para ndices i y j distintos, se cumple que Bi B j = 0,
la unin de toda la coleccin produce el total, es decir, B1 B2 Bn = .
Teorema 2.5.3 ( Teorema de probabilidad total )Sean B1 , B2 , . . . , Bn una particin de tal que cada
elemento de la particin tiene probabilidad estrictamente positiva. Para cualquier evento A, se tiene que
n

P(A) = P(A|Bi ) P(Bi )


i=1

Demostracin
Primero observemos que el evento A puede escribirse como sigue
n
[

A = A = A

i=1

Bi =

n
[

(A Bi )

i=1

en donde los eventos A B1 , . . . , A Bn son ajenos dos a dos, de modo que


P(A) = P(

n
[

(A Bi )) = P(A Bi ) = P(A|Bi ).P(Bi )

i=1

i=1

i=1

Observe que cuando la particin de consta de nicamente dos elementos, B y Bc , la frmula del
teorema de probabilidad total se reduce a la siguiente expresin
P(A) = P(A|B) P(B) + P(A|Bc ) P(Bc )
.

Ejemplo 2.5.3
Suponga que tenemos dos cajas: una con 3 bolas blancas y 7 de color gris, la otra con 6 blancas y 6
grises. Si se elije una caja al azar y despus se saca una bola, cul es la probabilidad de que sea blanca?
El experimento aleatorio consiste entonces en escoger una de las cajas al azar, con idntica probabilidad
cada una de ellas, es decir 21 para cada una y despus extraer una bola de la caja escogida. Es claro entonces
que el espacio muestral puede escribirse como sigue:
= {(C1 , B), (C1 , G), (C2 , B), (C2 , G)}
Csar Amarilla

28

CAPTULO 2. PROBABILIDAD

2.5. PROBABILIDAD CONDICIONAL E INDEPENDENCIA

en donde
C1 : representa el hecho la primera caja fue escogida
C2 : representa el hecho la segunda caja fue escogida
B: representa el evento una bola blanca fue escogida
G: representa el evento una bola gris fue escogida
Entonces lo que bebemos calcular es la probabilidad de B. Observe que es fcil calcular la probabilidad
de este evento cuando se conoce la caja que fue escogida. Esto sugiere condicionar sobre el resultado de
escoger alguna de las dos cajas y aplicar el teorema de probabilidad total, es decir,
P(B) = P(B|C1 ) P(C1 ) + P(B|C2 ) P(C2 )
3
Si suponemos que la caja seleccionada es C1 entonces P(B|C1 ) =
y decimos que seleccionamos la
10
6
caja C2 tendremos que P(B|C2 ) = , entonces
12
P(B) =

3 1
6 1 2
+ =
10 2 12 2 5

El Teorema de Bayes es otro resultado interesante que involucra probabilidades condicionales. Fue
publicado por primera vez en 1763, dos aos despus de la muerte de su creador, el matemtico y telogo
ingls Thomas Bayes.
Teorema 2.5.4 ( Teorema de Bayes ) Sea B1 , . . . , Bn una particin de tal que cada elemento de la
particin tiene probabilidad estrictamente positiva. Sea A un evento tal que P(A) > 0. Entonces para cada
j = 1, 2, . . . , n, se tiene
P(A|B j ) P(B j )
P(B j |A) = n
P(A|Bi) P(Bi)
i=1

Demostracin
Por la definicin de probabilidad condicional tenemos que
P(B j |A) =

P(A B j )
P(A)

y el teorema de probabilidad total sabemos que


n

P(A) = P(A|Bi ) P(Bi )


i=1

entonces
P(B j |A) =

P(A B j )
n

P(A|Bi) P(Bi)

i=1

Csar Amarilla

29

2.5. PROBABILIDAD CONDICIONAL E INDEPENDENCIA

CAPTULO 2. PROBABILIDAD

Nuevamente observamos que en el caso cuando la particin de consta de slo dos elementos: B y Bc ,
el teorema de Bayes, para el evento B, adquiere la forma:
P(B|A) =

P(A|B) P(B)
P(A|B) P(B) + P(A|Bc ) P(Bc )

Ejemplo 2.5.4
En una fbrica hay dos mquinas. La mquina 1 realiza el 60 % de la produccin total y la mquina 2
el 40 %. De su produccin total, la mquina 1 produce 3 % de material defectuoso, la mquina 2 el 5 %.
El asunto es que se ha encontrado un material defectuoso, Cul es la probabilidad de que este material
defectuoso provenga de la mquina 2?
Sean M1 : el evento la mquina 1 produjo el material escogido
M2 : el evento la mquina 2 produjo el material escogido
D: el evento el material escogido es defectuoso
La solucin del problema consiste en encontrar P(M2 |D). De acuerdo a la informacin que tenemos
3
y
obtenemos las siguientes probabilidades P(M1 ) = 0, 6 = 35 ; P(M2 ) = 0, 4 = 25 ; P(D|M1) = 0, 03 = 100
1
P(D|M2) = 0, 05 = 20
. Segn el teorema de Bayes
P(D|M2) P(M2)
=
P(M2 |D) =
P(D|M1) P(M1) + P(D|M2) P(M2)

1 2
20 5
3
3
1
100 5 + 20

2
5

10
19

Definicin 2.5.2 ( Independencia de eventos )En un espacio de probabilidad (, F , P), se dice que dos
eventos cualesquiera A y B son independientes si y solo si se cumple la condicin
P(A B) = P(A) P(B)
Esta igualdad es equivalente a la expresin P(A|B) = P(A) cuando P(B) > 0 (negacin de los acontecimientos condicionalmente dependientes) . La ventaja de esta ltima expresin es que posee una interpretacin sencilla: Dice que la probabilidad del evento A es la misma cuando sabemos que ha ocurrido el
evento B (lado izquierdo), que cuando no sabemos nada (lado derecho). Es decir, la ocurrencia del evento
B no afecta la probabilidad del evento A y por lo tanto son independientes. De manera anloga puede interpretarse la igualdad equivalente P(B|A) = P(B), suponiendo naturalmente que P(A) > 0. En la mayora de
los casos de aplicacin simplemente supondremos que dos eventos dados son independientes recurriendo
nicamente a justificaciones intuitivas.

Ejemplo 2.5.5
Suponga que se lanza una moneda dos veces. Es una hiptesis natural suponer que el resultado del
primer lanzamiento no afecta el resultado del segundo lanzamiento. De este modo cualquier evento del
primer ensayo es independiente de cualquier otro evento en el segundo ensayo.
Csar Amarilla

30

CAPTULO 2. PROBABILIDAD

2.6. EJERCICIOS

La definicin de independencia de dos eventos puede generalizarse al caso de varios eventos de la


siguiente forma: Decimos que n eventos A1 , A2 , . . . , An son independientes si se satisfacen todas y cada una
de las condiciones siguientes:
P(Ai A j ) = P(Ai )P(A j ), i 6= j
P(Ai A j Ak ) = P(Ai )P(A j )P(Ak ), i, j, k distintos
..
.
P(A1 An ) = P(A1 ) . . . P(An )
En general, para verificar que n eventos son independientes es necesario comprobar todas y cada una de
las igualdades arriba enunciadas. Es decir, cualquiera de estas igualdades no implica, en general, la validez
de alguna otra, es necesario pues verificarlas todas. No es difcil darse cuenta que el total de igualdades es
2n n 1.

Ejemplo 2.5.6
Sea = {1, 2, 3, 4} un espacio muestral equiprobable. Sean los eventos A = {1, 2}, B = {2, 3} y C =
{2, 4}. Son A, B y C independientes?
Para responder a esta pregunta debemos ver si se cumple o no la siguiente igualdad
P(A B C) = P(A) P(B) P(C)
Analizando los datos se tiene que P(A) = P(B) = P(C) = 24 = 12 , por lo tanto P(A) P(B) P(C) = 18 y
adems P(A B C) = P({2}) = 14 entonces P(A B C) 6= P(A) P(B) P(C), por lo que los eventos A, B
y C no son independientes.

2.6.

Ejercicios

Operaciones con conjuntos


1. Demuestre las leyes distributivas:
a) A (B C) = (A B) (A C)
b) A (B C) = (A B) (A C)
2. Demuestre las leyes de De Morgan:
a) (A B)c = Ac Bc
b) (A B)c = Ac Bc
3. Enuncie y demuestre las leyes de De Morgan para tres conjuntos. Para la demostracin use la validez
del mismo resultado para dos conjuntos.
4. Demuestre que A = (A B) (A Bc )
5. Demuestre que A B = B (A Bc )
Csar Amarilla

31

2.6. EJERCICIOS

CAPTULO 2. PROBABILIDAD

6. Demuestre que A B = A (B Ac )
7. Demuestre que A B = B (A Bc )
8. Demuestre que A B = A (B Ac )
9. Demuestre que
a) A B = A (A B)
b) A B = (A B) B
10. Demuestre que
a) A (B C) = (A B) (A C)
b) (A C) (B C) = (A B) C
11. Demuestre que las siguientes dos definiciones de la operacin diferencia simtrica son equivalentes
a) AB = (A B) (B A)
b) AB = (A B) (A B)
12. Sean A = {x R : |x 2| 4} y B = {x R : |x 1| > 2}. Encontrar los conjuntos Ac , Bc , A B,
A B, A B, B A y AB.
13. Sean A = {(x, y) R2 : x2 + y2 1} y B = {(x, y) R2 : y > x2 }. Encontrar los conjuntos Ac , Bc ,
A B, A B, A B, B A y AB.

Conjuntos disjuntos
14. Compruebe que los conjuntos A y B A son siempre ajenos
15. Son los conjuntos {(x, y) : y = ex } y {(x, y) : y = 1 - x} ajenos?. En caso negativo, Cuntos puntos
en comn tienen?

Probabilidad
16. Tres caballos A, B y C intervienen en una carrera; A tiene el doble de posibilidad de ganar que B; y B
4 2 1
el doble de ganar que C. Cul ea la probabilidad de ganar, esto es; P(A), P(B) y P(C)?. Rta. , ,
7 7 7
17. Se lanzan seis dados. Calcular la probabilidad de que salgan seis nmeros diferentes. Rta

6!
66

18. Se toman al azar dos nmeros comprendidos entre 0 y 1. Determine la probabilidad que la suma de
2
ellos no supere 1 y que el producto no sea mayor que . Rta. 0,487
9
19. Sean P1 y P2 dos medidas de probabilidad definidas sobre la misma clase de subconjuntos de . Sea
un nmero real en el intervalo [0, 1]. Demuestre que P = P1 + (1 )P2 satisface los tres axiomas
de la probabilidad.
Csar Amarilla

32

CAPTULO 2. PROBABILIDAD

2.6. EJERCICIOS

20. En el cuadrado = {(x, y) : |x| < 1 |y| < 1}. Se toma al azar un punto M = (a, b). Determine la
1
probabilidad que las races de la ecuacin x2 + 2ax + b = 0 sean complejas. Rta.
3
21. Sean A y B eventos ajenos tales que P(A) = 0,3 y P(B) = 0,2. Encuentre
a) P(A B)
b) P(Ac )
c) P(Ac B)
d) P(A Bc )
e) P(AB)
22. Diga falso o verdadero. Justifique en cada caso
a) Si P(A) = 0, entonces P(A B) = 0
b) Si P(A) = P(B), entonces A = B.
c) Si P(A) P(B), entonces A B
23. Una caja contiene 60 pernos y 140 tuercas. 20 pernos estan daados y lo mismo ocurre con 50 tuercas.
Se toma un elemento al azar de la caja. Se pide calcular la probabilidad de que sea perno o est daado.
11
Rta.
20

Probabilidad condicional e independencia


24. Suponga que de un grupo de 500 estudiantes universitarios se encuentra que 300 fuman, que 350
consumen bebidas alcohlicas y que 250 tienen estos dos hbitos nocivos para la salud. Cul es la
probabilidad de que un estudiante seleccionado aleatoriamente
a) tenga alguno de estos dos malos hbitos?
b) no tenga ninguno de estos dos psimos hbitos?
c) fume pero no tome?
d) tome pero no fume?
e) No fume?
f) Fume dado que toma?
g) Toma dado que fuma?
25. Sean A y B eventos independientes tales que P(A) = 0,1 y P(B) = 0,5. Encuentre
a) P(A B)

e) P(A B)

b) P(Ac B)

f) P(Ac B)

c) P(A Bc )

g) P(A Bc )

d) P(Ac Bc )

h) P(Ac Bc )

26. Suponga que P(B) = P(A|B) = P(C|A B) = p. Demuestre que P(A B C) = p3


Csar Amarilla

33

2.6. EJERCICIOS

CAPTULO 2. PROBABILIDAD

27. Cuatro personas dejan sus paraguas en la guardarropa. Suponiendo que lo devuelven al azar, calcular
1
la probabilidad de que cada uno reciba su propio paraguas. Rta.
24
28. Demuestre que en un espacio de probabilidad (, F , P) dos acontecimientos A y B con P(B) > 0, son
independientes si y solo si P(A|B) = P(A).
29. Probar que en todo espacio de probabilidad (, F , P) los acontecimientos 0/ y son independientes
de cualquier suceso A F .
30. Demuestre que si A y B son dos sucesos independientes provenientes de un espacio de probabilidad
(, F , P), entonces
a) A y Bc son independientes
[b) Ac y B son independientes
c) Ac y Bc son independientes
31. Sean A y B eventos independientes tales que P(A) = p1 y P(B) = p2 . Calcule la probabilidad de que
no ocurra ninguno de estos eventos.
32. Se nos da dos urnas como sigue:
La urna A contiene 3 bolas rojas y 2 bolas blancas
La urna B contiene 2 bolas rojas y 5 bolas blancas
Se selecciona al azar una urna; se saca una bola y se coloca en la otra urna, luego se saca una bola de
901
la segunda urna. Hallar la probabilidad de que las dos bolas sacadas sean del mismo color. Rta.
1680
33. La probabilidad de que en un matrimonio, el esposo vea cierto programa de TV es 0.4, la probabilidad
de que la esposa lo haga es de 0.5. La probabilidad de que el esposo vea el programa de TV dado que
la esposa lo hace es de 0.7. Encuentre la probabilidad de que
a) Ambos vean el programa de TV
b) Alguno de los dos vea el programa de TV
c) Ninguno vea el programa de TV
d) El esposo vea el programa pero la esposa no
e) La esposa vea el programa pero el esposo no
f) La esposa vea el programa dado que el esposo lo hace
g) Alguno de los dos no ve el programa
34. Se ha recibido una carta que se sabe puede venir desde Valdivia o desde Taltal. Del sello de correos solo tiene estampado las letras consecutivas Al. calcular la probabilidad que la carta venga de
5
Valdivia. Rta.
19
1 1 1
35. Las probabilidades que tienen tres personas A, B y C de golpear un blanco son: , y . Si los tres
3 4 5
disparan simultaneamente calcular la probabilidad que
Csar Amarilla

34

CAPTULO 2. PROBABILIDAD

2.6. EJERCICIOS

a) solamente uno golpee el blanco

13
30
15
Rta.
26
Rta.

b) sabiendo que slo uno golpe el blanco, sea B

36. Para la sealizacin de emergencia se ha instalado dos indicadores que funcionan independientemente; la probabilidad de que un indicador se accione durante la avera es igual a 0, 95 para el primero
y 0, 90 para el segundo. Hallar las siguientes probabilidades que durante una averia:
a) accione solo un indicador

Rta. 0, 14

b) accione por lo menos un indicador

Rta 0, 995

37. Una persona de 7 afirmaciones regularmente entrega 5 verdades y una persona entre 9 afirmaciones entrega 8 verdades. Si ellos no se conocen se pide la probabilidad de que respecto a un mismo
1
hecho, se contradigan. Rta.
3
38. Se lanzan simultneamente tres dados, buscando tres aces. Determinar el nmero mnimo de lanzamientos necesarios para lograr el objetivo con probabilidad no inferior a 0, 7. Rta. 261.

Probabilidad total y Teorema de Bayes


39. Se escoge al azar un dgito binario para ser enviado a travs de un canal de transmisin. Se escoge el
0 con probabilidad 0, 4, y se escoge el 1 con probabilidad 0, 6. El canal de comunicacin es ruidoso
de modo que un 0 se distorsiona en un 1 con probabilidad 0, 2, y un 1 se distorsiona en un 0 con
probabilidad 0, 1. Encuentre la probabilidad de que
a) se reciba un 0

Rta.0, 38

b) se reciba un 1

Rta.0, 62

c) se haya enviado un 0 dado que se recibi un 0

Rta.0, 84

d) se haya enviado un 1 dado que se recibi un 1

Rta.0, 87

40. Se tiene un tablero de ajedrez y se lanzan al azar dos reinas en el tablero ( en distintas posiciones ).
Cul es la probabilidad de que se amenacen?. Cul es la probabilidad que la primera reina est en
13 75
la tercera zona, dado que las reinas se amenazan ?. Rtas. ,
36 364
41. Se lanza un dado de seis caras y dos personas diferentes dicen que el resultado es 6. En general se
sabe que la primera persona miente con probabilidad p (0, 1) y la segunda persona miente con
(1 p)(1 r)
probabilidad r (0, 1). Cul es la probabilidad de que el resultado sea 6 ?. Rta.
(1 p)(1 r) + p.r
42. Todos los das a las 5:00 pm Charles toma el t con su madre. Para empezar la conversacin dice
creo que llueve o bien creo que no llueve . Charles se equivoca 1 vez de 3 cuando afirma que
llueve y 1 vez de 2 cuando afirma que no llueve. Sabiendo que llueve 9 de cada 10 das y que Charles
dijo que llova calcule la probabilidad de que llueva.
43. El general Custer conduce sus fuerzas a la entrada de un can. Su intuicin le dice que hay un 40 %
de probabilidad de que caiga en una emboscada al cruzar el can. Para estar ms seguro consulta
separadamente a sus dos guas rastreadores.
Csar Amarilla

35

2.6. EJERCICIOS

CAPTULO 2. PROBABILIDAD

El primer gua es un hombre blanco que se equivoca uno de dos veces al ser consultado. el segundo
gua es un experto gua indio que no se equivoca nunca pero miente una vez de tres. Calcular la
probabilidad de que haya una emboscada esperando al general si el gua blanco dice que no y el gua
indio dice que si.
44. Un fugitivo debe cruzar la frontera entre dos pases. Para ello dispone de tres caminos. Los dos
primeros caminos tienen un puesto de control y el tercero tiene dos puestos de control en serie a una
distancia prudente. Se asume adems que cada puesto de control es independiente de los otros. Se
sabe que la probabilidad de burlar un puesto de control es p (0, 1) (para cada puesto es la misma
probabilidad) y el fugitivo toma al azar uno de los tres caminos.
a) Calcule la probabilidad de que el fugitivo cruce la frontera sin ser visto
b) Calcule la probabuilidad de que el fugitivo haya utilizado el tercer camino dado que pas la
frontera sin ser visto.
c) Si los guardias de frontera deciden al azar e independientemente de la decisin del fugitivo
controlar completamente uno de los tres caminos, cul es la probabilidad de que el fugitivo
alcance la frontera.
45. En un examen de eleccin multiple, la probabilidad de que el alumno sepa la respuesta es p. habiendo m elecciones, si sabe la respuesta, l responde correctamente con probabilidad 1; si no la sabe,
1
responde corrrectamente con probabilidad . Cul es la probabilidad de que l haya sabido la rem
spuesta dado que la pregunta fue respondida correctamente?. Calcule el lmite de esta probabilidad
cuando
a) m con p fijo
b) p 0 con m fijo
46. Pedro quiere enviar una carta a Marina. la probabilidad de que Pedro escriba la carta es de 0, 8. la
probabilidad de que el correo no la pierda es 0, 9. La probabilidad de que el cartero la entregue es 0, 9.
Dado que Marina no recibi la carta, cul es la probabilidad de que Pedro no la haya escrito?.

Csar Amarilla

36

Captulo 3
Variables aleatorias
3.1.

Introduccin

En este captulo se estudiarn los conceptos de variable aleatoria, funcin de probabilidad, funcin de
densidad, funcin de distribucin, esperanza y varianza. A partir de ahora y el resto del captulo consideraremos como elemento base un espacio de probabilidad (, F , P).
La notacin ms natural al pensar en un experimento aleatorio denotado por que tiene un resultado
real desconocido es simplemente denotar como X. Es decir X es una variable aleatoria cuando es un
valor real obtenido de un experimento cualquiera. Entonces informalmente una variable aleatoria es una
caracterstica numrica del resultado de un experimento aleatorio, por lo tanto representa una traduccin de
cada uno de los resultados del espacio muestral en nmeros reales.

3.2.

Definicin y ejemplos

Definicin 3.2.1 (Variable Aleatoria) Dado un experimento aleatorio cualquiera, una variable aleatoria en un espacio de probabilidad (, F , P) es una funcin X en el espacio muestral tal que [X x] es un
evento aleatorio para todo x R, lo que es equivalente a decir,
X :R
es una variable aleatoria si [X x] F , x R.
A menudo se escribe simplemente v.a. en lugar del trmino variable aleatoria. En sentido estricto una
variable aleatoria es una funcin de en R que satisface adems cierta condicin de medibilidad. Suponga
entonces que se efecta el experimento aleatorio una vez y se obtiene un resultado en . Al transformar
este resultado con la variable aleatoria X se obtiene un nmero real X() = x. Podemos entonces suponer
que los posibles resultados del experimento aleatorio son los diferentes nmeros reales x que la funcin
X puede tomar. Debemos hacer aqui la siguiente observacin importante. Seguiremos la notacin usual de
usar la letra mayscula X para denotar una variable aleatoria cualquiera, es decir, X es una funcin de en
R, mientras que la letra minscula x denota un nmero real y que es un posible valor de la variable aleatoria.
En general, las variables aleatorias se denotan usando las ltimas letras del alfabeto en maysculas, U, V ,
W , X, Y , Z, y para un valor cualquiera de ellas se usa la misma letra pero en minscula.
37

3.2. DEFINICIN Y EJEMPLOS

CAPTULO 3. VARIABLES ALEATORIAS

Ejemplo 3.2.1
Suponga que un experimento aleatorio consiste en lanzar al aire una moneda y observar la cara superior
una vez que la moneda cae. Denotemos por Cara y Cruz los dos lados de la moneda. Entonces claramente el espacio muestral es el conjunto = {Cara,Cruz}. Defina la variable aleatoria X : R de la
siguiente forma X(Cara) = 0 y X(Cruz) = 1. De este modo podemos suponer que el experimento aleatorio
tiene dos valores numricos posibles: 0 y 1. Observe que los nmeros 0 y 1 son en realidad arbitrarios, otro
par de nmeros distintos puede ser escogido para distinguir los dos resultados del experimento aleatorio.
Podemos tambin definir la variable aleatoria Y : R de la siguiente forma Y (Cara) = Y (Cruz) = 2.
En este caso la variable Y solo toma un valor, el nmero 2. Cualquier resultado del experimento aleatorio
produce, a travs de la funcin Y , el nmero 2. Decimos que Y es la variable aleatoria constante 2.

Ejemplo 3.2.2
Consideremos el experimento aleatorio consistente en lanzar un dardo en un tablero circular de radio
uno.
El espacio muestral o conjunto de posibles resultados del experimento se puede escribir como sigue
= {(x, y) : x2 + y2 1}
Los siguientes son ejemplos de funciones de en R, variables aleatorias, asociadas a este experimento
aleatorio.
X(x, y) = x, proyeccin sobre el eje horizontal
Y (x, y) = y, proyeccin sobre el eje vertical
p
Z(x, y) = x2 + y2 , distancia al centro del crculo
V (x, y) = |x| + |y|, distancia del taxista
W (x, y) = x.y, producto de las coordenadas
Considerando el conjunto de valores que una variable aleatoria puede tomar, vamos a clasificar a las
variables aleatorias en dos tipos: discretas o continuas.
Definicin 3.2.2 ( Variable aleatoria discrteta ) Decimos que una v.a. es discreta cuando el conjunto
de valores que sta toma es un conjunto discreto, es decir, un conjunto finito o numerable.
Un conjunto discreto es aquel que tiene elementos puntuales, como por ejemplo {0, 1, 2, . . . , n} es un
conjunto finito discreto, lo mismo N pues aunque es infinito, es numerable y por lo tanto discreto.

Ejemplo 3.2.3
Sea el experimento consistente en lanzar una moneda n veces y observar la secuencia de caras (C) y
sellos (S) obtenidas.
Csar Amarilla

38

CAPTULO 3. VARIABLES ALEATORIAS

3.2. DEFINICIN Y EJEMPLOS

Los posibles resultados aqui sern todas las secuencias de n de caras y sellos y podemos definir el
espacio muestral como sigue
= {1 , 2 , . . . , n : i = C o i = S, i = 1, 2 . . . , n}
El nmero de caras observadas en los n lanzamientos es una caracterstica de la sucesin de caras y
sellos. De hecho, si definimos X = nmero de caras observadas, vemos que el valor de X depende del
resultado del experimento, y por lo tanto como el espacio muestral es un conjunto discreto entonces la v. a.
X es forzosamente discreta.
Definicin 3.2.3 ( Variable aleatoria continua) Una variable aleatoria es continua cuando toma todos
los valores dentro de un intervalo (a, b) R.

Ejemplo 3.2.4
Sea el experimento aleatorio consistente en escoger un punto del intervalo [0, 1] y definamos a la variable
aleatoria X como el cuadrado del valor obtenido.
Entonces el espacio muestral es = [0, 1] y X() = 2 , con , entonces X es continua.
Esta clasificacin de variables aleatorias no es completa pues existen variables que no son de ninguno
de los dos tipos mencionados. Por simplicidad en este curso estudiaremos nicamente variables aleatorias
que son discretas o continuas.
Usaremos tambin la siguiente notacin importante: Si A es un subconjunto de R, entonces la expresin
(X A), incluyendo el parntesis, denota el conjunto { : X() A}, es decir, (X A) = { :
X() A}. En palabras, la expresin (X A) denota aquel conjunto de elementos de tales que bajo
la aplicacin de la funcin X toman un valor dentro del conjunto A. A este conjunto se le llama la imagen
inversa de A, y se le denota por X 1 A.

Ejemplo 3.2.5
Consideremos nuevamente el experimento de lanzar una moneda y la variable aleatoria X que lleva el
resultado Cara al valor 0 y el resultado Cruz al valor 1. Tenemos por ejemplo que (X [1, )) =
{Cruz} pues el conjunto de elementos de tales que bajo la funcin X toman un valor mayor o igual a
uno, es decir caen dentro del intervalo [1, ), es nicamente el elemento Cruz. Por lo tanto P(X [1, )) =
P({Cruz}) = 12 . Del mismo modo puede verificarse que
P(X [1, 2)) = P({Cruz}) =

1
2

P(X [0, 1)) = P({Cara}) =

1
2

/ =0
P(X [2, 4]) = P(0)
P(X = 1) = P({Cruz}) =

1
2

/ =0
P(X 1) = P(0)
P(X 0) = P() = 1
Csar Amarilla

39

3.3. FUNCIONES DE DISTRIBUCIN

CAPTULO 3. VARIABLES ALEATORIAS

Usaremos con mucha frecuencia la notacin arriba explicada. El lector debe asegurarse de comprender
bien que si x es un nmero real entonces (X x) es un subconjunto de y por lo tanto un evento. Lo
mismo sucede con el complemento de este conjunto que es (X > x). Podemos escribir entonces la igualdad
de conjuntos (X x) (X > x) = . Y aplicando probabilidad se obtiene P(X x) + P(X > x) = 1.

Nota importante: A travs de una variable aleatoria se puede considerar que los posibles resultados de un experimento aleatorio no son elementos en sino nmeros reales que la variable aleatoria
puede tomar. Esta es una consideracin radical pues ya no consideraremos experimentos aleatorios particulares, ni espacios muestrales arbitrarios , ni eventos (subconjuntos) de , en lugar de ello consideraremos
que una cierta variable aleatoria de inters toma valores en un cierto subconjunto de nmeros reales. La
probabilidad definida antes para subconjuntos de se traslada, como explicamos antes, a probabilidades para
subconjuntos de R. Esta perspectiva permite estudiar modelos generales y despus aplicarlos a cualquier
situacin particular. A partir de ahora y en lo que resta del curso el trmino variable aleatoria constituir un
elemento frecuente en los enunciados.

3.3.

Funciones de distribucin

En esta seccin vamos a explicar la forma de asociar a cada variable aleatoria dos funciones que nos
proveen de informacin acerca de las caractersticas de la variable aleatoria. Estas funciones nos permiten
representar a un mismo tiempo tanto los valores que puede tomar la variable como las probabilidades de
los distintos eventos. En el caso de las variables aleatorias discretas estas funciones se denominan funcin
de probabilidad y funcin de distribucin , mientras que en el caso continuo tambin se tiene una funcin
de distribucin pero en ves de la funcin de probabilidad tenemos una funcin denominada funcin de
densidad de probabilidad .

Funcin de probabilidad para una variable discreta


Sea X una variable aleatoria discreta que toma los valores x1 , x2 , . . . con probabilidades respectivas
P(X = x1 ), P(X = x2 ), . . . . Esta lista de valores numricos y sus probabilidades puede ser finita o bien
infinita, pero numerable. La funcin de probabilidad de la variable X denotada por f (x) : R [0, 1] se
define como sigue

P(X = x) si x = x1 , x2 , . . .
f (x) =
(3.1)
0
otro caso
En palabras, la funcin de probabilidad es simplemente aquella funcin que indica los valores de la
probabilidad en los distintos valores que toma la variable aleatoria discreta. Recordemos que es importante
poder distinguir entre X y x, pues conceptualmente son cosas muy distintas. Denotaremos generalmente
a una funcin de probabilidad con la letra f minscula. A veces escribiremos fX (x) y el subndice nos
ayudar a especificar que tal funcin es la funcin de probabilidad de la variable X. Esta notacin ser
particularmente til cuando consideremos varias variables aleatorias a la vez. Observe que se cumplen las
siguientes dos propiedades, y toda funcin de la forma (3.1) la llamaremos funcin de probabilidad.
f (x) 0, x R

f (x) = 1
x

Csar Amarilla

40

CAPTULO 3. VARIABLES ALEATORIAS

3.3. FUNCIONES DE DISTRIBUCIN

Ejemplo 3.3.1
Considere la variable aleatoria discreta X que toma los valores 1, 2 y 3, con probabilidades 0,3; 0,5 y
0,2 respectivamente. Entonces la funcin de probabilidad de X es

0, 3 si x = 1

0, 5 si x = 2
f (x) =
0, 2 si x = 3

0 otro caso

Ejemplo 3.3.2
Encontre el valor de la constante c que hace que la siguiente funcin sea de probabilidad.

cx si x = 0, 1, 2, 3
f (x) =
0 otro caso
Los posibles valores de la variable aleatoria discreta, no especificada, son 0, 1, 2 y 3, con probabilidades
0, c, 2c y 3c, respectivamente. Como la suma de estas probabilidades debe ser uno para esta funcin sea de
probabilidad, obtenemos la ecuacin c + 2c + 3c = 1. De aqui obtenemos c = 16 . Este es el valor de c que
hace que f (x) sea no negativa y sume uno, es decir, una funcin de probabilidad.

Funcin de densidad para una variable continua


Sea X una variable aleatoria continua. Decimos que la funcin integrable y no negativa f (x) : R [0, )
es la funcin de densidad de X si para cualquier intervalo (a, b) de R se cumple la igualdad
P(X (a, b)) =

Z b

f (x)dx
a

Es decir, la probabilidad de que la variable tome un valor dentro del intervalo (a, b) se puede calcular
o expresar como el rea bajo la funcin de densidad en el intervalo (a, b). De esta forma el clculo de una
probabilidad se reduce al clculo de una integral. No es difcil comprobar que toda funcin de densidad
f (x) de una variable aleatoria continua cumple las siguientes propiedades anlogas al caso discreto.
f (x) 0, x R
R

f (x)dx = 1

Toda funcin f (x) : R [0, ) que satisfaga estas dos propiedades, sin necesidad de tener una variable
aleatoria de por medio, se llamar funcin de densidad.

Ejemplo 3.3.3
dada la funcin f (x) definida por
f (x) =

Csar Amarilla

1
2

si x (1, 3)

0 otro caso
41

3.3. FUNCIONES DE DISTRIBUCIN

CAPTULO 3. VARIABLES ALEATORIAS

Verificar que f (x) es una funcin de densidad


Para verificar que f (x) es una funcin de densidad debemos probar que f (x) cumple con las dos
propiedades mencionadas en la definicin.
Por la definicin misma de f (x) observamos que f (x) 0 y
Z 1

f (x)dx =

0 dx +

Z 3
1
1

dx +
3

1
0 dx = (3 1) = 1
2

Ejemplo 3.3.4
Encontrar el valor de la constante c que hace que la siguiente funcin sea de densidad.

f (x) =

c|x| si x [1, 1]
0 otro caso

Se trata de una variable aleatoria continua que toma valores en el intervalo [-1, 1]. Para encontrar el
valor de c debemos tomar en cuenta la sesunda condicin de una funcin de densidad, entonces
Z 1

1=

f (x)dx =

Z 1

0 dx +

Z 0

c|x| dx +
1

0 dx =
1

Z 1

(cx) dx +
1

cx dx
0

Aplicando algunas propiedades de integrales tendremos que


Z 1

1 = 2c
0

1
x dx = 2c( 0) = c
2

Por lo tanto, cuando tomamos c = 1 la funcin f (x) resulta ser una funcin de densidad pues ahora
cumple con ser no negativa e integrar uno.

Funcin de distribucin
Sea X una variable aleatoria discreta o continua. La funcin de distribucin de X, cuya notacin est
dada por F(x) : R [0, 1] , se define como
F(x) = P(X x)
Esto es, la funcin de distribucin evaluada en un nmero x cualquiera es simplemente la probabilidad
de que la variable aleatoria tome un valor menor o igual a x, o en otras palabras, que tome un valor en el
intervalo (, x]. Siendo F(x) una probabilidad, sus valores estn siempre entre 0 y 1. Esta funcin resulta
ser importante y se le conoce tambin, por razones evidentes, con el nombre de funcin de acumulacin
de probabilidad. tambin se acostumbra escribir FX (x) para smbolizar a la funcin de distribucin de una
variable aleatoria X, en donde el subndice nos ayudar a especificar que tal funcin es la funcin de distribucin de probabilidad de la variable X. Con un par de ejemplo mostraremos la forma de calcular esta
funcin distribucin a partir de la funcin de probabilidad si la variable aleatoria es discreta o de densidad
si la variable en estudio es continua.
Csar Amarilla

42

CAPTULO 3. VARIABLES ALEATORIAS

3.3. FUNCIONES DE DISTRIBUCIN

Ejemplo 3.3.5
Considere la variable aleatoria discreta X del ejemplo 3.2.1. Calcular la correspondiente funcin de
distribucin evaluada en x.
La funcin de distribucin se calcula sumando las probabilidades P(X = u) para valores de u menores
o iguales a x, es decir,

0 si x < 1

0, 3 si 1 x < 2
F(x) = P(X x) = P(X = u) =
0, 8 si 2 x < 3

ux

1 si x 3

Ejemplo 3.3.6
Considere ahora la variable aleatoria continua X del ejemplo (3.3.3). Calcular la correspondiente funcin
de distribucin evaluada en x
La correspondiente funcin de distribucin se obtiene calculando la siguiente integral

0 si x < 1

Z x
x1
si 1 x < 3
F(x) = P(X x) =
f (u)du =
2

1 si x 3
Observe que esta funcin es continua y no decreciente.
En los dos ejemplos anteriores se ha mostrado la forma de obtener F(x) a partir de f (x). Ahora explicaremos el proceso contrario.
x
En el caso continuo tenemos que para toda x en R, F(x) = P(X x) =
f (u)du, de modo que por el
d
teorema fundamental del clculo, y cuando F(x) es diferenciable, dx (F(x)) = f (x). De este modo podemos
encontrar f (x) a partir de F(x).

En el caso discreto, f (x) = P(X = x) = F(x) F(x ), en donde F(x ) es el lmite por la izquierda de la
funcin F en el punto x, en smbolos, F(x ) = lm F(x h), con h > 0. Anlogamente, la expresin F(x+ )
h0

significa el lmite por la derecha de la funcin F en el punto x, es decir, F(x+ ) = lm F(x + h), con h > 0.
h0

Teorema 3.3.1 Toda funcin de distribucin F(x) satisface las siguientes propiedades:
a) 0 F(x) 1
b) lm F(x) = 1
x

c) lm F(x) = 0
x

d) Si x1 x2 , entonces F(x1 ) F(x2 )


Csar Amarilla

43

3.4. ESPERANZA, VARIANZA Y MOMENTOS

CAPTULO 3. VARIABLES ALEATORIAS

e) Si x1 x2 , entonces P(x1 < X x2 ) = F(x2 ) F(x1 )


f) F(x) = F(x+ )
Demostracin
a) Primeramente tenemos que F(x) es una probabilidad pues, por definicin, F(x) = P(X x). Por lo
tanto se cumple la primera propiedad.
b) Cuando x tiende a infinito el conjunto (X x) se aproxima al conjunto (X ) que es idntico a ,
por lo tanto, cuando x , F(x) P(X ) = P() = 1.
c) Anlogamente el conjunto (X x) se aproxima al conjunto (X ) = 0/ cuando x tiende a menos
/ = 0.
infinito. Por lo tanto, cuando x , F(x) P(X ) = P(0)
d) Es suficiente observar que si x1 x2 , entonces (X x1 ) (X x2). Aplicando probabilidad obtenemos P(X x1 ) P(X x2 ).
e) Observe que el evento (x1 < X x2 ) puede descomponerse en la diferencia (X x2 ) (X x1 ), en
donde (X x1 ) (X x2). Por lo tanto P(x1 < X x2) = P(X x2) P(X x1) = F(x2 ) F(x1 ).
f) Para h > 0 tenemos que F(x + h) = P(X x + h) = P(X x) + P(x < X x + h), de modo que
cuando h tiende a cero, el conjunto (x < X x + h) tiende al conjunto vaco. Concluimos entonces
/ = F(x).
que, cuando h 0 con h > 0, F(x + h) F(x) + P(0)

Observacin:
La propiedad d) significa que F(x) es una funcin montona no decreciente, mientras que la propiedad
f ) establece que F(x) es una funcin continua por la derecha.
Cualquier funcin que cumpla con las propiedades b), c), d) y f ) es una funcin de distribucin.

3.4.

Esperanza, varianza y momentos

Todos los seres humanos tenemos caractersticas numricas que nos identifican y nos distinguen de otras
personas, por ejemplo, la edad, estatura, talla, peso, etc. Si pudiramos considerar la totalidad de todos
estos nmeros para una persona en particular, la identificaramos de manera nica. Algo similar sucede
con las variables aleatorias. En esta seccin estudiaremos algunas caractersticas numricas asociadas a las
variables aleatorias.
Definicin 3.4.1 ( Esperanza ) La esperanza de una variable aleatoria X es un nmero denotado por
E(X) y que se calcula como sigue:
Si X es discreta, entonces
E(X) = x P(X = x)
x

en donde la suma se efecta sobre todos los posibles valores que pueda tomar la variable aleatoria, y se
define cuando esta suma sea absolutamente convergente. El nmero de sumandos puede ser finito o infinito
dependiendo del conjunto de valores de la variable aleatoria.
Csar Amarilla

44

CAPTULO 3. VARIABLES ALEATORIAS

3.4. ESPERANZA, VARIANZA Y MOMENTOS

Si X es continua con funcin de densidad de probabilidad f (x), entonces la esperanza de X es


Z

E(X) =

x f (x)dx

suponiendo que esta integral es absolutamente convergente.


Si la suma o integral anteriores no cumplen esta condicin de convergencia absoluta, entonces se dice
que la esperanza no existe. La esperanza de una variable aleatoria es entonces un nmero que indica el
promedio ponderado de los diferentes valores que puede tomar la variable. A la esperanza se le conoce
tambin con los nombre de: media , valor esperado o valor promedio . En general se usa la
letra griega para denotarla. La integral o suma arriba mencionados pueden no ser convergentes y en ese
caso se dice que la variable aleatoria no tiene esperanza finita. La esperanza es uno de los conceptos ms
importantes en probabilidad y tiene un amplio uso en las aplicaciones y otras ramas de la ciencia.

Ejemplo 3.4.1
Sea X una variable aleatoria discreta con funcin de densidad dada por la siguiente tabla
x
-1
f (x) 1\8

0
4\8

1
1\8

2
2\8

La esperanza de X es el nmero
4
1
2 1
1
E(X) = xP(X = x) = 1. + 0. + 1. + 2. =
8
8
8
8 2
x
Observe que la suma su efecta para todos los valores de x indicados en la tabla, es decir: -1, 0, 1 y 2.
Tambin es instructivo observar que la esperanza no es necesariamente uno de los valores tomados por la
variable aleatoria. En este ejemplo el valor 12 nunca es tomado por la variable aleatoria, pero es su valor
esperado.

Ejemplo 3.4.2
Considere la variable aleatoria continua X con funcin de densidad

2x si x (0, 1)
f (x) =
0 en otro caso
La esperanza de X es
Z 1

E(X) =

x f (x)dx =

2x 1 2
2x dx = =
3 0 3
2

Observe que la integral solo es relevante en el intervalo (0, 1), pues fuera de dicho intervalo la funcin
de densidad se anula.
Csar Amarilla

45

3.4. ESPERANZA, VARIANZA Y MOMENTOS

CAPTULO 3. VARIABLES ALEATORIAS

Esperanza de una funcin de una variable aleatoria


En algunos casos es necesario saber calcular la esperanza de una funcin de una variable aleatoria. Por
ejemplo, si X es una variable aleatoria, entonces es claro que Y = X 2 es una funcin de X y es tambin una
variable aleatoria. Si quiseramos calcular la esperanza de Y segn la definicin tendramos que calcular
R
y fY (y)dy, para lo cual se necesita encontrar primero la funcin de densidad de Y , y ello en general no es
fcil. El siguiente resultado es muy til y nos dice cmo calcular esta esperanza conociendo nicamente la
funcin de densidad de X. A veces se le refiere como el teorema del estadstico inconsciente .
Teorema 3.4.1 . Sea X una variable aleatoria continua y sea g : R R una funcin tal que g(X) es una
variable con esperanza finita. Entonces
Z

E[g(X)] =

g(x) fX (x)dx

En general, la demostracin de este resultado es complicada, asi es que la omitiremos y nos concentraremos en su uso y aplicacin. El resultado esta enunciado en el caso continuo pero tambin es vlido en
el caso discreto, en lugar de la integral aparece una suma.

Ejemplo 3.4.3
Calcularemos E(Y ) en donde Y = X2 , y X es la variable aleatoria continua del ejemplo 3.4.2, es decir,
con funcin de densidad

2x si x (0, 1)
f (x) =
0 en otro caso
Por el teorema anterior tenemos que
2

E(Y ) = E(X ) =

Z 1

x f (x)dx =

Z 1

x 2xdx = 2

2x4 1 1
x dx =
=
4 0 2
3

Ejemplo 3.4.4
Sea X una variable aleatoria con funcin de probabilidad dada por la tabla que aparece abajo. Encuentre
la funcin de probabilidad de X2 y mediante la definicin calcule E(X2 ). Ahora calcule la misma esperanza
pero usando el teorema 3.4.1. Ambos resultados deben coincidir.
x
-2
f (x) 2\8

-1
1\8

0
2\8

1
1\8

2
2\8

Teorema 3.4.2 Sean X y Y con esperanza finita y sea c una constante. Entonces
a) E(c) = c
b) E(cX) = cE(X)
c) Si X 0, entoncesE(X) 0
Csar Amarilla

46

CAPTULO 3. VARIABLES ALEATORIAS

3.4. ESPERANZA, VARIANZA Y MOMENTOS

d) E(X +Y ) = E(X) + E(Y )


La primera propiedad es evidente de demostrar pues si X es la variable aleatoria constante c, entonces
por definicin, E(X) = cP(X = c) = c,1 = c. El segundo inciso se sigue directamente de la definicin de
esperanza pues tanto en el caso de la suma como en el caso de la integral, la constante c puede siempre
colocarse fuera. El tercer inciso tambin es evidente pues cuando se cumple la hiptesis, en la integral
o suma correspondiente solo aparecern trminos que son no negativos. La ltima propiedad, en cambio,
no es sencilla de demostrar y an en el caso discreto requiere de detalles tcnicos que preferimos omitir.
Observe que la segunda y cuarta propiedad establecen que la esperanza es lineal, es decir, separa sumas y
tambin separa multiplicaciones por constantes.
Definicin 3.4.2 (Varianza) La varianza de una variable aleatoria X es otra caracterstica numrica asociada a dicha variable. Se denota por Var(X) y se define como sigue

Var(X) =

(x E(X))2 f (x)

x
R
2
(x E(x)) f (x)

si Xesdiscreta
siXescontinua

Observe que en una sola expresin la varianza se puede escribir como sigue: Var(X) = E[X E(X)]2 .
La varianza es una medida del grado de dispersin de los diferentes valores tomados por la variable. Se le
denota regularmente por la letra 2 (sigma cuadrada). A la raz cuadrada positiva de la varianza, esto es , se
le llama desviacin estndar. Nuevamente la anterior suma o integral puede no existir y en ese caso decimos
que la variable aleatoria no tiene varianza finita. Observemos que para calcular Var(X) necesitamos conocer
primero E(X). Veamos algunos ejemplos sencillos.

Ejemplo 3.4.5
Calcularemos la varianza de la variable aleatoria discreta X con funcin de probabilidad dada por la
siguiente tabla
x
-1
f (x) 1\8

0
4\8

1
1\8

2
2\8

1
Recordemos primeramente que por clculos previos, E(X) = . Aplicando la definicin de varianza
2
tenemos que

1 2 1 
1 2 4 
1 2 1 
1 2 2
Var(X) = (x E(X))2 f (x) = 1
. + 0
. + 1
. + 2
. =1
2 8
2 8
2 8
2 8
x

Ejemplo 3.4.6
Calcularemos la varianza de la variable aleatoria continua X con funcin de densidad

2x si x (0, 1)
f (x) =
0 en otro caso
Csar Amarilla

47

3.4. ESPERANZA, VARIANZA Y MOMENTOS

CAPTULO 3. VARIABLES ALEATORIAS

2
En un clculo previo habamos encontrado que E(X) = . Por lo tanto,
3
Z

Var(X) =

(x E(X)) f (x)dx =

Z 1
0

2 2
x
2xdx =
3

8x2 8x 
+
dx
2x
3
9

Z 1
0

8x3 4x2  1
1
+
=
2
9
9 0 18
Ahora enunciamos algunas propiedades de la varianza.
=

 x4

Teorema 3.4.3 Sean X y Y dos variables aleatorias, y sea c una constante. Entonces
a) Var(X) 0
b) Var(c) = 0
c) Var(cX) = c2Var(X)
d) Var(X + c) = Var(X)
e) Var(X) = E(X 2 ) [E(X)]2
f) En general, Var(X +Y ) 6= Var(X) +Var(Y )
Demostracin
El inciso a) es evidente a partir de la definicin de varianza pues en ella aparece una suma o integral de
trminos no negativos.
Para el inciso b) la constante c es una v.a. con un nico valor, de modo que E(c) = c y entonces
Var(X) = E(c c)2 = 0
Para el inciso c) tenemos que
Var(cX) = E[cX E(cX)]2 = E[cX cE(X)]2 = c2 E[X E(X)]2 = c2Var(X)
El inciso d) se sigue del siguiente anlisis:
Var(X + c) = E[(X + c) E(X + c)]2 = E[X E(X)]2 = Var(X)
Para demostrar la propiedad e) se desarrolla el cuadrado en la definicin de varianza, y se usa la
propiedad de linealidad de la esperanza:

2
Var(X) = E[X E(X)]2 = E[X 2 2XE(X) + E(X ] = E(X 2 ) 2E(X)E(X) + [E(X)]2
= E(X 2 ) [E(X)]2
Finalmente para demostrar la propiedad f ) es suficiente dar un ejemplo. Puede tomarse el caso Y = X,
en general y por el inciso c) se tiene que Var(2X) = 22V (X) = 4V (X), con lo que no se cumple que
Var(2X) = 2Var(X).
Csar Amarilla

48

CAPTULO 3. VARIABLES ALEATORIAS

3.5. EJERCICIOS

Definicin 3.4.3 (Momentos) Los momentos son nmeros que representan alguna caracterstica de la
distribucin de probabilidad asociada. Bajo ciertas condiciones el conjunto de momentos determinan de
manera nica a la distribucin de probabilidad.
Sea X una variable aleatoria con espereanza y sea n un nmero natural. El n-simo momento de la
variable aleatoria X, cuando existe, se define como el nmero E(X n ). El n-simo momento central de X,
cuando existe, es el nmero E[(X )n ], en donde = E(X). Observe que el primer momento de X es
simplemente la media, y el segundo momento central es la varianza. Tenemos entonces que si X es una
variable aleatoria con funcin de densidad o de probabilidad f (x) entonces el n-simo momento de X, si
existe, se calcula como sigue:

E(X ) =

(xn) f (x)

x
R n
x f (x)dx

si X es discreta
si X es continua

El n-simo momento central de X se calcula, para variables aleatorias continuas y discretas respectivamente, como indican las siguientes frmulas:

h
i
E (X )n =

3.5.

(x )n f (x)

x
R
n
(x ) f (x)dx

si X es discreta
si X es continua

Ejercicios

Variables Aleatorias
1. Determine en cada caso si la variable aleatoria en cuestin es discreta o continua. Cules son sus
posible valores?
a) Tiempo de vida de una persona escogida al azar
b) Nmero de errores tipogrficos en una pgina escogida al azar de un libro.
c) Tiempo de servicio en una transaccin escogida al azar realizada por una persona en un cajero
automtico.
2. Considere un experimento aleatorio con espacio muestral equiprobable = {1, 2, 3, 4, 5, 6}. Defina
la variable aleatoria X() = 2( 3). Cules son los posibles valores de X?. Calcule P(X = 0),
P(X {2, 3}), P(X 0), P(X < 0), P(X 2 = 1), P(2X 4 = 0), y P(X 2 = 4).
3. Considere el ejemplo del experimento aleatorio de lanzar un dardo en un tablero
circular de radio
p
uno, junto con las variables aleatorias X(x, y) = x, Y (x, y) = y y Z(x, y) = x2 + y2 . Suponga que
Area(A)
para cada regin A cuya rea puede ser calculada se define P(A) =
. Calcule P(X 0),
Area()
P(X < 0), P(Y > X), P(X +Y 1), P(Z < 1/2) y P(1/3 < Z < 1/2).
Csar Amarilla

49

3.5. EJERCICIOS

CAPTULO 3. VARIABLES ALEATORIAS

Funciones de probabilidad, densidad y de distribucin


4. Grafique y demuestre que las siguientes funciones son de distribucin.

1 ex si x > 0
a) F(x) =
0
six 0

1 (1 + x)ex si x > 0
b) F(x) =
0
six 0

0
si x =< 1

x+1
si x [1, 1]
c) F(x) =
2

1
six > 1

5. Investigue si las siguientes funciones son de distribucin



2
1 ex si x > 0
a) F(x) =
0
six 0

1
e x si x > 0
b) F(x) =
0 six 0
c) F(x) =

ex
, xR
ex + ex

6. Sean F(x) y G(x) dos funciones de distribucin. Determine si las siguientes funciones son de distribucin.
a) aF(x) + (1 a)G(x)
b) F(x) + G(x)
c) F(x)G(x)
2G(x)
d)
1 + F(x)
7. Encuentre el valor de la constante c que hace que f (x) sea una funcin de probabilidad. Grafique esta
funcin y calcule P(X {2, 3, 4}) y P(X < 3) en cada caso.

cx si x = 1, 2, ..., 10
a) f (x) =
0 en otro caso
 2
cx si x = 1, 2, ..., 10
b) f (x) =
0 en otro caso
c

x! si x = 1, 2, . . .
c) f (x) =
0 en otro caso

Csar Amarilla

50

CAPTULO 3. VARIABLES ALEATORIAS



d) f (x) =

3.5. EJERCICIOS

cex si x = 1, 2, . . .
0
en otro caso

8. Encuentre el valor de la constante c que hace que f (x) sea una funcin de densidad.
 2
cx si 0 x 1
a) f (x) =
0 en otro caso

2
cxe2x si x > 0
b) f (x) =
0
en otro caso
c) f (x) =

cex
, xR
(1 + ex )2

9. Encuentre el valor de la constante c que hace que la siguiente funcin sea de densidad. Grafique f (x)
y calcule P(X ) y P(X [, 2]).

c(1 + senx) si x (0, 2)
f (x) =
0
en otro caso
10. Encuentre el valor de la constante c para que la siguiente funcin sea de densidad. Grafique f (x) y
calcule P(X (1, )).
f (x) = ce|x| , para < x <
11. Sea X discreta con funcin de probabilidad dada por la siguiente tabla. Grafique f (x) y calcule
P(X 0), P(X < 0) y P(X 2 = 1).
x
f (x)

-1
0, 2

0
0, 3

1
0, 5

12. Sea X discreta con funcin de probabilidad dada por la tabla que aparece abajo. Grafique f (x). Calcule
la funcin de probabilidad de las siguientes variables aleatorias Y = X 2 , Z = |X| y W = 2X 5.
Grafique en cada caso.
x
f (x)

-2
0, 1

-1
0, 15

0
0, 4

2
0, 1

3
0, 15

13. Sea X continua con funcin de densidad

si k x 4k
10
f (x) =

0 en otro caso
a) Determine el valor de la constante k y grafique f (x)
b) Calcule y grafique F(x)
c) Calcule P(1 X 3), P(X 2) y P(X 0)
1
d) Encuentre m tal que P(|X 1| m) =
2
Csar Amarilla

51

5
0, 1

3.5. EJERCICIOS

CAPTULO 3. VARIABLES ALEATORIAS

14. Sea X una variable aleatoria con la funcin de distribucin que aparece abajo. Es X discreta o
continua? Grafique F(x). Encuentre y grfique la correspondiente funcin de probabilidad o densidad
1
1
f (x). Calcule adems P(X = ) y P(X > ).
2
2

0 si x < 0
x si 0 x < 1
F(x) =

1 si x 1

Esperanza, varianza y momentos


15. Sea a un nmero fijo. Construya una variable aleatoria X tal que E(X) = a.
16. Calcule la esperanza de la variable aleatoria discreta X cuya funcin de probabilidad es

si x = 0, 1

3
1
a) f (x) =
si x = 2, 3

0 en otro caso

si x = 1, 1

4
1
b) f (x) =
si x = 0

0 en otro caso
17. Calcule la esperanza de la variable aleatoria continua X cuya funcin de densidad es
a) f (x) = ex , para x > 0
b) f (x) = 6x(1 x), para 0 < x < 1
c) f (x) =

e|x|
, para x R
2

18. Sea X una variable aleatoria continua con la funcin de densidad que aparece abajo. Demuestre que
esta funcin es efectivamente una funcin de densidad. Compruebe adems que la esperanza de X
no existe. Este es un ejemplo de una variable aleatoria continua que no tiene esperanza finita. Es una
caso particular de la distribucin Cauchy.
1
(x2 + 1)

, para < x <

19. Diga si las proposiciones siguientes son falsos o verdadero. Justifique en cada caso.
a) La esperanza de una v.a. puede ser cero.
b) No hay dos v.a.s distintas con la misma esperanza.
Csar Amarilla

52

CAPTULO 3. VARIABLES ALEATORIAS

3.5. EJERCICIOS

c) La esperanza de una v.a. nunca es negativa.


d) La varianza de una v.a. puede ser cero.
e) La varianza de una v.a. nunca es negativa.
f ) No hay dos v.a.s distintas con la misma varianza.
20. Sea X una variable aleatoria discreta con funcin de probabilidad dada por:

p(1 p)x si x = 0, 1, . . .
f (x) =
0
en otro caso
calcular la esperanza y la varianza de X.
21. Calcula la varianza de X cuya funcin de probabilidad de densidad es
(

1
si x = 2, 1, 0, 1, 2
5
0 en otro caso

|x| si 1 < x < 1


0 en otro caso

a) f (x) =

b) f (x) =

e1

x! si x = 0, 1, 2, . . .
c) f (x) =
0 en otro caso

22. Diga falso o verdadero. Justifique en cada caso.


a) E(X) = E(X)
b) Var(X) = Var(X)
c) E(Var(X)) = Var(E(X))
h
i
23. Sea X una variable aleatoria con segundo momento finito. A la funcin g(u) = E (X u)2 se le
conoce como error cuadrtico medio. Demuestre que g(u) se minimiza cuando u = E(X). En consecuencia, para cualquier valor real u,
h
i
Var(X) E (X u)2
24. Sea X una variable aleatoria con media y varianza 2 . Demuestre que E|X | .

Csar Amarilla

53

3.5. EJERCICIOS

Csar Amarilla

CAPTULO 3. VARIABLES ALEATORIAS

54

Captulo 4
Estadstica
4.1.

Consideraciones preliminares

Tipo de problema que se considera


Existe una poblacin (conjuntos de objetos medibles u observables) representada por N, se supondr en
todo momento que N lm . Se considera adems; un subconjunto n (finito) de N, que se denomina muestra.
h

En N existen ciertas caractersticas de inters que son medibles u observables representadas por X que es
una variable aleatoria, o sea; para cualquier observacin, i = 1, 2, . . . , n
X = + i

(1)

Esto significa que la variabilidad de X es propia en la poblacin. Justamente, el componente i es lo que


determina la aleatoriedad de X. Estadsticamente se espera que:
E(i ) = 0 , y por ende E(X) =

(2)

El comportamiento probabilstico de X en la poblacin esta representada por: X f (x|)), donde el


valor de pertenece a cierto espacio paramtrico , su valor es fijo pero desconocido e inobservable puesto
que:
= lm g(x1 , x2 , . . . , xN )
N

(3)

Definicin 4.1.1 Una poblacin es un conjunto de objetos medibles u observables en el que la caracterstica de inters X es una v.a que esta representada por X f (x|), donde f es la funcin que define el
comportamiento probabilstico de X en la poblacin con parmetro .

Definicin 4.1.2 Si X es v. a normalmente distribuida con media y varianza 2 , entonces la variable v.a
(X )
Z=
tiene distribucin normal con media 0 y varianza 1, con f .g.m:

h
i
h1 i
1
mX (t) = exp t + 2t 2 y mZ (t) = exp t 2 respectivamente.
2
2

55

4.1. CONSIDERACIONES PRELIMINARES

CAPTULO 4. ESTADSTICA

Teorema 4.1.1 (Unicidad de las f .g.m) Si las f .g.m de dos variables aleatorias X1 y X2 son idnticas para
todo los valores de t en un intervalo alrededor de t = 0, entonces la distribucin de probabilidad de X1 y X2
deben ser idnticas.

Teorema 4.1.2 Sean X1 , X2 , . . . , Xn un conjunto de n variables aleatorias independientes cada una con
f.g.m. mX1 (t), mX2
(t),. . . ,mXn (t). Si se define otra variable Y de forma:
Y = a1 X1 + a2 X2 + + an Xn

(4)

Donde a1 , a2 , . . . , an son constante, entonces:


n

(5)

mY (t) = mXi (ait)


i=1

Definicin 4.1.3 (La Distribucin Chi-cuadrada) Sea X una variable gamma con parmetros y , a
1
n
la distribucin gamma con parmetros = y = se denomina distribucin chi-cuadrada con n grado
2
2
de libertad. De la propiedad de la distribucin gamma se tiene que la media, la varianza y la f .g.m son
respectivamente:
E(X) = n, Var(X) = 2n y mX (t) = (1 2t)

n
2

para t <

1
2

(6)

Teorema 4.1.3 Sea Z una v.a normal con media = 0 y varianza 2 = 1. Entonces Z 2 es del tipo chicuadrado con 1 gl (grado de libertad).
Demostracin
h
i Z
2
mZ (t) = E exp(zt ) =

mZ (t) =

h
exp

exp(zt 2 ) f (z|, 2 )dx

i
z2
dx
2(1 2t)1

Multiplicando y dividiendo por raz cuadrada de (1 2t)1 se tiene por resultado:


1

mZ (t) = (1 2t) 2

(7)

Que es idntica a la f.g.m de la distribucin chi-cuadrada dada en (6) para 1 gl .


Teorema 4.1.4 Si Y1 e Y2 son dos v.a independientes y cada una tiene una distribucin chi-cuadrada con
n1 y n2 g.l. respectivamente entonces;
Z = Y1 +Y2
tiene una distribucin chi-cuadrada con (n1 + n2 ) gl.
Anselmo Maciel

56

CAPTULO 4. ESTADSTICA

4.1. CONSIDERACIONES PRELIMINARES

Demostracin
Del teorema 2 se tiene,
mZ (t) = mY1 (t) mY2 (t)
n1

n2

mZ (t) = (1 2t) 2 (1 2t) 2


mZ (t) = (1 2t)

n1 +n2
2

Que similar a la f .g.m de la distribucin chi-cuadrada para (n1 + n2 ) gl.


Definicin 4.1.4 (La Distribucin T-Student) Sean dos v.a independientes X y Z, tal que Z tenga una
distribucin normal tipificada y X tenga una distribucin chi-cuadrada con gl, la variable aleatoria
Z
T=q

(8)

se dice que tiene una distribucin t-Student con gl.

Definicin 4.1.5 (La Distribucin F) Sean dos v.a independientes X e Y tales que X tiene una distribucin chi-cuadrado con m gl. e Y tiene una distribucin chi-cuadrado con n gl, donde m y n son entero
positivo. Se define una nueva v.a
F=
entonces F tiene una distribucin F con m y n gl.

X
m
Y
n

(9)

Teorema 4.1.5 Desigualdad de Markov Supngase que X es una v.a tal que P(X 0) = 1. Entonces
para cualquier nmero t > 0,
P(X t)

E(X)
t

(10)

Demostracin
Por conveniencia se supondremos que X tiene una distribucin discreta cuya f.p es f (x).
E(X) = f (x) = f (x) + f (x)
x

x<t

xt

Puesto que para X 0,todos los trminos de las sumas son no negativo. Por tanto, para cualquier t en la que
t x, se tiene:
E(X) f (x) = t P(X t)
xt

P(X t)

Anselmo Maciel

57

E(X)
t

4.2. MUESTRA ALEATORIA

CAPTULO 4. ESTADSTICA

Teorema 4.1.6 (Desigualdad de Chevyshev). Sea X una v.a para la cual Var(X) existe. Entonces para
cualquier nmero t >0,

 Var(X)
P |X E(X)| t
(11)
t2
Demostracin
Sea Y = X E(X). Entonces, P(Y 0) = 1 y E(Y ) = Var(X). Aplicando la desigualdad de Markov, se
obtiene el siguiente resultado:





 E(Y ) Var(X)
2
2
P |X E(X)| t = P X E(X) t = P Y t 2 =
t
t2
Por lo tanto


 Var(X)
P |X E(X)| t =
t2

Observacin: Tomado la desigualdad de Markov para X < t, se puede demostrar que la siguiente
desigualdad tambin es vlida,

 Var(X)
P |X E(X)| < t <
t
De lo que se deduce:


Var(X)
P |X E(X)| < t 1
t
Definicin 4.1.6 (Convergencia en probabilidad) Se dice que la sucesin T1 , T2 , . . . , Tn converge en probabilidad a k si para cualquier nmero dado > 0,
lm P(|Tn k| < ) = 1

Lo anterior se suele escribir como:




P lm Tn = k

(12)

4.2.

Muestra aleatoria

Definicin 4.2.1 Una muestra aleatoria de tamao n es una secuencia de valores posibles de X representadas por: X1 , X2 , . . . , Xn ; donde X1 es el nmero que ser determinado en la primera eleccin, X2 es nmero
que ser determinado en la segunda eleccin, . . . , Xn es el nmero que ser determinado en la n-sima
eleccin.
Si bajo ciertas condiciones experimentales se cumple que:
f (x1 |) = f (x|), f (x2 |) = f (x|), . . . , f (xn |) = f (x|)

(13)

y adems
n

f (x1 , x2 , . . . , xn |) = f (x1 |) f (x2 |) f (xn |) = f (xi |)

(14)

i=1

se dice que las X1 , X2 , . . . , Xn son variables aleatorias independientemente e idnticas distribuidas (i.i.d) .
Anselmo Maciel

58

CAPTULO 4. ESTADSTICA

4.2. MUESTRA ALEATORIA

Ejemplo 4.2.1
Sea X Poisson(x) y supngase que X1 , X2 , . . . , Xn constituyen muestra aleatoria de sta distribucin.
Supngase tambin que la probabilidad de observar el valor de X2 , no esta afectado por X1 , del mismo
modo la probabilidad de observar el valor de X3 , no esta afectado por X1 y X2 , y as sucesivamente la
probabilidad de observar el valor de Xn no esta afectado por X1 , X2 , X3 , . . . , Xn1 . Entonces por definicin de
independencia tenemos
P(X2 |X1 , ) = P(X2 |)
P(X3 |X2 , X1 , ) = P(X3 |)
..
.
P(Xn |X1 , X2 , . . . , Xn1 , ) = P(Xn |)
En general la probabilidad conjunta de X1 , X2 , . . . , Xn est dada por:
P(X1 , X2 , . . . , Xn |) = P(X1 |) P(X2 |X1 , ) P(Xn |X1 , X2 , . . . , Xn1 , )
Como las Xi ,com i = 1, . . . , n son v.a independientes la expresin anterior se reduce a
P(X1 , X2 , . . . , Xn |) = P(X1 |) P(X2 |) P(Xn |)
Adems, como cada Xi , con i = 1, . . . , n son variable aleatoria de Poisson, cada una tiene la misma
distribucin
e x
Xi Poisson(xi |) = X Poisson(x|) =
x!
Esto significa que las v.a X1 , X2 , . . . , Xn son i.i.d.
Definicin 4.2.2 Datos muestrales o muestra es cualquier realizacin numrica de las variables aleatorias
X1 = x1 , X2 = x2 , . . . , Xn = xn , representada por x = {x1 , x2 , . . . , xn } . Si la distribucin conjunta de
fn (x1 , x2 , . . . , xn |), es evaluada para las realizaciones de x = {x1 , x2 , . . . , xn }.
n

fn (x1 , x2 , . . . , xn |) = f (xi |) = L(, x)

(15)

i=1

recibe el nombre de funcin verosimilitudde .

Ejemplo 4.2.2
Con relacin al ejemplo 4.2.1, si la distribucin de probabilidad conjunta es evaluada para las realizaciones numricas: X1 = x1 , X2 = x2 ,. . . , Xn = xn ,
P(X1 = x1 , X2 = x2 , . . . , Xn = xn |) = P(X1 = x1 |) P(X2 = x2 |) P(Xn = xn |)
n

1
i=1 xi !

P(X1 = x1 , X2 = x2 , . . . , Xn = xn |) = P(Xi = xi |) = L(, x) = en i=1 xi


i=1

Esta funcin mide el grado de concordancia o verosimilitud que tiene la muestra observada con las
posibles poblaciones que pudieran haber originado la muestra.
Anselmo Maciel

59

4.2. MUESTRA ALEATORIA

CAPTULO 4. ESTADSTICA

Sean los valores observados x = {2, 5, 7, 3, 2}, y se tiene como posibles valores de : 1, 4 y 6. Determinemos con que poblacin representada por es ms verosmil el resultado muestral dado.
lnL(1, x) = ln

e51 (1)19
= 21, 4907069
2! 5! 7! 3! 2!

lnL(4, x) = ln

e54 (4)19
= 10, 1511141
2! 5! 7! 3! 2!

lnL(6, x) = ln

e56 (6)19
= 12, 4472770
2! 5! 7! 3! 2!

Como L(4, ) > L(6, ) > L(1, ), la muestra x = {2, 5, 7, 3, 2}, es ms verosmil con la poblacin representada por = 4.

Definicin 4.2.3 Cualquier funcin de la m.a X1 , X2 , . . . , Xn a ser obtenida de f (x|) y que no dependa del
parmetro desconocido , recibe el nombre de estadstico.

Ejemplo 4.2.3
Sea X = {X1 , X2 , . . . , Xn } una muestra aleatoria de X, con con f.p o f.d.p, f (x|). Algunos ejemplos de
estadsticos T (X) son:
1
1 n
a) T1 (X) = (X1 + X2 + + Xn ) = Xi = X
n
n i=1

b) T2 (X) =

1
n

(Xi X )2

i=1

c) T3 (X) = Min{X1 , X2 , . . . , Xn }

Dado que T (X) es funcin de v.a, en si misma es una variable aleatoria, y su valor f (x) puede determi
narse cuando se conozca la realizaciones x de (X).

Definicin 4.2.4 Si T (X) se emplea para estimar un parmetro desconocido , entonces T (X) recibe el

nombre de estimador de y el valor especfico f (x) recibe el nombre de estimacin de .

Dado que T (X) es una v.a, puede establecerse una distribucin de probabilidad para T (X) que describa

su comportamiento probabilstico en el proceso de muestreo.


La distribucin de probabilidad de T (X) en principio puede deducirse a partir de la distribucin conjunta
de X1 , X2 , . . . , Xn u homologar su distribucin, basndose en el principio de unicidad de la f .g.m.
Anselmo Maciel

60

CAPTULO 4. ESTADSTICA

4.3.

4.3. DISTRIBUCIONES MUESTRALES DE ESTIMADORES

Distribuciones muestrales de estimadores

Sea X1 , X2 , . . . , Xn una muestra aleatoria de una distribucin con parmetro de valor desconocido, segn
la definicin 4.2.3, un estadstico es cualquier funcin real T (X) de las variables X1 , X2 , . . . , Xn . Como T (X)
tambin es una v.a, su distribucin de probabilidad puede ser deducida a partir de la distribucin conjunta
de X1 , X2 , . . . , Xn . Esta distribucin se denomina usualmente como distribucin muestral de estadsticos.
En la definicin 4.2.4, se mencion que si T (X) se utiliza para estimar el valor de , entonces T (X)

recibe el nombre de estimador de . La distribucin de un estimador, puede ser deducida a partir de la distribucin conjunta de X1 , X2 , . . . , Xn puesto que es un estadstico. Esta distribucin se denomina usualmente
como distribucin muestral de estimadores.
Teorema 4.3.1 (Distribucin por muestreo de Xn ) Supngase que las v.a X1 , X2 , . . . , Xn constituyen una
muestra aleatoria de una distribucin normal con media y varianza 2 conocida y sea Xn la media mues2
tral. Entonces Xn tiene una distribucin normal con media y .
n
Demostracin
1
1 n
(X1 + X2 + + Xn ) = Xi = X
n
n i=1
Por el teorema 4.1.2, se tiene que:
n

mX n (t) = mXi
i=1

t 
n

h t 1
i
h t 1
i
h t 1
i
2 t 2
2 t 2
2 t 2
mX n (t) = exp + ( ) exp + ( ) exp + ( )
n 2
n
n 2
n
n 2
n
h
1 2 i
mX n (t) = exp t + ( )t 2
2 n

(16)
 2 
La f.g.m de X n es idntica a la distribucin normal. Por el teorema 4.1.1, se tiene que: Xn N ,
.
n
Teorema 4.3.2 Sean X1 , X2 , . . . , Xn una m.a de una distribucin normal con media y varianza 2 . La
distribucin de:
n

(Xi )2

Y=

i=1

es una distribucin chi-cuadrada con n gl.

(17)

Demostracin
Dado que las Xi N(, 2 ) para i = 1, 2, . . . , n; entonces Zi =
independientes.Por lo tanto
n

Y = Z2
i=1

Anselmo Maciel

61

Xi
se definen como v.a estndares

4.3. DISTRIBUCIONES MUESTRALES DE ESTIMADORES


Del teorema 4.1.2 se tiene:

CAPTULO 4. ESTADSTICA

mY (t) = mZi (t)


i=1

mY (t) = (1 2t) 2
i=1

mY (t) = (1 2t) 2
que es idntica a la f.g.m de la distribucin chi-cuadrada con n gl.
n

(Xi )2

Por lo tanto Y =

i=1

tiene una distribucin chi-cuadrada con n gl.

Teorema 4.3.3 Sean X1 , X2 , . . . , Xn una m.a de una distribucin normal con media y varianza 2 . La
distribucin de la variable:
n

(Xi X)2

Y=

i=1

(18)

es una distribucin chi-cuadrada con n 1 gl.


Demostracin
Puesto que:
n

n
2

(Xi X)

i=1

= (Xi )2 n(X )2

(19)

i=1

(Xi )2 = (Xi X)2 + n(X )2

i=1

dividiendo ambos miembros entre

i=1

obtenemos

n
(Xi )2
(X )2
(Xi X)2
=
+
n
2
2
2
i=1
i=1

2n

2n1

21

Por el teorema 4.3.2, el primer miembro tiene una distribucin chi-cuadrada con n gl, por el teorema
4.1.3, el segundo trmino del segundo miembro tiene una distribucin chi-cuadrada con 1 gl. Por tanto, por
el teorema 4.1.4, el primer trmino del segundo miembro tiene una distribucin chi-cuadrada con (n 1)
gl.
Teorema 4.3.4 Supngase que X1 , X2 , . . . , Xn constituyen una m.a de una distribucin normal con media
(Xi X)2
2
y varianza . Entonces, la media muestral X y la varianza muestral
son v.a independiente,
n
donde:
 2 
(Xi X)2
X N ,
y
2n1
n
n
Anselmo Maciel

62

CAPTULO 4. ESTADSTICA

4.3. DISTRIBUCIONES MUESTRALES DE ESTIMADORES

Teorema 4.3.5 Supngase que X1 , X2 , . . . , Xn constituyen una m.a de una distribucin normal con media
n

y varianza 2 , sea Xn la media muestral y sea n.Sn2 =

(Xi Xn)2 la varianza muestral. La variable

i=1

aleatoria
Xn
U=
1
2
Sn
n1

(20)

tiene una distribucin t-student con (n 1) gl.


Demostracin
Si se definen las v.a Z y X mediante la relaciones
Xn
nS2
y X = 2n
n

Entonces, por el teorema 4.3.2 resulta que Z y X son independientes y que adams Z tiene una distribucin normal tipificada y que X tiene una distribucin chi-cuadrada con n 1 gl. Considrese ahora otra v.a
U, definida por la relacin:
Z
U=
1
Z=

X
n1

Por la definicin 4.1.4, se sabe que U tiene una distribucin t-student con n 1 gl. Es fcil ver adems
que U se puede escribir como:
 Xn 
n
n (Xn )

U=
=



" nSn2 # 1
nSn2  21
2
2
n1
n1

por lo que obtenemos


Xn
U =  2 1
Sn 2
n1
Se puede notar que U no depende del valor de 2 .
Teorema 4.3.6 Supngase que X1 , X2 , . . . , XnX constituyen una m.a de una distribucin normal con media
X y varianza 2X , considrese otra m. a Y1 ,Y2 , . . . ,YnY tambin de distribucin normal con media Y y
varianza Y2 , con varianzas muestrales nX .SX2 y nY .SY2 respectivamente. Si X e Y son v.a independiente,
entonces:
 2
nX .SX
2X
nX 1
nY .SY2
2
Y
nY 1

Q= 

Anselmo Maciel

63

(21)

4.3. DISTRIBUCIONES MUESTRALES DE ESTIMADORES

CAPTULO 4. ESTADSTICA

Demostracin
Si se definen las v.a UX y UY mediante la relaciones,
UX =

nX .SX2
2X

UY =

nY .SY2
Y2

Del teorema 4.3.3, se deduce que cada una de las estadsticas UX y UY tiene una chi-cuadrada con
(nX 1) y (nY 1) gl respectivamente.
Consideres ahora otra v.a Q definida por la relacin:

Q=

UX
nX 1
UY
nY 1

De la definicin de la distribucin F, se tiene que Q tiene una distribucin F con (nX 1) y (nY 1) gl.
Esto se puede escribir:


2
nX .SX
2
X
nX 1
nY .SY2
2
Y

Q= 

nY 1

Por lo tanto Q F[nX 1, nY 1].


Teorema 4.3.7 (Distribucin por muestreo de diferencia de media (Xn Yn ) Supngase que X1 , X2 , . . . , Xnx
constituyen una m.a de una distribucin normal con media X y varianza 2X , considrese otra m. a
Y1 ,Y2 , . . . ,Yny tambin de distribucin normal con media Y y varianza Y2 . Supngase tambin que X e
Y son independiente y que 2X = Y2 = 2 , es conocida, entonces; X Y tiene una distribucin normal con
1
1
2
+
media (X Y ) y varianza
.
nX nY
Demostracin
Sea Dn = Xn Yn
Como X e Y son v.a independiente, por el teorema 4.1.2, la f.g.m de Dn es:
h
h
1
t2 i
1
t2 i
mDn (t) = mXn (t) mYn (t) = exp Xn t + 2 ( ) exp Yn t + 2 ( )
2
nX
2
nY
entonces

h
1 2 1
1  2i
mDn (t) = exp (Xn Yn )t +
+
t
2
nX nY

Por tanto, la f.g.m de Dn es idntica al de la distribucin normal.


Teorema 4.3.8 Supngase que X1 , X2 , . . . , Xnx constituyen una m.a de una distribucin normal con media
X y varianza 2X , considrese otra m. a Y1 ,Y2 , . . . ,Yny tambin de distribucin normal con media Y y
Anselmo Maciel

64

CAPTULO 4. ESTADSTICA

4.3. DISTRIBUCIONES MUESTRALES DE ESTIMADORES

varianza 2X . Supngase tambin que X e Y son independiente y que 2X = Y2 = 2 con valor desconocida,
y sean las varianzas mustrales y ponderada respectivas:
n

n.SX2 n = (Xi Xn )2 ,
i=1

n.SY2n = (Yi Yn )2

Sc2 =

i=1

nX .SX2
nY .SY2
+
nX + nY 2 nX + nY 2

tonces; el estadstico
T=

(X Y ) (X Y )
r 

Sc2 n1X + n1Y

(22)

tiene una distribucin t-student con (nX + nY 2) gl.


Demostracin
n.SX2 n n.SY2n
Dado que X e Y son v.a independientes, 2 y 2 tambin son dos v.a independientes cada una tiene

una distribucin chi-cuadrada con (nX 1) y (nY 1) gl. respectivamente.


Sea Z =

(X Y ) (X Y )
r
 , entonces Z N(0, 1).
1
1

nX + nY

Sea tambin, W =

nX .SX2 nY .SY2
+ 2
2

Por el teorema 4.1.4, se sabe que W tiene una distribucin chi-cuadrado con (nX + nY 2) gl.
Por la definicin 4.1.4, se sabe que:
T=q

Z
W
nX +nY 2

, tiene una distribucin t-student con (nX + nY 2) gl.


(X Y ) (X Y )
r

1
1

+
nX
nY
T= v
u
u nX .SX2 nY .SY2
t
+ 2
2

nX +nY 2

(X Y ) (X Y )
r

1
1
nX + nY
q
T=
2
2
nX .SX +nY .SY
nX +nY 2

T=

Anselmo Maciel

(X Y ) (X Y )
r 

1
1
2
Sc nX + nY
65

4.3. DISTRIBUCIONES MUESTRALES DE ESTIMADORES


Siendo Sc2 =

CAPTULO 4. ESTADSTICA

nX .SX2
nY .SY2
+
nX + nY 2 nX + nY 2

Teorema 4.3.9 (Teorema Central del Limite(T.C.L)) Lo que establece el teorema: siempre que se selecciona una m.a de tamao n grande, de cualquier distribucin con media y varianza 2 independientemente

de que la distribucin sea continua o discreta, entonces la distribucin de la v.a n X


ser aproximadamente una distribucin normal tipificada. Por tanto, la distribucin de X es aproximadamente normal con
n
2
o equivalente, a que la Xi ser aproximadamente un distribucin normal con
media y varianza
n
i=1
media n ? y varianza n 2 .

Teorema 4.3.10 (Teorema Central del Limite (Lindeberg y Lvy) para media muestral) Si las v.a
X1 , X2 , . . . , Xn constituyen una muestra de tamao n de una distribucin con media y varianza 2 (0 <
2 < ), entonces para cualquier nmero fijo z,
lm P

h X 
i
n
z = (z)
n

donde es la funcin de distribucin de la distribucin normal tipificada.


Esquema de demostracin
Xi
Para las n v.a X1 , X2 , . . . , Xn , sea Zi =
,con i = 1, 2, . . . , n, entonces las variables v.a Z1 , Z2 , . . . , Zn

son i.i.d donde cada una tirne media 0 y varianza 1. Y sea:


Y=

Xn
1
n
= Zi

Se demostrar que Y converge en distribucin a la v.a normal tipificada, demostrando de que la f .g.m
de Y converge a la distribucin normal tipificada.
Si mZi (t) es la f .g.m de las Zi e mY (t) la f .g.m de Y . Del teorema 4.1.2, se tiene
n

 t  h  t in
mY (t) = mZi = mZi
n
n
i=1
" 
#
 t  n
mZi (t) = E exp zi
n
 t 
La expresin exp zi en la serie de Taylor es
n
 t  

t
t2 2
t3 3

exp
zi = 1 +
zi + zi +
3 zi + . . .
n
n
2n
3!n 2
Recordemos que E(Zi ) = 0 y Var(Zi ) = 1 , para i = 1, 2, . . . , n
Anselmo Maciel

66

CAPTULO 4. ESTADSTICA

4.3. DISTRIBUCIONES MUESTRALES DE ESTIMADORES

!
 t 
t2
t3
3
E exp zi
= 1 + E(z2i ) +
3 E(zi ) + . . .
n
2n
3!n 2
Ahora se tiene que:
#n
3
t2
t
3
mY (t) = 1 + E(z2i ) +
3 E(zi ) + . . .
2n
2
3!n
"
#
 n
3
1 t2
t
3
mY (t) = 1 +
E(z2i ) +
1 E(zi ) + . . .
n 2
2
3!n
"

Llamemos
u=
entonces
Por definicin (clculo)

t2
2

E(z2i ) +

t3

3
1 E(zi ) + . . .

3!n 2

u n
mY (t) = 1 +
n


u n
= eu
lm 1 +
n
n

para todo nmero real u.


Tambin se tiene que:
lm u =

t2
2

Finalmente
t

lm mY (t) = e 2

que es la f.g.m de la distribucin normal estndar.


Teorema 4.3.11 (Ley de los nmeros grande (Ley dbil)) Supngase que X1 , X2 , . . . , Xn constituyen m
.a de tamao n de una distribucin con media y varianza 2 y sea X la media muestral. Entonces;
P( lm X) =
n

Demostracin
De la desigualdad de Chevyshev resulta que para cualquier nmero > 0,
P(|X | < ) 1

Por tanto
P( lm |X | < ) = 1
n

Lo cual significa que:


P( lm X) =
n

Anselmo Maciel

67

(23)

4.4. ESTIMADOR Y SUS PROPIEDADES

4.4.

CAPTULO 4. ESTADSTICA

Estimador y sus propiedades

Considrese un problema de inferencia en la que se va a observar una m.a. X1 , X2 , . . . , Xn de una distribucin cuya f.p o f.d.p es f (x|) , donde el valor de es desconocido y debe ser estimado. Un estimador de

basado en la m.a. X1 , X2 , . . . , Xn es una estadstica T (X) representada generalmente por (X)


que especifica
el valor estimado de para cada conjunto de valores posibles de X1 , X2 , . . . , Xn . Puesto que el valor de

debe permanecer tambin


debe permanecer en el espacio paramtrico , todos los valores posibles de (X)
a .
Definicin 4.4.1 Un conjunto en el que toman valores se denomina espacio paramtrico.

Ejemplo de espacio parmetrico


Sea X1 , X2 , . . . , Xn una m.a ; con X N(, 2 ).
a) Si 2 = 1, entonces = , el espacio paramtrico es:
= { : < < +}
b) Si = 0 , entonces = 2 , el espacio paramtrico es:
= {2 : 2 > 0}
c) Si y 2 son desconocidos, entonces = (, 2 ) , el espacio paramtrico es:
= {(, 2 ) : < < + y 2 > 0}
Definicin 4.4.2 Cualquier estadstica T (X) que asuma valores en , es un estimador de .

Definicin 4.4.3 Sea (X)


cualquier estimador de un parmetro desconocido , se define error cuadrtico

medio de (X), ECM[(X)] como el valor esperado del cuadrado de la diferencia entre (X)
y .



2

= E (X)

ECM (X)



= E 2 (X) 2(X)
+ 2

(24)

 




2  
2
2
2

= E (X) 2E (X)
+ + E (X)
E (X)
  
2  
2



2

= E (X) E (X)
+ E (X)
2E (X) + 2

  
2

= Var (X) + E (X)


= Varianza del estimador + Sesgo del estimador

Anselmo Maciel

68

CAPTULO 4. ESTADSTICA

4.4. ESTIMADOR Y SUS PROPIEDADES

Definicin 4.4.4 Se dice que (X)


es un estimador insesgado del parmetro , si



E (X)
=
para todos los valores posibles de , con .

(25)




En la definicin 4.4.3, si E (X) =







ECM (X) = Var (X)

(26)

Ejemplo 4.4.1
2

Supngase que para muestra aleatoria X1 , X2 , . . . , Xn de una distribucin normal con media y varianza
ambas desconocidas se eligen los siguientes estimadores:
1 n
Xn = Xi
n i=1

Sn2

1 n
= (Xi Xn )2 respectivamente para estimar y 2 .
n i=1

Se probar si son estimadores segados o insesgados.


n
1
1 n
1 n
1
E(Xn ) = E( Xi ) = E(Xi ) = = n =
n i=1
n i=1
n i=1
n

E(Sn2 ) =


n
1
1 n
1 n 
2
2
2
2
E( (Xi Xn ) ) = E(Xi Xn ) = E (Xi ) (Xn )
n i=1
n i=1
n i=1
 1 n 
2  1  2 2  (n 1)2
1 n 
2
2
2
E(X

E(X

= n
=

)
=
i
n

n i=1
n i=1
n
n
n
n

Se han obtenidos los siguientes resultados, Xn es un estimador insesgado de , mientras que Sn2 es un
estimador sesgado de 2 .
 

se conoce como sesgo del estimador. Un estimador es asinDefinicin 4.4.5 A la diferencia E X


tticamente insesgado si para todos los valores posibles de , con .



lm E (X) = 0
(27)
n

Ejemplo 4.4.2
El resultado obtenido en el ejemplo 4.4.1 con relacin a Sn2 lo defina como un estimador sesgado de 2 ,
sin embargo este estimador es asintticamente insesgado, puesto que:
lm E(Sn2 ) = 2

Anselmo Maciel

69

4.4. ESTIMADOR Y SUS PROPIEDADES

CAPTULO 4. ESTADSTICA

Definicin 4.4.6 (Consistencia) Sea (X)


el estimador de un parmetro , y sean 1 (X), 2 (X), . . . , n (X)

una sucesin de estimadores que representan a (X)


con base a la muestra aleatoria 1, 2, . . . , n. Se dice que
(X) es un estimador consistente para si:


lm P (n (X) ) < = 1
n

O lo que es lo mismo que por la ley de convergencia en probabilidad se cumpla que:




lm P n (X) = ,
n

Lo anterior implica que la varianza del estimador consistente n (X) disminuye conforme n aumenta y
la media de n (X) crece hacia .

Ejemplo 4.4.3
Vase el teorema 4.3.11

Definicin 4.4.7 Sea X1


, X2 , . . 
. , Xn una m.a.
 de una
 distribucin cuya f.p o f.d.p es f (x|), sea (X) un

estimador de tal que: E (X)


= y Var (X)
es menor que la varianza de cualquier otro estimador

insesgado de para todo los posibles valores de . Se dice entonces que (X)
es un estimador insesgado de
varianza mnima de .

Definicin 4.4.8 Sea X1 , X2 , . . . , Xn una m.a. de una distribucin cuya f.p o f.d.p es f (x|), si (X)
es un

estimador insesgado de , entonces la varianza de (X) debe satisfacer la siguiente desigualdad:




1

Var (X)
(28)
nI()
donde I() es la informacin de Fisher, definida como:
I() = E

 2

ln
f
(x|)
2

es cualquier estimador insesgado del parmetro tal que:


Definicin 4.4.9 (Eficiencia) Si (X)


1

Var (X)
=
nI()

entonces se dice que (X) es un estimador eficiente de .

(29)

Este resultado proporciona un estimador (X)


que es eficiente con respecto a su espetanza, como (X)

es un estimador insesgado, su esperanza es , en otras palabras (X) es eficiente para .

Ejemplo 4.4.4
Anselmo Maciel

70

CAPTULO 4. ESTADSTICA

4.4. ESTIMADOR Y SUS PROPIEDADES

Supngase que X1 , X2 , . . . , Xn constituyen una m.a. de una distribucin de Poisson con parmetro
desconocido. Se determinar el estimador eficiente para .
Por la cota de Cramer-Rao la varianza del estimador eficiente de es:



Var (X)
=

1
nI()

Se determinar primeramente la informacin de Fisher: I().


El logaritmo natural de funcin de probabilidad de Poisson es:
ln f (x|) = + x ln lnx!

1
ln f (x|) = 1 + x

1
2
ln f (x|) = x 2
2

I() = E(x

1
1
)=
2

Por lo tanto,



Var (X)
= =
n n
es la varianza del estimador eficiente de .
Definicin 4.4.10 (Suficiencia. Criterio de factorizacin de Neyman) Sea X1 , X2 , . . . , Xn una m.a. de
una distribucin con f.p o de f.d.p dada por f (x|) con parmetro desconocido y pertenece a un espacio
paramtrico concreto. Un estadstico T (X) es suficiente para si y solo si, si la f.p conjunta o f.d.p conjunta fn (x|) de X1 , X2 , . . . , Xn se puede factorizar como sigue para todos los valores de x = {x1 , x2 , . . . , xn } Rn
y todos los valores de :
fn (x|) = h(x) g(t(x, ))

(30)

Aqu las funciones h y g son no negativas, la funcin h depende de x pero no de y la funcin de g


depender de pero depende del valor observado x nicamente a travs del valor t(x).

Ejemplo 4.4.5
Supngase que X1 , X2 , . . . , Xn constituyen una muestra aleatoria de Poisson con parmetro desconocida
( > 0). Se determinar el estadstico suficiente para .
Para cualquier conjunto de enteros no negativos x = {x1 , x2 , . . . , xn }, la f.p conjunta fn (x|) de X1 , X2 , . . . , Xn
es la siguiente:
n

e xi  n 1  i=1
fn (x|) =
= e
i=0 xi !
i=0 n
n

Anselmo Maciel

71

xi

4.4. ESTIMADOR Y SUS PROPIEDADES

CAPTULO 4. ESTADSTICA

Como se puede observar fn (x|) ha sido expresada, como en la ecuacin (30), como producto de una
funcin que no depende de y una funcin que depende de y del vector observado de x solamente a travs
n

de t(x) = xi . Resulta por tanto que T (X) = xi es un estadstico suficiente para .


i=1

i=1

Definicin 4.4.11 (Estadsticos conjuntamente suficiente) Los estadsticos T1 (X), T2 (X), . . . , Tk (X) son
estadsticos conjuntamente suficientes para , si y solo si, si la f.p conjunta o f.d.p conjunta fn (x|) se puede
factorizar como sigue x = {x1 , x2 , . . . , xn } Rn y todos los valores de :
f (x, ) = h(x) g(t1 (x),t2 (x), . . . ,tk (x), )

(31)

Aqu las funciones h y g son no negativas, la funcin h depende de x pero no de y la funcin g


depender de pero depende del valor observado x nicamente a travs las k funciones t1 (x),t2 (x), . . . ,tk (x).

Ejemplo 4.4.6
2

Supngase que X1 , X2 , . . . , Xn constituyen una m.a. de una distribucin normal con media y varianza
ambas desconocidas. Se determinar el estadsticos suficiente para = (, 2 ).
 1 n 

1 n
exp 2 (xi )2
f (x|, 2 ) =
2 i=1
2
 1 n

1 n 2 n
2 
n

exp 2 xi + 2 xi n 2
f (x|, ) =
2 i=1
i=1
2
2
2

De acuerdo a la definicin anterior tenemos que:


 1 n

1 n 2 n
2 
n
y g(t1 (x),t2 (x), . . . ,tk (x), ) = exp 2 xi + 2 xi n 2
h(x) =
2 i=1
i=1
2
2
n

Donde t1 (x) = xi2

y t1 (x) = xi

i=1

i=1

Por lo que: T1 (X) = Xi2


i=1

y T1 (X) = Xi
i=1

conjuntamente suficiente para = (, 2 ).


Definicin 4.4.12 Dos estadsticos T1 (X) y T2 (X) son equivalente si existe una relacin 1:1 entre ellas.

Ejemplo 4.4.7
n

Para muestra aleatoria X1 , X2 , . . . , Xn de una distribucin normal se sabe que T1 (X) = Xi es suficiente
i=1

1 n
para . Como T1 (X) es equivalente a T2 (X) = Xi tenemos que Xn tambin es suficiente para .
n i=1
Anselmo Maciel

72

CAPTULO 4. ESTADSTICA

4.5.

4.5. ESTIMACIN PUNTUAL Y POR INTERVALO

Estimacin puntual y por intervalo

Definicin 4.5.1 (Estimacin puntual) Supngase que X1 , X2 , . . . , Xn constituyen una m.a. de una distribucin con f.p o f.d.p f (x|) con parmetro desconocido, donde el valor de debe ser estimado a partir
de un experimento en la que se han de observar valores x = {x1 , x2 , . . . , xn } de X = {X1 , X2 , . . . , Xn }. Supn

gase tambin que se puede establecer un estimador (X)


para . Si la realizacin (x)
de (X)
especifica un

solo valor para el parmetro , entonces (X) es la estimacin puntual de .

Definicin 4.5.2 Sea X1 , X2 , . . . , Xn una m.a. con f.p o f.d.p f (x|) con parmetro desconocido y sea

es el valor de para el cual la funcin verosimilfn (x|) la funcin verosimilitud de la muestra. Si (x)

itud fn (x|) = L(, x) es mxima, entonces (X) es el estimador mxima verosimilitud de y (x)
es la
estimacin mxima verosimilitud de . El valor de que maximiza la funcin fn (x|) ser el mismo que el
valor de que maximiza ln fn (x|).

Ejemplo 4.5.1
Supngase que las v.a X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una distribucin de Bernoulli
con parmetro p desconocido (0 p 1) para cualesquiera valores observados x1 , x2 , . . . , xn , donde cada
xi es 0 1, la funcin verosimilitud es:
n

fn (x|p) = pxi (1 p)1xi


i=1

El valor de p que maximiza L(, x) ser el mismo valor de p que maximiza lnL(, x) . Por lo tanto,
i


n h
n
n
lnL(p, x) = xi lnp + (1 xi )ln(1 p) = xi lnp + n xi ln(1 p)
i=1

Anselmo Maciel

i=1

73

i=1

4.5. ESTIMACIN PUNTUAL Y POR INTERVALO

Haciendo

CAPTULO 4. ESTADSTICA

lnL(p, x) = 0
p

Se tiene:

xi

p =

i=1

Definicin 4.5.3 (Estimacin por intervalo) Supngase que X1 , X2 , . . . , Xn constituyen una m.a de una
distribucin con f.p o f.d.p f (x|) con parmetro desconocido y donde el valor de debe ser estimado a
partir de un experimento en la que se han de observar valores x = {x1 , x2 , . . . , xn } de X = {X1 , X2 , . . . , Xn } .
Supngase tambin que se puede establecer dos estadsticos A(X) y B(X) tal que:


P A(X) < < B(X) =
(32)
donde es la probabilidad fija (0 < < 1). Si los valores especifico de A(X) y B(X) son a(x) y b(x), entonces
se dice que el intervalo (a, b) es un intervalo de confianza para con una confianza de .

Ejemplo 4.5.2
Sea X1 , X2 , . . . , Xn una m.a. de una distribucin normal con media desconocida y varianza 2 conocida.
Se establecer un intervalo de confianza del = 0, 95 para .
Si se emplea la media muestral Xn para estimar , por el teorema 4.3.1, se sabe que:
 2 
Xn N ,
n
Se debe establecer
Rc

c g(xn , )dxn

(33)

De acuerdo al nivel que se desea establecer


Z c

g(xn , )dxn = 0, 95


Rc
,
)d
=
(c)

(c)
=
(c)

(c)
= 2(c) 1
g(x
n
xn
c
c

Haciendo Z =

Xn

A partir de la distribucin normal tipificada se establece que:




Xn
P c c =

n
Donde A(X) = Xn c

Anselmo Maciel



n
n
P Xn c
Xn + c
=

n
y B(X) = Xn + c

74

(34)

CAPTULO 4. ESTADSTICA

4.5. ESTIMACIN PUNTUAL Y POR INTERVALO

De la normal estndar se tiene adems que (c) = 0, 975 para el cual el valor de c es 1,96.
Entonces



n
n
P Xn (1, 96)
Xn + (1, 96)
= 0, 95

i
h
n
n
Esto significa que la probabilidad de que el intervalo aleatorio Xn (1, 96)
, Xn + (1, 96)

contenga a es de 0,95.
El mtodo utilizado es conocido como mtodo de cantidad pivotal . Una cantidad pivotal es una variable aletora Q(X, ) con una distribucin de probabilidad conocida. Para cualquier intervalo de confianza
y para cierta probabilidad fija (0 < < 1), se puede encontrar los lmites de confianza 1 y 2 de modo
que:


(35)
P 1 Q(X, ) 2 =
Para nuestro ejemplo
Q(X, ) =

Xn

N(0, 1)

Para = 0,95, 1 = 1, 96 y 2 = 1, 96 puesto que:




Xn
P 1, 96 1, 96 = 0, 95

Ejemplo 4.5.3
Sea X1 , X2 , . . . , Xn una m.a. de una distribucin normal con media y varianza 2 desconocida. Se
establecer el intervalo de confianza del para .
Se emplear de nuevo la media muestral Xn para estimacin de , la cantidad pivotal apropiada en este
caso es:
Xn
Q(X, ) = q
Tn1
Sn2
n1

Xn
P tn1 q
tn1
Sn2
n1

!
= 0, 95

De lo que se establece el siguiente intervalo de confianza.


!

n1
n1
P Xn
tn1 Xn +
tn1 = 0, 95
Sn
Sn
Esto es, antes de que los valores de X1 , X2 , . . . , Xn estn disponibles , la probabilidad de que el intervalo
aleatorio:
Anselmo Maciel

75

4.6. EJERCICIOS

CAPTULO 4. ESTADSTICA

h
i
n1
n1
Xn
tn1 , Xn +
tn1
Sn
Sn

contenga a es del 0,95.

4.6.

Ejercicios

1. Supngase que X1 , X2 , . . . , Xn constituyen muestra aleatoria de una distribucin exponencial con parmetro
. Establzcase la funcin verosimilitud.
2. Supngase que X1 , X2 , . . . , Xn constituyen muestra aleatoria de una distribucin normal con media y
varianza 2 . Establzcase la funcin verosimilitud.
3. Supngase que X1 , X2 , . . . , Xn constituyen muestra aleatoria de una distribucin exponencial con parmetro
. Determnese la distribucin de la media muestral Xn .
4. Supngase que X1 , X2 , . . . , Xn constituyen muestra aleatoria de una distribucin de Poisson con parmetro
. Demustrese que Y = X1 + X2 + + Xn tambin tiene una distribucin de Poisson con parmetro
(n).
5. Supngase que X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una distribucin normal con media
y varianza 2 . Determnese la distribucin de:
Y=

n(Xn )2
2

6. Supngase que X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una distribucin normal con media
y varianza 2 . Supngase tambin el tamao muestral n es 16, determnense los valores de las
siguientes probabilidades:

1 n
2
2
(X

2
i
2
n i=1

1 2 1 n
2
2
b) P (Xi X) 2
2
n i=1
a) P

1

7. Si U tiene una distribucin F con 1 y n gl, demustrese que U 2 tiene una distribucin t-student con n
gl.
8. Supngase que se va a seleccionar una muestra aleatoria de tamao n de una distribucin normal con
media y desviacin tpica = 2. Determnese el mnimo valor de n tal que:
P(|Xn | < 0, 1) 0, 9
9. Supngase que se va a seleccionar una muestra aleatoria de tamao n de una distribucin normal con
media y desviacin tpica = 3. Utilice el teorema central limite para determinar aproximadamente
el menor valor de n para el cual se satisface la siguiente relacin:
P(|Xn | < 0, 3) 0, 95
Anselmo Maciel

76

CAPTULO 4. ESTADSTICA

4.6. EJERCICIOS

10. Un fsico toma 25 medidas independientes de la gravedad especfica de cierto cuerpo. Sabe que las
limitaciones de su equipo son tales que la desviacin tpica de cada medicin es unidades.
a) Utilizando la desigualdad de Chebyschev, encuentre la cota inferior para la probabilidad de que

el promedio de sus mediciones difiera de la verdadera gravedad del cuerpo en menos de


4
unidades.
b) Utilizando el teorema central limite, encuentre un valor aproximado para la probabilidad de la
parte (a).
11. Supngase que se va a seleccionar una muestra aleatoria de tamao n de una distribucin normal con
media y varianza 2 conocida. Cul debe ser el valor de c, para que se cumpla lo siguiente:


P |Xn | c = P(Xn c) + P(Xn c) = 0, 05
12. Supngase que se va a seleccionar una muestra aleatoria de tamao n = 16 de una distribucin normal
con media y varianza 2 desconocida. Cul debe ser el valor de c, para que se cumpla lo siguiente:


P |Xn | c = P(Xn c) + P(Xn c) = 0, 05
13. Considrese el planteamiento del teorema 4.3.7, y supngase adems que X = Y ; cul debe ser el
valor de c, para que se cumpla la siguiente probabilidad:


P |Dn c| = P(c Dn c) = 0, 95
14. Supngase que en cierto examen de matemticas avanzadas, los estudiantes de la universidad A alcanzan calificaciones que se distribuyen normalmente con una media de 625 y una varianza de 100 y
que los estudiantes de la universidad B alcanzan calificaciones que se distribuyen normalmente con
una media de 600 y una varianza de 150. Si dos estudiantes de la universidad A y tres estudiantes de
la universidad B hacen este examen, cul es la probabilidad de que el promedio de las calificaciones
de los dos estudiantes de la universidad A sea mayor que el promedio de las calificaciones que los tres
estudiantes de la universidad B?
15. Sea X1 , X2 , . . . , Xn una muestra aleatoria de una poblacin cuya distribucin de probabilidad est dada
por:

 1
1

exp

si x > 0, > 0

f (x|) =

0
en otro caso

a) Mediante el uso de cota inferior de Cramer-Rao determinar la varianza del estimador insesgado
de varianza mnima de .
b) Determinar el estadstico suficiente para .
c) Determinar el estimador por mxima verosimilitud para .
d) Determinar si el estadstico obtenido en c) es un estimador sesgado o insesgado.
e) Determinar si el estadstico obtenido en c) es consistente para .
Anselmo Maciel

77

4.6. EJERCICIOS

CAPTULO 4. ESTADSTICA

16. Supngase que X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una distribucin gamma con parmetros > 0 y > 0, cuya f.d.p est dada por:

si x > 0

()
f (x|, ) =

en otro caso
0
Determnense los estadsticos conjuntamente suficiente para = (, ).
17. Supngase que X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una distribucin normal con media
y varianza 2 desconocidas. Establezca un intervalo de confianza para 2 con un coeficiente de
confianza especfico (0 < < 1).
18. Supngase que X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una distribucin normal con media
y varianza 2 desconocidas. Sean S02 y S12 los estimadores de 2 que se definen como sigue:
S02 =

1 n
(Xi Xn)2
n i=1

y S12 =

1 n
(Xi Xn)2
n 1 i=1

Demustrese que el E.C.M de S02 es menor que el E.C.M de S12 .


19. Supngase que X1 , X2 , . . . , Xn constituyen una m.a de una distribucin normal con media 1 y varianza
2 , considrese otra m.a. Y1 ,Y2 , . . . ,Ym tambin de distribucin normal con media 2 y varianza 22
. Y sean:
n

SX2 = (Xi Xn )2
i=1

y SY2 = (Yi Ym )2
i=1

Para qu valores de y es: SX2 + SY2 un estimador insesgado de 2 .


20. Supngase que dos estadsticos, A y B, seleccionan independientemente muestra aleatoria de 20 observaciones de una distribucin normal cuya media es desconocida y cuyo valor de la varianza es
4. Supngase tambin que el estadstico A encuentra que la varianza muestral de su muestra aleatoria
es 3,8 y que el estadstico B encuentra que la varianza muestral de su muestra aleatoria es 9,4. Para
qu muestra aleatoria es ms probable que la media muestral est cercana al valor desconocido de ?

Anselmo Maciel

78

Bibliografa
[1] Pierre Paul Romagnoli(2005) Curso de probabilidad para profesores de enseanza media.
[2] Luis Rincn(2007) Curso elemental de probabilidad y estadstica. Departamento de Matemticas.Facultad de Ciencias UNAM.
[3] Barry R. James(1981) Probabilidad: un curso de nivel intermedio. IMPA-CNPq.
[4] Ing.Mario Ral Azocar. Probabilidad.Teora y prctica. Master of Science- New York University-New
York.

79

You might also like