Professional Documents
Culture Documents
Curso elemental de
Probabiliidad y Estadstica
Teora y Prctica
Csar Amarilla
Anselmo Maciel
Csar Amarilla
ndice general
1. Anlisis Combinatorio Bsico
1.1. Introduccin . . . . . . . . .
1.2. Principio Bsico . . . . . . .
1.3. Problemas de conteo . . . .
1.4. Ejercicios . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2. Probabilidad
2.1. Introduccin . . . . . . . . . . . . . . . .
2.2. Operaciones con conjuntos . . . . . . . .
2.3. Definicin y ejemplos . . . . . . . . . . .
2.4. Definicin de Probabilidad . . . . . . . .
2.5. Probabilidad condicional e independencia
2.6. Ejercicios . . . . . . . . . . . . . . . . .
3. Variables aleatorias
3.1. Introduccin . . . . . . . . . . .
3.2. Definicin y ejemplos . . . . . .
3.3. Funciones de distribucin . . . .
3.4. Esperanza, varianza y momentos
3.5. Ejercicios . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4. Estadstica
4.1. Consideraciones preliminares . . . . . . .
4.2. Muestra aleatoria . . . . . . . . . . . . .
4.3. Distribuciones muestrales de estimadores
4.4. Estimador y sus propiedades . . . . . . .
4.5. Estimacin puntual y por intervalo . . . .
4.6. Ejercicios . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
5
7
11
.
.
.
.
.
.
13
13
14
16
18
25
31
.
.
.
.
.
37
37
37
40
44
49
.
.
.
.
.
.
55
55
58
61
68
73
76
NDICE GENERAL
Csar Amarilla
NDICE GENERAL
Captulo 1
Anlisis Combinatorio Bsico
1.1.
Introduccin
Las combinatoria es el nombre que recibe las tcnicas que se utilizan para resolver problemas de conteo.
En este captulo introducuremos las tcnicas bsicas de la combinatoria que necesitaremos en este curso.
Estas tecnicas no son ms que una nfima parte de toda esta teora. En extricto rigor la combinatoria es
mucho ms que tcnicas de conteo y es por eso que preferimos llamar a este captulo combinatroria bsica
y no combinatoria a secas.
Se podra decir que las tcnicas de conteo son anteriores incluso a la matemtica. La operacin bsica
de contar era utilizada por los pastores de antao para saber si perda alguna oveja al volver a casa en pocas
anteriores al concepto de suma de nmeros. El pastor simplemente llenaba su morral de piedras con una
por cada oveja que sala y luego al regresar las devolva a medida que las ovejas regresaban a casa. Si le
sobraban piedras saba que haba perdido algunas, si alcansaban justo entonces volvi con lo que se fue y
si le faltaban piedras entonces se haba apropiado de las ovejas de alguien ms.
Es cierto que los griegos no prestaron mucha antencin a la combinatoria con la honrosa exepcin del
estudio de los nmeros poligonales realizada por los pitagricos. En India en el siglo XII ya se conoca los
coeficientes binomiales. Fue Lev Ben Gerson en el siglo XIV el que realiz un estudio detallado de lo que
se conoce hoy en da como permutaciones y combinaciones de un conjunto de objetos. Esto fue recuperado
por Pascal y Fermat en sus estudios de los juegos de azar. A pesar de que al parecer fue Pascal el primero
en relacuionar los coeficientes binomiales con el teorema del binomio estos coeficientes ya eran conocidos
para los rabes en el siglo XIII y por los chinos en el siglo XIV. De hecho Nicolo Fontano de Bresia ms
conocido como Tartaglia en su obra pstuma. Tratado general sobre el nmero y la medida estudi el
rectngulo aritmtico que es equivalente al tringulo de Pascal.
1.2.
Principio Bsico
El objetivo de esta seccin no es aprender a contar, se supone que toda persona sabe hacerlo medianamente bien. El objetivo es formalizar un sistema para contar ordenadamente. vamos a enunciar dos
principios bsicos en la teora de combinatoria, el Principio de Multiplicaciny el Principio de Suma.
5
Principio de multiplicacin
Si un procedimiento A1 puede efectuarse de n formas distintas y un segundo procedimiento A2 puede
realizarse de m formas diferentes y adems cualquier resultado de la primer procedimiento es compatible
con cualquier resultado del segundo procedimiento , entonces el total de formas en que puede efectuarse
el primer procedimiento seguido del segundo es el producto n m, en teora de conjuntos esto se expresa
como #(A1 A2 ) = #A1 #A2 , donde #(A1 A2 ) es el producto cartesiano y # significa cardinal del conjunto
finito, cuyas definiciones veremos en el captulo 2.
Ejemplo 1.2.1
Suponga que un cierto experimento consiste en lanzar un dado y despus seleccionar al azar una letra
del alfabeto. Cul es la cantidad total de formas diferentes que se pueden presentar los resultados en el
experimento?.
Solucin
El experimento de lanzar un dado puede arrojar 6 resultados posibles que son A1 = {1, 2, 3, 4, 5, 6} y
consideremos que tenemos un alfabeto de 26 letras A2 = {a, b, c, d, . . . , y, z}. Entonces por el principio de
multiplicacin la cantidad total de formas diferentes que se pueden presentar los resultados en el experimento es
6 26 = 156
Ejemplo 1.2.2
Un hombre tiene 4 pantalones distintos, 6 camisas, y dos pares de zapatos. De cuntas formas distintas
puede el hombre vestirse con estas prendas?
Solucin
La cantidad de formas distintas que el hombre puede vestirse con estas prendas es 4 6 2 = 48
Principio Suma
Si una operacin da n1 resultados distintos y otra operacin da n2 resultados distintos entre s y de todos
los resultados de la primera operacin y adems slo se puede realizar una de las dos operaciones ( es decir
Csar Amarilla
realizar una de las operaciones no permite realizar la otra ). Entonces el total de maneras distintas de realizar
la operacin conjunta ( es decir la primera o la segunda ) es n1 + n2 .
De manera conjuntista esto quiere decir que dados dos conjuntos finitos y que no tienen elementos en
comun se tiene que
#(A1 A2 ) = #A1 + #A2
donde A1 A2 significa A unin B cuya definicin veremos en el capitulo 2.
Ejemplo 1.2.3
Si lanzo un dado de seis lados o una moneda entonces los resultados posibles son 6 + 2 = 8.
1.3.
Problemas de conteo
Consideremos a continuacin diferentes esquemas y contextos en donde es posible encontrar una frmula matemtica para ciertos problemas de conteo. En todos ellos aplicaremos el principio de multiplicacin.
El esquema general es el de extraer al azar k objetos, uno a la vez, de una urna con n objetos distintos.
Definicin 1.3.1 (Ordenaciones con repeticin: Muestras con orden y con reemplazo)
Suponga entonces que tenemos una urna con n objetos distintos. Deseamos realizar k extracciones al
azar de un objeto a la vez. Al efectuar una extraccin, registramos el objeto escogido y lo regresamos a la
urna, de esta forma el mismo objeto puede ser extrado varias veces. El total de arreglos que se pueden obtener
de esta urna al hacer k extracciones es el nmero nk , pues en cada extraccin tenemos n objetos posibles para
escoger y efectuamos k extracciones. Esta frmula es consecuencia del principio de multiplicacin enunciado
antes. A este nmero se le llama ordenaciones con repeticin. Se dice que la muestra es con orden pues es
importante el orden en el que se van obteniendo los objetos, y es con reemplazo pues cada objeto seleccionado
se reincorpora a la urna.
Ejemplo 1.3.1
Suponga que tenemos un conjunto de 60 caracteres diferentes que contiene todas las letras minsculas
del alfabeto, las letras maysculas, los diez dgitos y algunos caracteres especiales. Cuntos passwords o
palabras clave de longitud 4 se pueden construir usando el conjunto de 60 caracteres?
Csar Amarilla
Solucin
Este es un ejemplo de una ordenacin de 60 caracteres en donde se permiten las repeticiones. Como cada
caracter de los 60 disponibles puede ser escogido para ser colocado en cada una de las cuatro posiciones de
la palabra clave, entonces se pueden construir
60 60 60 60 = 604 = 12960000
distintos passwords de longitud 4.
Definicin 1.3.2 (Ordenaciones sin repeticin: Muestras con orden y sin reemplazo)
Suponga que se tiene la misma situacin que antes, una urna con n objetos y de los cuales se deben extraer, uno a uno, k objetos. Suponga esta vez que el muestreo es sin reemplazo, es decir, una vez seleccionado
un objeto ste ya no se reincorpora a la urna. El total de arreglos distintos que se pueden obtener de este
modo es el nmero:
n (n 1) (n 2) (n k + 1)
Primeramente debemos observar que hay k factores en la expresin anterior. El primer factor es n y
ello es debido a que tenemos cualesquiera de los n objetos para ser colocado en primera posicin, para la
segunda posicin tenemos ahora n 1 objetos, para la tercera n 2 objetos, etc. Este razonamiento termina
al escoger el k-simo objeto para cual tenemos nicamente n k + 1 posibilidades. Nuevamente por el
principio multiplicativo, la respuesta es el producto indicado. La expresin encontrada puede escribirse
como sigue:
n!
Pkn =
(n k)!
y se lee permutaciones de n en k. En el caso particular cuando la muestra es exhaustiva, es decir, cuando
k = n, o bien cuando todos los objetos son extrados uno por uno, entonces se tienen todas las permutaciones
o distintos rdenes en que se pueden colocar n objetos.
Ejemplo 1.3.2
De cuntas formas distintas pueden asignarse los premios primero, segundo y tercero en una rifa de 10
boletos numerados del 1 al 10?.
Solucin
Claramente se trata de una ordenacin sin repeticin de 10 objetos en donde se deben extraer 3 de ellos.
La respuesta es entonces que existen 10 9 8 = 720 distintas asignaciones para los tres primeros lugares en
la rifa.
Definicin 1.3.3 (Permutaciones: Muestras exhaustivas con orden y sin reemplazo)
La pregunta bsica acerca del total de formas en que podemos poner en orden lineal (uno detrs de otro
y por lo tanto no hay repeticin) n objetos distintos tiene como respuesta (aplicacin 1.2.1) el factorial de n,
denotado por n! y definido como sigue:
n! = n (n 1) (n 2) 3 2 1
Csar Amarilla
A este nmero tambin se le conoce como las permutaciones de n objetos, y se usa la notacin P(n) = n!.
Adicionalmente y por conveniencia se define 0! = 1. Observe que las permutaciones de n objetos es un caso
particular de la situacin mencionada en la seccin anterior sobre ordenaciones sin repeticin pero ahora
cuando la muestra es exhaustiva, es decir, cuando se extraen los n objetos de la urna.
Ejemplo 1.3.3
Si deseamos conocer el total de formas distintas en que podemos colocar una enciclopedia de 5 volmenes
en un librero
Solucin
El razonamiento es el siguiente: Cualquiera de los cinco libros puede ser colocado al principio, quedan
cuatro libros por colocar en la segunda posicin, restan entonces tres posibilidades para la tercera posicin,etc. Por el principio de multiplicacin la respuesta es el producto de estos nmeros, es decir
5! = 5 4 3 2 1 = 120
n!
(n k)!
Ahora que no nos interesa el orden, observamos que cada uno de los arreglos de la frmula anterior,
est siendo contado k! veces, las veces en que los mismos k elementos pueden ser permutados unos con
otros, siendo que el conjunto de elementos es el mismo. Para obtener arreglos en donde el orden no importa,
debemos entonces dividir por k! La frmula a la que hemos llegado se llama combinaciones de n en k, que
denotaremos como sigue:
n
n!
=
k
k!(n k)!
A este nmero tambin se le conoce con el nombre de coeficiente binomial de n en k, pues aparece en
el famoso teorema del binomio:
n
n nk k
n
(a + b) =
a b
k=0 k
Para los casos n = 2 y n = 3 el teorema del binomio se reduce a las siguientes frmulas:
(a + b)2 = a2 + 2ab + b2
Csar Amarilla
Ejemplo
Cuntos equipos distintos de tres personas pueden escogerse de un grupo de 5 personas?
Solucin
Observe que el orden de las tres personas escogidas no es importante de modo que la respuesta es
5!
5
=
= 10
3
3!(5 3)!
Definicin 1.3.5 (Coeficiente multinomial)
Ahora consideremos que tenemos n objetos no necesariamente distintos unos de otros. Por ejemplo,
supongamos que tenemos k1 objetos de un primer tipo, k2 objetos de un segundo tipo, y as sucesivamente,
hasta km objetos del tipo m, en donde k1 + k2 + + km = n. Estos n objetos pueden todos ordenarse uno
detrs de otro de tantas formas distintas como indica el as llamado coeficiente multinomial:
n
n!
=
k1 ! k2 ! . . . km1 ! km !
k1 k2 . . . km1 km
Un razonamiento para obtener esta frmula es el siguiente. Si consideramos que los n objetos son todos
distintos, entonces claramente las distintas formas en que pueden escribirse todos estos objetos uno detrs
de otro es n!. Pero para cada uno de estos arreglos, los k1 objetos del primer tipo, supuestos inicialmente
distintos cuando en realidad no lo son, pueden permutarse entre s de k1 ! formas diferentes, siendo que el
arreglo total es el mismo. De aqui que debamos dividir por k1 ! . Lo mismo sucede con los elementos del
segundo tipo y as sucesivamente hasta los elementos del tipo m. El coeficiente multinomial aparece en la
siguiente frmula:
n1
n
n
n
(a1 + a2 + + am ) =
nk1
ki
ki =0
k1 =0 k2 =0
km =0
n
ak11 ak22 . . . akmm
k1 k2 . . . km1 km
en donde la suma se efecta sobre todos los posibles valores enteros no negativos de k1 , k2 , . . . , km , tales que
k1 + k2 + + km = n. Por ejemplo, para n = 3 la frmula anterior produce la siguiente expresin:
(a + b + c)2 = a2 + b2 + c2 + 2ab + 2ac + 2bc
Puede usted desarrollar (a + b + c)3 ? Es interesante observar que cuando hay nicamente dos tipos de
objetos, el coeficiente multinomial se reduce al coeficiente binomial.
Definicin 1.3.6 (Muestras sin orden y con reemplazo)
Finalmente consideremos el caso de hacer k extracciones de una urna de n objetos con las condiciones
de que cada objeto extrado es regresado a la urna (y entonces puede ser elegido nuevamente), y en donde
Csar Amarilla
10
1.4. EJERCICIOS
el orden de la muestra no es relevante. Para encontrar una frmula para el total de muestras que pueden
obtenerse con estas caractersticas usaremos una modelacin distinta pero equivalente. Consideremos el
arreglo de n casillas de la Figura 1.1 junto con la siguiente interpretacion.
k xx |
1
| x | x | |
2
| x k
n1
Figura 1.1
La primera casilla tiene dos cruces y eso indica que la bola uno fue seleccionada dos veces, la segunda
casilla esta vaca y ello significa que la bola dos no fue seleccionada, etc. El nmero de cruces en la casilla
i indica entonces el nmero de veces que la bola i fue seleccionada. En total debe haber k cruces pues es el
total de extracciones. Deseamos entonces conocer el nmero de posibles arreglos que pueden obtenerse con
estas caractersticas, y debe ser claro, despus de algunos momentos de reflexin, que ste es el nmero de
muestras de tamao k, con reemplazo y sin orden, que se pueden obtener de un conjunto de n elementos
distinguibles. Consideremos que las dos paredes en los extremos de este arreglo son fijas, estas paredes
se encuentran ligeramente remarcadas. Consideremos adems que las posiciones intermedias, cruz o linea
vertical, pueden moverse. En total hay n +k 1 objetos movibles y cambiar de posicin estos objetos produce
las distintas configuraciones posibles que nos interesan. El nmero total de estos arreglos es
n+k1
k
que equivale a colocar dentro de las n + k 1 posiciones las k cruces, dejando en los lugares restantes las
paredes movibles.
1.4.
Ejercicios
1. Cuntas seales diferentes, cada una de 6 banderas colgadas en una linea vertical, pueden formarse
con 4 banderas rojas idnticas y 2 azules idnticas?. Rta 15
2. Cuntas permutaciones distintas pueden formarse con las letras de cada una de las palabras
a) tema
Rta. 24
b) campana
Rta. 840
c) estadstica?
Rta. 9.979.200
3. Cuatro libros diferentes de matemticas, seis diferentes de fsica y dos diferentes de qumica se colocan en un estante. De cuntas maneras distintas es posible ordenarlos si:
a) los libros de cada asignatura deben estar juntos
Rta. 207.360
Rta. 8.709.120
4. Se ordenan en una fila 5 bolas rojas, 2 bolas blancas y 3 bolas bolas azules. Si las bolas de igual color
no se distinguen entre s. De cuntas formas posibles pueden ordenarse?. Rta 2520
Csar Amarilla
11
1.4. EJERCICIOS
Rta. 350
Rta. 150
Rta. 105
6. Cuntas ensaladas pueden prepararse con lechuga, escarola, endibia, berro y achicoria?. Rta. 31
7. De cuntas maneras puede un profesor escoger uno o ms estudiantas de seis elegibles?. Rta 63
8. En una clase hay 12 estudiantes. De cuntas maneras los 12 estudiantes pueden presentar 3 pruebas
diferentes si a cada prueba le corresponde 4 estudiantes?. Rta. 34650
9. Una comisin de 10 personas est formada por 2 ingleses, e escoceses, 2 japoneses y el resto de otras
nacionalidades (todas distintas). De cuntas maneras pueden ponerse en fila sin que haya dos de la
misma nacionalidad contiguos?. De cuntas maneras pueden sentarse en una mesa redonda?
10. Cuntos nmeros enteros mayores que 3000 y menores que 4000 se pueden formar con los dgitos
2, 3, 6 y 9 si:
a) cada dgito aparece una sola vez
b) cada dgito se puede ocupar ms de una vez
11. Cuntas palabras diferentes se pueden obtener con las letras de la palabra MANICOMIO?
12. De un grupo de 6 hombres y 4 mujeres se forma un comit de 3 personas
a) Cuntos comits distintos se pueden formar?
b) Cuntos comits distintos con un solo hombre se pueden formar?
c) Cuntos comits distintos con almenos un hombre se pueden formar?
13. Pedro va a comprar 10 frutas entre naranjas, manzanas y pltanos al supermercado. Cuntas posibilidades diferentes tiene Pedro para comprar?.
Csar Amarilla
12
Captulo 2
Probabilidad
2.1.
Introduccin
La teora de probabilidad tuvo como uno de sus primeros puntos de partida el intentar resolver un
problema particular concerniente a una apuesta de juego de dados entre dos personas. El problema al que
nos referimos involucraba una gran cantidad de dinero y puede plantearse de la siguiente forma:
Dos jugadores escogen cada uno de ellos un nmero del 1 al 6, distinto uno del otro, y apuestan 32
doblones de oro a que el nmero escogido por uno de ellos aparece en tres ocasiones antes que el nmero
del contrario al lanzar sucesivamente un dado. Suponga que el nmero de uno de los jugadores ha aparecido
dos veces y el nmero del otro una sola vez. Cmo debe dividirse el total de la apuesta si el juego se
suspende?
Uno de los apostadores, Antonio de Gombaud, popularmente conocido como el caballero De Mere,
deseando conocer la respuesta al problema plantea a Blaise Pascal (1623-1662) la situacin. Pascal a su vez
consulta con Pierre de Fermat (1601-1665) e inician un intercambio de cartas a propsito del problema. Esto
sucede en el ao de 1654. Los historiadores de la matemtica stan generalmente de acuerdo en considerar
este hecho como el origen del estudio de las probabilidades.
Con lo anteriormente mencionado se inician algunos esfuerzos por dar solucin a ste y otros problemas
similares que se plantean. Con el paso del tiempo se sientan las bases y las experiencias necesarias para la
bsqueda de una teora matemtica que sintetice los conceptos y los mtodos de solucin de los muchos
problemas particulares resueltos a lo largo de varios aos.
Las ideas de probabilidades permanecen circunscritas a los problemas de juegos de azar hasta que Pierre
Laplace (1749-1827) y Friedrich Gauss (1777-1855) hacen notar que las teorias desarrolladas son aplicables
tambin a otras actividades diferentes de los juegos de azar.
En el segundo congreso internacional de matemticas, celebrado en la ciudad de Paris en el ao 1900,
el matemtico David Hilbert (1862-1943) plantea 23 problemas matemticos de importancia. Uno de estos problemas es el de encontrar axiomas o postulados a partir de los cuales se pueda construir una teora
matemtica de la probabilidad. Aproximadamente treinta aos despus, en 1933, el matemtico ruso Andrei
Nikolaevich Kolmogorov (1903-1987) propone ciertos axiomas basados en la teora de la medida desarrollada por H. Lebesgue(1875-1941), que a la postre resultaron adecuados para la construccin de una teora
de la probabilidad. Esta teora prevalece hoy en da y ha adquirido el calificativo de teora clsica. Actualmente la teora clsica de la probabilidad se ha desarrollado y extendido enormemente gracias a muchos
pensadores que han contribudo a su crecimiento, y es sin duda una parte importante y bien establecida
13
CAPTULO 2. PROBABILIDAD
de las matemticas. Ha resultado til para resolver problemas puramente matemticos, pero sobre todo y
principalmente, para modelar situaciones reales o imaginarias, en donde el azar es relevante.
2.2.
Supondremos que el espacio muestral de un experimento aleatorio es una especie de conjunto uni/ Otros
versal, y cualquier elemento de lo denotaremos por . El conjunto vaco lo denotaremos por 0.
smbolos usuales son los de pertenencia (), o no pertenencia ()
/ de un elemento en un conjunto, y los de
inclusin (, ), o no inclusin (6) de un conjunto en otro. Si A es un conjunto, denotamos la cardinalidad o nmero de elementos de ese conjunto por el #A. Sean A y B dos subconjuntos cualesquiera de .
Recordamos a continuacin las operaciones bsicas de unin, interseccin, diferencia y complemento:
A B = { : A o B}
A B = { : A y B}
A B = { : A y
/ B}
Ac = { :
/ A}
Cuando los conjuntos se expresan en palabras, la operacin unin, A B, se lee A o B y la interseccin,
A B, se lee A y B. La diferencia entre dos conjuntos A y B se denota por A B, y corresponde a aquel
conjunto de elementos de A que no pertenecen a B, es decir, A B se define como A Bc . En general, el
conjunto A B es distinto de B A, de hecho estos conjuntos son siempre disjuntos. Puede usted comprobar
tal afirmacin?. En qu caso ambos conjuntos coinciden?. Por otro lado el complemento de un conjunto A
se denota por Ac y se define como la coleccin de aquellos elementos de que no pertenecen a A.
Ejemplo 2.2.1
Sea A el conjunto de aquellas personas que tienen hijos, y B la coleccin de aquellas personas que estan
casadas. Entonces el conjunto A B consta de aquellas personas que estn casadas y tienen hijos, mientras
que el conjunto A Bc est constituido por aquellas personas que tienen hijos pero no estn casadas.Quin
es Ac B? Observe que cada persona es un elemento de alguno de los siguientes conjuntos: A B, A Bc ,
Ac B Ac Bc . A cul pertenece usted?.
Es fcil verificar que el conjunto vaco y el conjunto total satisfacen las siguientes propiedades elementales:
A 0/ = A
A = A
A 0/ = 0/
A Ac =
A =
A Ac = 0/
Csar Amarilla
14
CAPTULO 2. PROBABILIDAD
Las operaciones unin e interseccin son asociativas, esto es, satisfacen las siguientes igualdades:
A (B C) = (A B) C
A (B C) = (A B) C
y tambin son distributivas, es decir,
A (B C) = (A B) (A C)
A (B C) = (A B) (A C)
Recordemos tambin la operacin diferencia simtrica entre dos conjuntos A y B, denotada por AB,
y definida como sigue: AB = (A B) (B A). En la Figura 1.3 ilustramos grficamente el conjunto
resultante de efectuar la diferencia simtrica entre los conjuntos A y B. Visualmente es fcil comprobar
que la diferencia simtrica tambin puede escribirse como (A B) (B A). Cmo podra expresarse en
palabras al conjunto AB?
Recordemos adems las muy tiles leyes de De Morgan:
(A B)c = Ac Bc
(A B)c = Ac Bc
La validez de estas dos igualdades puede extenderse a colecciones finitas e incluso arbitrarias de conjuntos.
Definicin 2.2.1 ( Conjuntos Disjuntos ) Decimos que dos conjuntos A y B son disjuntos (ajenos) si se
cumple la igualdad A B = 0/ , es decir, los conjuntos A y B son ajenos cuando no existe un elemento que
pertenezca tanto a A como a B.
Ejemplo 2.2.2
Considere el experimento de lanzar un dado legal, observamos que puede ocurrir que la cara que se
muestra hacia arriba tenga un punto, o dos puntos, . . . , o seis puntos. Por lo tanto el espacio muestral del
experimento es = {1, 2, 3, 4, 5, 6}. Consideremos los eventos A = {1, 2, 3} y B = {5, 6}. Por lo tanto los
conjuntos A y B son disjuntos pues no hay ningn elemento comn entre ellos.
Nota 2: Notemos que existe diferencia entre las dos definiciones dadas recientemente, es decir si
A1 An = 0/ no necesariamente Ai A j = 0/ para cualesquiera valores de los ndices i, j = 1, 2, . . . , n,
con i distinto de j.
Csar Amarilla
15
CAPTULO 2. PROBABILIDAD
Ejemplo 2.2.3
En el ejemplo del dado legal recordemos que = {1, 2, 3, 4, 5, 6}. Consideremos los eventos A = {1, 2},
/ pero A B = {2} y B C = {6}.
B = {2, 4, 6} y C = {3, 6}, entonces A B C = 0,
Definicin 2.2.2 ( Conjunto potencia ) El conjunto potencia de , denotado por 2 , es aquel conjunto
cuyos elementos son todos los subconjuntos posibles de .
Observe que los elementos del conjunto potencia son en si mismos conjuntos, y que en esta coleccin
estan contenidos todos los eventos que podran ser de inters en un experimento aleatorio. Por teoria de
conjuntos recuerde que que #(2 ) = 2# , es decir, el nmero de elementos en el conjunto 2 es exactamente
2 elevado a la potencia dada por la cardinalidad de . De este hecho proviene la notacin usada para el
conjunto potencia: 2 . Observe que la expresin 2 no tiene sentido matemtico, y debe considerarse como
un smbolo para denotar al conjunto potencia.
Ejemplo 2.2.4
Considere el experimento de lanzar una moneda legal. El espacio muestral est dado por = {Cara,Cruz},
/ {Cara}, {Cruz}, }.
por lo que el conjunto potencia es 2 = {0,
Definicin 2.2.3 Producto Cartesiano. El producto Cartesiano de dos conjuntos A y B, denotado por
A B, se define como la coleccin de todas las parejas ordenadas (a, b), en donde a es cualquier elemento de
A, y b es cualquier elemento de B. En smbolos, A B = {(a, b) : a A y b B}.
Ejemplo 2.2.5
Si A = {a1 , a2 } y B = {b1 , b2 , b3 }, entonces AB = {(a1 , b1 ), (a1 , b2 ), (a1 , b3 ), (a2 , b1 ), (a2 , b2 ), (a2 , b3 )}.
En general los conjuntos producto A B y B A son distintos pues la pareja (a, b) es distinta de (b, a),
sin embargo ambos conjuntos tienen la misma cardinalidad, esto es, ambos tienen el mismo nmero de
elementos. Ms an, si la cardinalidad de A es el nmero n, y la cardinalidad de B es m, entonces la
cardinalidad del conjunto A B es el producto n.m. Este resultado es llamado principio de multiplicacin
que usaremos ms adelante. Un poco ms generalmente, puede considerarse el producto Cartesiano de n
conjuntos y comprobarse que #(A1 An ) = #A1 . . . #An .
2.3.
Definicin y ejemplos
Definicin 2.3.1 ( Experimento ) Es cualquier procedimiento mediante el cual obtenemos una observacin.
En particular, para el estudio de la probabilidad nos interesa observar aquellos experimentos cuyo resultado no es pronosticable con certeza , esto es aquellos experimentos tales que cuando se les repite bajo las
mismas condiciones iniciales, el resultado que se obtiene no siempre es el mismo, es decir aquellos en que
existe aleatoriedad. Este tipo de experimento se denomina experimentos aleatorios smbolizado por .
Csar Amarilla
16
CAPTULO 2. PROBABILIDAD
Ejemplos
Lanzamiento de una moneda
Tomar un punto de un circulo
Elegir un alumno en el campus para preguntarle cuntos libros ha solicitado a prstamo en la biblioteca universitaria durante el ltimo mes.
Contar el nmero de cabellos en la cabeza de una persona.
Medir la resistencia elctrica de un componente electrnico
Definicin 2.3.2 ( Espacio Muestral ) Es el conjunto de todos los resultados individuales que puede
tener un experimento. El espacio muestral puede no ser nico. A cada uno de los elementos del espacio
muestral se le llama punto muestral.
Definicin 2.3.3 ( Evento ) Es cualquier resultado posible al realizar un experimento.
Si un evento tiene un nico elemento, se le llama evento simple. En general, a cualquier subconjunto
del espacio muestral se le llama evento compuesto.
Notacin
Sea el espacio muestral de un experimento aleatorio . Si es a lo ms numerable, denotaremos a los
eventos simples de por Ei , denotaremos a los eventos simples de por
Ei , i {1, 2, . . . , | |}
Ejemplo 2.3.1
Si un experimento aleatorio consiste en lanzar un dado y observar el nmero que aparece en la cara
superior, entonces claramente el espacio muestral es el conjunto = {1, 2, 3, 4, 5, 6}. Como ejemplo de
un evento para este experimento podemos definir el conjunto A = {2, 4, 6}, que corresponde al suceso
de obtener como resultado un nmero par. Si al lanzar el dado una vez se obtiene el nmero 4, decimos
entonces que se observ la ocurrencia del evento A, y si se obtiene por ejemplo el resultado 1, decimos que
no se observ la ocurrencia del evento A.
Ejemplo 2.3.2
Considere el experimento aleatorio de participar en un juego de lotera. Suponga que hay un milln de nmeros en esta lotera y un jugador participa con un boleto. Cul es un posible espacio muestral para este experimento?. Naturalmente al jugador le interesa conocer su suerte en este juego y puede
proponer como espacio muestral el conjunto = {ganar, perder}. Sin embargo puede tambin tomarse
como espacio muestral el conjunto que contiene a todos los posibles nmeros ganadores, es decir, =
{1, 2, . . . , 1000000}.
Csar Amarilla
17
CAPTULO 2. PROBABILIDAD
Este ejemplo sencillo muestra que el espacio muestral de un experimento aleatorio no es nico y depende
del inters del observador.
Puesto que los conceptos de espacio muestral y evento involucran forzosamente la terminologa de
conjuntos, recordaremos a continuacin algunas operaciones entre estos objetos, y algunas propiedades que
nos seran de utilidad en el estudio de la probabilidad y la estadtica.
2.4.
Definicin de Probabilidad
La teora de la probabilidad es la parte de las matemticas que se encarga del estudio de los fenmenos
o experimentos aleatorios. La probabilidad de un evento A, es un nmero real en el intervalo [0, 1] que
denotaremos por P(A), y representa una medida de la frecuencia con la que se observa la ocurrencia del
evento A cuando se efecta el experimento aleatorio en cuestin. Existen al menos cuatro definiciones de
probabilidad las cuales explicamos a continuacin.
Probabilidad clsica
Sea A un subconjunto de un espacio muestral de cardinalidad # finita. Se define la probabilidad
clsica del evento A como el cociente:
#A
P(A) =
#
lo que usualmente se expresa diciendo
P(A) =
casos f avorables
casos posibles
Ejemplo 2.4.1
Si consideramos nuevamente el experimento de lanzar una moneda legal y queremos calcular la probabilidad de que ocurra el evento A = {Cara} y B = {Sello}, tendremos
P(A) =
#A
#{Cara}
1
=
=
# #{Cara,Cruz} 2
P(B) =
#B
#{Cruz}
1
=
=
# #{Cara,Cruz} 2
Csar Amarilla
18
CAPTULO 2. PROBABILIDAD
Probabilidad frecuentista
Suponga que se realizan n repeticiones de un cierto experimento aleatorio y sea A un evento cualquiera.
Denotemos por n(A) el nmero de veces que ocurre el evento A, en las n realizaciones del experimento. Se
define entonces la probabilidad frecuentista de A como indica el siguiente lmite
n(A)
n n
P(A) = lm
En este caso, debemos hacer notar que no es humanamente posible llevar a cabo una infinidad de veces
el experimento aleatorio, de modo que en la prctica no es posible encontrar mediante este mecanismo
la probabilidad de un evento cualquiera. Esta limitacin hace que esta definicin de probabilidad no sea
enteramente formal, pero tiene algunas ventajas.
Consideremos nuevamente el experimento aleatorio de lanzar un dado equilibrado y registrar la ocurrencia del evento A definido como el conjunto {2, 4, 6}. Despus de lanzar el dado 20 veces se obtuvieron
los siguientes resultados:
Nmero Resultado
1
2
3
4
5
6
7
8
9
10
n(A)
n
3
6
2
1
4
6
3
4
2
5
Nmero Resultado
0
1
1
2
2
3
2
4
3
5
4
6
4
7
5
8
6
9
6
10
11
12
13
14
15
16
17
18
19
20
2
5
1
6
3
1
5
5
2
6
n(A)
n
7
11
7
12
7
13
8
14
8
15
8
16
8
17
8
18
9
19
10
20
n(A)
Realizando un mayor nmero de observaciones del experimento, no es difcil creer que el cociente
n
1
se estabiliza en cuando n es grande y el dado es equilibrado. Se invita al lector intrigado a efectuar un ex2
perimento similar y corroborar esta interesante regularidad estadstica con este o cualquier otro experimento
aleatorio de su inters.
Probabilidad subjetiva
En este caso la probabilidad de un evento depende del observador, es decir, segn lo que el observador
conoce del fenmeno en estudio. Puede parecer un tanto informal y poco seria esta definicin de la probabilidad de un evento, sin embargo en muchas situaciones es necesario recurrir a un experto para tener por
lo menos una idea vaga de cmo se comporta el fenmeno de nuestro inters y saber si la probabilidad de
un evento es alta o baja.
Csar Amarilla
19
CAPTULO 2. PROBABILIDAD
Ejemplo 2.4.2
Cul es la probabilidad de que un cierto equipo de ftbol gane en su prximo partido?. Ciertas circunstancias internas del equipo, las condiciones del equipo rival o cualquier otra condicin externa, son
elementos que slo algunas personas conocen y que podran darnos una idea ms exacta de esta probabilidad.
Esta forma subjetiva de asignar probabilidades a los distintos eventos debe, sin embargo, ser consistente
con una serie de reglas naturales que estudiaremos a continuacin.
Probabilidad axiomtica
En la definicin axiomtica de la probabilidad no se establece la forma explcita de calcular las probabilidades sino nicamente se proponen las reglas que el clculo de probabilidades debe satisfacer. Esta teora
axiomtica de la probabilidad fue desarrollada por el matemtico ruso Andrei N. Kolmogorov basandose
como dijimos en la introduccin de este captulo en la teora de la medida estructurada por H. Lebesgue. El
modelo matemtico propuesto por Kolmogorov en el ao 1933 para estudiar los experimentos aleatorios es
el llamado espacio de probabilidad .
Definicin 2.4.1 (Espacio de probabilidad) Un espacio de probabilidad es una terna (, F , P), en
donde es un conjunto arbitrario, F es un -lgebra de subconjuntos de , y P es una medida de probabilidad definida sobre F .
Observacin
: es el espacio muestral
F : es un conjunto arbitrario cuyos elementos son sub-conjuntos del espacio muestral que cumple
con las siguientes tres propiedades
a) F
b) Si A F , entonces Ac F
c) Si A1 , A2 , F , entonces
Ai
i=1
A la pareja (, F ) se le llama espacio medible y a los elementos de F se les llama eventos o conjuntos
medibles. Una -lgebra es entonces una estructura que nos permite agrupar ciertos subconjuntos de
de inters, aquellos a los cuales se desea calcular su probabilidad, y esta estructura constituye el dominio de definicin de una medida de probabilidad. Cuando el espacio muestral es finito normalmente
se toma como -lgebra el conjunto potencia de , pero para espacio muestrales ms generales no
siempre puede tomarse esa estructura tan grande, y deben considerarse entonces -lgebras ms pequeas, es por ello que se estudian estas estructuras. En general existen varias -lgebras que pueden
asociarse a un conjunto cualquiera no vaco como se muestra en el siguiente ejemplo.
Csar Amarilla
20
CAPTULO 2. PROBABILIDAD
Ejemplo 2.4.3
Sea un conjunto cualquiera no vaco. Es inmediato comprobar que cada una de las siguientes
colecciones es una -lgebra de subconjuntos de . La -lgebra del primer inciso es la -lgebra
ms pequea que podemos asociar a un conjunto cualquiera , y la -lgebra del ltimo inciso es la
ms grande.
/ }
a) F = {0,
/ A, Ac }, en donde A
b) F = {0,
c) F = 2 , conjunto potencia
P: es una funcin definida de la siguiente manera P : F [0, 1] y que satisface las siguientes condiciones denominados axiomas de probabilidad
Axiomas de Probabilidad
Axioma 1 P(A) 0, con A F
Axioma 2 P() = 1
/ con i distintos de j, entonces
Axioma 3 Si A1 , A2 , F , tales que Ai A j = 0,
P(
)=
n=1
P(Ai)
n=1
Al tercer axioma se le conoce con el nombre de -aditividad. El nmero P(A) representa una forma
de medir la posibilidad de observar la ocurrencia del evento A, al efectuar una vez el experimento
aleatorio.
No es difcil verificar que las definiciones anteriores de probabilidad satisfacen estos tres axiomas. De
hecho, estos postulados han sido tomados directamente del anlisis cuidadoso y reflexivo de las definiciones de probabilidad mencionadas anteriormente.A cualquier funcin P que satisfaga los tres axiomas de
Kolmogorov se le llama medida de probabilidad, o simplemente probabilidad.
En base a los tres axiomas de Probabilidad, es posible demostrar una serie de proposiciones interesantes
que veremos a contiuacin.
Teorema 2.4.1 Para cualquier evento A, se tiene que P(Ac ) = 1 P(A).
Demostracin
De la teora elemental de conjuntos tenemos que = A Ac . Por el segundo axioma P() = 1 y como
A y Ac son eventos ajenos, por el tercer axioma, P(A Ac ) = P(A) + P(Ac ). Finalmente, P(A) + P(Ac ) = 1
con lo que obtenemos P(Ac ) = 1 P(A)
/ = 0.
Teorema 2.4.2 P(0)
Demostracin
/ = 1 P() = 1 1 = 0
Como 0/ = c , usando la propiedad anterior, tenemos que P(0)
Csar Amarilla
21
CAPTULO 2. PROBABILIDAD
Teorema 2.4.3 Para cualesquiera eventos A y B, se tiene que P(A B) = P(A) P(A B)
Demostracin
Por igualdad de conjuntos sabemos que A = (A B) (A B), donde (A B) y (A B) son conjuntos
disjuntos. Por el tercer axioma tendremos que P((A B) (A B)) = P(A B) + P(A B) por lo tanto
P(A) = P(A B) + P(A B). Finalmente P(A B) = P(A) P(A B).
Teorema 2.4.4 Si A B, entonces P(B A) = P(B) P(A) y P(A) P(B).
Demostracin
Como A B, por igualdad de conjuntos podemos escribir B = A (B A). Como A y B A son eventos
mutuamente excluyente, por el tercer axioma, P(B) = P(A) + P(B A). Usando el primer axioma concluimos que P(B) P(A) = P(B A) 0. De aqui obtenemos P(B) P(A) 0 entonces P(B) P(A).
Ejercicio 2.4.1
Sean A B eventos tales que P(Ac ) = 0, 9 y P(Bc ) = 0, 6. Compruebe que P(B A) = 0, 3.
Teorema 2.4.5 Para cualquier evento A, 0 P(A) 1.
Demostracin
Como A , se tiene que P(A) P() = 1. La otra desigualdad, 0 P(A), es simplemente el primer
axioma.
Teorema 2.4.6 Para cualesquiera eventos A y B, se tiene que P(A B) = P(A) + P(B) P(A B).
Demostracin
Primeramente escribamos A B como unin disjunta de conjuntos. Por igualdad de conjuntos sabemos
que A B = B (A B), donde B y (A B) son disjuntos. Utilizando el tercer axioma obtendremos que
P(B (A B)) = P(B) + P(A B). Por el teorema 1.4.3 sabemos que P(A B) = P(A) P(A B), por lo
tanto P(B (A B)) = P(B) + P(A) P(A B). Finalmente P(A B) = P(A) + P(B) P(A B).
Ejercicio 2.4.2
Sean A y B eventos ajenos tales que P(B) = 0, 3 y P(A Bc ) = 0, 2. Compruebe que P(A B) = 0, 5.
Teorema 2.4.7 Para cualesquiera eventos A, B y C, se tiene que
P(A B C) = P(A) + P(B) + P(C) P(A B) P(A C) P(B C) + P(A B C)
Demostracin
Como la unin de conjuntos es asociativo se tiene que A B C = (A B) C. Por el teorema 1.4.6
sabemos que P((A B) C) = P(A B) + P(C) P((A B) C) y P(A B) = P(A) + P(B) P(A B).
Adems sabemos que las operaciones de unin e interseccin son distributivas una con respecto a la otra,
Csar Amarilla
22
CAPTULO 2. PROBABILIDAD
Observacin: Las propiedades anteriores son parte del estudio terico y general de la probabilidad. En general, supondremos que la forma explcita de calcular estos nmeros es conocida, o que se
puede suponer un cierto modelo para llevar a cabo estos clculos dependiendo del experimento aleatorio
en cuestin. Por ejemplo, cuando el espacio muestral es finito y cada resultado puede suponerse igualmente probable, entonces usaremos la definicin clsica de probabilidad. En otras situaciones asignaremos
probabilidades de acuerdo a ciertos modelos conocidos.
Abordaremos ahora la determinacin de la expresin que nos permitir calcular el valor numrico de la
probabilidad de ocurrencia de un suceso.
Teorema 2.4.8 Sea (, F ) un espacio medible y sea ( ) una medida de R con () < (medida finita),
entonces la funcin definida por
(A)
, AF
P(A) =
()
es una funin de probabilidad.
Demostracin
Para demostrar que P(A) es una medida de probabilidad debemos ver que cumpla con los tres axiomas
de probabilidad.
Como ( ) es una medida tendremos que A F siempre (A) 0 y por lo tanto
(A)
0
()
P(A) =
P(A) =
(
[
P(
Ai ) =
Ai )
()
Ai
=
()
=
i
(A)
= P(Ai )
()
i
23
CAPTULO 2. PROBABILIDAD
area de A
area de
volumen de A
volumen de
Ejemplo 2.4.4
Dos personas y deciden juntarse en un determinado lugar entre entre las 12:00 hs. y 13:00 hs. y
acueran esperar 15 minutos. Determinar la probabilidad de que se encuentren.
Demostracin
Sea x el instante en que llega e y el instante en que llega . Entonces el espacio muestral del experimento es
= {(x, y) : 0 x 60 0 y 60}
por lo que la medida de es el rea del cuadrado de lado 60, es decir
() = 602 = 3600
Sea A el suceso que indica el hecho y se encuentran, entonces
A = {(x, y) : |y x| 15}
Pero
|y x| 15
implica
15 y x 15
o bien
x 15 y x + 15
Asi A es la regin del cuadrado comprendida entre las rectas y = x 15 y y = x + 15 y por lo tanto su
medida es el rea de esa regin, es decir el rea de quitndole las reas de los triangulos issceles de
cateto igual a 45, por lo que
= 602 452 = 1575
Por lo tanto la probabilidad de que y se encuentran ser
P(A) =
Csar Amarilla
(A) 1575
7
=
=
() 3600 16
24
CAPTULO 2. PROBABILIDAD
2.5.
P(A B)
P(B)
La expresin P(A|B) se lee probabilidad condicional del evento A dado el evento B, o simplemente
probabilidad de A dado B. Es claro que para que la definicin tenga sentido se necesita suponer que P(B) >
0, y por otro lado no existe definicin para P(A|B) cuando P(B) = 0. Est definicin tendr validez siempre
que la funcin P(A|B) sea realmente una probabilidad, es decir cumpla con los tres axiomas de probabilidad.
Teorema 2.5.1 Si P(B) > 0, la funcin P(A|B) es una probabilidad en el espacio medible (, F ), es decir
1. P(A|B) 0
AF
2. P(|B) = 1
3. P(
i=1
y Ai A j
con i 6= j
i=1
Demostracin
Por hiptesis P(B) > 0 y como P(A B) 0, entonces P(A|B) =
probabdo el item 1.
Como
P(|B) =
Csar Amarilla
P( B) P(B)
=
=1
P(B)
P(B)
25
P(A B)
0 con lo cual queda
P(B)
CAPTULO 2. PROBABILIDAD
P(
P(
i=1
Ai |B) =
P(B)
i=1
[
P
(Ai B)
Ai B)
=
i=1
P(Ai B)
P(B)
i=1
P(A B)
= P(Ai |B)
i=1 P(B)
i=1
P(B)
Observacin: De acuerdo al teorema precedente resulta que cada propiedad establecida para una
funcin de probabilidad, es vlida tambin para la probabilidad condicionada y por ello se tiene:
/ =0
1. P(0)
2. P
n
[
Ai |B = P(Ai |B)
i=1
i=1
Ejemplo 2.5.1
Considere el experimento de extraer un naipe de un mazo de 40 (baraja espaola), sean los eventos
A = {se extrae un as} y B = {el naipe extraido es de copas}. Como en el mazo de 40 barajas hay
1
un solo as de copas y 10 naipes de copas en total se tiene que P(A B) = 40
y P(B) = 10
40 , entonces la
probabilidad de que ocurra A dado que se sabe que ocurri B es
P(A|B) =
P(A B)
=
P(B)
1
40
10
40
1
10
Teorema 2.5.2 (Regla del Producto) En un espacio de probabilidad (, F , P) donde n sucesos cualesquiera para los cuales P(A1 A2 . . . An1 ) > 0, se tiene
P(A1 A2 . . . An ) = P(A1 ) P(A2 |A1 ) P(A3 |A1 A2 ) P(An |A1 A2 . . . An1 )
Csar Amarilla
26
CAPTULO 2. PROBABILIDAD
Demostracin
Como primer paso probaremos la existencia de cada una de las probabilidades contenidas en la tesis, es
decir la existencia de
P(A1 ), P(A2 |A1 ), P(A3 |A1 A2 ), . . . , P(An |A1 A2 . . . An1 )
Por hiptesis P(A1 A2 . . . An1 ) > 0 y por teoria de conjuntos sabemos que
A1 A1 A2 A1 A2 A3 A1 A2 . . . An1
por lo que
P(A1 ) P(A1 A2 ) P(A1 A2 A3 ) P(A1 A2 . . . An1 ) > 0
con lo que se garantiza la existencia de las probabilidades contenidas en la tesis.
Por definicin de probabilidad condicional P(A2 |A1 ) =
P(A1 A2 )
, entonces
P(A1 )
Ejemplo 2.5.2
Un lote de 100 artculos es sometido a inspeccin de acuerdo al siguiente criterio: el lote es rechazado
si uno almenos de 5 artculos sacados es defectuoso. Cul es la probabilidad de rechazar el lote, sabiendo
que el contiene siete artculos defectuoso?
Solucin
Sean A: el evento que represente el lote es rechazado y Bi : el evento el i-simo artculo seleccionado
es no defectuoso , entonces
P(Ac ) = P(B1 ) P(B2 |B1 ) P(B3 |B1 B2 ) P(B4 |B1 B2 B3 ) P(B5 |B1 B2 B3 B4 )
Csar Amarilla
27
CAPTULO 2. PROBABILIDAD
por lo tanto
93 92 91 90 89
= 0, 6903
100 99 98 97 96
Finalmente P(A) = 1 P(Ac ), entonces
P(Ac ) =
Demostracin
Primero observemos que el evento A puede escribirse como sigue
n
[
A = A = A
i=1
Bi =
n
[
(A Bi )
i=1
n
[
i=1
i=1
i=1
Observe que cuando la particin de consta de nicamente dos elementos, B y Bc , la frmula del
teorema de probabilidad total se reduce a la siguiente expresin
P(A) = P(A|B) P(B) + P(A|Bc ) P(Bc )
.
Ejemplo 2.5.3
Suponga que tenemos dos cajas: una con 3 bolas blancas y 7 de color gris, la otra con 6 blancas y 6
grises. Si se elije una caja al azar y despus se saca una bola, cul es la probabilidad de que sea blanca?
El experimento aleatorio consiste entonces en escoger una de las cajas al azar, con idntica probabilidad
cada una de ellas, es decir 21 para cada una y despus extraer una bola de la caja escogida. Es claro entonces
que el espacio muestral puede escribirse como sigue:
= {(C1 , B), (C1 , G), (C2 , B), (C2 , G)}
Csar Amarilla
28
CAPTULO 2. PROBABILIDAD
en donde
C1 : representa el hecho la primera caja fue escogida
C2 : representa el hecho la segunda caja fue escogida
B: representa el evento una bola blanca fue escogida
G: representa el evento una bola gris fue escogida
Entonces lo que bebemos calcular es la probabilidad de B. Observe que es fcil calcular la probabilidad
de este evento cuando se conoce la caja que fue escogida. Esto sugiere condicionar sobre el resultado de
escoger alguna de las dos cajas y aplicar el teorema de probabilidad total, es decir,
P(B) = P(B|C1 ) P(C1 ) + P(B|C2 ) P(C2 )
3
Si suponemos que la caja seleccionada es C1 entonces P(B|C1 ) =
y decimos que seleccionamos la
10
6
caja C2 tendremos que P(B|C2 ) = , entonces
12
P(B) =
3 1
6 1 2
+ =
10 2 12 2 5
El Teorema de Bayes es otro resultado interesante que involucra probabilidades condicionales. Fue
publicado por primera vez en 1763, dos aos despus de la muerte de su creador, el matemtico y telogo
ingls Thomas Bayes.
Teorema 2.5.4 ( Teorema de Bayes ) Sea B1 , . . . , Bn una particin de tal que cada elemento de la
particin tiene probabilidad estrictamente positiva. Sea A un evento tal que P(A) > 0. Entonces para cada
j = 1, 2, . . . , n, se tiene
P(A|B j ) P(B j )
P(B j |A) = n
P(A|Bi) P(Bi)
i=1
Demostracin
Por la definicin de probabilidad condicional tenemos que
P(B j |A) =
P(A B j )
P(A)
entonces
P(B j |A) =
P(A B j )
n
P(A|Bi) P(Bi)
i=1
Csar Amarilla
29
CAPTULO 2. PROBABILIDAD
Nuevamente observamos que en el caso cuando la particin de consta de slo dos elementos: B y Bc ,
el teorema de Bayes, para el evento B, adquiere la forma:
P(B|A) =
P(A|B) P(B)
P(A|B) P(B) + P(A|Bc ) P(Bc )
Ejemplo 2.5.4
En una fbrica hay dos mquinas. La mquina 1 realiza el 60 % de la produccin total y la mquina 2
el 40 %. De su produccin total, la mquina 1 produce 3 % de material defectuoso, la mquina 2 el 5 %.
El asunto es que se ha encontrado un material defectuoso, Cul es la probabilidad de que este material
defectuoso provenga de la mquina 2?
Sean M1 : el evento la mquina 1 produjo el material escogido
M2 : el evento la mquina 2 produjo el material escogido
D: el evento el material escogido es defectuoso
La solucin del problema consiste en encontrar P(M2 |D). De acuerdo a la informacin que tenemos
3
y
obtenemos las siguientes probabilidades P(M1 ) = 0, 6 = 35 ; P(M2 ) = 0, 4 = 25 ; P(D|M1) = 0, 03 = 100
1
P(D|M2) = 0, 05 = 20
. Segn el teorema de Bayes
P(D|M2) P(M2)
=
P(M2 |D) =
P(D|M1) P(M1) + P(D|M2) P(M2)
1 2
20 5
3
3
1
100 5 + 20
2
5
10
19
Definicin 2.5.2 ( Independencia de eventos )En un espacio de probabilidad (, F , P), se dice que dos
eventos cualesquiera A y B son independientes si y solo si se cumple la condicin
P(A B) = P(A) P(B)
Esta igualdad es equivalente a la expresin P(A|B) = P(A) cuando P(B) > 0 (negacin de los acontecimientos condicionalmente dependientes) . La ventaja de esta ltima expresin es que posee una interpretacin sencilla: Dice que la probabilidad del evento A es la misma cuando sabemos que ha ocurrido el
evento B (lado izquierdo), que cuando no sabemos nada (lado derecho). Es decir, la ocurrencia del evento
B no afecta la probabilidad del evento A y por lo tanto son independientes. De manera anloga puede interpretarse la igualdad equivalente P(B|A) = P(B), suponiendo naturalmente que P(A) > 0. En la mayora de
los casos de aplicacin simplemente supondremos que dos eventos dados son independientes recurriendo
nicamente a justificaciones intuitivas.
Ejemplo 2.5.5
Suponga que se lanza una moneda dos veces. Es una hiptesis natural suponer que el resultado del
primer lanzamiento no afecta el resultado del segundo lanzamiento. De este modo cualquier evento del
primer ensayo es independiente de cualquier otro evento en el segundo ensayo.
Csar Amarilla
30
CAPTULO 2. PROBABILIDAD
2.6. EJERCICIOS
Ejemplo 2.5.6
Sea = {1, 2, 3, 4} un espacio muestral equiprobable. Sean los eventos A = {1, 2}, B = {2, 3} y C =
{2, 4}. Son A, B y C independientes?
Para responder a esta pregunta debemos ver si se cumple o no la siguiente igualdad
P(A B C) = P(A) P(B) P(C)
Analizando los datos se tiene que P(A) = P(B) = P(C) = 24 = 12 , por lo tanto P(A) P(B) P(C) = 18 y
adems P(A B C) = P({2}) = 14 entonces P(A B C) 6= P(A) P(B) P(C), por lo que los eventos A, B
y C no son independientes.
2.6.
Ejercicios
31
2.6. EJERCICIOS
CAPTULO 2. PROBABILIDAD
6. Demuestre que A B = A (B Ac )
7. Demuestre que A B = B (A Bc )
8. Demuestre que A B = A (B Ac )
9. Demuestre que
a) A B = A (A B)
b) A B = (A B) B
10. Demuestre que
a) A (B C) = (A B) (A C)
b) (A C) (B C) = (A B) C
11. Demuestre que las siguientes dos definiciones de la operacin diferencia simtrica son equivalentes
a) AB = (A B) (B A)
b) AB = (A B) (A B)
12. Sean A = {x R : |x 2| 4} y B = {x R : |x 1| > 2}. Encontrar los conjuntos Ac , Bc , A B,
A B, A B, B A y AB.
13. Sean A = {(x, y) R2 : x2 + y2 1} y B = {(x, y) R2 : y > x2 }. Encontrar los conjuntos Ac , Bc ,
A B, A B, A B, B A y AB.
Conjuntos disjuntos
14. Compruebe que los conjuntos A y B A son siempre ajenos
15. Son los conjuntos {(x, y) : y = ex } y {(x, y) : y = 1 - x} ajenos?. En caso negativo, Cuntos puntos
en comn tienen?
Probabilidad
16. Tres caballos A, B y C intervienen en una carrera; A tiene el doble de posibilidad de ganar que B; y B
4 2 1
el doble de ganar que C. Cul ea la probabilidad de ganar, esto es; P(A), P(B) y P(C)?. Rta. , ,
7 7 7
17. Se lanzan seis dados. Calcular la probabilidad de que salgan seis nmeros diferentes. Rta
6!
66
18. Se toman al azar dos nmeros comprendidos entre 0 y 1. Determine la probabilidad que la suma de
2
ellos no supere 1 y que el producto no sea mayor que . Rta. 0,487
9
19. Sean P1 y P2 dos medidas de probabilidad definidas sobre la misma clase de subconjuntos de . Sea
un nmero real en el intervalo [0, 1]. Demuestre que P = P1 + (1 )P2 satisface los tres axiomas
de la probabilidad.
Csar Amarilla
32
CAPTULO 2. PROBABILIDAD
2.6. EJERCICIOS
20. En el cuadrado = {(x, y) : |x| < 1 |y| < 1}. Se toma al azar un punto M = (a, b). Determine la
1
probabilidad que las races de la ecuacin x2 + 2ax + b = 0 sean complejas. Rta.
3
21. Sean A y B eventos ajenos tales que P(A) = 0,3 y P(B) = 0,2. Encuentre
a) P(A B)
b) P(Ac )
c) P(Ac B)
d) P(A Bc )
e) P(AB)
22. Diga falso o verdadero. Justifique en cada caso
a) Si P(A) = 0, entonces P(A B) = 0
b) Si P(A) = P(B), entonces A = B.
c) Si P(A) P(B), entonces A B
23. Una caja contiene 60 pernos y 140 tuercas. 20 pernos estan daados y lo mismo ocurre con 50 tuercas.
Se toma un elemento al azar de la caja. Se pide calcular la probabilidad de que sea perno o est daado.
11
Rta.
20
e) P(A B)
b) P(Ac B)
f) P(Ac B)
c) P(A Bc )
g) P(A Bc )
d) P(Ac Bc )
h) P(Ac Bc )
33
2.6. EJERCICIOS
CAPTULO 2. PROBABILIDAD
27. Cuatro personas dejan sus paraguas en la guardarropa. Suponiendo que lo devuelven al azar, calcular
1
la probabilidad de que cada uno reciba su propio paraguas. Rta.
24
28. Demuestre que en un espacio de probabilidad (, F , P) dos acontecimientos A y B con P(B) > 0, son
independientes si y solo si P(A|B) = P(A).
29. Probar que en todo espacio de probabilidad (, F , P) los acontecimientos 0/ y son independientes
de cualquier suceso A F .
30. Demuestre que si A y B son dos sucesos independientes provenientes de un espacio de probabilidad
(, F , P), entonces
a) A y Bc son independientes
[b) Ac y B son independientes
c) Ac y Bc son independientes
31. Sean A y B eventos independientes tales que P(A) = p1 y P(B) = p2 . Calcule la probabilidad de que
no ocurra ninguno de estos eventos.
32. Se nos da dos urnas como sigue:
La urna A contiene 3 bolas rojas y 2 bolas blancas
La urna B contiene 2 bolas rojas y 5 bolas blancas
Se selecciona al azar una urna; se saca una bola y se coloca en la otra urna, luego se saca una bola de
901
la segunda urna. Hallar la probabilidad de que las dos bolas sacadas sean del mismo color. Rta.
1680
33. La probabilidad de que en un matrimonio, el esposo vea cierto programa de TV es 0.4, la probabilidad
de que la esposa lo haga es de 0.5. La probabilidad de que el esposo vea el programa de TV dado que
la esposa lo hace es de 0.7. Encuentre la probabilidad de que
a) Ambos vean el programa de TV
b) Alguno de los dos vea el programa de TV
c) Ninguno vea el programa de TV
d) El esposo vea el programa pero la esposa no
e) La esposa vea el programa pero el esposo no
f) La esposa vea el programa dado que el esposo lo hace
g) Alguno de los dos no ve el programa
34. Se ha recibido una carta que se sabe puede venir desde Valdivia o desde Taltal. Del sello de correos solo tiene estampado las letras consecutivas Al. calcular la probabilidad que la carta venga de
5
Valdivia. Rta.
19
1 1 1
35. Las probabilidades que tienen tres personas A, B y C de golpear un blanco son: , y . Si los tres
3 4 5
disparan simultaneamente calcular la probabilidad que
Csar Amarilla
34
CAPTULO 2. PROBABILIDAD
2.6. EJERCICIOS
13
30
15
Rta.
26
Rta.
36. Para la sealizacin de emergencia se ha instalado dos indicadores que funcionan independientemente; la probabilidad de que un indicador se accione durante la avera es igual a 0, 95 para el primero
y 0, 90 para el segundo. Hallar las siguientes probabilidades que durante una averia:
a) accione solo un indicador
Rta. 0, 14
Rta 0, 995
37. Una persona de 7 afirmaciones regularmente entrega 5 verdades y una persona entre 9 afirmaciones entrega 8 verdades. Si ellos no se conocen se pide la probabilidad de que respecto a un mismo
1
hecho, se contradigan. Rta.
3
38. Se lanzan simultneamente tres dados, buscando tres aces. Determinar el nmero mnimo de lanzamientos necesarios para lograr el objetivo con probabilidad no inferior a 0, 7. Rta. 261.
Rta.0, 38
b) se reciba un 1
Rta.0, 62
Rta.0, 84
Rta.0, 87
40. Se tiene un tablero de ajedrez y se lanzan al azar dos reinas en el tablero ( en distintas posiciones ).
Cul es la probabilidad de que se amenacen?. Cul es la probabilidad que la primera reina est en
13 75
la tercera zona, dado que las reinas se amenazan ?. Rtas. ,
36 364
41. Se lanza un dado de seis caras y dos personas diferentes dicen que el resultado es 6. En general se
sabe que la primera persona miente con probabilidad p (0, 1) y la segunda persona miente con
(1 p)(1 r)
probabilidad r (0, 1). Cul es la probabilidad de que el resultado sea 6 ?. Rta.
(1 p)(1 r) + p.r
42. Todos los das a las 5:00 pm Charles toma el t con su madre. Para empezar la conversacin dice
creo que llueve o bien creo que no llueve . Charles se equivoca 1 vez de 3 cuando afirma que
llueve y 1 vez de 2 cuando afirma que no llueve. Sabiendo que llueve 9 de cada 10 das y que Charles
dijo que llova calcule la probabilidad de que llueva.
43. El general Custer conduce sus fuerzas a la entrada de un can. Su intuicin le dice que hay un 40 %
de probabilidad de que caiga en una emboscada al cruzar el can. Para estar ms seguro consulta
separadamente a sus dos guas rastreadores.
Csar Amarilla
35
2.6. EJERCICIOS
CAPTULO 2. PROBABILIDAD
El primer gua es un hombre blanco que se equivoca uno de dos veces al ser consultado. el segundo
gua es un experto gua indio que no se equivoca nunca pero miente una vez de tres. Calcular la
probabilidad de que haya una emboscada esperando al general si el gua blanco dice que no y el gua
indio dice que si.
44. Un fugitivo debe cruzar la frontera entre dos pases. Para ello dispone de tres caminos. Los dos
primeros caminos tienen un puesto de control y el tercero tiene dos puestos de control en serie a una
distancia prudente. Se asume adems que cada puesto de control es independiente de los otros. Se
sabe que la probabilidad de burlar un puesto de control es p (0, 1) (para cada puesto es la misma
probabilidad) y el fugitivo toma al azar uno de los tres caminos.
a) Calcule la probabilidad de que el fugitivo cruce la frontera sin ser visto
b) Calcule la probabuilidad de que el fugitivo haya utilizado el tercer camino dado que pas la
frontera sin ser visto.
c) Si los guardias de frontera deciden al azar e independientemente de la decisin del fugitivo
controlar completamente uno de los tres caminos, cul es la probabilidad de que el fugitivo
alcance la frontera.
45. En un examen de eleccin multiple, la probabilidad de que el alumno sepa la respuesta es p. habiendo m elecciones, si sabe la respuesta, l responde correctamente con probabilidad 1; si no la sabe,
1
responde corrrectamente con probabilidad . Cul es la probabilidad de que l haya sabido la rem
spuesta dado que la pregunta fue respondida correctamente?. Calcule el lmite de esta probabilidad
cuando
a) m con p fijo
b) p 0 con m fijo
46. Pedro quiere enviar una carta a Marina. la probabilidad de que Pedro escriba la carta es de 0, 8. la
probabilidad de que el correo no la pierda es 0, 9. La probabilidad de que el cartero la entregue es 0, 9.
Dado que Marina no recibi la carta, cul es la probabilidad de que Pedro no la haya escrito?.
Csar Amarilla
36
Captulo 3
Variables aleatorias
3.1.
Introduccin
En este captulo se estudiarn los conceptos de variable aleatoria, funcin de probabilidad, funcin de
densidad, funcin de distribucin, esperanza y varianza. A partir de ahora y el resto del captulo consideraremos como elemento base un espacio de probabilidad (, F , P).
La notacin ms natural al pensar en un experimento aleatorio denotado por que tiene un resultado
real desconocido es simplemente denotar como X. Es decir X es una variable aleatoria cuando es un
valor real obtenido de un experimento cualquiera. Entonces informalmente una variable aleatoria es una
caracterstica numrica del resultado de un experimento aleatorio, por lo tanto representa una traduccin de
cada uno de los resultados del espacio muestral en nmeros reales.
3.2.
Definicin y ejemplos
Definicin 3.2.1 (Variable Aleatoria) Dado un experimento aleatorio cualquiera, una variable aleatoria en un espacio de probabilidad (, F , P) es una funcin X en el espacio muestral tal que [X x] es un
evento aleatorio para todo x R, lo que es equivalente a decir,
X :R
es una variable aleatoria si [X x] F , x R.
A menudo se escribe simplemente v.a. en lugar del trmino variable aleatoria. En sentido estricto una
variable aleatoria es una funcin de en R que satisface adems cierta condicin de medibilidad. Suponga
entonces que se efecta el experimento aleatorio una vez y se obtiene un resultado en . Al transformar
este resultado con la variable aleatoria X se obtiene un nmero real X() = x. Podemos entonces suponer
que los posibles resultados del experimento aleatorio son los diferentes nmeros reales x que la funcin
X puede tomar. Debemos hacer aqui la siguiente observacin importante. Seguiremos la notacin usual de
usar la letra mayscula X para denotar una variable aleatoria cualquiera, es decir, X es una funcin de en
R, mientras que la letra minscula x denota un nmero real y que es un posible valor de la variable aleatoria.
En general, las variables aleatorias se denotan usando las ltimas letras del alfabeto en maysculas, U, V ,
W , X, Y , Z, y para un valor cualquiera de ellas se usa la misma letra pero en minscula.
37
Ejemplo 3.2.1
Suponga que un experimento aleatorio consiste en lanzar al aire una moneda y observar la cara superior
una vez que la moneda cae. Denotemos por Cara y Cruz los dos lados de la moneda. Entonces claramente el espacio muestral es el conjunto = {Cara,Cruz}. Defina la variable aleatoria X : R de la
siguiente forma X(Cara) = 0 y X(Cruz) = 1. De este modo podemos suponer que el experimento aleatorio
tiene dos valores numricos posibles: 0 y 1. Observe que los nmeros 0 y 1 son en realidad arbitrarios, otro
par de nmeros distintos puede ser escogido para distinguir los dos resultados del experimento aleatorio.
Podemos tambin definir la variable aleatoria Y : R de la siguiente forma Y (Cara) = Y (Cruz) = 2.
En este caso la variable Y solo toma un valor, el nmero 2. Cualquier resultado del experimento aleatorio
produce, a travs de la funcin Y , el nmero 2. Decimos que Y es la variable aleatoria constante 2.
Ejemplo 3.2.2
Consideremos el experimento aleatorio consistente en lanzar un dardo en un tablero circular de radio
uno.
El espacio muestral o conjunto de posibles resultados del experimento se puede escribir como sigue
= {(x, y) : x2 + y2 1}
Los siguientes son ejemplos de funciones de en R, variables aleatorias, asociadas a este experimento
aleatorio.
X(x, y) = x, proyeccin sobre el eje horizontal
Y (x, y) = y, proyeccin sobre el eje vertical
p
Z(x, y) = x2 + y2 , distancia al centro del crculo
V (x, y) = |x| + |y|, distancia del taxista
W (x, y) = x.y, producto de las coordenadas
Considerando el conjunto de valores que una variable aleatoria puede tomar, vamos a clasificar a las
variables aleatorias en dos tipos: discretas o continuas.
Definicin 3.2.2 ( Variable aleatoria discrteta ) Decimos que una v.a. es discreta cuando el conjunto
de valores que sta toma es un conjunto discreto, es decir, un conjunto finito o numerable.
Un conjunto discreto es aquel que tiene elementos puntuales, como por ejemplo {0, 1, 2, . . . , n} es un
conjunto finito discreto, lo mismo N pues aunque es infinito, es numerable y por lo tanto discreto.
Ejemplo 3.2.3
Sea el experimento consistente en lanzar una moneda n veces y observar la secuencia de caras (C) y
sellos (S) obtenidas.
Csar Amarilla
38
Los posibles resultados aqui sern todas las secuencias de n de caras y sellos y podemos definir el
espacio muestral como sigue
= {1 , 2 , . . . , n : i = C o i = S, i = 1, 2 . . . , n}
El nmero de caras observadas en los n lanzamientos es una caracterstica de la sucesin de caras y
sellos. De hecho, si definimos X = nmero de caras observadas, vemos que el valor de X depende del
resultado del experimento, y por lo tanto como el espacio muestral es un conjunto discreto entonces la v. a.
X es forzosamente discreta.
Definicin 3.2.3 ( Variable aleatoria continua) Una variable aleatoria es continua cuando toma todos
los valores dentro de un intervalo (a, b) R.
Ejemplo 3.2.4
Sea el experimento aleatorio consistente en escoger un punto del intervalo [0, 1] y definamos a la variable
aleatoria X como el cuadrado del valor obtenido.
Entonces el espacio muestral es = [0, 1] y X() = 2 , con , entonces X es continua.
Esta clasificacin de variables aleatorias no es completa pues existen variables que no son de ninguno
de los dos tipos mencionados. Por simplicidad en este curso estudiaremos nicamente variables aleatorias
que son discretas o continuas.
Usaremos tambin la siguiente notacin importante: Si A es un subconjunto de R, entonces la expresin
(X A), incluyendo el parntesis, denota el conjunto { : X() A}, es decir, (X A) = { :
X() A}. En palabras, la expresin (X A) denota aquel conjunto de elementos de tales que bajo
la aplicacin de la funcin X toman un valor dentro del conjunto A. A este conjunto se le llama la imagen
inversa de A, y se le denota por X 1 A.
Ejemplo 3.2.5
Consideremos nuevamente el experimento de lanzar una moneda y la variable aleatoria X que lleva el
resultado Cara al valor 0 y el resultado Cruz al valor 1. Tenemos por ejemplo que (X [1, )) =
{Cruz} pues el conjunto de elementos de tales que bajo la funcin X toman un valor mayor o igual a
uno, es decir caen dentro del intervalo [1, ), es nicamente el elemento Cruz. Por lo tanto P(X [1, )) =
P({Cruz}) = 12 . Del mismo modo puede verificarse que
P(X [1, 2)) = P({Cruz}) =
1
2
1
2
/ =0
P(X [2, 4]) = P(0)
P(X = 1) = P({Cruz}) =
1
2
/ =0
P(X 1) = P(0)
P(X 0) = P() = 1
Csar Amarilla
39
Usaremos con mucha frecuencia la notacin arriba explicada. El lector debe asegurarse de comprender
bien que si x es un nmero real entonces (X x) es un subconjunto de y por lo tanto un evento. Lo
mismo sucede con el complemento de este conjunto que es (X > x). Podemos escribir entonces la igualdad
de conjuntos (X x) (X > x) = . Y aplicando probabilidad se obtiene P(X x) + P(X > x) = 1.
Nota importante: A travs de una variable aleatoria se puede considerar que los posibles resultados de un experimento aleatorio no son elementos en sino nmeros reales que la variable aleatoria
puede tomar. Esta es una consideracin radical pues ya no consideraremos experimentos aleatorios particulares, ni espacios muestrales arbitrarios , ni eventos (subconjuntos) de , en lugar de ello consideraremos
que una cierta variable aleatoria de inters toma valores en un cierto subconjunto de nmeros reales. La
probabilidad definida antes para subconjuntos de se traslada, como explicamos antes, a probabilidades para
subconjuntos de R. Esta perspectiva permite estudiar modelos generales y despus aplicarlos a cualquier
situacin particular. A partir de ahora y en lo que resta del curso el trmino variable aleatoria constituir un
elemento frecuente en los enunciados.
3.3.
Funciones de distribucin
En esta seccin vamos a explicar la forma de asociar a cada variable aleatoria dos funciones que nos
proveen de informacin acerca de las caractersticas de la variable aleatoria. Estas funciones nos permiten
representar a un mismo tiempo tanto los valores que puede tomar la variable como las probabilidades de
los distintos eventos. En el caso de las variables aleatorias discretas estas funciones se denominan funcin
de probabilidad y funcin de distribucin , mientras que en el caso continuo tambin se tiene una funcin
de distribucin pero en ves de la funcin de probabilidad tenemos una funcin denominada funcin de
densidad de probabilidad .
f (x) = 1
x
Csar Amarilla
40
Ejemplo 3.3.1
Considere la variable aleatoria discreta X que toma los valores 1, 2 y 3, con probabilidades 0,3; 0,5 y
0,2 respectivamente. Entonces la funcin de probabilidad de X es
0, 3 si x = 1
0, 5 si x = 2
f (x) =
0, 2 si x = 3
0 otro caso
Ejemplo 3.3.2
Encontre el valor de la constante c que hace que la siguiente funcin sea de probabilidad.
cx si x = 0, 1, 2, 3
f (x) =
0 otro caso
Los posibles valores de la variable aleatoria discreta, no especificada, son 0, 1, 2 y 3, con probabilidades
0, c, 2c y 3c, respectivamente. Como la suma de estas probabilidades debe ser uno para esta funcin sea de
probabilidad, obtenemos la ecuacin c + 2c + 3c = 1. De aqui obtenemos c = 16 . Este es el valor de c que
hace que f (x) sea no negativa y sume uno, es decir, una funcin de probabilidad.
Z b
f (x)dx
a
Es decir, la probabilidad de que la variable tome un valor dentro del intervalo (a, b) se puede calcular
o expresar como el rea bajo la funcin de densidad en el intervalo (a, b). De esta forma el clculo de una
probabilidad se reduce al clculo de una integral. No es difcil comprobar que toda funcin de densidad
f (x) de una variable aleatoria continua cumple las siguientes propiedades anlogas al caso discreto.
f (x) 0, x R
R
f (x)dx = 1
Toda funcin f (x) : R [0, ) que satisfaga estas dos propiedades, sin necesidad de tener una variable
aleatoria de por medio, se llamar funcin de densidad.
Ejemplo 3.3.3
dada la funcin f (x) definida por
f (x) =
Csar Amarilla
1
2
si x (1, 3)
0 otro caso
41
f (x)dx =
0 dx +
Z 3
1
1
dx +
3
1
0 dx = (3 1) = 1
2
Ejemplo 3.3.4
Encontrar el valor de la constante c que hace que la siguiente funcin sea de densidad.
f (x) =
c|x| si x [1, 1]
0 otro caso
Se trata de una variable aleatoria continua que toma valores en el intervalo [-1, 1]. Para encontrar el
valor de c debemos tomar en cuenta la sesunda condicin de una funcin de densidad, entonces
Z 1
1=
f (x)dx =
Z 1
0 dx +
Z 0
c|x| dx +
1
0 dx =
1
Z 1
(cx) dx +
1
cx dx
0
1 = 2c
0
1
x dx = 2c( 0) = c
2
Por lo tanto, cuando tomamos c = 1 la funcin f (x) resulta ser una funcin de densidad pues ahora
cumple con ser no negativa e integrar uno.
Funcin de distribucin
Sea X una variable aleatoria discreta o continua. La funcin de distribucin de X, cuya notacin est
dada por F(x) : R [0, 1] , se define como
F(x) = P(X x)
Esto es, la funcin de distribucin evaluada en un nmero x cualquiera es simplemente la probabilidad
de que la variable aleatoria tome un valor menor o igual a x, o en otras palabras, que tome un valor en el
intervalo (, x]. Siendo F(x) una probabilidad, sus valores estn siempre entre 0 y 1. Esta funcin resulta
ser importante y se le conoce tambin, por razones evidentes, con el nombre de funcin de acumulacin
de probabilidad. tambin se acostumbra escribir FX (x) para smbolizar a la funcin de distribucin de una
variable aleatoria X, en donde el subndice nos ayudar a especificar que tal funcin es la funcin de distribucin de probabilidad de la variable X. Con un par de ejemplo mostraremos la forma de calcular esta
funcin distribucin a partir de la funcin de probabilidad si la variable aleatoria es discreta o de densidad
si la variable en estudio es continua.
Csar Amarilla
42
Ejemplo 3.3.5
Considere la variable aleatoria discreta X del ejemplo 3.2.1. Calcular la correspondiente funcin de
distribucin evaluada en x.
La funcin de distribucin se calcula sumando las probabilidades P(X = u) para valores de u menores
o iguales a x, es decir,
0 si x < 1
0, 3 si 1 x < 2
F(x) = P(X x) = P(X = u) =
0, 8 si 2 x < 3
ux
1 si x 3
Ejemplo 3.3.6
Considere ahora la variable aleatoria continua X del ejemplo (3.3.3). Calcular la correspondiente funcin
de distribucin evaluada en x
La correspondiente funcin de distribucin se obtiene calculando la siguiente integral
0 si x < 1
Z x
x1
si 1 x < 3
F(x) = P(X x) =
f (u)du =
2
1 si x 3
Observe que esta funcin es continua y no decreciente.
En los dos ejemplos anteriores se ha mostrado la forma de obtener F(x) a partir de f (x). Ahora explicaremos el proceso contrario.
x
En el caso continuo tenemos que para toda x en R, F(x) = P(X x) =
f (u)du, de modo que por el
d
teorema fundamental del clculo, y cuando F(x) es diferenciable, dx (F(x)) = f (x). De este modo podemos
encontrar f (x) a partir de F(x).
En el caso discreto, f (x) = P(X = x) = F(x) F(x ), en donde F(x ) es el lmite por la izquierda de la
funcin F en el punto x, en smbolos, F(x ) = lm F(x h), con h > 0. Anlogamente, la expresin F(x+ )
h0
significa el lmite por la derecha de la funcin F en el punto x, es decir, F(x+ ) = lm F(x + h), con h > 0.
h0
Teorema 3.3.1 Toda funcin de distribucin F(x) satisface las siguientes propiedades:
a) 0 F(x) 1
b) lm F(x) = 1
x
c) lm F(x) = 0
x
43
Observacin:
La propiedad d) significa que F(x) es una funcin montona no decreciente, mientras que la propiedad
f ) establece que F(x) es una funcin continua por la derecha.
Cualquier funcin que cumpla con las propiedades b), c), d) y f ) es una funcin de distribucin.
3.4.
Todos los seres humanos tenemos caractersticas numricas que nos identifican y nos distinguen de otras
personas, por ejemplo, la edad, estatura, talla, peso, etc. Si pudiramos considerar la totalidad de todos
estos nmeros para una persona en particular, la identificaramos de manera nica. Algo similar sucede
con las variables aleatorias. En esta seccin estudiaremos algunas caractersticas numricas asociadas a las
variables aleatorias.
Definicin 3.4.1 ( Esperanza ) La esperanza de una variable aleatoria X es un nmero denotado por
E(X) y que se calcula como sigue:
Si X es discreta, entonces
E(X) = x P(X = x)
x
en donde la suma se efecta sobre todos los posibles valores que pueda tomar la variable aleatoria, y se
define cuando esta suma sea absolutamente convergente. El nmero de sumandos puede ser finito o infinito
dependiendo del conjunto de valores de la variable aleatoria.
Csar Amarilla
44
E(X) =
x f (x)dx
Ejemplo 3.4.1
Sea X una variable aleatoria discreta con funcin de densidad dada por la siguiente tabla
x
-1
f (x) 1\8
0
4\8
1
1\8
2
2\8
La esperanza de X es el nmero
4
1
2 1
1
E(X) = xP(X = x) = 1. + 0. + 1. + 2. =
8
8
8
8 2
x
Observe que la suma su efecta para todos los valores de x indicados en la tabla, es decir: -1, 0, 1 y 2.
Tambin es instructivo observar que la esperanza no es necesariamente uno de los valores tomados por la
variable aleatoria. En este ejemplo el valor 12 nunca es tomado por la variable aleatoria, pero es su valor
esperado.
Ejemplo 3.4.2
Considere la variable aleatoria continua X con funcin de densidad
2x si x (0, 1)
f (x) =
0 en otro caso
La esperanza de X es
Z 1
E(X) =
x f (x)dx =
2x 1 2
2x dx = =
3 0 3
2
Observe que la integral solo es relevante en el intervalo (0, 1), pues fuera de dicho intervalo la funcin
de densidad se anula.
Csar Amarilla
45
E[g(X)] =
g(x) fX (x)dx
En general, la demostracin de este resultado es complicada, asi es que la omitiremos y nos concentraremos en su uso y aplicacin. El resultado esta enunciado en el caso continuo pero tambin es vlido en
el caso discreto, en lugar de la integral aparece una suma.
Ejemplo 3.4.3
Calcularemos E(Y ) en donde Y = X2 , y X es la variable aleatoria continua del ejemplo 3.4.2, es decir,
con funcin de densidad
2x si x (0, 1)
f (x) =
0 en otro caso
Por el teorema anterior tenemos que
2
E(Y ) = E(X ) =
Z 1
x f (x)dx =
Z 1
x 2xdx = 2
2x4 1 1
x dx =
=
4 0 2
3
Ejemplo 3.4.4
Sea X una variable aleatoria con funcin de probabilidad dada por la tabla que aparece abajo. Encuentre
la funcin de probabilidad de X2 y mediante la definicin calcule E(X2 ). Ahora calcule la misma esperanza
pero usando el teorema 3.4.1. Ambos resultados deben coincidir.
x
-2
f (x) 2\8
-1
1\8
0
2\8
1
1\8
2
2\8
Teorema 3.4.2 Sean X y Y con esperanza finita y sea c una constante. Entonces
a) E(c) = c
b) E(cX) = cE(X)
c) Si X 0, entoncesE(X) 0
Csar Amarilla
46
Var(X) =
(x E(X))2 f (x)
x
R
2
(x E(x)) f (x)
si Xesdiscreta
siXescontinua
Observe que en una sola expresin la varianza se puede escribir como sigue: Var(X) = E[X E(X)]2 .
La varianza es una medida del grado de dispersin de los diferentes valores tomados por la variable. Se le
denota regularmente por la letra 2 (sigma cuadrada). A la raz cuadrada positiva de la varianza, esto es , se
le llama desviacin estndar. Nuevamente la anterior suma o integral puede no existir y en ese caso decimos
que la variable aleatoria no tiene varianza finita. Observemos que para calcular Var(X) necesitamos conocer
primero E(X). Veamos algunos ejemplos sencillos.
Ejemplo 3.4.5
Calcularemos la varianza de la variable aleatoria discreta X con funcin de probabilidad dada por la
siguiente tabla
x
-1
f (x) 1\8
0
4\8
1
1\8
2
2\8
1
Recordemos primeramente que por clculos previos, E(X) = . Aplicando la definicin de varianza
2
tenemos que
1 2 1
1 2 4
1 2 1
1 2 2
Var(X) = (x E(X))2 f (x) = 1
. + 0
. + 1
. + 2
. =1
2 8
2 8
2 8
2 8
x
Ejemplo 3.4.6
Calcularemos la varianza de la variable aleatoria continua X con funcin de densidad
2x si x (0, 1)
f (x) =
0 en otro caso
Csar Amarilla
47
2
En un clculo previo habamos encontrado que E(X) = . Por lo tanto,
3
Z
Var(X) =
(x E(X)) f (x)dx =
Z 1
0
2 2
x
2xdx =
3
8x2 8x
+
dx
2x
3
9
Z 1
0
8x3 4x2 1
1
+
=
2
9
9 0 18
Ahora enunciamos algunas propiedades de la varianza.
=
x4
Teorema 3.4.3 Sean X y Y dos variables aleatorias, y sea c una constante. Entonces
a) Var(X) 0
b) Var(c) = 0
c) Var(cX) = c2Var(X)
d) Var(X + c) = Var(X)
e) Var(X) = E(X 2 ) [E(X)]2
f) En general, Var(X +Y ) 6= Var(X) +Var(Y )
Demostracin
El inciso a) es evidente a partir de la definicin de varianza pues en ella aparece una suma o integral de
trminos no negativos.
Para el inciso b) la constante c es una v.a. con un nico valor, de modo que E(c) = c y entonces
Var(X) = E(c c)2 = 0
Para el inciso c) tenemos que
Var(cX) = E[cX E(cX)]2 = E[cX cE(X)]2 = c2 E[X E(X)]2 = c2Var(X)
El inciso d) se sigue del siguiente anlisis:
Var(X + c) = E[(X + c) E(X + c)]2 = E[X E(X)]2 = Var(X)
Para demostrar la propiedad e) se desarrolla el cuadrado en la definicin de varianza, y se usa la
propiedad de linealidad de la esperanza:
2
Var(X) = E[X E(X)]2 = E[X 2 2XE(X) + E(X ] = E(X 2 ) 2E(X)E(X) + [E(X)]2
= E(X 2 ) [E(X)]2
Finalmente para demostrar la propiedad f ) es suficiente dar un ejemplo. Puede tomarse el caso Y = X,
en general y por el inciso c) se tiene que Var(2X) = 22V (X) = 4V (X), con lo que no se cumple que
Var(2X) = 2Var(X).
Csar Amarilla
48
3.5. EJERCICIOS
Definicin 3.4.3 (Momentos) Los momentos son nmeros que representan alguna caracterstica de la
distribucin de probabilidad asociada. Bajo ciertas condiciones el conjunto de momentos determinan de
manera nica a la distribucin de probabilidad.
Sea X una variable aleatoria con espereanza y sea n un nmero natural. El n-simo momento de la
variable aleatoria X, cuando existe, se define como el nmero E(X n ). El n-simo momento central de X,
cuando existe, es el nmero E[(X )n ], en donde = E(X). Observe que el primer momento de X es
simplemente la media, y el segundo momento central es la varianza. Tenemos entonces que si X es una
variable aleatoria con funcin de densidad o de probabilidad f (x) entonces el n-simo momento de X, si
existe, se calcula como sigue:
E(X ) =
(xn) f (x)
x
R n
x f (x)dx
si X es discreta
si X es continua
El n-simo momento central de X se calcula, para variables aleatorias continuas y discretas respectivamente, como indican las siguientes frmulas:
h
i
E (X )n =
3.5.
(x )n f (x)
x
R
n
(x ) f (x)dx
si X es discreta
si X es continua
Ejercicios
Variables Aleatorias
1. Determine en cada caso si la variable aleatoria en cuestin es discreta o continua. Cules son sus
posible valores?
a) Tiempo de vida de una persona escogida al azar
b) Nmero de errores tipogrficos en una pgina escogida al azar de un libro.
c) Tiempo de servicio en una transaccin escogida al azar realizada por una persona en un cajero
automtico.
2. Considere un experimento aleatorio con espacio muestral equiprobable = {1, 2, 3, 4, 5, 6}. Defina
la variable aleatoria X() = 2( 3). Cules son los posibles valores de X?. Calcule P(X = 0),
P(X {2, 3}), P(X 0), P(X < 0), P(X 2 = 1), P(2X 4 = 0), y P(X 2 = 4).
3. Considere el ejemplo del experimento aleatorio de lanzar un dardo en un tablero
circular de radio
p
uno, junto con las variables aleatorias X(x, y) = x, Y (x, y) = y y Z(x, y) = x2 + y2 . Suponga que
Area(A)
para cada regin A cuya rea puede ser calculada se define P(A) =
. Calcule P(X 0),
Area()
P(X < 0), P(Y > X), P(X +Y 1), P(Z < 1/2) y P(1/3 < Z < 1/2).
Csar Amarilla
49
3.5. EJERCICIOS
0
si x =< 1
x+1
si x [1, 1]
c) F(x) =
2
1
six > 1
ex
, xR
ex + ex
6. Sean F(x) y G(x) dos funciones de distribucin. Determine si las siguientes funciones son de distribucin.
a) aF(x) + (1 a)G(x)
b) F(x) + G(x)
c) F(x)G(x)
2G(x)
d)
1 + F(x)
7. Encuentre el valor de la constante c que hace que f (x) sea una funcin de probabilidad. Grafique esta
funcin y calcule P(X {2, 3, 4}) y P(X < 3) en cada caso.
cx si x = 1, 2, ..., 10
a) f (x) =
0 en otro caso
2
cx si x = 1, 2, ..., 10
b) f (x) =
0 en otro caso
c
x! si x = 1, 2, . . .
c) f (x) =
0 en otro caso
Csar Amarilla
50
3.5. EJERCICIOS
cex si x = 1, 2, . . .
0
en otro caso
8. Encuentre el valor de la constante c que hace que f (x) sea una funcin de densidad.
2
cx si 0 x 1
a) f (x) =
0 en otro caso
2
cxe2x si x > 0
b) f (x) =
0
en otro caso
c) f (x) =
cex
, xR
(1 + ex )2
9. Encuentre el valor de la constante c que hace que la siguiente funcin sea de densidad. Grafique f (x)
y calcule P(X ) y P(X [, 2]).
c(1 + senx) si x (0, 2)
f (x) =
0
en otro caso
10. Encuentre el valor de la constante c para que la siguiente funcin sea de densidad. Grafique f (x) y
calcule P(X (1, )).
f (x) = ce|x| , para < x <
11. Sea X discreta con funcin de probabilidad dada por la siguiente tabla. Grafique f (x) y calcule
P(X 0), P(X < 0) y P(X 2 = 1).
x
f (x)
-1
0, 2
0
0, 3
1
0, 5
12. Sea X discreta con funcin de probabilidad dada por la tabla que aparece abajo. Grafique f (x). Calcule
la funcin de probabilidad de las siguientes variables aleatorias Y = X 2 , Z = |X| y W = 2X 5.
Grafique en cada caso.
x
f (x)
-2
0, 1
-1
0, 15
0
0, 4
2
0, 1
3
0, 15
si k x 4k
10
f (x) =
0 en otro caso
a) Determine el valor de la constante k y grafique f (x)
b) Calcule y grafique F(x)
c) Calcule P(1 X 3), P(X 2) y P(X 0)
1
d) Encuentre m tal que P(|X 1| m) =
2
Csar Amarilla
51
5
0, 1
3.5. EJERCICIOS
14. Sea X una variable aleatoria con la funcin de distribucin que aparece abajo. Es X discreta o
continua? Grafique F(x). Encuentre y grfique la correspondiente funcin de probabilidad o densidad
1
1
f (x). Calcule adems P(X = ) y P(X > ).
2
2
0 si x < 0
x si 0 x < 1
F(x) =
1 si x 1
si x = 0, 1
3
1
a) f (x) =
si x = 2, 3
0 en otro caso
si x = 1, 1
4
1
b) f (x) =
si x = 0
0 en otro caso
17. Calcule la esperanza de la variable aleatoria continua X cuya funcin de densidad es
a) f (x) = ex , para x > 0
b) f (x) = 6x(1 x), para 0 < x < 1
c) f (x) =
e|x|
, para x R
2
18. Sea X una variable aleatoria continua con la funcin de densidad que aparece abajo. Demuestre que
esta funcin es efectivamente una funcin de densidad. Compruebe adems que la esperanza de X
no existe. Este es un ejemplo de una variable aleatoria continua que no tiene esperanza finita. Es una
caso particular de la distribucin Cauchy.
1
(x2 + 1)
19. Diga si las proposiciones siguientes son falsos o verdadero. Justifique en cada caso.
a) La esperanza de una v.a. puede ser cero.
b) No hay dos v.a.s distintas con la misma esperanza.
Csar Amarilla
52
3.5. EJERCICIOS
1
si x = 2, 1, 0, 1, 2
5
0 en otro caso
a) f (x) =
b) f (x) =
e1
x! si x = 0, 1, 2, . . .
c) f (x) =
0 en otro caso
Csar Amarilla
53
3.5. EJERCICIOS
Csar Amarilla
54
Captulo 4
Estadstica
4.1.
Consideraciones preliminares
En N existen ciertas caractersticas de inters que son medibles u observables representadas por X que es
una variable aleatoria, o sea; para cualquier observacin, i = 1, 2, . . . , n
X = + i
(1)
(2)
(3)
Definicin 4.1.1 Una poblacin es un conjunto de objetos medibles u observables en el que la caracterstica de inters X es una v.a que esta representada por X f (x|), donde f es la funcin que define el
comportamiento probabilstico de X en la poblacin con parmetro .
Definicin 4.1.2 Si X es v. a normalmente distribuida con media y varianza 2 , entonces la variable v.a
(X )
Z=
tiene distribucin normal con media 0 y varianza 1, con f .g.m:
h
i
h1 i
1
mX (t) = exp t + 2t 2 y mZ (t) = exp t 2 respectivamente.
2
2
55
CAPTULO 4. ESTADSTICA
Teorema 4.1.1 (Unicidad de las f .g.m) Si las f .g.m de dos variables aleatorias X1 y X2 son idnticas para
todo los valores de t en un intervalo alrededor de t = 0, entonces la distribucin de probabilidad de X1 y X2
deben ser idnticas.
Teorema 4.1.2 Sean X1 , X2 , . . . , Xn un conjunto de n variables aleatorias independientes cada una con
f.g.m. mX1 (t), mX2
(t),. . . ,mXn (t). Si se define otra variable Y de forma:
Y = a1 X1 + a2 X2 + + an Xn
(4)
(5)
Definicin 4.1.3 (La Distribucin Chi-cuadrada) Sea X una variable gamma con parmetros y , a
1
n
la distribucin gamma con parmetros = y = se denomina distribucin chi-cuadrada con n grado
2
2
de libertad. De la propiedad de la distribucin gamma se tiene que la media, la varianza y la f .g.m son
respectivamente:
E(X) = n, Var(X) = 2n y mX (t) = (1 2t)
n
2
para t <
1
2
(6)
Teorema 4.1.3 Sea Z una v.a normal con media = 0 y varianza 2 = 1. Entonces Z 2 es del tipo chicuadrado con 1 gl (grado de libertad).
Demostracin
h
i Z
2
mZ (t) = E exp(zt ) =
mZ (t) =
h
exp
i
z2
dx
2(1 2t)1
mZ (t) = (1 2t) 2
(7)
56
CAPTULO 4. ESTADSTICA
Demostracin
Del teorema 2 se tiene,
mZ (t) = mY1 (t) mY2 (t)
n1
n2
n1 +n2
2
(8)
Definicin 4.1.5 (La Distribucin F) Sean dos v.a independientes X e Y tales que X tiene una distribucin chi-cuadrado con m gl. e Y tiene una distribucin chi-cuadrado con n gl, donde m y n son entero
positivo. Se define una nueva v.a
F=
entonces F tiene una distribucin F con m y n gl.
X
m
Y
n
(9)
Teorema 4.1.5 Desigualdad de Markov Supngase que X es una v.a tal que P(X 0) = 1. Entonces
para cualquier nmero t > 0,
P(X t)
E(X)
t
(10)
Demostracin
Por conveniencia se supondremos que X tiene una distribucin discreta cuya f.p es f (x).
E(X) = f (x) = f (x) + f (x)
x
x<t
xt
Puesto que para X 0,todos los trminos de las sumas son no negativo. Por tanto, para cualquier t en la que
t x, se tiene:
E(X) f (x) = t P(X t)
xt
P(X t)
Anselmo Maciel
57
E(X)
t
CAPTULO 4. ESTADSTICA
Teorema 4.1.6 (Desigualdad de Chevyshev). Sea X una v.a para la cual Var(X) existe. Entonces para
cualquier nmero t >0,
Var(X)
P |X E(X)| t
(11)
t2
Demostracin
Sea Y = X E(X). Entonces, P(Y 0) = 1 y E(Y ) = Var(X). Aplicando la desigualdad de Markov, se
obtiene el siguiente resultado:
E(Y ) Var(X)
2
2
P |X E(X)| t = P X E(X) t = P Y t 2 =
t
t2
Por lo tanto
Var(X)
P |X E(X)| t =
t2
Observacin: Tomado la desigualdad de Markov para X < t, se puede demostrar que la siguiente
desigualdad tambin es vlida,
Var(X)
P |X E(X)| < t <
t
De lo que se deduce:
Var(X)
P |X E(X)| < t 1
t
Definicin 4.1.6 (Convergencia en probabilidad) Se dice que la sucesin T1 , T2 , . . . , Tn converge en probabilidad a k si para cualquier nmero dado > 0,
lm P(|Tn k| < ) = 1
(12)
4.2.
Muestra aleatoria
Definicin 4.2.1 Una muestra aleatoria de tamao n es una secuencia de valores posibles de X representadas por: X1 , X2 , . . . , Xn ; donde X1 es el nmero que ser determinado en la primera eleccin, X2 es nmero
que ser determinado en la segunda eleccin, . . . , Xn es el nmero que ser determinado en la n-sima
eleccin.
Si bajo ciertas condiciones experimentales se cumple que:
f (x1 |) = f (x|), f (x2 |) = f (x|), . . . , f (xn |) = f (x|)
(13)
y adems
n
(14)
i=1
se dice que las X1 , X2 , . . . , Xn son variables aleatorias independientemente e idnticas distribuidas (i.i.d) .
Anselmo Maciel
58
CAPTULO 4. ESTADSTICA
Ejemplo 4.2.1
Sea X Poisson(x) y supngase que X1 , X2 , . . . , Xn constituyen muestra aleatoria de sta distribucin.
Supngase tambin que la probabilidad de observar el valor de X2 , no esta afectado por X1 , del mismo
modo la probabilidad de observar el valor de X3 , no esta afectado por X1 y X2 , y as sucesivamente la
probabilidad de observar el valor de Xn no esta afectado por X1 , X2 , X3 , . . . , Xn1 . Entonces por definicin de
independencia tenemos
P(X2 |X1 , ) = P(X2 |)
P(X3 |X2 , X1 , ) = P(X3 |)
..
.
P(Xn |X1 , X2 , . . . , Xn1 , ) = P(Xn |)
En general la probabilidad conjunta de X1 , X2 , . . . , Xn est dada por:
P(X1 , X2 , . . . , Xn |) = P(X1 |) P(X2 |X1 , ) P(Xn |X1 , X2 , . . . , Xn1 , )
Como las Xi ,com i = 1, . . . , n son v.a independientes la expresin anterior se reduce a
P(X1 , X2 , . . . , Xn |) = P(X1 |) P(X2 |) P(Xn |)
Adems, como cada Xi , con i = 1, . . . , n son variable aleatoria de Poisson, cada una tiene la misma
distribucin
e x
Xi Poisson(xi |) = X Poisson(x|) =
x!
Esto significa que las v.a X1 , X2 , . . . , Xn son i.i.d.
Definicin 4.2.2 Datos muestrales o muestra es cualquier realizacin numrica de las variables aleatorias
X1 = x1 , X2 = x2 , . . . , Xn = xn , representada por x = {x1 , x2 , . . . , xn } . Si la distribucin conjunta de
fn (x1 , x2 , . . . , xn |), es evaluada para las realizaciones de x = {x1 , x2 , . . . , xn }.
n
(15)
i=1
Ejemplo 4.2.2
Con relacin al ejemplo 4.2.1, si la distribucin de probabilidad conjunta es evaluada para las realizaciones numricas: X1 = x1 , X2 = x2 ,. . . , Xn = xn ,
P(X1 = x1 , X2 = x2 , . . . , Xn = xn |) = P(X1 = x1 |) P(X2 = x2 |) P(Xn = xn |)
n
1
i=1 xi !
Esta funcin mide el grado de concordancia o verosimilitud que tiene la muestra observada con las
posibles poblaciones que pudieran haber originado la muestra.
Anselmo Maciel
59
CAPTULO 4. ESTADSTICA
Sean los valores observados x = {2, 5, 7, 3, 2}, y se tiene como posibles valores de : 1, 4 y 6. Determinemos con que poblacin representada por es ms verosmil el resultado muestral dado.
lnL(1, x) = ln
e51 (1)19
= 21, 4907069
2! 5! 7! 3! 2!
lnL(4, x) = ln
e54 (4)19
= 10, 1511141
2! 5! 7! 3! 2!
lnL(6, x) = ln
e56 (6)19
= 12, 4472770
2! 5! 7! 3! 2!
Como L(4, ) > L(6, ) > L(1, ), la muestra x = {2, 5, 7, 3, 2}, es ms verosmil con la poblacin representada por = 4.
Definicin 4.2.3 Cualquier funcin de la m.a X1 , X2 , . . . , Xn a ser obtenida de f (x|) y que no dependa del
parmetro desconocido , recibe el nombre de estadstico.
Ejemplo 4.2.3
Sea X = {X1 , X2 , . . . , Xn } una muestra aleatoria de X, con con f.p o f.d.p, f (x|). Algunos ejemplos de
estadsticos T (X) son:
1
1 n
a) T1 (X) = (X1 + X2 + + Xn ) = Xi = X
n
n i=1
b) T2 (X) =
1
n
(Xi X )2
i=1
c) T3 (X) = Min{X1 , X2 , . . . , Xn }
Dado que T (X) es funcin de v.a, en si misma es una variable aleatoria, y su valor f (x) puede determi
narse cuando se conozca la realizaciones x de (X).
Definicin 4.2.4 Si T (X) se emplea para estimar un parmetro desconocido , entonces T (X) recibe el
Dado que T (X) es una v.a, puede establecerse una distribucin de probabilidad para T (X) que describa
60
CAPTULO 4. ESTADSTICA
4.3.
Sea X1 , X2 , . . . , Xn una muestra aleatoria de una distribucin con parmetro de valor desconocido, segn
la definicin 4.2.3, un estadstico es cualquier funcin real T (X) de las variables X1 , X2 , . . . , Xn . Como T (X)
tambin es una v.a, su distribucin de probabilidad puede ser deducida a partir de la distribucin conjunta
de X1 , X2 , . . . , Xn . Esta distribucin se denomina usualmente como distribucin muestral de estadsticos.
En la definicin 4.2.4, se mencion que si T (X) se utiliza para estimar el valor de , entonces T (X)
recibe el nombre de estimador de . La distribucin de un estimador, puede ser deducida a partir de la distribucin conjunta de X1 , X2 , . . . , Xn puesto que es un estadstico. Esta distribucin se denomina usualmente
como distribucin muestral de estimadores.
Teorema 4.3.1 (Distribucin por muestreo de Xn ) Supngase que las v.a X1 , X2 , . . . , Xn constituyen una
muestra aleatoria de una distribucin normal con media y varianza 2 conocida y sea Xn la media mues2
tral. Entonces Xn tiene una distribucin normal con media y .
n
Demostracin
1
1 n
(X1 + X2 + + Xn ) = Xi = X
n
n i=1
Por el teorema 4.1.2, se tiene que:
n
mX n (t) = mXi
i=1
t
n
h t 1
i
h t 1
i
h t 1
i
2 t 2
2 t 2
2 t 2
mX n (t) = exp + ( ) exp + ( ) exp + ( )
n 2
n
n 2
n
n 2
n
h
1 2 i
mX n (t) = exp t + ( )t 2
2 n
(16)
2
La f.g.m de X n es idntica a la distribucin normal. Por el teorema 4.1.1, se tiene que: Xn N ,
.
n
Teorema 4.3.2 Sean X1 , X2 , . . . , Xn una m.a de una distribucin normal con media y varianza 2 . La
distribucin de:
n
(Xi )2
Y=
i=1
(17)
Demostracin
Dado que las Xi N(, 2 ) para i = 1, 2, . . . , n; entonces Zi =
independientes.Por lo tanto
n
Y = Z2
i=1
Anselmo Maciel
61
Xi
se definen como v.a estndares
CAPTULO 4. ESTADSTICA
mY (t) = (1 2t) 2
i=1
mY (t) = (1 2t) 2
que es idntica a la f.g.m de la distribucin chi-cuadrada con n gl.
n
(Xi )2
Por lo tanto Y =
i=1
Teorema 4.3.3 Sean X1 , X2 , . . . , Xn una m.a de una distribucin normal con media y varianza 2 . La
distribucin de la variable:
n
(Xi X)2
Y=
i=1
(18)
n
2
(Xi X)
i=1
= (Xi )2 n(X )2
(19)
i=1
i=1
i=1
obtenemos
n
(Xi )2
(X )2
(Xi X)2
=
+
n
2
2
2
i=1
i=1
2n
2n1
21
Por el teorema 4.3.2, el primer miembro tiene una distribucin chi-cuadrada con n gl, por el teorema
4.1.3, el segundo trmino del segundo miembro tiene una distribucin chi-cuadrada con 1 gl. Por tanto, por
el teorema 4.1.4, el primer trmino del segundo miembro tiene una distribucin chi-cuadrada con (n 1)
gl.
Teorema 4.3.4 Supngase que X1 , X2 , . . . , Xn constituyen una m.a de una distribucin normal con media
(Xi X)2
2
y varianza . Entonces, la media muestral X y la varianza muestral
son v.a independiente,
n
donde:
2
(Xi X)2
X N ,
y
2n1
n
n
Anselmo Maciel
62
CAPTULO 4. ESTADSTICA
Teorema 4.3.5 Supngase que X1 , X2 , . . . , Xn constituyen una m.a de una distribucin normal con media
n
i=1
aleatoria
Xn
U=
1
2
Sn
n1
(20)
Entonces, por el teorema 4.3.2 resulta que Z y X son independientes y que adams Z tiene una distribucin normal tipificada y que X tiene una distribucin chi-cuadrada con n 1 gl. Considrese ahora otra v.a
U, definida por la relacin:
Z
U=
1
Z=
X
n1
Por la definicin 4.1.4, se sabe que U tiene una distribucin t-student con n 1 gl. Es fcil ver adems
que U se puede escribir como:
Xn
n
n (Xn )
U=
=
" nSn2 # 1
nSn2 21
2
2
n1
n1
Q=
Anselmo Maciel
63
(21)
CAPTULO 4. ESTADSTICA
Demostracin
Si se definen las v.a UX y UY mediante la relaciones,
UX =
nX .SX2
2X
UY =
nY .SY2
Y2
Del teorema 4.3.3, se deduce que cada una de las estadsticas UX y UY tiene una chi-cuadrada con
(nX 1) y (nY 1) gl respectivamente.
Consideres ahora otra v.a Q definida por la relacin:
Q=
UX
nX 1
UY
nY 1
De la definicin de la distribucin F, se tiene que Q tiene una distribucin F con (nX 1) y (nY 1) gl.
Esto se puede escribir:
2
nX .SX
2
X
nX 1
nY .SY2
2
Y
Q=
nY 1
h
1 2 1
1 2i
mDn (t) = exp (Xn Yn )t +
+
t
2
nX nY
64
CAPTULO 4. ESTADSTICA
varianza 2X . Supngase tambin que X e Y son independiente y que 2X = Y2 = 2 con valor desconocida,
y sean las varianzas mustrales y ponderada respectivas:
n
n.SX2 n = (Xi Xn )2 ,
i=1
n.SY2n = (Yi Yn )2
Sc2 =
i=1
nX .SX2
nY .SY2
+
nX + nY 2 nX + nY 2
tonces; el estadstico
T=
(X Y ) (X Y )
r
Sc2 n1X + n1Y
(22)
(X Y ) (X Y )
r
, entonces Z N(0, 1).
1
1
nX + nY
Sea tambin, W =
nX .SX2 nY .SY2
+ 2
2
Por el teorema 4.1.4, se sabe que W tiene una distribucin chi-cuadrado con (nX + nY 2) gl.
Por la definicin 4.1.4, se sabe que:
T=q
Z
W
nX +nY 2
+
nX
nY
T= v
u
u nX .SX2 nY .SY2
t
+ 2
2
nX +nY 2
(X Y ) (X Y )
r
1
1
nX + nY
q
T=
2
2
nX .SX +nY .SY
nX +nY 2
T=
Anselmo Maciel
(X Y ) (X Y )
r
1
1
2
Sc nX + nY
65
CAPTULO 4. ESTADSTICA
nX .SX2
nY .SY2
+
nX + nY 2 nX + nY 2
Teorema 4.3.9 (Teorema Central del Limite(T.C.L)) Lo que establece el teorema: siempre que se selecciona una m.a de tamao n grande, de cualquier distribucin con media y varianza 2 independientemente
Teorema 4.3.10 (Teorema Central del Limite (Lindeberg y Lvy) para media muestral) Si las v.a
X1 , X2 , . . . , Xn constituyen una muestra de tamao n de una distribucin con media y varianza 2 (0 <
2 < ), entonces para cualquier nmero fijo z,
lm P
h X
i
n
z = (z)
n
Xn
1
n
= Zi
Se demostrar que Y converge en distribucin a la v.a normal tipificada, demostrando de que la f .g.m
de Y converge a la distribucin normal tipificada.
Si mZi (t) es la f .g.m de las Zi e mY (t) la f .g.m de Y . Del teorema 4.1.2, se tiene
n
t h t in
mY (t) = mZi = mZi
n
n
i=1
"
#
t n
mZi (t) = E exp zi
n
t
La expresin exp zi en la serie de Taylor es
n
t
t
t2 2
t3 3
exp
zi = 1 +
zi + zi +
3 zi + . . .
n
n
2n
3!n 2
Recordemos que E(Zi ) = 0 y Var(Zi ) = 1 , para i = 1, 2, . . . , n
Anselmo Maciel
66
CAPTULO 4. ESTADSTICA
!
t
t2
t3
3
E exp zi
= 1 + E(z2i ) +
3 E(zi ) + . . .
n
2n
3!n 2
Ahora se tiene que:
#n
3
t2
t
3
mY (t) = 1 + E(z2i ) +
3 E(zi ) + . . .
2n
2
3!n
"
#
n
3
1 t2
t
3
mY (t) = 1 +
E(z2i ) +
1 E(zi ) + . . .
n 2
2
3!n
"
Llamemos
u=
entonces
Por definicin (clculo)
t2
2
E(z2i ) +
t3
3
1 E(zi ) + . . .
3!n 2
u n
mY (t) = 1 +
n
u n
= eu
lm 1 +
n
n
t2
2
Finalmente
t
lm mY (t) = e 2
Demostracin
De la desigualdad de Chevyshev resulta que para cualquier nmero > 0,
P(|X | < ) 1
Por tanto
P( lm |X | < ) = 1
n
Anselmo Maciel
67
(23)
4.4.
CAPTULO 4. ESTADSTICA
Considrese un problema de inferencia en la que se va a observar una m.a. X1 , X2 , . . . , Xn de una distribucin cuya f.p o f.d.p es f (x|) , donde el valor de es desconocido y debe ser estimado. Un estimador de
medio de (X), ECM[(X)] como el valor esperado del cuadrado de la diferencia entre (X)
y .
2
= E (X)
ECM (X)
= E 2 (X) 2(X)
+ 2
(24)
2
2
2
2
= E (X) 2E (X)
+ + E (X)
E (X)
2
2
2
= E (X) E (X)
+ E (X)
2E (X) + 2
2
Anselmo Maciel
68
CAPTULO 4. ESTADSTICA
E (X)
=
para todos los valores posibles de , con .
(25)
(26)
Ejemplo 4.4.1
2
Supngase que para muestra aleatoria X1 , X2 , . . . , Xn de una distribucin normal con media y varianza
ambas desconocidas se eligen los siguientes estimadores:
1 n
Xn = Xi
n i=1
Sn2
1 n
= (Xi Xn )2 respectivamente para estimar y 2 .
n i=1
E(Sn2 ) =
n
1
1 n
1 n
2
2
2
2
E( (Xi Xn ) ) = E(Xi Xn ) = E (Xi ) (Xn )
n i=1
n i=1
n i=1
1 n
2 1 2 2 (n 1)2
1 n
2
2
2
E(X
E(X
= n
=
)
=
i
n
n i=1
n i=1
n
n
n
n
Se han obtenidos los siguientes resultados, Xn es un estimador insesgado de , mientras que Sn2 es un
estimador sesgado de 2 .
lm E (X) = 0
(27)
n
Ejemplo 4.4.2
El resultado obtenido en el ejemplo 4.4.1 con relacin a Sn2 lo defina como un estimador sesgado de 2 ,
sin embargo este estimador es asintticamente insesgado, puesto que:
lm E(Sn2 ) = 2
Anselmo Maciel
69
CAPTULO 4. ESTADSTICA
Lo anterior implica que la varianza del estimador consistente n (X) disminuye conforme n aumenta y
la media de n (X) crece hacia .
Ejemplo 4.4.3
Vase el teorema 4.3.11
insesgado de para todo los posibles valores de . Se dice entonces que (X)
es un estimador insesgado de
varianza mnima de .
Definicin 4.4.8 Sea X1 , X2 , . . . , Xn una m.a. de una distribucin cuya f.p o f.d.p es f (x|), si (X)
es un
Var (X)
(28)
nI()
donde I() es la informacin de Fisher, definida como:
I() = E
2
ln
f
(x|)
2
Var (X)
=
nI()
(29)
Ejemplo 4.4.4
Anselmo Maciel
70
CAPTULO 4. ESTADSTICA
Supngase que X1 , X2 , . . . , Xn constituyen una m.a. de una distribucin de Poisson con parmetro
desconocido. Se determinar el estimador eficiente para .
Por la cota de Cramer-Rao la varianza del estimador eficiente de es:
Var (X)
=
1
nI()
1
ln f (x|) = 1 + x
1
2
ln f (x|) = x 2
2
I() = E(x
1
1
)=
2
Por lo tanto,
Var (X)
= =
n n
es la varianza del estimador eficiente de .
Definicin 4.4.10 (Suficiencia. Criterio de factorizacin de Neyman) Sea X1 , X2 , . . . , Xn una m.a. de
una distribucin con f.p o de f.d.p dada por f (x|) con parmetro desconocido y pertenece a un espacio
paramtrico concreto. Un estadstico T (X) es suficiente para si y solo si, si la f.p conjunta o f.d.p conjunta fn (x|) de X1 , X2 , . . . , Xn se puede factorizar como sigue para todos los valores de x = {x1 , x2 , . . . , xn } Rn
y todos los valores de :
fn (x|) = h(x) g(t(x, ))
(30)
Ejemplo 4.4.5
Supngase que X1 , X2 , . . . , Xn constituyen una muestra aleatoria de Poisson con parmetro desconocida
( > 0). Se determinar el estadstico suficiente para .
Para cualquier conjunto de enteros no negativos x = {x1 , x2 , . . . , xn }, la f.p conjunta fn (x|) de X1 , X2 , . . . , Xn
es la siguiente:
n
e xi n 1 i=1
fn (x|) =
= e
i=0 xi !
i=0 n
n
Anselmo Maciel
71
xi
CAPTULO 4. ESTADSTICA
Como se puede observar fn (x|) ha sido expresada, como en la ecuacin (30), como producto de una
funcin que no depende de y una funcin que depende de y del vector observado de x solamente a travs
n
i=1
Definicin 4.4.11 (Estadsticos conjuntamente suficiente) Los estadsticos T1 (X), T2 (X), . . . , Tk (X) son
estadsticos conjuntamente suficientes para , si y solo si, si la f.p conjunta o f.d.p conjunta fn (x|) se puede
factorizar como sigue x = {x1 , x2 , . . . , xn } Rn y todos los valores de :
f (x, ) = h(x) g(t1 (x),t2 (x), . . . ,tk (x), )
(31)
Ejemplo 4.4.6
2
Supngase que X1 , X2 , . . . , Xn constituyen una m.a. de una distribucin normal con media y varianza
ambas desconocidas. Se determinar el estadsticos suficiente para = (, 2 ).
1 n
1 n
exp 2 (xi )2
f (x|, 2 ) =
2 i=1
2
1 n
1 n 2 n
2
n
exp 2 xi + 2 xi n 2
f (x|, ) =
2 i=1
i=1
2
2
2
y t1 (x) = xi
i=1
i=1
y T1 (X) = Xi
i=1
Ejemplo 4.4.7
n
Para muestra aleatoria X1 , X2 , . . . , Xn de una distribucin normal se sabe que T1 (X) = Xi es suficiente
i=1
1 n
para . Como T1 (X) es equivalente a T2 (X) = Xi tenemos que Xn tambin es suficiente para .
n i=1
Anselmo Maciel
72
CAPTULO 4. ESTADSTICA
4.5.
Definicin 4.5.1 (Estimacin puntual) Supngase que X1 , X2 , . . . , Xn constituyen una m.a. de una distribucin con f.p o f.d.p f (x|) con parmetro desconocido, donde el valor de debe ser estimado a partir
de un experimento en la que se han de observar valores x = {x1 , x2 , . . . , xn } de X = {X1 , X2 , . . . , Xn }. Supn
Definicin 4.5.2 Sea X1 , X2 , . . . , Xn una m.a. con f.p o f.d.p f (x|) con parmetro desconocido y sea
es el valor de para el cual la funcin verosimilfn (x|) la funcin verosimilitud de la muestra. Si (x)
itud fn (x|) = L(, x) es mxima, entonces (X) es el estimador mxima verosimilitud de y (x)
es la
estimacin mxima verosimilitud de . El valor de que maximiza la funcin fn (x|) ser el mismo que el
valor de que maximiza ln fn (x|).
Ejemplo 4.5.1
Supngase que las v.a X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una distribucin de Bernoulli
con parmetro p desconocido (0 p 1) para cualesquiera valores observados x1 , x2 , . . . , xn , donde cada
xi es 0 1, la funcin verosimilitud es:
n
El valor de p que maximiza L(, x) ser el mismo valor de p que maximiza lnL(, x) . Por lo tanto,
i
n h
n
n
lnL(p, x) = xi lnp + (1 xi )ln(1 p) = xi lnp + n xi ln(1 p)
i=1
Anselmo Maciel
i=1
73
i=1
Haciendo
CAPTULO 4. ESTADSTICA
lnL(p, x) = 0
p
Se tiene:
xi
p =
i=1
Definicin 4.5.3 (Estimacin por intervalo) Supngase que X1 , X2 , . . . , Xn constituyen una m.a de una
distribucin con f.p o f.d.p f (x|) con parmetro desconocido y donde el valor de debe ser estimado a
partir de un experimento en la que se han de observar valores x = {x1 , x2 , . . . , xn } de X = {X1 , X2 , . . . , Xn } .
Supngase tambin que se puede establecer dos estadsticos A(X) y B(X) tal que:
P A(X) < < B(X) =
(32)
donde es la probabilidad fija (0 < < 1). Si los valores especifico de A(X) y B(X) son a(x) y b(x), entonces
se dice que el intervalo (a, b) es un intervalo de confianza para con una confianza de .
Ejemplo 4.5.2
Sea X1 , X2 , . . . , Xn una m.a. de una distribucin normal con media desconocida y varianza 2 conocida.
Se establecer un intervalo de confianza del = 0, 95 para .
Si se emplea la media muestral Xn para estimar , por el teorema 4.3.1, se sabe que:
2
Xn N ,
n
Se debe establecer
Rc
c g(xn , )dxn
(33)
g(xn , )dxn = 0, 95
Rc
,
)d
=
(c)
(c)
=
(c)
(c)
= 2(c) 1
g(x
n
xn
c
c
Haciendo Z =
Xn
n
Donde A(X) = Xn c
Anselmo Maciel
n
n
P Xn c
Xn + c
=
n
y B(X) = Xn + c
74
(34)
CAPTULO 4. ESTADSTICA
De la normal estndar se tiene adems que (c) = 0, 975 para el cual el valor de c es 1,96.
Entonces
n
n
P Xn (1, 96)
Xn + (1, 96)
= 0, 95
i
h
n
n
Esto significa que la probabilidad de que el intervalo aleatorio Xn (1, 96)
, Xn + (1, 96)
contenga a es de 0,95.
El mtodo utilizado es conocido como mtodo de cantidad pivotal . Una cantidad pivotal es una variable aletora Q(X, ) con una distribucin de probabilidad conocida. Para cualquier intervalo de confianza
y para cierta probabilidad fija (0 < < 1), se puede encontrar los lmites de confianza 1 y 2 de modo
que:
(35)
P 1 Q(X, ) 2 =
Para nuestro ejemplo
Q(X, ) =
Xn
N(0, 1)
Ejemplo 4.5.3
Sea X1 , X2 , . . . , Xn una m.a. de una distribucin normal con media y varianza 2 desconocida. Se
establecer el intervalo de confianza del para .
Se emplear de nuevo la media muestral Xn para estimacin de , la cantidad pivotal apropiada en este
caso es:
Xn
Q(X, ) = q
Tn1
Sn2
n1
Xn
P tn1 q
tn1
Sn2
n1
!
= 0, 95
n1
n1
P Xn
tn1 Xn +
tn1 = 0, 95
Sn
Sn
Esto es, antes de que los valores de X1 , X2 , . . . , Xn estn disponibles , la probabilidad de que el intervalo
aleatorio:
Anselmo Maciel
75
4.6. EJERCICIOS
CAPTULO 4. ESTADSTICA
h
i
n1
n1
Xn
tn1 , Xn +
tn1
Sn
Sn
4.6.
Ejercicios
1. Supngase que X1 , X2 , . . . , Xn constituyen muestra aleatoria de una distribucin exponencial con parmetro
. Establzcase la funcin verosimilitud.
2. Supngase que X1 , X2 , . . . , Xn constituyen muestra aleatoria de una distribucin normal con media y
varianza 2 . Establzcase la funcin verosimilitud.
3. Supngase que X1 , X2 , . . . , Xn constituyen muestra aleatoria de una distribucin exponencial con parmetro
. Determnese la distribucin de la media muestral Xn .
4. Supngase que X1 , X2 , . . . , Xn constituyen muestra aleatoria de una distribucin de Poisson con parmetro
. Demustrese que Y = X1 + X2 + + Xn tambin tiene una distribucin de Poisson con parmetro
(n).
5. Supngase que X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una distribucin normal con media
y varianza 2 . Determnese la distribucin de:
Y=
n(Xn )2
2
6. Supngase que X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una distribucin normal con media
y varianza 2 . Supngase tambin el tamao muestral n es 16, determnense los valores de las
siguientes probabilidades:
1 n
2
2
(X
2
i
2
n i=1
1 2 1 n
2
2
b) P (Xi X) 2
2
n i=1
a) P
1
7. Si U tiene una distribucin F con 1 y n gl, demustrese que U 2 tiene una distribucin t-student con n
gl.
8. Supngase que se va a seleccionar una muestra aleatoria de tamao n de una distribucin normal con
media y desviacin tpica = 2. Determnese el mnimo valor de n tal que:
P(|Xn | < 0, 1) 0, 9
9. Supngase que se va a seleccionar una muestra aleatoria de tamao n de una distribucin normal con
media y desviacin tpica = 3. Utilice el teorema central limite para determinar aproximadamente
el menor valor de n para el cual se satisface la siguiente relacin:
P(|Xn | < 0, 3) 0, 95
Anselmo Maciel
76
CAPTULO 4. ESTADSTICA
4.6. EJERCICIOS
10. Un fsico toma 25 medidas independientes de la gravedad especfica de cierto cuerpo. Sabe que las
limitaciones de su equipo son tales que la desviacin tpica de cada medicin es unidades.
a) Utilizando la desigualdad de Chebyschev, encuentre la cota inferior para la probabilidad de que
1
1
exp
si x > 0, > 0
f (x|) =
0
en otro caso
a) Mediante el uso de cota inferior de Cramer-Rao determinar la varianza del estimador insesgado
de varianza mnima de .
b) Determinar el estadstico suficiente para .
c) Determinar el estimador por mxima verosimilitud para .
d) Determinar si el estadstico obtenido en c) es un estimador sesgado o insesgado.
e) Determinar si el estadstico obtenido en c) es consistente para .
Anselmo Maciel
77
4.6. EJERCICIOS
CAPTULO 4. ESTADSTICA
16. Supngase que X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una distribucin gamma con parmetros > 0 y > 0, cuya f.d.p est dada por:
si x > 0
()
f (x|, ) =
en otro caso
0
Determnense los estadsticos conjuntamente suficiente para = (, ).
17. Supngase que X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una distribucin normal con media
y varianza 2 desconocidas. Establezca un intervalo de confianza para 2 con un coeficiente de
confianza especfico (0 < < 1).
18. Supngase que X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una distribucin normal con media
y varianza 2 desconocidas. Sean S02 y S12 los estimadores de 2 que se definen como sigue:
S02 =
1 n
(Xi Xn)2
n i=1
y S12 =
1 n
(Xi Xn)2
n 1 i=1
SX2 = (Xi Xn )2
i=1
y SY2 = (Yi Ym )2
i=1
Anselmo Maciel
78
Bibliografa
[1] Pierre Paul Romagnoli(2005) Curso de probabilidad para profesores de enseanza media.
[2] Luis Rincn(2007) Curso elemental de probabilidad y estadstica. Departamento de Matemticas.Facultad de Ciencias UNAM.
[3] Barry R. James(1981) Probabilidad: un curso de nivel intermedio. IMPA-CNPq.
[4] Ing.Mario Ral Azocar. Probabilidad.Teora y prctica. Master of Science- New York University-New
York.
79