You are on page 1of 54

I.- Teoría de conjuntos.

Definición de conjunto.
Un conjunto se considera como una colección de objetos, llamados miembros o elementos
del conjunto.
Existen dos formas de expresar un conjunto:
a.- Por extensión a, e, i, o, u
b.- Por comprensión x x  vocales ó x x es una vocal

Notación de conjunto.
Se lleva a cabo por medio de letras mayúsculas
Requisitos de un conjunto.
a.- La colección de objetos debe de estar bien definida.
b.- Ningún objeto del conjunto se debe de contar más de una vez.
c.- El orden en que se enumeren los objetos carece de importancia.

Conjunto Universal.
Es el conjunto que consta de todos los elementos a los que se puede referir una situación en
particular. Se denota con la letra  .
Consideraciones.
1.- El conjunto universal no es único; depende del problema que se esté considerando y
puede cambiar según la situación particular de que se trate.
2.- Aún para un mismo problema el conjunto universal no está definido en forma única;
podemos elegirlo a nuestra conveniencia con relativa libertad.
Una vez que se ha decidido cuál es el conjunto universal, ese conjunto permanece fijo y
todos los demás conjuntos mencionados en la misma discusión se forman con elementos
del conjunto universal.

Conjunto Vacío.
Es el conjunto que no posee elementos y se designa con el símbolo  o por .
Es importante notar que  es distinto de cero y de 0.
1.-  es un conjunto sin elementos.
2.-  es un conjunto con un solo elemento, el número cero.
3.- Cero es un número y no un conjunto.
Usualmente se define a un conjunto vacío recurriendo a un par de condiciones mutuamente
contradictorias.

Conjuntos disjuntos o ajenos.


Dos conjuntos A y B son disjuntos si y sólo si, no tienen ningún elemento en común.

Pertenencia.
La relación que existe entre un conjunto y sus elementos se llama pertenencia.
Si un elemento pertenece a un conjunto A se escribe como a A. Si no pertenece se escribe
como a A.

1
Contención.
Es cuando cada elemento del conjunto A pertenece a un conjunto B llamamos a A un
subconjunto de B, escrito A B ó B A se lee “A esta contenido en B” ó “B contiene a A”
Si A B y B A entonces A es igual a B, esto significa que A y B tienen los mismos
elementos.

Identidad.
Si el suceso B es verificado por los mismos resultados que verifican al suceso A y sólo por
éstos, se dice que los sucesos A y B son idénticos. Se escribe A = B. Los sucesos
elementales de A y B son los mismos.

Unión.
Sean A y B dos subconjuntos cualesquiera del conjunto universal. La unión de los
conjuntos A y B es el conjunto de los elementos de que pertenecen por lo menos a uno de
los conjuntos A o B.
En símbolos:
AB = x  x A ó x  B

Intersección.
Si A y B son dos conjuntos cualesquiera del conjunto universal.
La intersección de los conjuntos A y B, es el conjunto de los elementos de  que son
elementos tanto de A como de B.
AB = xx A y x  B

Complemento.
El complemento de A es el conjunto de los elementos x que pertenecen a  pero no
pertenecen a A.
Sea A un subconjunto cualquiera del conjunto universal. El complemento de A con
respecto a se define como el conjunto de elementos de que no pertenecen a A. se simboliza
como: A, Bc, B.
A = x    x  A
Ac = x  x   y x  A

Diferencia.
Sean A y B dos subconjuntos cualesquiera del conjunto universal. La diferencia de dos
conjuntos A y B es el conjunto de elementos que pertenecen a A pero no a B.
El conjunto diferencia se denota por AB y se especifica por comprensión mediante la
expresión:
AB = x  x  A y x  B

Producto cartesiano.
Es el conjunto formado por todos los pares ordenados (x,y) tales que x es un elemento de
A y también y es un elemento de B se simboliza AXB y se denota como:
AXB = (x,y)  x  A y además y  B
Expresión que se lee “A cartesiano B”.

2
“A cartesiano B” es un conjunto cuyos elementos son pares ordenados, donde el primer
elemento de cada par pertenece al conjunto A y el segundo al conjunto B. El producto
cartesiano de conjuntos no es conmutativo.

Conjunto potencia.
El conjunto potencia P(S) es la clase de todos los subconjuntos de S.

3
II.- Probabilidad.
Definición.
La probabilidad es el estudio de los experimentos aleatorios o no determinísticos.

Experimentos determinísticos.
Son aquellos que se realizan de una misma forma y con las mismas condiciones iniciales,
en el cual siempre se obtiene el mismo resultado.

Experimentos aleatorios.
Son aquellos en los cuales no se puede predecir el resultado final.

Un experimento aleatorio cumple con las siguientes condiciones:


a. Con las mismas condiciones, se pueden repetir de manera indefinida.
b. No se puede predecir el resultado que se va a obtener, antes de llevarlo a cabo.
c. El resultado obtenido, pertenece a un conjunto de posibles resultados, el cual se conoce
como espacio muestral.
Cualquier subconjunto del espacio muestral es conocido como suceso aleatorio.

Evento o suceso seguro.


Es aquel que siempre se verifica después de llevar a cabo el experimento aleatorio, es decir,
el mismo espacio muestral.
Es el que se verifica por todos los resultados del experimento. Se simboliza por 

Evento o suceso imposible.


Es aquel que nunca se verifica como resultado del experimento aleatorio. Al ser un
subconjunto del espacio muestral, la única posibilidad es que el suceso imposible sea el
conjunto vacío, el cual se simboliza por medio de .

II.1.-Probabilidad Clásica o de Laplace.


Definición.
La probabilidad de un suceso A de un experimento aleatorio en el que todos sus sucesos
elementales son equiprobables, es igual al número de casos favorables al suceso A dividido
por el número de casos posibles del experimento.

II.2.- Probabilidad Subjetiva.


Definición.
En los fenómenos aleatorios, en los que no existe la posibilidad de repetición o
experimentación, la probabilidad subjetiva es la cuantificación que una persona hace de un
evento, utilizando la información que tiene.

II.3.- Probabilidad Axiomática.


El concepto de probabilidad axiomática fue hecho por Kolmogorov en 1933, para ello
precisó los axiomas que debe de cumplir un función de probabilidad, los cuales son:
1. La probabilidad sólo puede tomar los valores comprendidos entre cero y uno.
0  P(A)  1

4
2. La probabilidad del evento seguro es uno.
P(A) = 1
3.- La probabilidad de dos sucesos ajenos, disjuntos o mutuamente excluyentes, es la suma
de sus probabilidades respectivas.
Ya que si:
AB = 
Entonces:
P(AB) = P() = 0
Por lo tanto:
P(AB) = P(A) + P(B)

Con los tres axiomas anteriores se está en la posibilidad, para deducir todas las reglas que
se espera tener de una función de probabilidad.

4. La probabilidad de la intersección de dos sucesos es menor o igual que la probabilidad de


cada uno de los sucesos por separado, es decir,
P(AB)  P(A) y P(AB)  P(B)

5. La probabilidad de unión de sucesos es mayor que la de cada uno de los sucesos por
separado:
P(AB)  P(A) y P(AB)  P(B)

6. La probabilidad del suceso complementario del evento A es:


P(Ac) = 1  P(A)

Teoremas de Probabilidad.
1.- Si A y Ac son eventos complementarios de un espacio muestral S, entonces:
P(Ac) = 1P(A)
Demostración:
Como AAc = S
Como:
1 = P(S)
Entonces:
1 = P(AAc)
1 = P(A) + P(Ac)
Por lo tanto:
P(Ac) = 1P(A)

2.- P() = 0
Para un espacio muestral S cualquiera.
Ya que:
S=S
De donde podemos deducir:
P(S) = P(S  )
P(S) = P(S) + P()
P(S)  P(S) = P()

5
Por lo tanto:
P() = 0

3.- Si A y B son eventos de un espacio muestral S y AB,


Entonces:
P(A)  P(B).

4.- Si A y B son dos eventos cualesquiera en el espacio muestral S, entonces:


P(AB)  P(A) + P(B)  P(A  B)

5.- Si A, B y C son tres eventos cualesquiera de un espacio muestral S, entonces:


P(ABC)  P(A) + P(B) + P(C)  P(A  B)  P(A  C)  P(B  C)
+ P(A  B  C)

6
II.4.- Probabilidad Condicional.
Definición.
Sean A y B dos sucesos cualesquiera con P(B)  0. Se define la probabilidad del suceso A
condicionada al suceso B y se representa por P(AB) como:
P( A  B)
P( A B) 
P( B)

II.5.- Eventos Independientes.


Dos sucesos A y B se dice que ocurren de manera independientemente uno del otro si la
ocurrencia o no de uno de ellos no influye en la ocurrencia o no del otro.
Definición.
Los sucesos A y B se dicen independientes si:
P(AB) = P(A)P(B)
Lo que equivale a que
P( A B)  P( A)
si
P( B)  0
Ó bien
P( B A)  P( B)
si
P( A)  0
Si A y B son sucesos independientes, también lo son A y Bc. En efecto,
P(ABc) = P(AAB) = P(A)  P(A)P(B)
P(ABc) = P(A)1 P(B) = P(A)P(Bc)

I.I.6.- Teorema de Bayes.


Si los eventos B1, B2, .....Bk constituyen una división del espacio muestral S, donde
P(Bi) 0 para i = 1,2, 3, ....., k, entonces para cualquier evento A en S es tal que P(A)  0

P( Br  A) P ( Br ) P ( A Br )
P( Br A)  k
 k

 P( B
i 1
i  A)  P( B ) P( A B )
i 1
i i

Para r = 1, 2,....., k.

7
III.- Variables aleatorias Discretas y sus Distribuciones de Probabilidad.
Variable aleatoria discreta.
Definición.
Una variable aleatoria se llama discreta si se puede contar su conjunto de resultados
posibles.
Las variables aleatorias discretas son variables aleatorias cuyo intervalo de valores es finito
o contablemente infinito.

Distribución de Probabilidad discreta.


Definición
Lista de los resultados de un experimento con las probabilidades que se esperan, se
asociarán a esos resultados.

Si x es una variable aleatoria discreta, la función dada por f(x) para cada x contenida en el
intervalo de x se denomina función de probabilidad, o distribución de probabilidad, de
x.

Una función puede fungir como la distribución de probabilidad de una variable aleatoria
discreta x si y sólo si sus valores, f(x), cumple las condiciones siguientes:
a.- f(x) 0 para cada valor contenido en su dominio

b.-  f(x) = 1, donde la sumatoria se extiende sobre todos los valores contenidos en su
dominio.

Función de distribución acumulativa.


La distribución acumulada F(x) de una variable aleatoria discreta X, cuya distribución de
probabilidad es f(x), es:
F(x) = P(X  x) =  f (t )
tx
para  x 

Esperanza Matemática.
Sea X una variable aleatoria con distribución de probabilidad f(x). La media o valor
esperado de X es:
  E ( X )   xf ( x)
x
Significado de la esperanza.
Como valor medio teórico de todos los valores que puede tomar la variable. Representa una
medida de centralización.

Varianza.
Definición.
Medida del cuadrado de la distancia promedio entre la media y cada elemento de la
población.

8
Si X es una variable aleatoria con una distribución de probabilidad, f(x), y media . La
varianza de X es calculada por medio de:
 2  E ( X   ) 2    ( x   ) f ( x)
2

Desviación estándar.
Definición.
1.-Es una medida de dispersión de la misma dimensión física de la variable y que
representa por medio de la letra σ.

2.- Raíz cuadrada positiva de la varianza; una medida de la dispersión, expresada en las
mismas unidades que los datos originales y no en las unidades cuadradas de la varianza.

III.1.- Distribución de Probabilidad Uniforme.


Definición.
Si la variable aleatoria X asume los valores x1, x2,…..xk, con iguales probabilidades,
entonces la distribución discreta uniforme es:
1
f ( x; k ) 
k
x  x1 , x2 ,....xk
La media se calcula con la siguiente fórmula:
k

x i
 i 1
k

Y su varianza con:
k

(x  ) i
2

2  i 1
k

9
III.2.- Distribución de Probabilidad Bernoulli.
Definición.
Definición de ensayo de Bernoulli.
Una variable aleatoria X que toma dos valores x1, x2 con probabilidades respectivas p,
(1  p) se dice que sigue la distribución Bernoulli de parámetro p.

El proceso de Bernoulli debe cumplir con las siguientes propiedades:

1.- El experimento consiste en n intentos repetidos.

2.- Los resultados de cada uno de los intentos pueden clasificarse como un éxito o como un
fracaso.

3.- La probabilidad de éxito, representada por p, permanece constante para todos los
intentos.

4.- Los intentos repetidos son independientes.


Ejemplo:
En la fabricación de neumáticos se seleccionan, de manera aleatoria, tres de ellos. Se hace
una inspección de los neumáticos y se clasifican en defectuosos y no defectuosos. El
proceso de fabricación produce en total el 20% de neumáticos defectuosos.
Se considera un éxito la obtención de un artículo defectuoso.
Solución:
El espacio muestral es el siguiente:
Resultado x
(ND)(ND)(ND) 0
(D)(ND)(ND) 1
(ND)(D)(ND) 1
(ND)(ND)(D) 1
(ND)(D)(D) 2
(D)(ND)(D) 2
(D)(D)(ND) 2
(D)(D)(D) 3
Donde: D es defectuoso y ND es no defectuoso.
El número de éxitos es una variable aleatoria que asume valores enteros de cero a tres.
Se obtienen las probabilidades para los posibles resultados.
Con:
p = 0.20
q = 0.80
Se calculan las probabilidades respectivas:
P(ND)(ND)(ND) = P(ND)P(ND)P(ND) = (0.80)(0.80)(0.80) = 0.512
P(D)(ND)(ND) = P(D)P(ND)P(ND) = (0.20)(0.80)(0.80) = 0.128
P(ND)(D)(ND) = P(ND)P(D)P(ND) = (0.80)(0.20)(0.80) = 0.128
P(ND)(ND)(D) = P(ND)P(ND)P(D) = (0.80)(0.80)(0.20) = 0.128
 = 0.384

10
P(ND)(D)(D) = P(ND)P(D)P(D) = (0.80)(0.20)(0.20) = 0.032
P(D)(ND)(D) = P(D)P(ND)P(D) = (0.20)(0.80)(0.20) = 0.032
P(D)(D)(ND) = P(D)P(D)P(ND) = (0.20)(0.20)(0.80) = 0.032
 = 0.096
P(DDD) = P(D)P(D)P(D) = (0.20)(0.20)(0.20) = 0.008
Con los cálculos anteriores se obtiene la distribución de probabilidad de x:

x 0 1 2 3
f(x) 0.512 0.384 0.096 0.008

El cuadro anterior muestra que:


a.- Cuando no se tienen neumáticos defectuosos la probabilidad es de: 0.512
b.- Cuando se tiene un neumático defectuoso la probabilidad es de: 0.384
c.- Cuando se tienen dos neumáticos defectuosos la probabilidad es de: 0.096
d.- Cuando se tienen tres neumáticos defectuosos la probabilidad es de: 0.008
El número de éxitos en n experimentos de Bernoulli recibe el nombre de variable aleatoria
binomial.

11
III.3.- Distribución de Probabilidad Binomial.
Definición.
Un experimento de Bernoulli puede resultar en un éxito con una probabilidad p y en un
fracaso con una probabilidad de q = 1p. Entonces la distribución de probabilidad de la
variable aleatoria binomial X, el número de éxitos en n experimentos independientes, es:

n
b(x;n,p) =   px qnx x = 0, 1, 2, 3,.........., n.
 x

La media, la varianza y la desviación estándar son:


E(X) =  = np

2 = npq

 = npq
Respectivamente.

III.4.- Distribución de Probabilidad Binomial Negativa.


Definición.
Una variable aleatoria x tiene una distribución binomial negativa y se denomina variable
aleatoria binomial negativa, si y solo si su distribución de probabilidad está dada por:

 x  1 k
f ( x)  P( X  x)    p (1  p) xk
 k  1
para :
x  k , k  1, k  2,.....

Media:
k (1  p)

p
Varianza:
k (1  p)
2 
p2
Desviación típica:

k (1  p )

p2

12
III.5.- Distribución de probabilidad Geométrica.
Definición.
Si repetidos intentos independientes pueden resultar en un éxito con una probabilidad p y
en un fracaso con una probabilidad de q = 1p, entonces la distribución de probabilidad de
la variable aleatoria X, el número del intento en el cual ocurre el primer éxito es:
g(x;p) = pqx1 x = 1, 2, 3,..........

La media es:
1
=
p
La varianza es:
1 p
2  2
p

III.6.- Distribución de Probabilidad Poisson.


a.- Definición. Proceso de Poisson y la Distribución de Poisson.
Los experimentos que resultan en valores numéricos de una variable aleatoria X, misma
que representa el número de resultados durante un intervalo de tiempo dado o en una región
específica, se llaman experimentos de Poisson. En intervalo de tiempo dado puede ser de
cualquier duración. La región específica puede ser un segmento de línea, un área, un
volumen, o tal vez un pedazo de material
Un experimento de Poisson surge del proceso de Poisson y tiene las siguientes
propiedades:

1.- El número de resultados que ocurren en un intervalo de tiempo o región específicos es


independiente del número que ocurre en cualquier otro intervalo disjunto de tiempo o
región del espacio disjunto. De esta manera se dice que el proceso de Poisson no tiene
memoria.

2.- La probabilidad de que un resultado sencillo ocurra en un intervalo de tiempo muy corto
o en una región pequeña es proporcional a la longitud del intervalo de tiempo o al tamaño
de la región y no depende del número de resultados que ocurren fuera de este intervalo o
región.

3.- La probabilidad de que más de un resultado ocurra en ese intervalo de tiempo tan corto
o en esa región tan pequeña es despreciable.
El número X de resultados que ocurren en un experimento de Poisson se llama variable
aleatoria de Poisson y su distribución de probabilidad recibe el nombre de distribución de
Poisson.

13
Distribución de Poisson.
La distribución de probabilidad de la variable aleatoria de Poisson X, que representa el
número de resultados que ocurren en un intervalo de tiempo dado o en una región
específica, es
e  
x

p( x; p) 
x!
x = 0, 1, 2, 3,..........,
Donde:
e = 2.71828.....
 = np que representa el número promedio de resultados por unidad de tiempo o
región.

El parámetro  se puede obtener de tres maneras, que son las siguientes:


1. Cuando se conocen n y p
2. Como valor término medio de la variable. Cuando se dice promedio, valor promedio,
media o esperanza matemática.
3. Estimado a partir de la media de una muestra de valores observados de la variable.

La media, esperanza matemática, es:


E(x) =  = 
La varianza es:
2 = 
La desviación es:
 

Flujo elemental de sucesos.


El flujo elemental de sucesos es aquel que posee las tres propiedades siguientes:
1.- Calidad de estacionario.
La propiedad de calidad de estacionario consiste en que la probabilidad de que ocurran x
sucesos en cada intervalo de tiempo depende solamente del número x y de la duración t del
intervalo de tiempo y no depende del comienzo de su cuenta. En otras palabras, la
probabilidad de aparición de x sucesos en un intervalo de tiempo de duración t depende
sólo de x y de t.

2.- Propiedad de “ausencia de efecto posteriori”.


La propiedad de "ausencia de efecto posteriori" se caracteriza porque la probabilidad de
que ocurran x sucesos en cualquier intervalo de tiempo no depende de que hayan ocurrido o
no los sucesos en los instantes de tiempo que preceden al comienzo del intervalo
considerado. En otras palabras, la prehistoria del flujo no influye en la probabilidad de que
los sucesos ocurran en un futuro próximo.

14
3.- Propiedad de ordinario se llama simple o elemental (de Poisson).
La propiedad de ordinario se caracteriza por que la aparición de dos o más sucesos en un
intervalo pequeño de tiempo es prácticamente imposible. En otras palabras, la probabilidad
de que ocurra más de un suceso en un pequeño intervalo de tiempo es despreciable en
comparación con la probabilidad de que ocurra solamente un suceso.

El promedio de sucesos que ocurren en una Unidad de tiempo se llama intensidad del
flujo .
Si la intensidad constante del flujo  es conocida, la probabilidad de que ocurran k sucesos
de un flujo elemental en el tiempo t se determina por la fórmula de Poisson:

e  t (t ) x
p( x; p) 
x!
El flujo que posee la propiedad de carácter de estacionario se llama estacionario; en caso
contrario, no estacionario.

III.7.- Distribución de Probabilidad Hipergeométrica.


Definición.
La distribución de probabilidad de la variable aleatoria hipergeométrica X, el número de
éxitos en una muestra de tamaño n seleccionada de N posibles resultados, de los cuales k
son considerados como éxitos y N  k como fracasos es:

 k  N  k 
  
 x  n  x 
h( x; N , n, k )  x  0,1,2      n
N
 
n
La media es:
E x    
nk
N
La varianza es:
 N  n  k  k
 2  n   1  
 N  1  N  N

15
IV.- Variables Aleatorias Continuas y sus Distribuciones de Probabilidad.
Definición de variable aleatoria continua.
Es aquella que puede asumir cualquier valor dentro de un intervalo determinado.

La función de densidad de una variable aleatoria continua.


La función f(x) es una función de densidad de probabilidad para la variable aleatoria
continua X, definida sobre el conjunto de los números reales, sí:

1.- f(x)  0 xR


2.-  f ( x)dx  1

b

3.- P(a  X  b) =  f(x)dx


a
Función de distribución Acumulativa.
La distribución acumulada F(x) de una variable aleatoria continua X, con una función de

densidad f(x) es:

x
F(x) = P(X  x) =  f (t )dt

para  x 

De la definición de función de distribución acumulada de una variable aleatoria continua se


deducen las propiedades siguientes:
1.- F(∞) = 0
2.- F(∞) = 1
3.- P( x1 ≤ X ≤ x2) = F(x2)  F(x1)
dF ( x)
4.-  f ( x)
dx
Esperanza Matemática.
Sea X una variable aleatoria con función de densidad f(x). Se llama esperanza matemática o

valor esperado, valor medio o media de X al número real.


  E ( X )   xf ( x)dx 

Significado de la esperanza.
Como valor medio teórico de todos los valores que puede tomar la variable. Representa una
medida de centralización.

Varianza.
Definición.
Medida del cuadrado de la distancia promedio entre la media y cada elemento de la
población.

16
Sea X una variable aleatoria con distribución de probabilidad f(x) y media . La varianza

de X es calculada por medio de:

 
 2  E ( X   )2    ( x   )2 f ( x)dx   x 2 f ( x)dx   2
 
Desviación estándar.
Definición.
Es una medida de dispersión de la misma dimensión física de la variable y que se indica por
la letra σ.

Definición.
Raíz cuadrada positiva de la varianza; una medida de la dispersión, expresada en las
mismas unidades que los datos originales y no en las unidades cuadradas de la varianza.
La función de densidad de una variable aleatoria continua.
La función f(x) es una función de densidad de probabilidad para la variable aleatoria
continua X, definida sobre el conjunto de los números reales, sí:

1.- f(x)  0 xR


2.-  f ( x)dx  1

b

3.- P(a  X  b) =  f(x)dx


a

IV.1.- La distribución Uniforme.


Definición.
Una variable aleatoria que toma valores en un intervalo (a, b).
Diremos que X  U (a, b) si su función de densidad está dada por:

1
f(x) = sí x  (a, b)
ba

f(x) = 0 en cualquier otro caso

Es una función de densidad de probabilidad:


b

 f ( x )dx  1
a

Su función de distribución es:


F(X) = 0 sí x  a

17
xa
F(x) = sí a  x  b
ba

F(x) = 1 sí x  b

Valor Esperado, la media:

ba
  E(x) 
2
La varianza es:
(b  a) 2
Var(x) =
12

IV.2.- Distribución de Probabilidad Exponencial.


Definición.
Una variable aleatoria X tiene una distribución exponencial y se denomina variable
aleatoria exponencial si y sólo si su función de densidad de probabilidad está dada por:

f(x)  ex sí x  
1
Donde:  
E( X )
f(x) = 0 en cualquier otro caso

Es una función de densidad de probabilidad ya que cumple con lo siguiente:


1.- f(x) ≥ 0
Lo cumple por ser una función exponencial.

2.-  f ( x)dx  1

Demostración:

 e
 x
dx
0
b
lim ite  e x dx
b 
0
Integral que se resuelve por cambio de variable
Sea:
t  e  x
dt
   e  x
dx
dt  e x dx

18
Entonces:
b b
lim  e x  dx   lim  e x   dx
b  b 
0 0

Realizando el cambio de variable.

 
b
 lim  e t dt   lim e t
b

b  b  0
0

Sustituyendo:
t  e  x

 lime x    lim x 


b  1 
b  0

b  e
0

Evaluando la integral:

  1   1   1 
 lim b   lim  0     0  lim 0 
 
b  e
 
b  e
  
b  e

  1 
  0  lim 
 b   1  

   lim1
b 

 lim1
b 

1
Lo cual queda demostrado.

Función de distribución:
Demostración:
x
F ( x)   e t dt
0

La integral se resuelve por cambio de variable:


Sea:
w  e  t
dw
   e  t
dx
dw  e t dt

Entonces:

19
x
F ( x)   e t dt
0
x
F ( x)   e t  dt
0
x
F ( x)    e t   dt
0

Realizando el cambio de variable:


x
F ( x)    e t   dt
0
x
F ( x)    e w dw
0
x
F ( x )  e w
0
Evaluando la integral:
x
F ( x )  e w
0
x
F ( x )   e  t
0


F ( x)   e  x
 e  0  
F ( x)  e  x
 e0 
F ( x )  1  e  x

Por lo tanto la función de distribución es:


F(x) = 1  ex sí x  0

F(x) = 0 sí x  0

La media y la varianza de la distribución exponencial son:

1
E ( x) 

1
Var ( x) 
2
Respectivamente.

Propiedad de la “pérdida de memoria” de la distribución exponencial.


1.- La distribución exponencial carece de memoria, es decir:
t
P (X  x +  x) = P(X  t)
X

20
2.- La distribución exponencial es la generalización al caso continuo de la distribución
Geométrica.
3.- La distribución exponencial aparece, en ocasiones, caracterizada utilizando como
1
parámetro la media, E  x    

4.- La distribución exponencial se caracteriza por tener una razón de fallo constante; la
probabilidad de fallar en cualquier intervalo no depende de la vida anterior. Es, por lo tanto,
adecuada para describir la aparición de fallos al azar.

La razón de fallo viene dada por:


h(t) = .

21
IV.3.- Distribución de Probabilidad Normal.
El 12 de noviembre de 1733, Abraham DeMoivre desarrolló la ecuación matemática de la
curva normal. De igual manera proporcionó una base sobre la cual se fundamenta una gran
parte de la teoría de la estadística inductiva. A la distribución normal se le llama también
Distribución Gaussiana en honor a Karl Friedrich Gauss.
Definición. Una variable aleatoria X tiene una distribución normal con parámetros  y 2 ,
siendo  un número real cualquiera y   0, siendo su función de densidad de probabilidad
de la forma siguiente:

 x   2
f x  
1 2 2
e
2 

Con:
─∞<x<∞
─∞<μ<∞
σ>0

Para ser una función de densidad de probabilidad debe de satisfacer las siguientes
condiciones.
1.- Que f(x)   para toda x que pertenece a los números reales.
Que por ser una función exponencial lo cumple.

2.   f x dx  1


Propiedades.
1.- Es unimodal.
2.- La moda, mediana y moda poseen el mismo valor.
3.- El dominio de f(x) son todos los números reales y su imagen está contenida en los reales
positivos.
4.- Es simétrica respecto de la recta x  .
Esto se debe a que:
f( + x) = f(  x)
5.- Tiene una asíntota horizontal en y = 0
En efecto y = 0 es una asíntota horizontal, ya que:
lim f x   0
x 

6.- Alcanza un máximo absoluto en el punto:


 1 
  , 
 2  
Demostración:
Sea:
 x   2

f x  
1 2 2
e
2 

Derivando con respecto a .

22
 x   2
 2 x   
 1

f  x  
1
e 2 2

2   2 2

 x   2
  2 x    
f  x  
1 2 2
e  
2    
2

Igualando a cero:
 x   2
1   2x    
e 2 2
 0
2    
2

De donde resulta:

x  
x=

Obteniendo la segunda derivada:


 x    x     1 
f x   f  x  2  2   f  x   2 
       
  x   2 
f x   f  x    f x   2 
1

    
4

  x   2  1 
f x   f  x   2
 
  4
 
 1   x     
2
f x   f  x  2     1

   
2
 
De donde resulta:
f x   
1
2
Entonces:
f()  
Y como:
x
Por lo tanto:
f   
1
2 

Lo que prueba que el máximo se encuentra en:


 
 , 1 
 2 

7.- Es creciente en el intervalo (─ , ) y decreciente en (, ):
Si x  , es f´(x)  0, entonces la función es creciente.

23
Si x  , es f´(x)  0, entonces la función es decreciente.

8.- Posee dos puntos de inflexión en:


x=
x=+

Considerando la segunda derivada, la obtenida en el punto seis, e igualando a cero:


 1  x    
2
f x  2    1  0
   
2

Despejando:
x   2  1
 2

De donde resulta:
(x  )2 = 2

x= y x=
Por lo tanto:
x=+ y x=

9.- Los parámetros  y 2 son la media y la varianza respectivamente.

24
IV.3.1.- Distribución Normal Tipificada.
Teorema.
Si X tiene una distribución normal con la media y la desviación estándar, entonces:
X
Z

Donde:
X es la variable de interés.
: es la media.
: es la desviación estándar
Z es el número de desviaciones estándar de X respecto a la media de esta distribución.
La distribución normal estándar tiene media cero y varianza 1, y se denota como N(0,1).

Propiedades.
1.- Su dominio son todos los números reales y su imagen son los números reales positivos.

2.- Es simétrica respecto al eje de ordenadas.

3.- Tiene una asíntota horizontal en y = 0.

1
4.- Alcanza un máximo absoluto en el punto (0, ).
2

5.- Es creciente en el intervalo (, 0) y decreciente en el intervalo (0, ).

6.- Posee dos puntos de inflexión en x = 1 y x = 1, respectivamente.

Áreas de la normal:
1.- Aproximadamente el 68% de todos los valores se encuentran dentro de una desviación
estándar.

2.- Aproximadamente el 95.5% de todos los valores se encuentran dentro de dos


desviaciones estándar.

3.- Aproximadamente el 99.7% de todos los valores se encuentran dentro de tres


desviaciones estándar.

25
V.- Teorema Central de Límite.
Dada una población de media  y varianza finita 2, la distribución en el muestreo de la
media tiende, cuando aumenta el tamaño n de la muestra, a la distribución normal.
  
N   , 
 n
x
Z
x
donde :

x 
n
Es la desviación estándar típica de la media muestral y se le conoce como error típico de la
media.
Consideraciones:
1.- La media de la distribución muestral de la media, será igual a la media poblacional,
prescindiendo del tamaño de la muestra.

2.- Al ir creciendo el tamaño de la muestra, la distribución muestral de la media se acercará


a la normalidad.

3.- Garantiza que la distribución muestral de la media a acerque a la distribución normal a


medida que crece el tamaño de la muestra.

4.- La importancia del teorema central de límite es que nos permite usar el estadístico
muestral para hacer inferencia sobre los parámetros de la población, sin conocer nada
acerca de la distribución de frecuencias de esa población, solo la información que se logre
recabar de la muestra.

26
V.I.- Aproximación de la Distribución de Probabilidad Binomial y la Distribución
Poisson a la Distribución Normal.
Distribución Binomial.
Como una consecuencia del teorema de Laplace-DeMoivre, para cuando n es grande la
distribución binomial B(n, p) se puede aproximar a la distribución normal N(np, npq). la
fórmula de esta aproximación con corrección de continuidad es:

n k b ´b
´1  y 2 / 2
P(a  X  b)     P (1  P)  
nk
e dy
k a  k  a
2
Siendo:

a  np  0.5
a´
np(1  p)

b  np  0.5
b´
np(1  p)

En términos generales, la aproximación es suficiente sí:


1. n  30 y 0.1  p  0.9
2. p  0.1 ó n  30, y cuando el producto de np  5.
3. p  0.5, a la vez que se cumple que np  3

Distribución Poisson.
Como la suma de variables aleatorias independientes con distribución Poisson es también
Poisson de parámetro la suma de parámetros, esta distribución puede considerarse
aproximadamente normal. La aproximación, con corrección de continuidad es:


b
k ´1  y 2 / 2
P ( a  X  b)    
  dy
k a k! a´
2

Donde:

a    0.5
a´ 

27
b    0.5
b´

Esta aproximación se considera aceptable para   mejorando a medida que aumenta 

Cuando el número de experimentos es suficientemente grande (n →∞) la distribución


Binomial converge a la distribución Normal, conservando su media y su desviación típica.
X  N (np; npq )
En la práctica se acepta la convergencia cuando n > 30
Se plantea una problemática seria ya que la distribución Binomial es una distribución de
variable aleatoria discreta y la distribución Normal es una distribución de variable aleatoria
continua. Para evitar los puntos de discontinuidad es necesario aplicar el teorema de De
Moivre.
Abraham De Moivre (1667-1754) matemático inglés, de origen francés, realizó numerosos
trabajos sobre cálculo de probabilidades y estableció el teorema que lleva su nombre, que
dice:
“La probabilidad de que (x = k), P(k), se corresponde en la distribución Normal con la
probabilidad de que (k – 0.5 ≤ x ≤ k + 0.5).

Distribución Poisson.
Cuando λ > 5 se considera que la distribución de Poisson converge a la distribución
Normal, manteniendo su media y su desviación típica.
Al igual que en el caso de la distribución Binomial es necesario aplicar el teorema de De
Moivre para calcular las probabilidades.

28
Tabla Distribución Acumulativa Normal Estándar.

z G(z) z G(z) Z G(z) z G(z) z G(z)


 4.00 0.000 03  3.59 0.000 17  3.18 0.000 74  2.77 0.00 280  2.36 0.00 914
 3.99 0. 000 03  3.58 0.000 17  3.17 0.000 76  2.76 0.00 289  2.35 0.00 939
 3.98 0. 000 03  3.57 0.000 18  3.16 0.000 79  2.75 0.00 298  2.34 0.00 964
 3.97 0. 000 04  3.56 0.000 19  3.15 0.000 82  2.74 0.00 307  2.33 0.00 990
 3.96 0. 000 04 3.55 0.000 19  3.14 0.000 84  2.73 0.00 317  2.32 0.010 17
 3.95 0. 000 04  3.54 0.000 20  3.13 0.000 87  2.72 0.00 326  2.31 0.010 44
 3.94 0. 000 04  3.53 0.000 21  3.12 0.000 90  2.71 0.00 336  2.30 0.010 72
 3.93 0. 000 04  3.52 0.000 22  3.11 0.000 94  2.70 0.00 347  2.29 0.011 01
 3.92 0. 000 04  3.51 0.000 22  3.10 0.000 97  2.69 0.00 357  2.28 0.011 30
 3.91 0. 000 05  3.50 0.000 23  3.09 0.00 100  2.68 0.00 368  2.27 0.011 60
 3.90 0. 000 05  3.49 0.000 24  3.08 0.00 104  2.67 0.00 379  2.26 0.011 91
 3.89 0. 000 05  3.48 0.000 25  3.07 0.00 107  2.66 0.00 391  2.25 0.012 22
 3.88 0. 000 05  3.47 0.000 26  3.06 0.00 111  2.65 0.00 402  2.24 0.012 55
 3.87 0. 000 05  3.46 0.000 27  3.05 0.00 114  2.64 0.00 415  2.23 0.012 87
 3.86 0. 000 06  3.45 0.000 28  3.04 0.00 118  2.63 0.00 427  2.22 0.013 21
 3.85 0. 000 06  3.44 0.000 29  3.03 0.00 122  2.62 0.00 440  2.21 0.013 55
 3.84 0. 000 06  3.43 0.000 30  3.02 0.00 126  2.61 0.00 453  2.20 0.013 90
 3.83 0. 000 06  3.42 0.000 31  3.01 0.00 131  2.60 0.00 466  2.19 0.014 26
 3.82 0. 000 07  3.41 0.000 32  3.00 0.00 135  2.59 0.00 480  2.18 0.014 63
 3.81 0. 000 07  3.40 0.000 34  2.99 0.00 139  2.58 0.00 494  2.17 0.015 00
 3.80 0. 000 07  3.39 0.000 35  2.98 0.00 144  2.57 0.00 508  2.16 0.015 39
 3.79 0. 000 08  3.38 0.000 36  2.97 0.00 149  2.56 0.00 523  2.15 0.015 78
 3.78 0. 000 08  3.37 0.000 38  2.96 0.00 154  2.55 0.00 539  2.14 0.016 18
 3.77 0. 000 08  3.36 0.000 39  2.95 0.00 159  2.54 0.00 554  2.13 0.016 59
 3.76 0. 000 08  3.35 0.000 40  2.94 0.00 164  2.53 0.00 570  2.12 0.017 00
 3.75 0. 000 09  3.34 0.000 42  2.93 0.00 169  2.52 0.00 587  2.11 0.017 43
 3.74 0. 000 09  3.33 0.000 43  2.92 0.00 175  2.51 0.00 604  2.10 0.017 86
 3.73 0.000 10  3.32 0.000 45  2.91 0.00 181  2.50 0.00 621  2.09 0.018 31
 3.72 0. 000 10  3.31 0.000 47  2.90 0.00 187  2.49 0.00 639  2.08 0.018 76
 3.71 0. 000 10  3.30 0.000 48  2.89 0.00 193  2.48 0.00 657  2.07 0.019 23
 3.70 0. 000111  3.29 0.000 50  2.88 0.00 199  2.47 0.00 676  2.06 0.019 70
 3.69 0. 000 11  3.28 0.000 52  2.87 0.00 205  2.46 0.00 695  2.05 0.020 18
 3.68 0. 000 12  3.27 0.000 54  2.86 0.00 212  2.45 0.00 714  2.04 0.020 68
 3. 67 0. 000 12  3.26 0.000 56  2.85 0.00 219  2.44 0.00 734  2.03 0.021 18
 3.66 0. 000 13  3.25 0.000 58  2.84 0.00 226  2.43 0.00 755  2.02 0.021 69
 3.65 0. 000 13  3.24 0.000 60  2.83 0.00 233  2.42 0.00 776  2.01 0.022 22
 3.64 0. 000 14  3.23 0.000 62  2.82 0.00 240  2.41 0.00 798  2.00 0.022 75
3.63 0. 000 14  3.22 0.000 64  2.81 0.00 248  2.40 0.00 820  1.99 0.023 30
 3.62 0. 000 15  3.21 0.000 66  2.80 0.00 256  2.39 0.00 842  1.98 0.023 85
 3.61 0. 000 15  3.20 0.000 69  2.79 0.00 264  2.38 0.00 866  1.97 0.024 42
 3.60 0. 000 16  3.19 0.000 71  2.78 0.00 272  2.37 0.00 889  1.96 0.025 00

29
z G(z) z G(z) z G(z) z G(z) z G(z)
 1.95 0.025 59  1.55 0.060 57  1.15 0.125 07  0.75 0.226 63  0.35 0.363 17
 1.94 0.026 19  1.54 0.061 78  1.14 0.127 14  0.74 0.229 65  0.34 0.366 93
 1.93 0.026 80  1.53 0.063 01  1.13 0.129 24  0.73 0.232 70  0.33 0.370 70
 1.92 0.027 43  1.52 0.064 26  1.12 0.131 36  0.72 0.235 76  0.32 0.374 48
 1.91 0.028 07  1.51 0.065 52  1.11 0.133 50  0.71 0.238 85  0.31 0.378 28
 1.90 0.028 72  1.50 0.066 81  1.10 0.135 67  0.70 0.241 96  0.30 0.382 09
 1.89 0.029 38  1.49 0.068 11  1.09 0.137 86  0.69 0.245 10  0.29 0.385 91
 1.88 0.030 05  1.48 0.069 44  1.08 0.140 07  0.68 0.248 25  0.28 0.389 74
 1.87 0.030 74  1.47 0.070 78  1.07 0.142 31  0.67 0.251 43  0.27 0.393 58
 1.86 0.031 44  1.46 0.072 15  1.06 0.144 57  0.66 0.254 63  0.26 0.397 43
 1.85 0.032 16  1.45 0.073 53  1.05 0.146 86  0.65 0.257 85  0.25 0.401 29
 1.84 0.032 88  1.44 0.074 93  1.04 0.149 17  0.64 0.261 09  0.24 0.405 17
 1.83 0.033 62  1.43 0.076 36  1.03 0.151 50  0.63 0.264 35  0.23 0.409 05
 1.82 0.034 38  1.42 0.077 80  1.02 0.153 86  0.62 0.267 63  0.22 0.412 94
 1.81 0.035 15  1.41 0.079 27  1.01 0.156 25  0.61 0.270 93  0.21 0.416 83
 1.80 0.035 93  1.40 0.080 76  1.00 0.158 66  0.60 0.274 25  0.20 0.420 74
 1.79 0.036 73  1.39 0.082 26  0.99 0.161 09  0.59 0.277 60  0.19 0.424 65
 1.78 0.037 54  1.38 0.083 79  0.98 0.163 54  0.58 0.280 96  0.18 0.428 58
 1.77 0.038 36  1.37 0.085 34  0.97 0.166 02  0.57 0.284 34  0.17 0.432 51
 1.76 0.039 20  1.36 0.086 91  0.96 0.168 53  0.56 0.287 74  0.16 0.436 44
 1.75 0.040 06  1.35 0.088 51  0.95 0.171 06  0.55 0.291 16  0.15 0.440 38
 1.74 0.040 93  1.34 0.090 12  0.94 0.173 61  0.54 0.294 60  0.14 0.444 33
 1.73 0.041 82  1.33 0.091 76  0.93 0.176 19  0.53 0.298 06  0.13 0.448 28
 1.72 0.042 72  1.32 0.093 42  0.92 0.178 79  0.52 0.301 53  0.12 0.452 24
 1.71 0.043 63  1.31 0.095 10  0.91 0.181 41  0.51 0.305 03  0.11 0.456 20
 1.70 0.044 57  1.30 0.096 80  0.90 0.184 06  0.50 0.308 54  0.10 0.460 17
 1.69 0.045 51  1.29 0.098 53  0.89 0.186 73  0.49 0.312 07  0.09 0.464 14
 1.68 0.046 48  1.28 0.100 27  0.88 0.189 43  0.48 0.315 61  0.08 0.46812
 1.67 0.047 46  1.27 0.102 04  0.87 0.192 15  0.47 0.319 18  0.07 0.472 10
 1.66 0.048 46  1.26 0.103 83  0.86 0.194 89  0.46 0.322 76  0.06 0.476 08
 1.65 0.049 74  1.25 0.105 65  0.85 0.197 66  0.45 0.326 36  0.05 0.480 06
 1.64 0.050 50  1.24 0.107 49  0.84 0.200 45  0.44 0.329 97  0.04 0.484 05
 1.63 0.051 55  1.23 0.109 35  0.83 0.203 27  0.43 0.333 60  0.03 0.488 03
 1.62 0.052 62  1.22 0.111 23  0.82 0.206 11  0.42 0.337 24  0.02 0.492 02
 1.61 0.053 70  1.21 0.113 14  0.81 0.208 97  0.41 0.340 90  0.01 0.496 01
 1.60 0.054 80  1.20 0.115 07  0.80 0.211 86  0.40 0.344 58 0.00 0.50000
 1.59 0.055 92  1.19 0.117 02  0.79 0.214 76  0.39 0.348 27 0.01 0.503 99
 1.58 0.057 05  1.18 0.119 00  0.78 0.217 70  0.38 0.351 97 0.02 0.507 98
 1.57 0.058 21  1.17 0.121 00  0.77 0.220 65  0.37 0.355 69 0.03 0.511 97
 1.56 0.059 38  1.16 0.123 02  0.76 0.223 63  0.36 0.359 42 0.04 0.515 95

30
z G(z) z G(z) z G(z) z G(z) Z G(z)
0.05 0.519 94 0.45 0.673 64 0.85 0.802 34 1.25 0.894 35 1.65 0.950 53
0.06 0.532 92 0.46 0.677 24 0.86 0.805 11 1.26 0.896 17 1.66 0.951 54
0.07 0.527 90 0.47 0.680 82 0.87 0.807 85 1.27 0.897 96 1.67 0.952 54
0.08 0.531 88 0.48 0.684 39 0.88 0.810 57 1.28 0.899 73 1.68 0.953 52
0.09 0.535 86 0.49 0.687 93 0.89 0.813 27 1.29 0.901 47 1.69 0.954 49
0.10 0.539 83 0.50 0.691 46 0.90 0.815 94 1.30 0.903 20 1.70 0.955 43
0.11 0.543 80 0.51 0.694 97 0.91 0.818 59 1.31 0.904 90 1.71 0.956 37
0.12 0.547 76 0.52 0.698 47 0.92 0.821 21 1.32 0.906 58 1.72 0.957 28
0.13 0.551 72 0.53 0.701 94 0.93 0.823 81 1.33 0.908 24 1.73 0.958 18
0.14 0.555 67 0.54 0.705 40 0.94 0.826 39 1.34 0.909 88 1.74 0.959 07
0.15 0.559 62 0.55 0.708 84 0.95 0.828 94 1.35 0.911 49 1.75 0.959 94
0.16 0.563 56 0.56 0.712 26 0.96 0.831 47 1.36 0.913 09 1.76 0.960 80
0.17 0.567 49 0.57 0.715 66 0.97 0.833 98 1.37 0.914 66 1.77 0.961 64
0.18 0.571 42 0.58 0.719 04 0.98 0.836 46 1.38 0.916 21 1.78 0.962 46
0.19 0.575 35 0.59 0.722 40 0.99 0.838 91 1.39 0.917 74 1.79 0.963 27
0.20 0.579 26 0.60 0.725 75 1.00 0.841 34 1.40 0.919 24 1.80 0.964 07
0.21 0.583 17 0.61 0.729 07 1.01 0.843 75 1.41 0.920 73 1.81 0.964 85
0.22 0.587 06 0.62 0.732 37 1.02 0.846 14 1.42 0.922 20 1.82 0.965 62
0.23 0.590 95 0.63 0.735 65 1.03 0.848 50 1.43 0.923 64 1.83 0.966 38
0.24 0.594 83 0.64 0.738 91 1.04 0.850 83 1.44 0.925 07 1.84 0.967 12
0.25 0.598 71 0.65 0.742 15 1.05 0.853 14 1.45 0.926 47 1.85 0.967 84
0.26 0.602 57 0.66 0.745 37 1.06 0.855 43 1.46 0.927 85 1.86 0.968 56
0.27 0.606 42 0.67 0.748 57 1.07 0.857 69 1.47 0.929 22 1.87 0.969 26
0.28 0.610 26 0.68 0.751 75 1.08 0.859 93 1.48 0.930 56 1.88 0.969 95
0.29 0.614 09 0.69 0.754 90 1.09 0.862 14 1.49 0.931 89 1.89 0.970 62
0.30 0.617 91 0.70 0.758 04 1.10 0.864 33 1.50 0.933 19 1.90 0.971 28
0.31 0.621 72 0.71 0.761 15 1.11 0.866 50 1.51 0.934 48 1.91 0.971 93
0.32 0.625 52 0.72 0.764 24 1.12 0.868 64 1.52 0.935 74 1.92 0.972 57
0.33 0.629 30 0.73 0.767 30 1.13 0.870 76 1.53 0.936 99 1.93 0.973 20
0.34 0.633 07 0.74 0.770 35 1.14 0.872 86 1.54 0.938 22 1.94 0.973 81
0.35 0.636 83 0.75 0.773 37 1.15 0.874 93 1.55 0.939 43 1.95 0.974 41
0.36 0.640 58 0.76 0.776 37 1.16 0.876 98 1.56 0.940 62 1.96 0.975 00
0.37 0.644 31 0.77 0.779 35 1.17 0.879 00 1.57 0.941 79 1.97 0.975 58
0.38 0.648 03 0.78 0.782 30 1.18 0.881 00 1.58 0.942 95 1.98 0.976 15
0.39 0.651 73 0.79 0.785 24 1.19 0.882 98 1.59 0.944 08 1.99 0.976 70
0.40 0.655 42 0.80 0.788 14 1.20 0.884 93 1.6 0.945 20 2.00 0.977 25
0.41 0.659 10 0.81 0.791 03 1.21 0.886 86 1.61 0.946 30 2.01 0.977 78
0.42 0.662 76 0.82 0.793 89 1.22 0.888 77 1.62 0.947 38 2.02 0.978 31
0.43 0.666 40 0.83 0.796 73 1.23 0.890 65 1.63 0.948 45 2.03 0.978 82
0.44 0.670 03 0.84 0.799 55 1.24 0.892 51 1.64 0.949 50 2.04 0.979 32

31
z G(z) z G(z) Z G(z) z G(z) Z G(z)
2.05 0.979 82 2.44 0.992 66 2.83 0.997 67 3.22 0.999 36 3.61 0.999 85
2.06 0.980 30 2.45 0.992 86 2.84 0.997 74 3.23 0.999 38 3.62 0.999 85
2.07 0.980 77 2.46 0.993 05 2.85 0.997 81 3.24 0.999 40 3.63 0.999 86
2.08 0.981 24 2.47 0.993 24 2.86 0.997 88 3.25 0.999 42 3.64 0.999 86
2.09 0.981 69 2.48 0.99343 2.87 0.997 95 3.26 0.999 44 3.65 0.999 87
2.10 0.982 14 2.49 0.993 61 2.88 0.998 01 3.27 0.999 46 3.66 0.999 87
2.11 0.98257 2.50 0.993 79 2.89 0.998 07 3.28 0.999 48 3.67 0.999 88
2.12 0.983 00 2.51 0.993 96 2.90 0.998 13 3.29 0.999 50 3.68 0.999 88
2.13 0.983 41 2.52 0.994 13 2.91 0.998 19 3.30 0.999 52 3.69 0.999 89
2.14 0.983 82 2.53 0.994 30 2.92 0.998 25 3.31 0.999 53 3.70 0.999 89
2.15 0.984 22 2.54 0.994 46 2.93 0.998 31 3.32 0.999 55 3.71 0.999 90
2.16 0.984 61 2.55 0.994 61 2.94 0.998 36 3.33 0.999 57 3.72 0.999 90
2.17 0.985 00 2.56 0.994 77 2.95 0.998 41 3.34 0.999 58 3.73 0.999 90
2.18 0.985 37 2.57 0.994 92 2.96 0.998 46 3.35 0.999 60 3.74 0.999 91
2.19 0.985 74 2.58 0.995 06 2.97 0.998 51 3.36 0.999 61 3.75 0.999 91
2.20 0.986 10 2.59 0.995 20 2.98 0.998 56 3.37 0.999 62 3.76 0.999 92
2.21 0.986 45 2.60 0.995 34 2.99 0.998 61 3.38 0.999 64 3.77 0.999 92
2.22 0.986 79 2.61 0.995 47 3.00 0.998 65 3.39 0.999 65 3.78 0.999 92
2.23 0.987 13 2.62 0.995 60 3.01 0.998 69 3.40 0.999 66 3.79 0.999 92
2.24 0.987 45 2.63 0.995 73 3.02 0.998 74 3.41 0.999 68 3.80 0.999 93
2.25 0.987 78 2.64 0.995 85 3.03 0.998 78 3.42 0.999 69 3.81 0.999 93
2.26 0.988 09 2.65 0.995 98 3.04 0.998 82 3.43 0.999 70 3.82 0.999 93
2.27 0.988 40 2.66 0.996 09 3.05 0.998 86 3.44 0.999 71 3.83 0.999 94
2.28 0.988 70 2.67 0.996 21 3.06 0.998 89 3.45 0.99972 3.84 0.999 94
2.29 0.988 99 2.68 0.996 32 3.07 0.998 93 3.46 0.999 73 3.85 0.999 94
2.30 0.989 28 2.69 0.996 43 3.08 0.998 97 3.47 0.999 74 3.86 0.999 94
2.31 0.989 56 2.70 0.996 53 3.09 0.999 00 3.48 0.999 75 3.87 0.999 95
2.32 0.989 83 2.71 0.996 64 3.10 0.999 03 3.49 0.999 76 3.88 0.999 95
2.33 0.990 10 2.72 0.996 74 3.11 0.999 06 3.50 0.999 77 3.89 0.999 95
2.34 0.990 36 2.73 0.996 83 3.12 0.999 10 3.51 0.999 78 3.90 0.999 95
2.35 0.990 61 2.74 0.996 93 3.13 0.999 13 3.52 0.999 78 3.91 0.999 95
2.36 0.990 86 2.75 0.997 02 3.14 0.999 16 3.53 0.999 79 3.92 0.999 96
2.37 0.991 11 2.76 0.997 11 3.15 0.999 18 3.54 0.999 80 3.93 0.999 96
2.38 0.991 34 2.77 0.997 20 3.16 0.999 21 3.55 0.999 81 3.94 0.999 96
2.39 0.991 58 2.78 0.997 28 3.17 0.999 24 3.56 0.999 81 3.95 0.999 96
2.40 0.991 80 2.79 0.997 36 3.18 0.999 26 3.57 0.999 82 3.96 0.999 96
2.41 0.992 02 2.80 0.997 44 3.19 0.999 29 3.58 0.999 83 3.97 0.999 96
2.42 0.992 24 2.81 0.997 52 3.20 0.999 31 3.59 0.999 83 3.98 0.999 97
2.43 0.992 45 2.82 0.997 60 3.21 0.999 34 3.60 0.999 84 3.99 0.999 97
4.00 0.999 97

Recopilado de Kart Pearson, Tables for Statisticians and Biometricans Part I, Cambridge
University Press, Londres 1944, pp 2-6.

32
Apéndice.
Teorema de Bayes.
Si los eventos B1, B2, .....Bk constituyen una división del espacio muestral S, donde
P(Bi) 0 para i = 1,2, 3, ....., k, entonces para cualquier evento A en S es tal que P(A)  0

P( Br  A) P ( Br ) P ( A Br )
P( Br A)  k
 k

 P( B
i 1
i  A)  P( B ) P( A B )
i 1
i i

Para r = 1, 2,....., k.
Demostración:
Por definición de probabilidad condicional:
P( Br  A)
P( Br A)  (1)
P  A
Y del siguiente teorema:
P( A)   P Bi  A   PBi A Bi 
k k

i 1 i 1
Cuya demostración es:
A  B1  A  B2  A  .....  Bk  A
P A  PB1  A  B2  A  .....  Bk  A
Entonces:
P A  PB1  A  PB2  A  .....  PBk  A

P A   PBi  A   PBi P A Bi 
k k
(2)
i 1 i 1
Sustituyendo (2) en (1)
P ( Br  A)
P ( Br A) 
 PB PA B 
k

i
i 1
Y como:
P  A  B   P B  A  P B P A B 
Por lo tanto:
P( Br ) P( A Br )
P( Br A) 
 PB PA B 
k

i
i 1

Lo que completa la demostración.

33
Funciones de Probabilidad Discretas.
1.- Distribución de Probabilidad Binomial.
Definición.
Un experimento de Bernoulli puede resultar en un éxito con una probabilidad p y en un
fracaso con una probabilidad de q = 1p. Entonces la distribución de probabilidad de la
variable aleatoria binomial X, el número de éxitos en n experimentos independientes, es:

n
b(x;n,p) =   px qnx x = 0, 1, 2, 3,.........., n.
 x

La media es:
E(X)= np

Demostración:
Por definición:
n
E x    xf x 
x 0
Donde:
n
f x     p x q n  x
 x
Por lo que:
n
n
E  x    x   p x q n  x
x 0  x 

n
  x n x
E  x    x 
n!
 p q
x 0  n  x ! x! 

Si x = 0:
n
  0 n 0
E x    0
n!
 p q
x 0  n  0! 0! 
n
 n!  0 n
E x    0 1 q
x 0  n ! 1 
E x   0

Por lo que la suma se empieza con x = 1


n
  x n x
E  x    x 
n!
 p q
x 1  n  x ! x  x  1! 
n
 n n  1!  x 1 n  x
E  x      pp q
x 1  n  x !  x  1! 
n
E  x   np  
 n  1!  p x 1q n x

x 1  n  x !  x  1! 

Como:

34
n
 n  1! 
  p  q
  n  x ! x  1!  p x 1 n  x
q
n 1

x 1  
Y
(p +q) = 1

Por lo que:
n
E  x   np  
 n  1!  p x 1q n x

x 1  n  x !  x  1! 

E  x   np1
n 1

Por lo tanto:
E x   np

La varianza es:
2 = npq

Demostración:
Por definición:
n
 2  E x   2   Px x  np 2
x 0
Desarrollando el cuadrado:
 2   Px x 2  2 xnp  n 2 p 2 
n
2

x 0
Rescribiendo:
x 2  x  xx  1
Entonces:
   Px x  x x  1  2 xnp  n 2 p 2 
n
2 2

x 0

Separando la suma:

 Px x  xx  1  2 xnp  n 2 p 2    Px x   Px xx  1  Px  2 xnp   Px n 2 p 2
n n n n n

x 0 x 0 x 0 x 0 x 0

Realizando las sumas por separado:


n

 Px x  np
x 0

35
n n
  x n x
     p q x  x  1
n!

x 0
P x x x  1   
x 0  n  x ! x! 
n n
 n n  1n  2 !  2 x 2 n  x
 P  x  x  x  1     p p q x  x  1
x 0 x  2  n  x ! x  x  1 x  2 ! 
n
     
n
 n  2 !  p x 2 q n x

x 0
P x x x  1 n n  1 p 2
  
x  2  n  x !  x  2 ! 

La sumatoria:
n
 n  2!  p x2 q n x   p  qn2
  
x 2  n  x !  x  2 ! 

Y como:
(p + q) = 1

Por lo que:
n

 Px xx  1 nn  1 p


x 0
2

 Px xx  1 n  n p 2  n 2 p 2  np 2


n
2

x 0
n n

 Px  2 xnp   2 pn Px x


x 0 x 0

Como:
n

 Px x  np
x 0
Entonces:
n

 Px  2 xnp  2 pnnp   2n


x 0
2
p2

n n

 Px n 2 p 2  n 2 p 2  Px 
x 0 x 0

De donde:
n

 Px    p  q 
x 0
n

Como: (p + q) = 1
Por lo tanto:
n

 Px n
x 0
2
p 2  n 2 p 2  p  q  n 2 p 2
n

De la sumatoria:

 Px x  xx  1  2 xnp  n 2 p 2    Px x   Px xx  1  Px  2 xnp   Px n 2 p 2
n n n n n

x 0 x 0 x 0 x 0 x 0

36
Sustituyendo los valores obtenidos de las sumatorias queda la siguiente igualdad:

 Px x  xx  1  2 xnp  n p 2   np  n 2 p 2  np 2  2n 2 p 2  n 2 p 2


n
2

x 0

Simplificando:

 Px x  xx  1  2 xnp  n p 2   np  np 2


n
2

x 0

 Px x  xx  1  2 xnp  n p 2   n  p  p 2   np1  p   npq


n
2

x 0

Por lo tanto:  2  npq

La desviación estándar es:


 = npq

37
2.- Distribución de Probabilidad Hipergeométrica.
Definición.
La distribución de probabilidad de la variable aleatoria hipergeométrica X, el número de
éxitos en una muestra de tamaño n seleccionada de N posibles resultados, de los cuales k
son considerados como éxitos y N  k como fracasos es:

 k  N  k 
  
 x  n  x 
h ( x; N , n , k )  x  0,1,2      n
N
 
n

La media es:
E x    
nk
N
Demostración:
Por definición.
 k  N  k 
  

n
x  n  x 
EX    x
x 0 N
 
n
Cuando se evalúa en cero la sumatoria el primer término es cero, razón por la cual la
sumatoria empieza desde uno, por lo que ahora se tiene la siguiente expresión:

N k
 
n
k  1!  n  x 
EX   k  x
x 1 x k  x ! x  1!  N 
 
n
k n  k  1  N  k 
EX      
 N  x 1  x  1 n  x 
 
n

Realizando la siguiente igualdad: y = x ─ 1 y m = n-1, entonces se tiene:

k m  k  1 N  k 
EX      
 N  y 0  y  m  y 
 
n

38
Con el teorema siguiente:
k
 m  n   m  n 
  
r 0  r  k  r 
   
 k 
En:
m
 k  1 N  k   N  1
  
y 0  y  m  y 
   
 m 

Por lo que ahora se tiene lo siguiente:


k  N  1
EX    
 N   m 
 
n
Donde m = n ─ 1, de donde resulta:
 N  1
EX  
k
 
N!  n 1 
N  n !n !
Simplificando:
k n ! N  n !  N  1! 
EX    
N!  n  1 !  N  1  n  1! 
k n ! N  n !  N  1! 
EX    
N  N  1!  n  1! N  1  n  1! 
k n ! N  n !  N  1! 
EX   
N  N  1!  n  1! N  n ! 
k n !  1 
EX    
N  n  1! 
k n n  1!  1 
EX    
N  n  1! 
k n 
EX   1
N
Por lo tanto la esperanza matemática es:
E x  
nk
N
La varianza es:
 N  n  k  k
 2  n  1  
 N  1  N  N 

39
3.- Distribución de Probabilidad Poisson.
La distribución de probabilidad de la variable aleatoria de Poisson X, que representa el
número de resultados que ocurren en un intervalo de tiempo dado o en una región
específica, es
e  
x

p( x; p) 
x!
x = 0, 1, 2, 3,..........,
Donde:
e = 2.71828.....
 = np que representa el número promedio de resultados por unidad de tiempo o
región.

El parámetro  se puede obtener de tres maneras, que son las siguientes:


1. Cuando se conocen n y p
2. Como valor término medio de la variable. Cuando se dice promedio, valor promedio,
media o esperanza matemática.
3. Estimado a partir de la media de una muestra de valores observados de la variable.

La distribución de Poisson es una distribución de probabilidad:


 f  x,    1
x 0

   
 x

 e 
 x!   1
x 0  
Colocando fuera de la suma e   se obtiene lo siguiente:

 x 
e     1


x 0  x! 

Y como:

 x 
    e 
x 0  x! 

Entonces:

e   x!   e e   1


 x
  

x 0  

Por lo tanto se prueba que:


 x 
 e   x!   1

x 0  

Una manera alternativa de demostrar que la distribución de Poisson es una función de


probabilidad es la siguiente:
Sea la función de probabilidad Poisson:
x e 
Pn ( x) 
x! 40
Utilizando la descomposición de la función ex en la serie de Maclaurin:
x x2
ex  1   
1! 2!
Como la serie anterior es convergente para cualquier valor de x, se puede establecer la
igualdad x =  obteniendo la siguiente expresión:

 2 
x
e  1      
1! 2! x 0 x!

Calculamos la suma buscada de las probabilidades de la expresión:


 P ( x)
x 0
n

Teniendo en cuenta que e no depende de x, y por lo tanto, puede colocarse fuera del signo
de la sumatoria:
 
x e   
x
 P ( x)  
x 0
n
x 0 x!
e 
 x!  e  e  e
x 0
 0
1

La media, esperanza matemática, es:


E(x) =  = 

Demostración:
Por definición:

E x    xPx 
x 0
Donde:
e  x
Px   x
x!
Por lo que se tiene la siguiente expresión:

e  x
E x    x
x 0 x!
Si x = 0, entonces:

e   0
E x    0 0
x 0 0!
Por lo que se empieza la sumatoria con x = 1

e     x 1 
E x    x 
x 1 x  x  1!

E  x   e  

 x 1

x 1 x  1!
Sea m = x ─ 1, entonces:

41
E  x   e   

 
m

x 1 m!
Y como la sumatoria:

   e
m


x 1 m!

Por lo tanto:
E x   e   e   e 0  

La varianza es:
2 = 
Demostración.
Por definición:

 2   x   2   Px x   2
x 0
Donde:
e  x
Px  
x!
Entonces:
 
e   x
 2   Px x   2   x   2
x 0 x 0 x!
Desarrollando:
x   2  x 2  2 x   2
Haciendo la igualdad:
x 2  x  xx  1
Entonces:
x   2  x  xx  1  2 x   2
Por lo que:
e   x  x
x   2   e  x  xx  1  2 x   2
 
 
2  
x 0 x! x 0 x!
Entonces se tienen las siguientes sumatorias:

e   x 
e  x 
e   x 
e   x 2
 2

x!
x
x!
x x  1  
x!
 2 x   
x!
 
x 0 x 0 x 0 x 0
Resolviendo:

e   x 
e   x 1 
e   x 1
x 0 x!
x  
x 1 x  x  1!
x   
x 1  x  1!
Donde:

e   x 1 x 1
x 1  x  1!
 e 
  x  1 !
e  e   1

Por lo tanto:

42

e   x

x 0 x!
x

Con la suma:

e   x 
e   x 2 2 
e    x 2
 x x  1   x x  1   
2

x 0 x! x 2 x  x  1 x  2 ! x  2  x  2 !
Donde:

e   x2 
 x 2

x2  x  2 !
 e 

x2  x  2 !
 e  e   1

Por lo tanto:

e   x
 x x  1  2
x 0 x!
Con la suma:

e  x 
e  x 
e   x 1 
e    x 1
  2 x   2  x  2  x  2 
x 0 x! x 0 x! x 1 x x  1! x 1  x  1!
Donde:

e    x 1 
 x 1
 2   2 e    2 e  e   2  22
x 1  x  1 ! x 1  x  1 !
Ya que:   

Ahora con la suma:


e  x 2 e  x x
 
  

x 0 x!
   2

x 0 x!
 e 
2 

x 0 x!
  2 e   e   2

Por lo tanto:

e  x
2  x   2    2  22  2
x 0 x!
De donde la varianza resulta ser:
2 
La desviación es:
 

43
Funciones de Probabilidad Continuas.
1.- Distribución Uniforme.
Definición.
Una variable aleatoria que toma valores en un intervalo (a, b).
Diremos que X  U (a, b) si su función de densidad está dada por:

1
f(x) = sí x  (a, b)
ba

f(x) = 0 en cualquier otro caso

Es una función de densidad de probabilidad:


b

 f ( x)dx  1
a

Demostración:
b
1
a b  a dx  1
x  ba  b  a  1
b
1 1

ba a
dx 
ba ba

Su función de distribución:
Demostración:
x

 f t dt
a
x x
1 1
a b  a dt  b  a a dt
1 x
ta 
1
x  a   x  a
ba ba ba

Por lo tanto:
F(X) = 0 sí x  a

xa
F(x) = sí a  x  b
ba

F(x) = 1 sí x  b

44
Esperanza Matemática:
Demostración:
 1 
b b

a xf ( x)dx  a x b  a dx


b
1  x2 
b
1
b  a a
 xdx   
b  a  2  a
1  b2  a2  b2  a2
  
b  a  2  2b  a 


b  a b  a 
2b  a 

De donde resulta:

ba
  E(x) 
2

Varianza:
Demostración:

 1 
b b

x f ( x)dx  E x    x 2  dx  E  x 
2 2 2

a a ba
b
1  x3  b a
b 2


1
 x 2
dx  E  x 2
     
ba a ba 3 a  2 

1  b3  a3   b  a 
2

   
b  a  3   2 
b3  a3  b  a 
2

  
3b  a   2 

Simplificando esta última expresión se obtiene la varianza:


(b  a) 2
Var(x) =
12

45
2.- Distribución de Probabilidad Exponencial.
En un proceso de Poisson consideramos la variable “X = tiempo entre dos sucesos
consecutivos”.
X tiene una distribución exponencial con parámetro , X  e , (donde  es el número de
sucesos que ocurren en una unidad de tiempo).
Definición.
Una variable aleatoria X tiene una distribución exponencial y se denomina variable
aleatoria exponencial si y sólo si su función de densidad de probabilidad está dada por:

f(x)  ex sí x  
1
Donde:  
E( X )
f(x) = 0 en cualquier otro caso

Es una función de densidad de probabilidad ya que cumple con lo siguiente:


1.- f(x) ≥ 0
Lo cumple por ser una función exponencial.

2.-  f ( x)dx  1


Demostración:

 e
 x
dx
0
b
límite  e x dx
b 
0
Integral que se resuelve por cambio de variable
Sea:
t  e  x
dt
   e  x
dx
dt  e x dx

Entonces:
b b
límite  e x  dx   límite  e x   dx
b  b 
0 0

Realizando el cambio de variable.

 
b
 límite  e t dt   límite e t
b

b  b  0
0

46
Sustituyendo:
t  e  x

 límitee 
 x b  1 
  límite x 
b  0 b 
e 0
Evaluando la integral:

  1   1   1 
 límite b   límite  0     0  límite 0 
 b   e  b   e    b 
e 
  1 
  0  límite 
 b 
 1 

   límite 1
b 

 límite1
b 

1
Lo cual queda demostrado.

Función de distribución:
Demostración:
x
F ( x)   e t dt
0

La integral se resuelve por cambio de variable:


Sea:
w  e  t
dw
   e  t
dx
dw  e t dt

Entonces:
x
F ( x)   e t dt
0
x
F ( x)   e t  dt
0
x
F ( x)    e t   dt
0

47
Realizando el cambio de variable:
x
F ( x)    e t   dt
0
x
F ( x)    e w dw
0
x
F ( x )  e w
0

Evaluando la integral:

x
F ( x )  e w
0
x
F ( x )   e  t
0

F ( x)   e   x
 e   0  

F ( x )   e  x  e 0 
F ( x )  1  e  x

Por lo tanto la función de distribución es:


F(x) = 1  ex sí x  0

F(x) = 0 sí x  0

La media es:
1
E ( x) 

Demostración:
Por definición de esperanza matemática:

E  x    xf  x dx
0

Entonces:

E x    e x xdx
0

Resolviendo la integral por partes:


Sea:
ux
du
1
dx
du  1dx

48
Y

 dv  e dx
 x

Resolviendo
 e dx
 x

Sea:
t  x
dt
 
dx
dt  dx
Entonces:
v    e t dt
v  et
v  e  t
De donde:
uv   vdu
Resulta ser:
xe  x   e  x dx
De donde se resuelve:
 e dx
 x

Por cambio de variable:


Sea:
w  x
dw
 
dx
dw  dx
Por lo que:

 e dx    e   dx
 x 1  x

1
e 
 x
dx   e w
dw

1
e
 x
dx   e w

1
e
 x
dx   e x

Por lo tanto:
 1  1  1
uv   vdu  xe x    e x  xe x  e x 
  0  0 

49
De donde:
E x  
1

Lo cual queda demostrado.

La varianza es:

1
Var ( x) 
2

50
3.- Distribución de Probabilidad Normal.

 f x dx  1

Demostración:
Sea:
 x   2

f x  
1 2 2
e
2 

Como:
 

 x   2

 f x dx  
1
I e 2 2
dx
  2 

Estableciendo la siguiente igualdad:


x
t

Derivando:
1
dt  dx

Entonces:


 x   2
1 1

 2
e 2 2

dx

Por lo que:
 t2
1 2

 2
e dt

Considerando I2:
 t2  s2
1  1 
I   dt 
2 2 2
e e ds
 2  2

Por lo que ahora tenemos una integral doble de la siguiente forma:


  s 2
t 2 
1  2
I  2
e dsdt
  
2
De donde resulta:
 

s 2 t 2 
1
I   
2
e 2 dsdt
2 

Realizando un cambio a coordenadas polares.


Sea:

51
s = r cos ∞
Y
t = r sen ∞

Por lo que el área ds y dt se transforma en rdrd, y los nuevos intervalos son:


-  s   y -  t  

0r y 0    2

Entonces:
2 

r 2
sen 2  r 2 cos2  
1
I  e rdrd
2 2
2 0 0
2 


r 2 sen 2  cos2  
1
I  e rdrd
2 2
2 0 0
2  r 2 1
1 
I  e rdrd
2 2
2 0 0
2  r2
1 
I  e rdrd
2 2
2 0 0
Resolviendo:
 r2

e
0
2
rdr

Por cambio de variable:


Sea:
r2
w
2
dw  r
dw  rdr

La integral resultante es:


 r2

I    e
2 2
 1rdr
0

Por lo que:
 
  e w
dw  lim  e w dw
b 
0 0

 
2
r

 lim e   lim e 2w
b  0 b   0
Sustituyendo:

52
  
 
b2 o2
 lim e  lim e    lim b 2  lim 1  0  1  1

 1
2 2
b  b  b  b  
   e2 

Entonces:
2
2
 1d  
0
0
 2  0  2

Por lo tanto: I2 
1
2   1
2

I=1
Lo cual queda demostrado.

53
BIBLIOGRAFÍA.
1.- Autor. Walpole-Myers.
Titulo. Probabilidad y Estadística.
Editorial. McGraw-Hill. Cuarta Edición.

2.- Autor. John B. Kennedy-Adam M. Neville.


Titulo. Estadística para Ciencias e Ingeniería.
Editorial. Harla.

3.- Autor. Jay L. Devore.


Titulo. Probabilidad y Estadística para Ingeniería y Ciencias.
Editorial. Thomson-Learning.

4.- Autor. David R Anderson-Dennis J. Sweeney-Thomas A. Williams.


Titulo. Estadística para Administración y Economía.
Editorial. Thomson-Learning.

5.- Autor. Erwin Kreyszig.


Titulo. Introducción a la Estadística Matemática Principios y Métodos.
Editorial. Limusa.

6.- Autor. Mendenhall-Scheaffer-Wackerly.


Titulo. Estadística Matemática con Aplicaciones.
Editorial. Grupo Editorial Iberoamérica.

7.- Autor. Piotr M. Wisniewski -Guillermo Bali.


Titulo. Ejercicios y Problemas de Teoría de las Probabilidades.
Editorial. Trillas.

8.- Autor. Lind-Marchal-Mason.


Titulo. Estadística para Administración y Economía.
Editorial. Alfaomega.

9.- Autor. David K. Hildebrand-R Lyman Ott.


Titulo. Estadística Aplicada a la Administración y la Economía.
Editorial. Addison Wesley Longman.

10.- Autor. Morris H. DeGroot.


Titulo. Probabilidad y Estadística.
Editorial. Addison-Wesley Iberoamericana.

54

You might also like