Professional Documents
Culture Documents
Experimento Aleatorio
Espacio muestral
Eventos
Frecuencia Relativa
nA
repeticiones, llamaremos a fA = frecuencia relativa del evento A en las n
n
repeticiones del experimento ε . La f A tiene las siguientes propiedades:
i) 0 ≤ f A ≤ 1 .
Probabilidad
i) 0 ≤ P ( A) ≤ 1 .
ii) P(S) = 1.
n n
P
en par, entonces: A = ∑ P ( Ai ) .
i
i =1 i =1
P ( A) = 1 − P ( Ã ) .
P( S ) = P ( A ∪ Ã ) = P ( A) + P ( Ã ) , así tenemos 1 = P( A) + P ( Ã ) .
Demostración:
S
A B
A∪ B = A∪ (B ∩ Ã)
B = ( A ∩ B) ∪ ( B ∩ à ) A∩B Ã∩B
Por lo tanto:
P ( A ∪ B ) = P ( A) + P ( B ∩ Ã )
P( B ) = P( A ∩ B ) + P ( B ∩ Ã )
Probabilidad y Estadística – Resumen Teórico 4
P ( A ∪ B ) − P ( B ) = P ( A) − P ( A ∩ B )
P ( A ∪ B ∪ C ) = P ( A) + P ( B ) + P ( C ) − P ( A ∩ B ) − P ( A ∩ C ) − P ( B ∩ C ) + P ( A ∩ B ∩ C )
Teorema1.5: Si A ⊂ B , entonces P( A) ≤ P( B ) .
Métodos de Conteo
Principio de la Multiplicación:
P
L1
n1 Principio de la
Adición:
L1 n2 n1
L2 Para ir de un punto p
P
a la recta L1 hay n1 maneras,
n2
L2
Probabilidad y Estadística – Resumen Teórico 5
Permutaciones:
Agrupar (ó permutar) n objetos es equivalente a ponerlos en algún orden
específico, en una caja de n lugares. La primera casilla 1 2 3 4 .... n
se puede llenar de cualesquiera de las n maneras, la
segunda de (n-1) maneras.....y así obtendremos, por el principio de la
multiplicación, que la caja se puede llenar de n( n − 1)( n − 2) 1 maneras. Entonces
las maneras de permutar los n objetos son n!.
n n!
notación factorial: P =
r ( n − r )!
Combinaciones:
Consideremos nuevamente n objetos diferentes.
1 2 ... r .... n
Esta vez queremos contar cuantas maneras hay de
escoger r de esos n objetos pero sin que nos importe el orden. Sea C el número de
maneras de escoger r objetos sin orden, sabemos que hay r! Maneras de
permutarlos, entonces:
n! n n!
Cr! = ⇒ C = =
( n − r )! r r! ( n − r )!
Probabilidad y Estadística – Resumen Teórico 6
1- ( nr ) = ( n n- r)
2- ( nr ) = ( nr -- 11 ) ( n r- 1)
+
n!
permutaciones esta dado por: .
n1 ! n 2 ! n K !
Probabilidad Condicional
respecto del espacio muestral reducido A, en vez del espacio muestral original S.
Podemos escribir:
B = B∩S
y sabemos que :
P( B ) = P( B ∩ S ) = P( B ) P ( S ) ⇒ P B ( S ) = P(PB( ∩S )S )
Si ahora reducimos el espacio Muestral de S a A:
( A ) P ( A)
P( A ∩ B ) = P B
( B ) P( B )
P( A ∩ B ) = P A
S S S S
A B B A A B
A B
( )
i ) P A B = 0 ≤ P( A) puesto que A no puede ocurrir si ocurrió B.
P ( A ∩ B ) P ( A)
( )
ii ) P A B =
P( B )
=
P( B )
≥ P ( A) puesto que 0 < P( B ) ≤ 1 .
P( A ∩ B ) P( B )
( )
iii ) P A B =
P( B )
=
P( B )
= 1 ≥ P ( A) .
( )
relativa de P A B y P( A) .
Definición: Decimos que los eventos B1, B2, B3,...,Bk representan una
partición de S si:
a) Bi ∩ B j = φ , ∀i ≠ j . B1 B2 B3
B4
A B5 B6
Probabilidad y Estadística – Resumen Teórico 8
k
b) Bi = S .
i =1
c) P( Bi ) > 0, ∀i
Sea A algún evento de S y sea B1, B2, B3,...,Bk una partición de S. Por lo
tanto podemos escribir:
aditiva:
P( A) = P ( A ∩ B1 ) + P ( A ∩ B 2 ) + + P ( A ∩ B k )
Teorema de Bayes:
P A P ( Bi )
Bi
P i = k
B
, con i = 1, 2, 3....,k
A
∑ P
A
B P ( B j )
j =1 j
i ) P ( A ∩ B ) = P ( A) P ( B )
ii ) P( A ∩ C ) = P ( A) P ( C )
iii ) P( B ∩ C ) = P ( B ) P ( C )
iv ) P( A ∩ B ∩ C ) = P ( A) P ( B ) P( C )
Variable Aleatoria
A = { s ∈ S X S ∈ B}
S A B RX
S XS
P ( B ) = P ( A) A = { s ∈ S X S ∈ B}
Definición: Sea X una variable aletoria discreta, con cada resultado posible
Propiedades:
i ) p ( x i ) ≥ 0, ∀i .
∞
ii ) ∑ p( x ) = 1 .
i =1
i
p( x )
X1 X2 X3 X4 Xn
( B = { x1 , x 2 , , x n } ) . Por lo tanto:
P( B ) = P[ S X S ∈ B ] (puesto que son equivalentes)
P( B ) = P[ S X S = x i ; i = 1,2,3, , n]
P( B ) = ∑ p ( x j )
n
j =1
n
P[ X = k ] = p k (1 − p )
n−k
k
AAAAAAA AÃÃÃÃÃÃÃÃ
Ã
k n−k
k
Probabilidad y Estadística – Resumen Teórico 13
i ) f ( X ) ≥ 0, ∀X .
f ( X ) dx = 1 .
+∞
ii ) ∫
−∞
P[ a ≤ X ≤ b] = ∫ f ( X ) dx .
b
fdp
P[ a ≤ X ≤ b ]
a b
P[ X = x 0 ] , puesto que P[ X = x 0 ] = ∫ f ( X ) dx = 0 .
x0
x0
Teorema 4.2:
F ( X ) = ∑ p( x j ) ∀j x j < X
j
F( X ) = ∫ f ( s ) ds
X
−∞
Teorema 4.3:
F ( x1 ) ≤ F ( x2 ) .
F ( − ∞ ) = 0 y F ( + ∞ ) = 1 ).
Demostración:
i. F ( − ∞ ) = lim f ( s ) ds = 0
X
∫
x → −∞ − ∞ .
ii. F ( + ∞ ) = lim f ( s ) ds = 1
x
∫
x → +∞ − ∞ .
Teorema 4.4:
Probabilidad y Estadística – Resumen Teórico 15
dF ( x )
f ( x) = para toda X en la cual F es diferenciable.
dx
[ ]
p ( x j ) = P X = x j = F ( x j ) − F ( x j −1 ) .
Demostración:
F ( x ) = P( X ≤ x ) = ∫ f ( s )ds .
x
a- Así, aplicando el teorema
−∞
[
F ( x j ) = P X = x j ∪ X = x j −1 ∪ X = x j − 2 ∪ ∪ X = x1 ]
= P ( x j ) + P ( x j −1 ) + P ( x j − 2 ) + P( x1 )
[
F ( x j −1 ) = P X = x j −1 ∪ X = x j − 2 ∪ ∪ X = x1 ]
= P ( x j −1 ) + P ( x j − 2 ) + P ( x1 )
[ ]
Por lo tanto, F ( x j ) − F ( x j −1 ) = P X = x j = p ( x j ) .
1 a+b
f ( x) = , a ≤ x ≤b. E( x) = ,esperanza
b−a 2
Probabilidad y Estadística – Resumen Teórico 16
f ( x) = 0 , en caso contrario. V ( x) =
( b − a)
2
, varianza
12
[ ]
sea p ( x j ) = P X = x j con i = 1, 2, 3,...,n. Entonces el valor esperado de X (o
n
E ( x ) = ∑ xi p( xi )
i =1
n
P[ X = k ] = p k (1 − p )
n−k
k
Tenemos:
n
n!
E( x) = ∑ k p k (1 − p )
n−k
k =0 k! ( n − k )!
n
n!
E( x) = ∑ p k (1 − p )
n−k
(ya que con k = 0 se hace cero).
k =1 ( k − 1)! ( n − k )!
E ( x ) = ∫ xf ( x ) dx
+∞
−∞
x f ( x ) dx , es finita
+∞
∫ −∞
a+b
E( x) =
2
1
Demostración: La fdp de X está dada por f ( x ) = , a ≤ x ≤ b por
b−a
lo tanto:
b
x 1 x2 a+b
E( x) = ∫
b
dx = =
a b−a b−a 2 a
2
Propiedades de la Esperanza
−∞ −∞
Demostración:
Probabilidad y Estadística – Resumen Teórico 19
E ( Cx ) = ∫ Cxf ( x ) dx = C ∫ xf ( x ) dx = CE ( x )
+∞ +∞
−∞ −∞
V ( x ) = E[ x − E ( x ) ]
2
designa con σ ( x ) .
Teorema 7.5:
( )
V ( x) = E x 2 − [ E( x) ]
2
Demostración:
V ( x ) = E[ x − E ( x ) ]
2
{
= E x 2 − 2 xE ( x ) + [ E ( x ) ]
2
}
( )
= E x 2 − 2E ( x ) E ( x ) + [ E ( x ) ]
2
( )
= E x 2 − [ E( x) ]
2
Probabilidad y Estadística – Resumen Teórico 20
Propiedades de La Varianza
Demostración:
V ( x + C ) = E[ ( x + C ) − E ( x + C ) ] = E[ x + C − E ( x ) − C ] = E[ x − E ( x ) ] = V ( x )
2 2 2
Demostración:
2 2
[
V ( Cx ) = E ( Cx ) − [ E ( Cx ) ] = C 2 E ( x ) − C 2 E [ ( x ) ] = C 2 E ( x ) − [ E ( x ) ]
2 2 2 2
] = C V ( x)
2
iii ) Sea X una variable aleatoria con varianza finita. Luego, para cualquier
número real α .
V ( x) = E( x − α ) − [ E( x − α ) ]
2 2
Distribución de Poisson:
e −α α x
P[ X = x ] = , donde α = λT y λ = veces que ocurre.
x!
T = Unidad de tiempo.
E( x) = V ( x) = α
Demostración:
∞
ke −α α k ∞ e −α α k
E( x) = ∑ =∑ , si s = k –1 tenemos
k =0 k! k =1 ( k − 1)!
∞
e −α α s +1 ∞
e −α α s
E( x) = ∑ =α∑ =α .
s =0 s! s =1 s!
k 2 e −α α k ∞ ke −α α k
( )
∞
E x2 = ∑ =∑ , si s = k –1 tenemos
k =0 k! k =1 ( k − 1)!
( )
E x2 = ∑
∞
( s + 1) e −α α s +1 =α∑
∞
se −α α s ∞ e −α α s
+∑ =
s =0 s!
s =0 s! s =0 s !
E ( x ) =α
( ) ( )
= αα + α1 = E x 2 = α 2 + α ∴V ( x ) = E x 2 − [ E ( x ) ] = α 2 + α − α 2 = α .
2
X ~ B ( n, p ) ⇒ E ( x ) = np
np = α
X ~ Ρ( α ) ⇒ E ( x ) = α
Demostración: Si X ~ B ( n, p ) , entonces:
n α
P[ X = x ] = p x (1 − p )
n−x
Como np = α ⇒ p
x n
n( n − 1) 1 α
x n −x
α α
f ( x) = 1 − 1 − =
( n − x )! x! n n n
n( n − 1) 1
n −x
αx 1 α α
= 1 − 1 − =
x! ( n − x )( n − x − 1) 1 n x n n
n( n − 1) 1 1
A ) nlím =1
→∞ ( n − x )( n − x − 1) 1 n x
−x
α
B ) lím 1 − =1
n→∞
n
Probabilidad y Estadística – Resumen Teórico 22
n
n − ( −α )
n α
C ) lím 1 − α = lím 1 + 1 = lím 1 + 1
n →∞
− n n → ∞
− n
n →∞
n
α α
n −α
− n −α
−
α α
1 1 −α
= lím 1 + = lím 1 + =e
n →∞ n
− α
n → ∞ n
− α
e
α x e −α
Juntando los puntos A, B y C Tenemos: f ( x ) =
x!
Distribución Geométrica
P[ X = x ] = p ( 1 − p ) ó, p k −1 (1 − p )
k −1
1 q
E( x) = V ( x) =
p p2
Distribución Hipergeométrica
r N-r
P[X = k] = k n-k
N
n
Probabilidad y Estadística – Resumen Teórico 23
r
Teorema 8.6: Sea X una variable Hipergeométrica y sean p = y
N
q = 1 − p tenemos:
N −n
E ( x ) = np V ( x ) = npq
N −1
Para N grande,
n
P[ X = k ] ≅ p k (1 − p )
n −k
k
Distribución Normal
Una variable aleatoria X que toma todos los valores reales tiene
distribución Normal Gaussiana si su fdp es de la siguiente forma:
1 x−µ 2
( )
−
1 2 σ
f ( x) = e X ~ N µ,σ 2
2π σ
Propiedades:
f ( x ) dx = 1
+∞
i) ∫
−∞
ii ) E ( x ) = µ
iii ) V ( x ) = σ 2
x2
1 −2
ϕ ( x) = e
2π
x2
1
P[ a ≤ x ≤ b ] =
b −
2π
∫ a
e 2
dx
x2
cálculo (ya que no hay función que derivada sea igual a e − 2 ) usamos los métodos
x2
1 −
Φ( s ) =
s
2π
∫
−∞
e 2
dx
( X − µ)
(
Por lo tanto, si X ~ N µ , σ 2 entonces z = ) σ
tiene una distribución
N ( 0,1) , así:
Distribución exponencial
Se dice que una variable aleatoria continua X que toma todos los valores no
negativos tiene una distribución exponencial con parámetros α > 0 si su fdp está
dada por:
αe −αx si x > 0
f ( x) =
0 si x ≤ 0
Probabilidad y Estadística – Resumen Teórico 25
Propiedades:
i ) F ( x ) = P[ X ≤ x ] = ∫ αe −αT dT = 1 − e −αx ; x ≥ 0
x
1
E ( x ) = − xe −αx + ∫ e −αx dx =
∞
0 α
( )
V ( x) = E x 2 − [ E( x) ] =
2 1
α2
x > s + T P( x > s + T ) e
−α ( s + T )
P = = = e −αT = P( X > T )
x>s P( x > s ) e −αs
nA
ocurre el evento A en las n repeticiones y sea f A = . Sea p = P( A) igual en las
n
n repeticiones, entonces:
p (1 − p )
i ) P[ f A − p ≥ ε ] ≤ donde ε es cualquier número mayor que 0
ne 2
ó en forma equivalente:
p (1 − p )
ii ) P[ f A − p < ε ] ≥ 1 −
ne 2
Probabilidad y Estadística – Resumen Teórico 26
nA p (1 − p )
fA = , entonces E ( f A ) = p y V ( f A ) = .
n n
p (1 − p ) 1
P f A − p < k ≥ 1− 2
n k
p (1 − p ) nε 2
. Luego k =
2
Sea ε = k .
n p (1 − p )
desigualdad de Chebyschev
P[ X − c ≥ ε ] ≤
1
E( x − c)
2
ε 2
P[ X − c < ε ] > 1 −
1
E ( x − c)
2
ε 2
ii ) Si elegimos c = µ tenemos
V ( x)
P[ X − µ ≥ ε ] ≤
ε2
P[ X − µ ≥ kσ ] ≤
1
k2
Probabilidad y Estadística – Resumen Teórico 27
Demostración: Consideremos
c+ε y +∞.
Ahora, x − c ≥ ε equivalente a
( x − c) 2 ≥ 1 y por lo tanto la integral
ε2
( x − c ) 2 f ( x ) dx
anterior es ≤ ∫ donde R = { x x − c ≥ ε } .
R ε 2
+∞( x − c ) 2 f ( x ) dx
∫−∞ 2 ε
Lo que es igual a
1
E ( x − c ) que es lo que buscábamos
2
ε 2
X − np
Si X ~ B ( n, p ) y si Y = luego, para una n grande, Y tiene
np(1 − p )
Como estamos pasando de una variable discreta a una continua habrá que
usar la corrección por continuidad:
i ) P[ X = k ] ≅ P[ k − 0,5 ≤ X ≤ k + 0,5]
ii ) P[ a ≤ X ≤ b] ≅ P[ a − 0,5 ≤ X ≤ b + 0,5]
Probabilidad y Estadística – Resumen Teórico 28
= 0 en caso contrario
n
Por lo tanto X = ∑ x i . Ya demostramos que E ( x ) = np y V ( x ) = np(1 − p )
i =1
X − np
,y además si n es grande tiene distribución Normal N ( 0,1) .
np (1 − p )
X = X 1 + X 2 + X 3 + + X n , entonces:
n
X − ∑ µi
i =1
z=
n
∑σ 2
i
i =1
Muestras Aleatorias
1
P[ x i = j ] = con j = 1,2,3,4..., N
N
1
P[ x1 = j1 , x 2 = j 2 , x 3 = j 3 , , x n = j n ] =
N ( N − 1) ( N − n + 1)
1 n
i) X = ∑ xi se llama Promedio Muestral.
n i =1
1 n
ii ) S =
2
∑ ( X i − X ) 2 se llama Varianza Muestral.
n − 1 i =1
X n1 = M y X nn = K ).
i ) E( X ) = µ .
σ2
ii ) V ( X ) = .
n
( X − µ)
iii ) Para n grande, σ tiene aproximadamente la distribución N ( 0,1) .
n
Demostración:
1 n 1 n 1
i ) E ( X ) = E ∑ x i = ∑ E ( x i ) = nµ = µ .
n i =1 n i =1 n
1 n
1 n
1 σ2
ii ) V ( X ) = V 2 ∑ xi = 2 ∑ V ( xi ) = σ =
2
n
n i =1 n i =1 n2 n
Teorema 13.2: Sea X una variable aleatoria continua con fdp f y fda F.
i ) la fdp de M es: g ( m ) = n[ F ( m ) ] n −1 f ( m ) .
ii ) la fdp de K es: h( k ) = n[ F ( k ) ] n −1 f ( k ) .
Probabilidad y Estadística – Resumen Teórico 31
equivalente al evento { X i ≤ m , para toda i}. Por lo tanto, puesto que Xi son
independientes encontramos:
G ( m ) = P[ X 1 ≤ m X n ≤ m ] = [ F ( m ) ]
n
Por ende
g ( m ) = G ′( m ) = n[ F ( m ) ] f ( m)
n −1
estimado de φ y se denota φˆ .
( ) X −µ
Sabemos que X ~ N µ , σ n . Por lo tanto z =
2
σ
n tiene distribución
X −µ
2Φ( z ) − 1 = P − z ≤ ≤ z
σ
zσ zσ
= P − − X ≤ −µ ≤ +X
n n
zσ zσ
= P X − ≤ −µ ≤ X +
n n
zσ zσ
es igual a la probabilidad que el intervalo aleatorio X − ,X + contenga a
n n
µ . Como z queda a nuestro criterio podemos elegirlo de modo que
α K
2Φ( z ) − 1 = 1 − α . Así Φ ( z ) = 1 − ese valor de z, denotado con 1−α se obtiene
2 2
de la tabla. Es decir tenemos Φ K α = 1− α
2
1− 2
Φ( z )
z = k1−α 2
Probabilidad y Estadística – Resumen Teórico 33
zσ zσ
Resumiendo: el intervalo X − ,X + es un intervalo de
n n
Ejemplo:
(1 − α )100% = 95%
1 − α = 0,95
α = 0,05