Professional Documents
Culture Documents
Introduccin
Estimacin ML
Estimacin Bayesiana
Conclusiones
2.2.1
INTRODUCCIN
=
f x (x | i , i )
( 2 )
d /2
Ci
1/ 2
T
1
exp ( x i ) Ci1 ( x i )
2
2.
c1 : 1
c2 : 2
c3 : 3
,2
2
,3
2.2.2
f ( Di | i ) =
f (x
i
k ,i
| i )
k =1
i ln f ( Di | i ) =
0
5
Funciones fx(xk,i| i)
asociadas a cada uno
de los vectores de Di
f(Di|i)
xk,i Di
N ci
f ( Di | i ) = f x ( x k ,i | i )
ML
k =1
ln f(Di|i)
Caracterizacin de un estimador
Un estimador es una funcin que aplica sobre los vectores de
caractersticas xk,i seleccionados de la base de datos para entrenar el
clasificador. Si la seleccin se hace de forma aleatoria, los valores
proporcionados por el estimador sern tambin aleatorios: para cada
posible particin l de la base de datos obtenemos una estimacin
distinta l ,i .
1.
{ }
1
B l ,i =
L
l ,i
l =1
1
1
var
=
l , i
s ,i
l , i
L
L
s 1
=l 1 =
{ }
Sin embargo
1.
f x (x | i , i , ML )
2.
Ejemplo 1:
Estimador ML de la media i si la matriz de covarianza Ci es
conocida, en el caso gausiano multivariable. Demostrad que:
i , ML
1
=
N ci
N ci
k =1
Ejemplo 2:
Estimador ML de la media i y la matriz de covarianza Ci en el
caso gausiano multivariable. Demostrad que:
i , ML
1
=
N ci
N ci
x
k =1
i , ML =
C
1
N ci
N ci
(x
k =1
i , ML )( x k i , ML )
10
Ejemplo 3:
Estimador ML de la probabilidad pk de aparicin de 1 para
cada una de las componentes del vector de datos binarios
x {0,1}d :
f x ( D | , p)
=
Ni
pk
xk , j
1 xk , j
(1 pk )
=j 1 =
k 1
p = [ p1 ,..., pd ]
11
2.2.3
ESTIMACIN BAYESIANA
i , MAP
2.
arg=
max f ( Di | i ) f ( i ) arg max ln f ( Di | i ) + ln f ( i )
i
i
Estimar directamente las probabilidades a posteriori Pr(i|x)
f ( Di | i ) f (i )
f (i | Di ) =
f ( Di )
tambien tiene un pico en i = i y los estimadores obtenidos por
Bayes y mediante ML coinciden.
En la prctica, si el nmero de vectores de Di es pequeo, es
mejor la estimacin bayesiana. Cuando se tienen muchas
muestras, ambos estimadores coinciden
13
f(D|)
1
0.9
Ejemplo 5:
0.8
f()
5 muestras
35 muestras
200 muestras
0.7
0.6
Estimacin ML de la media
(0=2) sobre un nmero
variable
de
muestras
Gaussianas.
La fdp a priori de es
Gaussiana.
0.5
0.4
0.3
0.2
0.1
0
1.4
1.6
1.8
2.2
2.4
2.6
2.8
3.2
3.2
f(D|) f()
0.9
5 muestras
35 muestras
200 muestras
0.8
0.7
Estimacin Bayesiana de la
media (0=2) sobre un
nmero
variable
de
muestras Gaussianas.
La fdp a priori de es
Gaussiana.
0.6
0.5
0.4
f()
0.3
0.2
0.1
0
1.4
1.6
1.8
2.2
2.4
2.6
2.8
14
f(D|) f()
1
5 muestras
35 muestras
200 muestras
0.9
0.8
0.7
Estimacin Bayesiana de la
media (0=2) sobre un
nmero
variable
de
muestras Gaussianas.
La fdp a priori de es
uniforme.
0.6
f()
0.5
0.4
0.3
0.2
0.1
0
1.4
1.6
1.8
2.2
2.4
2.6
2.8
3.2
15
16
Procedimiento:
1. Promediar la forma conocida para la funcin de verosimilitud
respecto a la probabilidad a posteriori del parmetro:
f x (x | i ) f x (x | Di ) =
f (x | i ) f (i | Di )di
2. Calculamos la probabilidad a posteriori del parmetro como
=
f (i | Di )
f ( Di | i ) f (i )
f ( D | ) f ( )d
i
f ( Di | i ) f (i )
i
f ( Di | i ) =
Ni
f (x
k ,i
| i )
k =1
17
Ejemplo 4:
Estimador bayesiano de fx(x|D) si
f x ( x | ) N ( , C )
f () N ( 0 , C0 )
f ( D) =
f x (x k | ) f ()
k =1
N
1 T
1
1
T
1
1
= exp ( NC + C0 ) + 2 C
xk + C0 0
2
k =1
18
) exp ( N ) CN1 ( N )
f ( D=
2
1 N
1
( NC + C ) 2 C
xk + C0 0 = T CN1 2TN CN1 + K
k =1
1
0
=
CN1 NC1 + C01
(1)
=
C N C
xk + C01 0
(2)
k =1
19
=
C N C 0 ( C + NC 0 ) C
1
=A ( A + B ) B
1
(3)
A ( A + B ) B =B ( A + B ) A
1
1
1
1
N =C0 C0 + C m N + C C0 + C 0
N
N
N
1
mN =
N
k =1
20
=
f x (x | ) f x (x | D)
f (x | ) f ( | D) d N (
, C + CN )
=
N m
=
CN
N
1
C
N
21
2.2.3 CONCLUSIONES
Si se puede suponer una forma paramtrica para fx(x|i)
entonces la fase de entrenamiento del clasificador se
reduce a la estimacin de los parmetros
Pueden utilizarse dos soluciones para la estimacin de
parmetros: ML (ms simple computacionalmente) o
bayesiana (si se dispone de conocimiento a priori sobre los
parmetros)
22