Professional Documents
Culture Documents
ARTIFICIALES
(RNA)
Aprendizaje
RNA: PERCEPTRN
PERCEPTRN
Caractersticas
-Entradas reales
-Aprendizaje supervisado
-El espacio debe ser linealmente
separable
PERCEPTRN - Antecedentes
-La primera red neuronal conocida, fue desarrollada en
1943 por Warren McCulloch y Walter Pitts
-Suma de las seales de entrada, multiplicadas por unos
valores de pesos escogidos aleatoriamente.
-La entrada es comparada con un patrn preestablecido
para determinar la salida de la red.
-Si en la comparacin, la suma de las entradas
multiplicadas por los pesos es mayor o igual que el
patrn preestablecido la salida de la red es uno (1), en
caso contrario la salida es cero (0).
PERCEPTRN - Antecedentes
-La red tipo Perceptrn fue inventada por el psiclogo
Frank Rosenblatt en el ao 1957
-El primer modelo de Perceptrn fue desarrollado en un
ambiente biolgico imitando el funcionamiento del ojo
humano. El fotoperceptrn: era un dispositivo que
responda a seales pticas.
PERCEPTRN
Esquema general de un Perceptrn
sencillo:
PERCEPTRN
-Era inicialmente un dispositivo de aprendizaje
-En su configuracin inicial no estaba en capacidad
de distinguir patrones de entrada muy complejos
-Sin embargo mediante un proceso de aprendizaje era
capaz de adquirir esta capacidad
-En esencia, el entrenamiento implicaba un proceso
de refuerzo mediante el cual la salida de las unidades
A se incrementaba o se decrementaba dependiendo de
si las unidades A contribuan o no a las respuestas
correctas del Perceptrn para una entrada dada.
PERCEPTRN
-En 1969 Marvin Minsky y Seymour Papert
publicaron su libro: Perceptrons: An introduction to
Computational Geometry
-Anlisis detallado del Perceptrn, en trminos de sus
capacidades y limitaciones
PERCEPTRN
-La funcin de salida de la red es llamada funcin
umbral o funcin de transferencia (tipo hardlim):
1 si (neta+bias) >= 0
f(neta+bias) =
0 si (neta+bias) < 0
-Tambin puede utilizarse una funcin de
transferencia tipo hardlims (salidas 1 -1)
a = f( XiWi + bias)
En general:
El valor a correspondiente a la aplicacin del objeto p a la red
constituye la clasificacin (o salida) de la red para p.
Este valor puede ser igual a t (la clasificacin real de p) diferente.
Si son iguales significa que la red a brindado el valor correcto para
p, de lo contrario la red de ha equivocado
Los posibles casos son los siguientes:
1) a = t
La salida de la Red es igual a la clasificacin
de p por tanto funcion correctamente y no hay que hacer cambios
en los pesos
2) t = 1 y a = 0
3) t = 0 y a = 1
En los dos ltimos casos la red se ha
equivocado por tanto sera necesario modificar los pesos (aprender)
WN = WA
WN = WA + p
WN = WA p
Ejemplo:
Ejemplo:
Utilizaremos cuatro puntos para el aprendizaje de la RNA
P1 = ( 2, 1) T1 = 1 (clase A)
P2 = ( 0, -1) T2 = 1 (clase A)
P3 = (-2, 1) T3 = -1 (clase B)
P4 = ( 0, 2) T4 = -1 (clase B)
Partimos de cualquier valor (aleatorios) para los pesos y el
bias:
W = ( -0.7, 0.2 ) bias = 0.5
Procedimiento general:
El procedimiento de aprendizaje de la red (ajuste
de los pesos) se resume en aplicar cada objeto de la
muestra a la red y ajustar los pesos en caso de que
la salida de la red no sea correcta, de acuerdo a las
frmulas ya explicadas:
WN = WA + e * p
BiasN = BiasA + e
Donde +
e = t-a
t = valor real del objeto
a = valor calculado por la Red
a = -1
= a = 1
= a = -1
a = 1
=
=
=
=
1
1
-1
-1
(
(
(
(
neta+bias =
neta+bias)=
neta+bias =
neta+bias =
5.3
2.3
-7.9
-3.1
)
)
)
)
Limitacin
Este tipo de red puede resolver solamente problemas cuyas salidas estn
clasificadas en dos categoras diferentes y que permitan que su espacio de
entrada sea dividido en regiones linealmente separables
El proceso para determinar si un problema es linealmente separable o no, se
realiza grficamente sin problema, cuando los patrones de entrada generan
un espacio de dos dimensiones, como en el caso del ejemplo; sin embargo,
esta visualizacin se dificulta cuando el conjunto de patrones de entrada es
de tres dimensiones, y resulta imposible de observar grficamente cuando los
patrones de entrada son de dimensiones superiores; en este caso se requiere
plantear condiciones de desigualdad que permitan comprobar la
separabilidad lineal de los patrones, esto se realiza con base en la ecuacin de
salida del Perceptrn:
W*P+Bias >= 0 para los Objetos P, clasificados como 1
W*P+Bias < 0 para los Objetos P, clasificados como 0 (-1)
Ejercicio:
Dados el siguiente conjunto de objetos
P1
P2
P3
P4
P5
P6
=
=
=
=
=
=
( 5, -1
( 2, 6
( 3, 3
( 2, 1
( -1, 1
( 1, -2
)
)
)
)
)
)
T1
T2
T3
T4
T5
T6
= 1
= 1
= 1
= -1
= -1
= -1
y
x2-x1
La ecuacin Punto- Pendiente es: y y1 = m(x x1).
Ejemplo
Hallar la ecuacin de la recta que pasa por el punto (-4, 3) con pendiente 1.
Ejemplo 2
Halle la ecuacin de la recta que pasa por los puntos(-4, 3) and (2, -5).
Solucin:
m = y2- y1
m= -5- (3) = -8 = - 4
x2-x1
2 (-4) 6
3
X= -b
w1
Y= -b .
w2
Bias
Pesos
Neurona
+ PesoW1
+ PesoW2
+ Umbral
+ Entrada1
+ Entrada2
+ SalidaRed
+ Clasificacion
+ Supervisar ( )
+ Ajustes ( )
+ PintarPunto ( )
+ PintarRecta ( )
Ejemplos
uno
dos