You are on page 1of 6

Algoritmos de Aprendizaje

Aprendizaje:
El aprendizaje es el proceso por medio del cual, los parmetros libres de una red neuronal
son adaptados a travs de un proceso de estimulacin por el ambiente en el cual la red se
encuentra inmersa.
El tipo de aprendizaje es determinado por la manera en la cual el cambio de parmetros
tiene lugar.
Mendel and Mc Claren (1970)
El aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta
a una informacon de entrada. Los cambios que se producen durante el proceso de
aprendizaje son la destruccin, modificacin y creacin de conexiones entre las neuronas.
W = 0 Destruccin; W 0 Creacin Aprendizaje

Tipos de Aprendizaje
Aprendizaje Supervisado
Entrada, salida, objetivo
Aprendizaje No supervisado
Entrada, salida
Aprendizaje por Reforzamiento .
Recompensa/castigo

Reglas de Aprendizaje
Aprendizaje Supervisado:
Se realiza mediante un entrenamiento controlado por un agente externo (supervisor,
maestro), que determina la respuesta que debera generar la red apartir de una entrada
determinada.

Algoritmos con Aprendizaje Supervisado:


Se realiza mediante un entrenamiento controlado por un agente externo (supervisor,
maestro), que determina la respuesta que debera generar la red apartir de una entrada
determinada.

Aprendizaje por Correccin de Error : factor de aprendizaje (0 < < 1):


Consiste en ajustar los pesos de las conexiones de la red en funcin de la diferencia entre
los valores deseados y los obtenidos en la salida de la red; es decir en funcin del error
cometido en la salida
Ejemplos de Correccin de Error:
- Regla de aprendizaje del perceptrn.
- Regla delta ( ) o del mnimo error cuadrado ; LMS (Widrow - Hoff).
- Regla delta generalizada o algoritmo de Retropropagacin de error (Rumelhart, Hinton,
Williams),
Ejemplos de Redes: Perceptrn, Adaline/Madaline, y Backpropagation
Redes que utilizan el Aprendizaje por Correccin de Error:
Aprendizaje No Supervisado: El aprendizaje no supervisado o autosupervisado no
hay un maestro o critico externo para supervisar el proceso de aprendizaje.
Est constituido por un conjunto de reglas que dan a la red la habilidad de
aprender asociaciones entre los patrones que ocurren en conjunto
frecuentemente.
Una vez aprendido como asociacin permite a las redes realizar tareas tiles de
reconocimiento de patrones y recordar.
REDES CON APRENDIZAJE NO SUPERVISADO: Tambin llamado autosupervisado, no
requieren influencia externa para ajustar los pesos de las conexiones entre sus neuronas.
Existen varias posibilidades en cuanto a la interpretacin de la salida de estas redes, que
dependen de su estructura o del algoritmo de aprendizaje empleado los casos de salida
pueden representar:
Grado de familiaridad o similitud entre la informacin que se presenta a la entrada
y las informaciones que se han mostrado hasta entonces, agrupamiento o
establecimiento de categoras.
Codificacin de los datos de entrada, generando a la salida una versin codificada
de la entrada, con menos bits, pero manteniendo la informacin relevante de los
datos.
Mapeo de caractersticas, obteniendo a la salida un mapa topogrfico de las
caractersticas de los de entrada, de tal forma que si se presentan en la red
informaciones similares, siempre sean afectadas neuronas de salida prximas
entre s, en la misma zona del mapa.
El aprendizaje Supervisado no involucra valores objetivos. De hecho, los objetivos
son los mismos que las entradas.

En otras palabras, el aprendizaje no supervisado usualmente realiza la misma


tarea que una red autoasociativa, la compresin de la informacin de las entradas.

Algoritmos de Aprendizaje No Supervisado:


Tipos de aprendizaje No Supervisado:
Aprendizaje Asociativo
Aprendizaje Competitivo y cooperativo
Qu es una Asociacin?
Es cualquier relacin entre la entrada de un sistema y su salida de tal forma que cuando
el patrn A se presenta al sistema este responde con un patrn B.
Aprendizaje Hebbiano. Donald O. Hebb (1949)
Pretende medir la familiaridad o extraer caractersticas de los datos de entrada. Este tipo
de aprendizaje consiste en el ajuste de los pesos de las conexiones de acuerdo con la
correlacin (multiplicacin en el caso de valores binarios +1, -1) de los valores de
activacin (salidas) de las dos neuronas conectadas:
Si las dos unidades son activas (positivas), se produce un reforzamiento de la conexin.
Cuando una unidad es activa y la otra pasiva (negativa) se produce un debilitamiento de
la conexin.
Ejemplos de redes: Red de Hopfield, Additive Grossberg, Shunting Grossberg, Learning
Matrix, BAM, TAM, LAM.
Variantes del Aprendizaje Hebbiano

Drive - Reinforcement (Sejnowski)


Hebbiano Diferencial (Kosko)
Aprendizaje Hebbiano Difuso (Kosko)
Adaptive bidirectional associative memory (ABAM en 1987)
Fuzzy Asociative Memory (FAM), utilizando aprendizaje Hebbiano Difuso.

Tambin se utiliza el aprendizaje hebbiano combinado con otros mtodos, esto se puede
ver en las redes:

Maquina de Boltzmann
Maquina de Cauchy
Counterpropagation (CPN en 1987)
Learning Vector Quantization (LVQ).

Aprendizaje Competitivo y Cooperativo:

En estas redes las neuronas compiten y cooperan unas con otras con el fin de llevar a
cabo una tarea dada. Cuando se presenta a la red cierta informacin de entrada, solo una
de las neuronas de salida o un cierto grupo de neuronas, se activan. quedando anuladas
las dems (valores de respuesta mnimos).
28.
El objetivo de este tipo de aprendizaje es categorizar (Clustering) los datos que se
introducen en la red.
29. Ejemplos de Redes con Aprendizaje Competitivo y Cooperativo .
LVQ (Learning Vector quantization) Kohonen.
Cognitron y Neocognitron (Fukushima).
SOM (Kohonen).
ART (Carpenter y Grossberg).
30. Ejemplos de Redes con Aprendizaje Competitivo y Cooperativo LVQ ART
31. Metas del Aprendizaje No supervisado
El encontrar grupos de informacin
Reduccin de la dimensionalidad
la Construccin de mapas topogrficos
el encontrar las causas ocultas o fuentes de datos
Modelar la densidad de datos
32. Usos del Aprendizaje No supervisado
Compresin de Datos..
Clasificacin.
Hacer otras tares de aprendizaje mas fcil.
Una teora del aprendizaje humano y la percepcin.
33. Aprendizaje Por Refuerzo
34. Aprendizaje por Reforzamiento
35. Aprendizaje por Reforzamiento

El aprendizaje de una comparacin entrada/salida se desempea a travs de la


interaccin continua del medio ambiente de tal forma que se minimice un ndice escalar
de su desempeo.
36. Aprendizaje por Reforzamiento Se basa en la idea de no disponer de un ejemplo
completo del comportamiento deseado, es decir, la funcin del supervisor se reduce a
indicar mediante una seal de refuerzo si la salida de la red se ajusta a la deseada
(xito=1, fracaso=-1) y en funcin de ello se ajustan los pesos basndose en un
mecanismo de probabilidades.
37. Algoritmos de Aprendizaje Por Refuerzo
38. Algoritmos de Aprendizaje por Refuerzo
Algoritmo Lineal con Recompensa y penalizacin (Linear Reward - Penalty), Narendra
/Thathacher.
Algoritmo Asociativo con recompensa y penalizacin (Barto / Anandan).
Adaptive Heuristic Critic (Barto, Sutton, Anderson).
39. Aprendizaje por Refuerzo Es un aprendizaje supervisado mas lento que el anterior
que se basa en la idea de no disponer de un ejemplo completo del comportamiento
deseado, es decir, la funcin del supervisor se reduce a indicar mediante una seal de
refuerzo si la salida de la red se ajusta a la deseada (xito=1, fracaso=-1) y en funcin de
ello se ajustan los pesos basndose en un mecanismo de probabilidades.
40. Ejemplos de algoritmos que usan el Aprendizaje por Refuerzo
Algoritmo Lineal con Recompensa y penalizacin (Linear Reward - Penalty), Narendra
/Thathacher.
Algoritmo Asociativo con recompensa y penalizacin (Barto / Anandan).
Adaptive Heuristic Critic (Barto, Sutton, Anderson).
41. Aprendizaje Estocstico Este tipo de aprendizaje consiste en bsicamente en realizar
cambios aleatorios en los valores de los pesos de las conexiones de la red y evaluar su
efecto a partir del objetivo deseado y de distribuciones de probabilidad.
42. Aprendizaje Estocstico
Posee una analogia en terminos termodinamicos.
El estado energetico E representa el grado de estabilidad.
Un estado de minima energia representa que su funcion se aproxima al objetivo deseado.
La funcin de Lyapunov se emplea tipicamente.

43. Ejemplos de algoritmos de Aprendizaje Estocstico


Maquina de Boltzmann (Hinton, Ackley, Sejnowky).
Temple Simulado (Simulated Anneling).
Maquina de Cauchy (Szu)
44. Aprendizaje por Reforzamiento
El aprendizaje de una comparacin entrada/salida se desempea a travs de la
interaccin continua del medio ambiente de tal forma que se minimice un ndice escalar
de su desempeo.
45. Tipos de Asociacin Entrada /Salida
46. Tipos de Asociacin entre las Informaciones de Entrada y Salida
Heteroasociacin:
Se refiere al caso en el que la red aprende parejas
de datos; de tal forma que cuando se presente
cierta informacin de entrada A i , deber responder
generando la correspondiente salida asociada B i .
47. Tipos de Asociacin entre las Informaciones de Entrada y Salida
Autoasociacin:
La red aprende cierta informaciones A 1 , A 2 , ... A N ,
de tal forma que cuando se le presenta cierta
informacin de entrada realizar una autocorrelacin
respondiendo con uno de los datos almacenados, el
ms parecido al de entrada.

You might also like