You are on page 1of 73

Aprendizaje no supervisado

Departamento de Informtica
Universidad Carlos III de Madrid
Avda. de la Universidad, 30. 28911 Legans (Madrid)

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

Aprendizaje no supervisado
Introduccin
Modelo bsico
Modelo de Interaccin Lateral
Aprendizaje Competitivo

Mapas autoorganizados de Kohonen

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

Introduccin
Caractersticas principales de las RNA no supervisadas
No necesitan de un profesor externo
La red descubre en los datos de entrada y de forma autnoma:
Caractersticas
Regularidades
Correlaciones
Categoras
y es capaz de obtenerlas de forma codificada en la salida
Por tanto, muestran cierto grado de Auto-organizacin
Slo consigue resultados tiles si existe algn tipo de redundancia
sin redundancia sera imposible encontrar patrones o caractersticas en los
datos
Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

Introduccin
Caractersticas principales (II)
Suelen requerir menores tiempos de entrenamiento que las
supervisadas
Modelos ms cercanos a estructuras neurobiolgicas. Tienden a imitar
su comportamiento
Arquitectura simple. Habitualmente son:
Una sola capa
Feed-forward
Las leyes de aprendizaje suelen ser ms complejas
Tipos fundamentales
Kohonen (SOM)
Grossberg (ART)

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

Introduccin
Problemas abordables con estas redes
Familiaridad:
Similitud entre una entrada y un valor tipo
(media de valores presentados con anterioridad)
Anlisis de componentes principales
Qu atributos son ms importantes en el conjunto de datos
De forma que los dems puedan eliminarse sin prdida significativa de informacin

Agrupamiento (Clusterizacin)
Determinar la existencia de clases y clasificar los patrones
Prototipado
Obtener prototipo asociado a la clase del patrn de entrada
Extraccin y relacin de caractersticas
Mapa topolgico de los datos de entrada: que patrones parecidos produzcan
respuestas similares en clulas cercanas

Estas categoras no son disjuntas


Ej: componentes principales para reducir la dimensionalidad y luego aplicar
clustering

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

Modelo bsico
Regla de Hebb
Aportacin fundamental a las RNA
En apr. no supervisado no hay informacin externa que
ayude a decidir cmo modificar las conexiones
Esta regla contribuye a decidir cmo y en qu grado
modificar las conexiones sin depender de factores
externos
Parte de la observacin del comportamiento de clulas
cerebrales

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

Donald Hebb (1904-1985)

Modelo bsico
Regla de Hebb
Cuando el axn de una clula A est lo suficientemente cerca para
excitar a una clula B, y toma parte repetidamente en el proceso de
disparo de dicha clula, se produce algn tipo de cambio
metablico en una de las clulas (o en las dos), que hace que la
eficacia con la que A disparaba a B se vea incrementada
Esto significa que los pesos que unen a dos neuronas aumentan si se
activan a la vez y disminuyen si se activan en distinto momento

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

Modelo bsico
Regla de Hebb
Hay muchas propuestas de implementacin para esta regla

wij=aiaj
wij= ai aj
wij=(ai - ai)(aj - aj)
Caracterstica bsicas de las RNA no supervisadas:
Interaccin lateral
Aprendizaje competitivo
Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

Modelo de Interaccin lateral


En el cerebro, el orden de sus unidades es muy importante (tiene
caractersticas topolgicas)
Unidades de estructura idntica tienen una funcionalidad diferente,
porque dependen del 'vecindario
Tratar de crear sistemas artificiales con propiedades observadas en los
modelos biolgicos
Cmo conseguir que, en neuronas idnticas, el orden sea relevante?
Cmo relacionar la topologa con las propiedades de las entradas?
Modelo de Interaccin Lateral:
Se conecta cada neurona con un conjunto prximo de ellas
Slo interactan si estn conectadas

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

Modelo de Interaccin lateral


Antecedentes Biolgicos
Se ha observado la influencia que una neurona ejerce sobre las dems
en funcin de la distancia entre ellas, siendo muy pequea cuando
estn muy alejadas.
As, se ha comprobado que en determinados primates se producen
interacciones laterales de tipo excitatorio entre neuronas prximas en
un radio de 50 a 100 micras, de tipo inhibitorio en una corona circular
de 150 a 400 micras de anchura alrededor del crculo anterior, y de tipo
excitatorio muy dbil , prcticamente nulo, desde ese punto hasta una
distancia de varios centmetros. Este tipo de interaccin tiene la forma
tpica de un sombrero mejicano.

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

10

Modelo de Interaccin lateral


Arquitectura
Cada clula conectada con las de su entorno cercano de forma
excitatoria
Cada clula conectada con las de su entorno menos cercano de forma
inhibitoria
No hay conectividad entre clulas alejadas
La intensidad de la conexin decrece con la distancia
Cuando una clula est activa influye en la actividad de las que la
rodean
El orden de las clulas es significativo

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

11

Modelo de Interaccin lateral


Arquitectura

Conexin excitatoria
Conexin inhibitoria
Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

12

Modelo de Interaccin lateral


Ecuaciones
Su formulacin sera:
l

i (t ) = [ i (t ) + k i + k (t 1)]
k =l

Donde:
i(t) es la salida de la unidad i.
[x]: funcin no lineal de tipo sigmoide.
k : pesos de las conexiones laterales
i(t): entradas de la clula i.

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

13

Modelo de Interaccin lateral


Funcin de sombrero mexicano para la interaccin lateral

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

14

Modelo de Interaccin lateral


Se producen determinados grupos de activacin a lo largo de la
red, influidos por neuronas con altos grados de activacin que
propagan su nivel de actividad.
El nivel de activacin de una clula no depende slo de la
entrada sino de su ubicacin y de la actividad de su vecindario

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

15

Aprendizaje competitivo

Caractersticas
Tipo de Aprendizaje no supervisado utilizado en modelos de RNA
Objetivo: categorizar los datos de entrada
Datos parecidos han de ser clasificados como pertenecientes a la
misma categora
Hay una capa de clasificacin compuesta por tantas neuronas como
categoras pueda haber en los datos
Cada categora representada por un prototipo
El prototipo recoge las caractersticas similares de los datos de su
categora
En la capa de clasificacin, cada clula se corresponde con un prototipo

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

16

Aprendizaje competitivo
Caractersticas (II)
El sistema debe relacionar cada clula (prototipo) con los datos de
entrada que representa
Debe agrupar los datos de entrada en categoras, por razones de
similitud, y asignar a cada categora un prototipo
El prototipo sera utilizado para clasificar datos nuevos y desconocidos.

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

17

Aprendizaje competitivo
Arquitectura
Dos capas: F1 capa de entrada y F2 capa de competicin
Cada clula de la capa F1 est conectada con todas las clulas
de la capa F2 a travs de conexiones ponderadas variables
F2 tiene conexiones laterales
inhibitorias entre todas las
clulas de su capa, excepto
con ella misma, en que la
conexin es excitatoria

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

18

Aprendizaje competitivo
Las conexiones en F2 son fijas
Corresponde a un modelo de interaccin lateral con valores
positivos para la propia clula y negativos y de valor constante
para las dems
Cada clula se refuerza a s misma
Una vez que las clulas de F2 han sido activadas por
las entradas de F1, esta deja de actuar y la seal se
propaga por F2: todas las clulas intentarn impedir que
las dems tengan un valor alto (conex. inhibit) e intentarn
tener ellas mismas un valor alto (conex. excitat).

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

19

Aprendizaje competitivo

Procedimiento
1.
2.
3.

4.

Se recibe el estmulo en F1.


Se propaga la seal hasta F2 y se calcula el valor de excitacin para
cada clula de F2.
Se inhiben las conexiones entre la capa F1 y la F2.

Se propaga la seal por la capa F2, calculndose los nuevos


valores de excitacin de las clulas.

Cuando slo haya una clula (clula ganadora) con un valor de


salida mayor que cero ir al paso 4.
Restablecer las conexiones entre las capas F1 y F2.

Calcular los nuevos valores para los pesos de las conexiones


entre la capa F1 y la clula ganadora en el paso 3.

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

20

Aprendizaje competitivo

La capa F2 se estabiliza cuando todas las salidas tienen valor 0


excepto una que ser la que al principio ha recibido la entrada ms
alta de F1 (la que ha inhibido ms al resto y se ha reforzado ms a
ella misma)

Las clulas de la capa F2 compiten por la entrada: slo una consigue


ganar la competicin (clula ganadora)

En F2 los pesos son fijos

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

21

Aprendizaje competitivo
Aprendizaje
La clula ganadora representa al prototipo que es asignado al dato de
entrada
Las conexiones entre la capa F1, la de la entrada, y la clula ganadora
son reforzadas
Es por esto que se llama el que gana se lo lleva todo (winner takes all)

Clula ganadora
F2
j

F1

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

22

Aprendizaje competitivo
Ecuaciones de aprendizaje

dWij =(-W + ) g(b )


ij
i
j
dt
Donde:
g(bj)=

1 si j ganadora
0 en caso contrario
Ii

i= M I
j=1 j
Siendo Ii el i-simo elemento del ejemplo de entrada
Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

23

Aprendizaje competitivo
Problemas
No es capaz de producir una codificacin estable ante entradas
arbitrarias
Si se perturba la red con valores aleatorios y se vuelven a introducir los
valores de entrada, puede producirse una respuesta incorrecta

Tiene una capacidad limitada de codificacin


En funcin de las dimensiones de la red

Es necesario establecer a priori el nmero de categoras de la


clasificacin

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

24

Mapas autoorganizados de Kohonen


Arquitectura
Permiten realizar clasificacin no supervisada

Teuvo Kohonen (1934 - )

RNA de dos capas


Entrada
Competicin

http://www.cis.hut.fi/research/som-research/nnrc-programs.shtml
http://www.cis.hut.fi/~hynde/lvq/index.html
Applet: http://neuron.eng.wayne.edu/software.html
Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

25

Mapas autoorganizados de Kohonen


Ecuaciones
Si hay n atributos la entrada ser: e={e1,,en}
Si hay m clulas en la capa de competicin, entonces los pesos sern:
cada clula de
competicin

11

12

1m

22

22

2m

...

n1

n2

nm

Donde ij es el peso de la conexin entre la clula i-sima de la capa de entrada i la j-sima


de la capa de competicin
Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

26

Mapas autoorganizados de Kohonen


Ecuaciones de distancia
Si se hace referencia a la clula j de la capa de competicin se tendr el
vector:

j={1j, 2j, , ij,, nj}


Este vector tiene la misma dimensin que la entrada e
Se puede comparar: d(e,j):
distancia entre el prototipo de la clula de competicin y la entrada

El modelo de Kohonen calcula una salida en la c.c. (j) a travs de la


distancia j=d(e,j)

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

27

Mapas autoorganizados de Kohonen


Ecuaciones de distancia
Se pueden elegir diversas distancias.
Ej si producto escalar
n

d(x,y)= i=1xiyi
En este caso, la salida de la capa de competicin ser la habitual
en los modelos supervisados (suma ponderada de las entradas por
los pesos de las conexiones)

j = i=1eiij
Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

28

Mapas autoorganizados de Kohonen


La funcin ms utilizada es la distancia eucldea

d(x,y)=

n
(i=1(xi-yi)2)1/2

Si se elige la distancia eucldea el modelo quedara como sigue:

j = (i=1(ei-ij)2)1/2

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

29

Mapas autoorganizados de Kohonen


Funcionamiento
Se recibe el vector de entrada
Se propaga por las conexiones hasta llegar a la capa de competicin
Cada clula de la c.c. produce una salida al comparar la entrada con
sus pesos
Se selecciona aquella que produzca una salida ms pequea (clula
ganadora)

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

30

Mapas autoorganizados de Kohonen


Representacin geomtrica
Los ejemplos y los prototipos (clulas de la c.c.) se pueden representar
como puntos en un espacio n dimensional

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

31

Mapas autoorganizados de Kohonen


Representacin geomtrica
Las coordenadas de los prototipos son los pesos de las clulas de la
c.c.

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

32

Mapas autoorganizados de Kohonen


Representacin geomtrica
Se calcula la distancia de cada punto a los prototipos y se elige la
ganadora:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

33

Mapas autoorganizados de Kohonen


Aprendizaje

tasa de aprendizaje

dij
=(t)j (t) (ei(t) - ij(t))
dt
j =

Redes de Neuronas. Aprend. No Supervisado

1 si j ganadora
0 en caso contrario

J.M.Valls-2007

Coordenada i de la
unidad j

si no se tiene en
cuenta el vecindario

34

Mapas autoorganizados de Kohonen


Tasa de Aprendizaje (t)
El valor de es decrementado una cantidad constante pequea tras
casa ciclo completo de todos los patrones de aprendizaje:
(t+1)= (t)-

Mediante la asignacin del parmetro se pueden determinar el


nmero total de ciclos de aprendizaje que sera:

Iteraciones =

(t)

El valor de es decrementado siguiendo un esquema logartmico


(grandes variaciones al principio y disminucin ms lenta despus)

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

35

Mapas autoorganizados de Kohonen


Ecuaciones de vecindario
Se define una distancia de vecindario entre clulas d(ci,cj)
(siendo la distancia de la clula ganadora a ella misma 1)
Se introduce el esquema en el aprendizaje

dij
=
dt

(t) (e (t) - (t))


i
ij
d(ci,cj)
0

Si ci ganadora
y d(ci,cj)<
en caso contrario

Donde es el lmite del vecindario

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

36

Mapas autoorganizados de Kohonen


Representacin geomtrica del aprendizaje
Se calcula la diferencia, por coordenadas entre el punto y la clula
ganadora
La clula se acerca al punto

1 j = (e1 1 j ) =

2j

2j

e2

1
e1

e2

2
1j

Redes de Neuronas. Aprend. No Supervisado

e1
J.M.Valls-2007

1j
37

Mapas autoorganizados de Kohonen


Vecindario
Vecindarios bidimensionales

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

38

Mapas autoorganizados de Kohonen


Vecindario
Vecindarios unidimensional y tridimensional

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

39

Mapas autoorganizados de Kohonen

Mtodo de Kohonen
1.

Inicializar pesos.
Asignar a los pesos valores pequeos aleatorios.

2.

Presentar una nueva entrada.


(El conjunto de aprendizaje se presenta cclicamente hasta llegar a la
convergencia de la red. Actualizar )

3.

Propagar el patrn de entrada hasta la capa de competicin.


Obtener los valores de salida de las clulas de dicha capa.

4.

Seleccionar la clula ganadora C cuya salida sea menor.

5.

Actualizar las conexiones entre la capa de entrada y la clula C, as


como las de su vecindad, segn
su grado de vecindad.
Redes de Neuronas. Aprend. No Supervisado
J.M.Valls-2007
6

Si

i t

b l

40

Mapas autoorganizados de Kohonen


Ejemplo: distribuciones uniformes
Distribucin uniforme, iteracin 1:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

41

Mapas autoorganizados de Kohonen


Ejemplo: distribuciones uniformes
Distribucin uniforme, iteracin 10:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

42

Mapas autoorganizados de Kohonen


Ejemplo: distribuciones uniformes
Distribucin uniforme, iteracin 20:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

43

Mapas autoorganizados de Kohonen


Ejemplo: distribuciones uniformes
Distribucin uniforme, iteracin 50:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

44

Mapas autoorganizados de Kohonen


Ejemplo: distribuciones toroidales
Distribucin toroidal, iteracin 1:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

45

Mapas autoorganizados de Kohonen


Ejemplo: distribuciones toroidales
Distribucin toroidal, iteracin 10:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

46

Mapas autoorganizados de Kohonen


Ejemplo: distribuciones toroidales
Distribucin toroidal, iteracin 20:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

47

Mapas autoorganizados de Kohonen


Ejemplo: distribuciones toroidales
Distribucin toroidal, iteracin 50:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

48

Mapas autoorganizados de Kohonen


Ejemplo: distribuciones biuniformes
Distribucin biuniforme, iteracin 1:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

49

Mapas autoorganizados de Kohonen


Ejemplo: distribuciones biuniformes
Distribucin biuniforme, iteracin 15:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

50

Mapas autoorganizados de Kohonen


Ejemplo: distribuciones biuniformes
Distribucin biuniforme, iteracin 25:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

51

Mapas autoorganizados de Kohonen


Ejemplo: distribuciones biuniformes
Distribucin biuniforme, iteracin 50:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

52

Mapas autoorganizados de Kohonen


Problema del viajante
Vecindario unidimensional para el problema del viajante:

Vecindario para tres clulas

Redes de Neuronas. Aprend. No Supervisado

Vecindario para ocho clulas

J.M.Valls-2007

53

Mapas autoorganizados de Kohonen


Ejemplo: problema del viajante
Problema del viajante, iteracin 1:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

54

Mapas autoorganizados de Kohonen


Ejemplo: problema del viajante
Problema del viajante, iteracin 10:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

55

Mapas autoorganizados de Kohonen


Ejemplo: problema del viajante
Problema del viajante, iteracin 20:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

56

Mapas autoorganizados de Kohonen


Ejemplo: problema del viajante
Problema del viajante, iteracin 500:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

57

Mapas autoorganizados de Kohonen


Ejemplo: problema del viajante
Problema del viajante, 64 ciudades:

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

58

Mapas autoorganizados de Kohonen


Ejemplo: mapa de pobreza mundial
Generado a partir de 39 dimensiones

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

http://www.cis.hut.fi/research/som-research/worldmap.html

59

Mapas autoorganizados de Kohonen

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

60

Mapas autoorganizados de Kohonen


Ejemplo: expresin de genes (7d)
SOM

Redes de Neuronas. Aprend. No Supervisado

http://geneura.ugr.es/~jmerelo/tutoriales/heuristics101/
J.M.Valls-2007

61

Mapas autoorganizados de Kohonen


Ejemplo: expresin de genes (7d)
Proyeccin de Sammon

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007
http://geneura.ugr.es/~jmerelo/tutoriales/heuristics101/

62

Enlaces
SOM 3D
http://rfhs8012.fh-regensburg.de/~saj39122/jfroehl/diplom/esample.html
SOM 2D
http://neuron.eng.wayne.edu/software.html
TSP
http://www.cs.usyd.edu.au/~irena/ai01/nn/tsp.html

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

63

Teora de la resonancia adaptativa


Introduccin
Familia de modelos propuestos por Grossberg
Abordan el dilema estabilidad-plasticidad
Reaccin plstica ante nuevos datos
Reaccin estable ante datos irrelevantes
Se busca que el sistema conmute entre los estados
Sistema de deteccin de la relevancia
Aprendizaje no supervisado

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

Stephen Grossberg (1957- )

64

Teora de la resonancia adaptativa


Arquitectura ART1
Memoria a corto plazo STM
Capacidad de recordar algo ocurrido en un intervalo reciente de
tiempo
Independiente de nmero de veces que haya ocurrido
Identificado en RNA con el valor de activacin
Memoria a largo plazo LTM
Capacidad de recordar algo ocurrido en un intervalo distante de
tiempo
Requieren estmulo repetido en el tiempo
Identificado en RNA con los pesos de las conexiones

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

65

Teora de la resonancia adaptativa


Arquitectura ART1
El modelo consta de un dos subsistemas y un trmino de control
Subsistema atencional
Fundamentalmente una RNA con aprendizaje competitivo
Subsistema orientador
Distingue entre entradas relevantes e irrelevantes
Trmino de control
Controla mdulos que van a actuar
Gobierna seales entre mdulos

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

66

Teora de la resonancia adaptativa


Arquitectura ART1
Arquitectura bsica: capas
Capa F1 (entrada)
Propaga la seal de entrada a F2
Misma dimensin que la entrada
Capa F2 (competitiva)
Tantas neuronas como prototipos (inicialmente vaca)
Conexiones excitatorias con ellas mismas
Conexiones inhibitorias de fuerza fija e igual con el resto

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

67

Teora de la resonancia adaptativa


Arquitectura ART1
Arquitectura bsica: interconexiones
Bottom-up
Las habituales
Top-down
Permiten el aprendizaje
Facilitan la comparacin de las predicciones con los datos de
entrada

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

68

Teora de la resonancia adaptativa


Arquitectura ART1
Relacin entre subsistemas
Subsistema atencional
Aprendizaje competitivo
Incapaz de mantener simultneamente representaciones
estables de categoras familiares y crear nuevas categoras
El subistema orientador
Inhibe al atencional ante estmulos no familiares

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

69

Teora de la resonancia adaptativa


Arquitectura ART1
Subsistema Atencional

Subsistema
Orientador

F2

STM
Gain control
LTM

STM

Onda de
Reset
LTM

STM

F1

Gain control

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007
Estmulo

70

Teora de la resonancia adaptativa


Funcionamiento
Conexiones bottom-up: almacenan los cdigos de prediccin
Conexiones top-down: almacenan los valores de los prototipos
El rendimiento del sistema es muy sensible al factor de vigilancia ()

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

71

Teora de la resonancia adaptativa


Caractersticas de los modelos ART
Unidades computacionales autoescalables
Determina el nmero de forma automtica
Considera el contexto
Sensibilidad a definiciones de seal y ruido dependientes del
aprendizaje

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

72

Teora de la resonancia adaptativa

Acceso a memoria autoajustable


Ms prototipos no implica ms tiempo de categorizacin
Bsqueda paralela
Bsqueda ordenada
Acceso directo a los cdigos de reconocimiento
Alta velocidad de reconocimiento
Independiente de la complejidad del cdigo aprendido
A medida que el aprendizaje es ms autoconsistente y
predictivamente exitoso, es ms rpido

Redes de Neuronas. Aprend. No Supervisado

J.M.Valls-2007

73

You might also like