Professional Documents
Culture Documents
Una red neuronal es una mquina que est diseada para modelar la manera en que el
cerebro desarrolla una tarea particular o funcin de inters, la red es usualmente
implementada usando componentes electrnicos o es simulada en una computadora
digital con ayuda de software especializado.
Las redes neuronales emplean una interconexin masiva de simples clulas
computacionales llamadas neuronas o unidades de procesamiento.
De manera ms formal, la definicin de red neuronal vista como una mquina adaptable
es:
Una red neuronal es un procesador masivo distribuido de manera paralela, construida
con unidades de procesamiento simple, que es propensa naturalmente a almacenar
conocimiento por experiencia y disponer de ste para su uso. Se asemeja al cerebro
humano en dos aspectos:
1. El conocimiento es adquirido por la red de su entorno a travs de un proceso de
aprendizaje.
2. Las fuerzas de conexin interneuronales, conocidas como pesos sinpticos, son
usadas para almacenar el conocimiento adquirido.
El procedimiento usado para llevar a cabo el proceso de aprendizaje es llamado el
algoritmo de aprendizaje, cuya funcin es modificar los pesos sinpticos de la red de
manera ordenada para obtener un objetivo de diseo deseado. De hecho, es posible que
la red neuronal modifique su propia topologa.
Las redes neuronales son tambin llamadas neurocomputadoras, redes conexionistas,
procesadores distribuidos paralelamente, etc.
Beneficios de las redes neuronales
Es aparente que una red neuronal deriva su poder computacional a travs de, primero, su
estructura masiva paralelamente distribuida, y, segundo, de su habilidad para aprender y
as generalizar. Generalizacin se refiere q que la red neuronal produce salidas
razonables para entradas que no fueron tomadas en cuenta durante el entrenamiento
(aprendizaje).
El uso de redes neuronales ofrece las siguientes propiedades y habilidades:
1. No linealidad. Una neurona artificial puede ser lineal o no lineal. Una red
neuronal, construida con la interconexin de neuronas no lineales, es por si
misma no lineal. Adems, la no linealidad es de un tipo especial que es
distribuido a travs de toda la red. La no linealidad es importante sobretodo si el
mecanismo fsico responsable de la generacin de la seal de entrada en
inherentemente no lineal.
2. Mapeo entrada-salida. Un paradigma popular de aprendizaje llamado
aprendizaje con un maestro o aprendizaje supervisado envuelve la modificacin
de los pesos sinpticos de una red neuronal por la aplicacin de una lista de
muestras experimentales etiquetadas o muestras de tarea. Cada muestra consiste
en una nica seal de entrada y una correspondiente respuesta deseada.
2.- Piecewise-linear
Aunque para que tenga la forma de una funcin Sigmun podramos ocupar la funcin
hiperblica de la tangente.
()=tanh()
1.6 Arquitectura de redes.
La manera de cmo estn estructuradas las neuronas de una red neuronal es de suma
importancia ya que est ntimamente relacionado con el algoritmo de aprendizaje
seleccionado para entrenar la red.
En general se pueden encontrar 3 clases de arquitecturas de redes:
1.- Redes de una capa con alimentacin hacia adelante.
Las neuronas estn organizadas en forma de capas en una red neuronal. La forma ms
simple consiste en una capa de entrada y una capa de salida de neuronas. Cabe
mencionar que la capa de entrada no se cuenta, ya que aqu no se realiza ningn
procesamiento.
Cabe sealar que el lazo de retroalimentacin tiene un gran papel para el aprendizaje y
desempeo de la red, ya que se puede aprender mejor y con mayor rapidez. El realizar
una retroalimentacin implica colocar retardos (z-1) que hacen el sistema no lineal. Lo
anterior hace que la red cumpla con las caractersticas de no linealidad mencionadas en
el inicio.
1.8 Inteligencia artificial (AI) y redes neuronales.
La meta de la inteligencia artificial es el desarrollo de los paradigmas de los algoritmos
que requieren las mquinas para realizar tareas cognitivas, las cuales el humano las
puede realizar mucho mejor.
La AI debe ser capaz de realizar 3 cosas:
1.- Almacenar conocimiento.
2.- Aplicar el conocimiento almacenado para resolver problemas.
3.- Adquirir nuevo conocimiento a travs de la experiencia.
Un sistema de AI debe tener 3 componentes principales: representacin, razonamiento y
aprendizaje.
Se mencionan tambin algunos puntos en los que se puede comparar una red neuronal
como modelos cognoscitivos:
- Nivel de explicacin.
Se menciona que la representacin de smbolos es presumible porque realizan una
accin. La AI asume la existencia de representacin mental, y su modelo cognitivo
como el procesamiento secuencial de representacin de smbolos.
Otro aspecto es el desarrollo del procesamiento paralelo distribuido que simula la
interaccin de muchas neuronas.
-Estilo de procesamiento.
La neurona k es controlada por el vector de error x(n) producido por una o ms capas de
capas ocultas, las cuales a su vez son controladas por los estmulos aplicados a los
1 2
e k ( n)
2
E(n) es el valor instantneo del valor de la energa del error. El ajuste contina hasta que
el sistema alcanza el estado de equilibrio en donde el proceso de aprendizaje termina.
Minimizar la funcin costo E(n) es nombrado como la regla delta o Widrow-Hoff.
Wkj(n)= valor del peso sinptico de la neurona k excitada por el elemento xj(n) del
vector de seal x(n) al paso de tiempo n. Por lo tanto el ajuste aplicado Wkj(n) al peso
dinaptico Wkj(n) en el tiempo n es:
En efecto wkj(n) y wkj(n+1) puede ser vista como los pesos sinpticos nuevo y viejos. Lo
cual pudiramos reescribir como:
En la Figura 2.1b se muestra una grfica del flujo de seales representando el proceso
de correccin de error. Se puede ver que la correccin del error es un ejemplo de
retroalimentacin de lazo cerrado. En este caso slo se tiene a para la correccin del
error y determina ste el desempeo del aprendizaje de la correccin de errores.
Hiptesis de covarianza.
Una de las maneras de pasar con las limitacin de la hiptesis de Hebb. En esta
hiptesis la pre y post sinapsis son reemplazadas por la desviacin de la pre y post
sinapsis de su respectivo promedio sobre un cierto intervalo de tiempo.
Consideremos:
Wkj peso sinptico
K neurona
Pre-sinapsis xj
Post-sinapsis yk
Donde es la velocidad de aprendizaje del parmetro. Los promedios de x y y
constituyen las entradas que determinan el signo de la modificacin sinptica.
La covarianza permite:
Observaciones importantes:
1.
2.
Una serie de neuronas que son iguales excepto por algunos pesos sinpticos
aleatoreamente distribuidos y que por lo tanto responden las neuronas
diferentemente a modelos a la entrada.
Un lmite impuesto en la fortaleza de cada neurona.
Un mecanismo que permite que las neuronas compitan por activarse primero a
una serie de entradas. Slo una va a ganar y poderse activar
Para que una neurona k sea la ganadora su campo local inducido para el modelo
especfico x necesita ser el ms grande entre las neuronas competidoras. La seal de
salida yk de esa neurona ganadora es igual a uno. Las seales de salida de las neuronas
perdedoras con iguales a cero. Por lo que tenemos
Por lo tanto una neurona aprende cambiando los pesos sinpticos de las neuronas
inactivas a las activas. Si una neurona no responde a un modelo particular de entrada
entonces no se habr aprendido Si la neurona gana perder una cierta proporcin de su
peso sinptico cada uno de sus nodos de entrada y ese peso perdido ser distribuido de
forma igual a los nodos de entrada.
Segn la regla de aprendizaje competitivo el cambio de peso W kj(n) aplicado al peso
sinptico wkj es:
Donde es la velocidad de aprendizaje del parmetro. Esta regla tiene el efecto sobre
todo movimiento del vector de peso sinptico w k de una neurona ganadora k hacia su
modelo de entrada x.
Una analoga geomtrica se muestra en la Fig 2.5.
Cada modelo de entrada tiene su propia longitud por lo que lo podemos ver como un
punto en una esfera de dimensin N donde N es el nmero de nodos de entrada. N
tambin representa la dimensin de cada peso sinptico wk. Por lo que podemos asumir
que todas las neuronas en la red estn obligadas a tener la misma longitud Euclideana.
Reconocimiento de patrones.
El humano realiza el reconocimiento de patrones a travs del proceso de aprendizaje,
como lo es con las redes neuronales.
El reconocimiento de patrones se puede definir como el proceso por el cual un patrn o
seal es asignada a una de las varias clases o categoras prescritas. Una red neuronal
desempea el reconocimiento de patrones realizando primero una sesin de
entrenamiento, en donde se mandan repetidas entradas junto con la categora al patrn
que pertenecen. Despus un nuevo patrn que nunca ha sido visto por la red es
presentado, pero que es de alguna poblacin de los patrones usados para entrenar la red.
La red es capaz de reconocer a que grupo especfico pertenece, debido a la informacin
dada en el entrenamiento.
El reconocimiento de patrones desempeado por la red neuronal es en naturaleza
estadstico, donde los patrones son presentados como puntos en espacio de decisin
multidimensional. El espacio de decisin es dividido en regiones, cada una de las cuales
es asociada con una clase. La decisin de los lmites de cada regin se determina con el
proceso de entrenamiento. La construccin de los lmites es hecho de manera estadstica
por la variabilidad inherente que existe dentro de y entre las clases.
En general, las mquinas de reconocimiento de patrones que usan redes neuronales
pueden tomar una de dos formas:
F = ((Xi , di )) x=1N .
El objetivo es disear una red neuronal que aproxime la funcin que no sabemos f(.) tal
como la funcin F(.) describiendo la entrada-salida mapeada actualmente por la red,
cerca todava de f(.) en una deteccin Euclidiana sobre todas las entradas comos e
muestra: ||F(x) f(x) || < E
para toda x, donde E es un valor positivo pequeo. El
valor de N es el conjunto de datos del entrenamiento. Por lo que la aproximacin va
haciendo que el error sea menor.
La habilidad de una neurona de aproximar un mapeo de entradas-salidas se puede
explicar de dos maneras:
Identificacin del sistema. Por ejemplo para un sistema MIMO se tienen entradas Xi, Yi
como salida de la red neuronal, di como la seal deseada. Se realiza una comparacin
entre la di con Yi, de donde se obtiene un valor de error Ei que es usado para ajustar los
parmetros libres de la red para minimizar de manera estadstica la funcin deseada y la
funcin no conocida.
Control.
El control es otra tarea de aprendizaje que puede ser realizado por la red neuronal. El
aprender controlar no debe ser nuevo, ya que el cerebro humano es como una
computadora, donde las salidas son acciones.
Considerando un sistema de control con retroalimentacin, donde se requiere que la
salida del sistema sea retroalimentada a la entrada. La salida de la planta y es restada del
valor de referencia d suministrado de una fuente externa. El error de la seal e es
aplicado al control neuronal con la finalidad de ajustar los parmetros libres.
El objetivo primordial de el controlador es proveer entradas adecuadas a la planta para
hacer que sus salidas y sigan la seal de referencia d.
Para realizar ajustes en los parmetros libres de la planta acorde con el algoritmo de
aprendizaje de correccin de error se tiene que conocer la matriz jacobiana:
J = (d Yk / d uj)
Donde Yk es un elemento de la salida de la planta, u j es un elemento de la entrada de la
planta u. Debido a que las derivaciones de varios valores de k y j dependen del punto de
operacin de la planta que son no conocidos, se procede a la aproximacin con una de
las dos reglas:
- Aprendizaje indirecto. Usa la medida actual de entrada y salida en la planta, una red
neuronal es construida primero para producir una copia de sta. Este modelo es usado
para estimar el valor J de la matriz jacobina. Las derivadas parciales son usadas en la
correccin de error en el proceso del algoritmo de aprendizaje cuando se ajustan los
valores por medios computacionales.
- Aprendizaje directo. Las seales de las derivadas parciales son generalmente
conocidas y quedan constantes en el rango dinmico de la planta. Esto sugiere que se
haga una aproximacin de las derivadas por su signo individual. El control neuronal es
por tanto habilitado para aprender el ajuste de sus parmetros libres directamente de la
planta.
Imagen 5.
Diagrama de
bloques del
sistema de
Control con
retroalimentacin.
Filtrado.
Este trmino se refiere generalmente en dispositivos o algoritmos que son usados para
extraer informacin acerca de cantidades prescritas o de inters de un conjunto de datos
mezclados con ruido. En general se realiza un proceso de filtrado cuando hay 3 tareas
bsicas de procesamiento de informacin:
1.- Filtrado. Esta tarea se refiere a la extraccin de informacin acerca de un valor o
cantidad de inters en un tiempo discreto n.
2.- Suavizado. Esta tarea se diferencia de la anterior en que no necesita tener disponible
un tiempo n, lo medido despus de un tiempo n tambin puede ser usado para obtener
informacin. Esto quiere decir que en el suavizado hay un retrazo en producir los datos
de inters. Ya que se tienen datos en el tiempo n y despus, se logra que este proceso
tenga mayor exactitud que el filtrado en sentido estadstico.
3.- Prediccin. Esta tarea es diagnosticada del lado del procesamiento de informacin.
El fin es derivar o anticipar informacin de alguna cantidad de inters en un tiempo n +
no (futuro).
Un problema de filtrado similar al problema del cocktail ocurre en las redes neuronales
(artificiales). Se trata en que el ruido afecta de manera notoria la comunicacin. En este
mbito tiene el nombre de umbrella of blind signal separation, en donde se tienen una
fuente desconocida de seales (si(n))im =1 que son mutuamente independientes. Estas
seales son linealmente mezcladas por un sensor desconocido para producir el vector m
de 1 observacin.
x(n) = A u (n)
donde : u(n) = (u1(n), u2(n), . Um(n))T
x(n) = (x1(n), x2(n), . Xm(n))T
donde A es una matriz mezclada no singular desconocida de dimensin m por m. Dado
el vector de observaciones x(n), el requerimiento es recopilar las seales originales
u1(n), u2(n), . Um(n) de una manera no supervisada.
El objetivo es predecir el valor actual x(n) del proceso, basado en valores pasados que
son uniformemente plasmados en el tiempo como lo mostrado por x(n-T), x(n-2T), ,
x(n-mT) en donde T es el tiempo de muestreo y m es el orden de prediccin. La
prediccin puede ser resuelta con los mtodos existentes, tal como lo es el de correccin
de error. La prediccin debe ser vista como un modelo de construccin en el sentido de
que al hacer ms iqueo el error en un modo estadstico, la red mejorar y servir como
modelo del proceso fsico. La red neuronal es una muy buen opcin para los casos en
los cuales el comportamiento del sistema no es lineal.
La memoria es distribuida
El patrn de estmulo (clave) y el patrn de respuesta (almacenada) de una
memoria asociada consiste en vectores de datos.
La informacin es almacenada en la memoria por la configuracin de un patrn
espacial de actividad neuronal a lo largo de un gran nmero de neuronas.
La informacin contenida en un estmulo no slo determina la localizacin
donde fue almacenada en la memoria pero adems una direccin para su
recuperacin.
La figura ilustra una red que puede ser considerada como componente modelo de un
sistema nervioso. Cada neurona en la capa de entrada est conectada a cada una de las
neuronas en la capa de salida. Las conexiones sinpticas actuales entre las neuronas son
complejas y redundantes. Una unin ideal simple es usada para representar el efecto
integrado para todos los contactos sinpticos entre las dendritas de una neurona en la
capa de entrada y las ramas del axn de una neurona en la capa de salida. El nivel de
actividad de una neurona en la capa de entrada puede afectar el nivel de actividad de
cada neurona en la capa de salida.