Professional Documents
Culture Documents
TRABAJO DE INVESTIGACION:
REDES NEURONALES ARTIFICIALES:
EL PERCEPTRÓN MULTICAPA
TRUJILLO – PERU
2011
ÍNDICE
AGRADECIMIENTO
DEDICATORIA
PRESENTACION
RESUMEN
1. INTRODUCCION 5
1.1. PROBLEMATIZACIÓN …………………………............................ 5
1.1.1. SISTEMAS EXPERTOS …………………………………….. 5
1.1.2. DEMOSTRACIÓN DE TEOREMAS …………………………… 6
1.1.3. JUEGOS AUTOMATIZADOS ………………………………….. 6
1.1.4. RECONOCIMIENTO DE VOZ …………………………………. 6
1.1.5. RECONOCIMIENTO DE PATRONES ………………………… 7
1.1.6. PROCESAMIENTO DEL LENGUAJE NATURAL ……………. 7
1.1.7. VISIÓN ARTIFICIAL ……………………………………………… 7
1.1.8. ROBÓTICA ………………………………………………………. 8
1.1.9. REDES NEURONALES ………………………………………… 8
1.1.10. ALGORITMOS GENÉTICOS ……………………………………. 9
3. HIPÓTESIS …………………………………………………………………………….. 9
5. OBJETIVOS ……………………………………………………………………………. 10
5.1. OBJETIVO GENERAL ……………………………………………………. 10
5.2. OBJETIVOS ESPECÍFICOS ………………………………………………. 10
6. ANTECEDENTES …………………………………………………………………….. 11
6.1. DEFINICIÓN DE REDES NEURONALES ……………………………… 11
6.1.1. MODELO BIOLÓGICO ………………………………………….. 11
6.1.2. MODELO COMPUTACIONAL ………………………………….. 13
1.1. Problematización
1.1.8. Robótica
3. HIPÓTESIS
5. OBJETIVOS
El campo de las redes neuronales artificiales fue inspirado por los estudios
en redes neuronales reales que conforman el cerebro, en un intento por
resolver problemas mediante el empleo del conocimiento obtenido de casos
similares resueltos en el pasado. No por eso su conducta es igual a la del
cerebro, pero sí se busca emular ciertas cualidades destacables de este,
las cuales no se alcanzan con computadoras estándar.
Supongamos que tenemos “n” entradas: x1, x2, x3, . . . xn, cuyos pesos
respectivamente son: w1, w2, w3, . . . wn. El valor de activación, para una
neurona, se obtiene por:
x w x w x w .... x w
1 1 2 2 3 3 n n
n
x w
i 1
i i
Un vector de entrada
Un vector de pesos asociado a cada entrada
Un umbral
Un valor de activación (sumatoria) α
Una función de activación f
Función Escalón
Cuando el conjunto de valores de activación es {0, 1}, entonces
tenemos:
y( ) 10 si
si
-1
Función Lineal
y( )
Función Sigmoidal
Se denomina Sigmoidal, pues su representación gráfica tiene la
forma de una “S”. Es una función continua, por lo tanto el espacio de
los valores de activación es un intervalo del eje real entre 0 y 1.
1
y ( )
1 e ( )
Figura N° 3:
Función Sigmoidal
2
y( ) 2 ( )
1
1 e
Figura N° 4:
Función Tangente Sigmoidal
Función Gaussiana
y( ) e x*x ; x
Figura N° 5:
Función Gaussiana
n
(x w ) x w
i 1
i i 0 0
y( ) 10 si
si
0
0
Las redes mono capa son redes con una sola capa. Para unirse, las
neuronas crean conexiones laterales para conectar con otras neuronas
de su capa. Las redes más representativas son la red de Hopfield, la red
BRAIN-STATE-IN-A-BOX o memoria asociativa y las máquinas
estocásticas de Botzmann y Cauchy.
Entre las redes neuronales mono capa, existen algunas que permiten
que las neuronas tengan conexiones a sí mismas y se denominan auto
recurrentes.
Figura N° 8:
Conexión Feedback
6.3.5. Redes recurrentes
Figura N° 9:
Conexión recurrente
- Aprendizaje Hebbiano
- Aprendizaje Competitivo y Corporativo
o Estructura
o Tipo de Conexión
o Algoritmo de Aprendizaje
Aprendizaje Supervisado
Aprendizaje No Supervisado
Figura N° 10:
Clasificación de Patrones.
6.8.2. Categorización
(pares de entrada-salida),
x1 , y1 , x2 , y2 ,, xn , yn han sido
generados desde una función desconocida f (x) . La tarea de la
ˆ
aproximación de funciones es encontrar una función estimada f ( x) de
la función desconocida. En muchas aplicaciones de ingeniería y
problemas de modelación se requiere aproximación de funciones.
Figura N° 11:
Aproximación de Funciones.
6.8.4. Predicción
y
?
t1 t2 t3 tn tn+1
Figura N° 12:
Predicción.
6.8.5. Optimización
7.1. Perceptrón
( ) ( )
X0=1
X1 Umbral
W0
W1
X2
W2
Y
f
Wn-1
Xn-
1
Wn
Xn
Figura N° 13:
Modelo de Perceptrón Simple.
wij yi (d j y j )
donde:
wij
: Diferencia en el valor del peso de la conexión
entre la neurona i y la neurona j.
yj
: Valor de la salida de la neurona j.
dj
: Valor esperado de la neurona j.
0 i M 1j N
ENTRENAMIENTO
[ x1 , x 2 ,...,x n ]
y j f ( j )
,
wij (t 1) wij (t ) y i (t )( d j y j )
error
patron
2
Figura N° 14:
Arquitectura del Perceptrón con una Capa Oculta.
Fuente: http://es.wikipedia.org/wiki/Red_neuronal_artificial.
7.2.1. La Regla Delta o Regla de Widrow-Hoff
y
x
x * pendiente
0 es suficientemente pequeño, para asegurar que y y , se alcance
el mínimo sin saltarlo.
Figura N° 17:
Error vs. Pesos
1
Ep (d y ) 2
2
Donde: y está en función de los pesos. El error total E, es tan solo la
suma de los errores por cada patrón.
E Ep
p
W W f (W )
Error propagation
Backward Step
1
y ( x)
1 e ( x )
y ' ( x) y ( x)(1 y ( x))
- El error epj producido por una red neuronal, en la neurona j de su
capa de salida, bajo un patrón de entrada p, es:
epj = (dj-yj)
Ep = ½ (ep21 + ep22+ep23+….+ep2m)
K K
j x j wkj ykj wkj
k 1 k 1
i j
wij
: es el factor de aprendizaje
xij: es la entrada respecto al peso wij
j : delta de la neurona j
A diferencia del perceptrón, existen capas ocultas y una capa de
salida, cuyas neuronas influencian en distinto nivel al error de la red,
lo que origina diferencia en la actualización de pesos.
wij = (dj-yj)*y’j(j)xij
y’j(j) = yj(1-yj)
wij = (dj-yj)*yj(1-yj)xij
Si los cambios anteriores son altos significa que estamos lejos del
mínimo y debemos acelerar el aprendizaje. Por el contrario, si los
cambios son pequeños entonces estamos cerca al mínimo, por lo
que debemos modificar los pesos suavemente.
c. Algoritmo
Ep = ½ (ep21 + ep22+ep23+….+ep2n)
7.4.1. Diseño
01110100011000111111100011000110001
b) PRE-PROCESAMIENTO DE LA IMAGEN
d) CLASIFICACION
Estructura de la RNA
Patrones de entrenamiento
VOCAL “A”
VOCAL “E”
VOCAL “I”
VOCAL “O”
VOCAL “U”
7.4.2. Análisis y Discusión de resultados
Tabla N° 1:
Resultados obtenidos al ejecutar el reconocimiento de las vocales
N° Test A E I O U
Elaboración propia
Gráfico N° 1:
Resultados obtenidos al ejecutar el reconocimiento de las vocales
0.6
0.5
0.4 A
E
0.3
I
0.2 O
U
0.1
0
0 2 4 6 8 10 12
Elaboración propia
A 3 7
E 2 8
I 4 6
O 4 6
U 3 7
Elaboración propia
Gráfico N° 2
Rechazos y aciertos obtenidos en el programa
9
8
7
6
5
Rechazos
4
Aciertos
3
2
1
0
A E I O U
Elaboración propia
[1] Isasi Viñuela, Pedro y Galván, Inés M., “Redes de Neuronas Artificiales:
Un Enfoque Práctico” Editorial: Pearson Educacion 2004