Professional Documents
Culture Documents
LA NEURONAL BIOLGICA
El cerebro es el elemento principal del sistema nervioso humano y est compuesto por
un tipo especial de clula llamada neurona. Una neurona es una clula viva y como tal
posee todos los elementos comunes de las clulas biolgicas. A su vez, las neuronas
tienen caractersticas propias que le permiten comunicarse entre ellas, lo que las
diferencia del resto de las clulas biolgicas.
SINAPSIS
La intensidad de una sinapsis no es fija, sino que puede ser modificada en base a la
informacin proveniente del medio. De esta manera la estructura del cerebro no
permanece fija sino que se va modificando por la formacin de nuevas conexiones, ya
sean excitadoras o inhibidoras, la destruccin de conexiones, la modificacin de la
intensidad de la sinapsis, o incluso por muerte neuronal.
De la figura anterior se observa que la neurona biolgica est compuesta por un cuerpo
celular o soma, del cual se desprende rbol de ramificaciones llamado rbol dendrtico,
compuesto por las dendritas. Del soma tambin parte una fibra tubular, llamada axn, el
cual suele ramificarse cerca de su extremo. Las dendritas actan como un canal de
entrada de seales provenientes desde el exterior hacia la neurona, mientras que el axn
acta como un canal de salida. El espacio entre dos neuronas vecinas se denomina
sinapsis.
Estudios sobre la anatoma del cerebro humano concluyen que hay ms de 1000 sinpsis
a la entrada y a la salida de cada neurona. Es importante notar que aunque el tiempo de
conmutacin de la neurona (unos pocos milisegundos) es casi un milln de veces menor
que en las actuales elementos de las computadoras, ellas tienen una conectividad miles
de veces superior que las actuales supercomputadoras.
El objetivo principal de de las redes neuronales de tipo biolgico es desarrollar un
elemento sinttico para verificar las hiptesis que conciernen a los sistemas biolgicos.
Las neuronas y las conexiones entre ellas (sinpsis) constituyen la clave para el
procesado de la informacin.
conexiones direccionales: una capa de entrada, una capa de salida y cero o ms capas
ocultas en medio. Se le presenta un patrn inicial de entrada a la capa de entrada, y
luego los nodos que se estimulan transmiten una seal a los nodos de la siguiente capa a
la que estn conectados. Si la suma de todas las entradas que entran en una de estas
neuronas virtuales es mayor que el famoso umbral de activacin de la neurona, esa
neurona se activa, y transmite su propia seal a las neuronas de la siguiente capa. El
patrn de activacin, por tanto, se propaga hacia delante hasta que alcanza a la capa de
salida, donde es devuelto como solucin a la entrada presentada. Al igual que en el
sistema nervioso de los organismos biolgicos, las redes neuronales aprenden y afinan
su rendimiento a lo largo del tiempo, mediante la repeticin de rondas en las que se
ajustan sus umbrales, hasta que la salida real coincide con la salida deseada para
cualquier entrada dada. Este proceso puede ser supervisado por un experimentador
humano, o puede correr automticamente utilizando un algoritmo de aprendizaje, se han
utilizado algoritmos genticos para construir y entrenar a redes neuronales.
Ejemplo del uso de redes neuronales que no requieran un mtodo de aprendizaje rpido
es el "predecir" o determinar si un determinado cliente que pide un crdito a un banco
va a ser capaz de pagar ese crdito o no. Otros ejemplos muy tpicos, en nuestro campo
o en campos prximos, de este tipo de aplicaciones son el uso de las redes como
mtodos de clasificacin o prediccin en estudios economtricos o estadsticos tales
Modelo Completo
Lo que tiene que hacer la neurona artificial es multiplicar cada entrada por su respectivo
peso, lo mismo que el peso umbral, que normalmente su entrada es -1 (pero se puede
utilizar otro valor, segn sea el caso, pero eso se vera ms adelante), y sumar esos
resultados, esa sumatoria se llama la regla de propagacin, ese resultado pasa a ser
evaluado por otra funcin que es la funcin de activacin cuyo resultado es
efectivamente la salida de la neurona artificial, esta funcin de salida depender del tipo
de neurona que se utilice.
La regla de propagacin ms comn, es la vista en la figura.
Como hemos visto, lo nico que tiene que hacer nuestra neurona es multiplicar y luego
sumar, para luego aplicar una funcin a la salida
FUNCION DE ACTIVACION
Veremos un cuadro de las ms comunes.
FUNCION RANGO GRAFICA
IDENTIDAD y=x [-inf, +inf]
SIGMOIDEA 1 [0,+1]
y = -------
1+e^(-x)
y = tgh(x) [-1,+1]
Conjunto de entradas, xj(t). Estas pueden ser provenientes del exterior o de otras
neuronas artificiales.
Peso sinpticos, wij. Representan el grado de comunicacin entre la neurona artificial j
y la neurona artificial i. Pueden ser excitadores o inhibidores.
De esta forma, la salida producida por una neurona i, para un determinado instante de
tiempo t puede ser escrita en forma general de la siguiente manera:
Pesos sinpticos
El peso sinptico wij define la fuerza de una conexin sinptica entre dos neuronas, la
neurona presinptica i y la neurona postsinptica j. Los pesos sinpticos pueden tomar
valores positivos, negativos o cero. En caso de una entrada positiva, un peso positivo
acta como excitador, mientras que un peso negativo acta como inhibidor. En caso de
que el peso sea cero, no existe comunicacin entre el par de neuronas.
Ajuste de Pesos
Mediante el ajuste de los pesos sinpticos, la red es capaz de adaptarse a cualquier
entorno y realizar una determinada tarea.
Regla de propagacin
La regla de propagacin determina el potencial resultante de la interaccin de la
neurona i con las N neuronas vecinas. El potencial resultante hi se puede expresar de la
siguiente manera:
Funcin de activacin
La funcin de activacin determina el estado de activacin actual de la neurona en base
al potencial resultante hi y al estado de activacin anterior de la neurona ai(t-1). El
estado de activacin de la neurona para un determinado instante de tiempo t puede ser
expresado de la siguiente manera:
Funcin de salida
La funcin de salida proporciona el valor de salida de la neurona, en base al estado de
activacin de la neurona. En general se utiliza la funcin identidad, es decir:
Capa de entrada:
Se denomina capa de entrada a aquella que est compuesta por neuronas de entradas y
por lo tanto recibe informacin procedente desde el exterior. Anlogamente, se
denomina capa oculta.
Capa de salida:
Aquellas capas que estn compuestas por neuronas ocultas y de salida respectivamente.
Una red neuronal artificial est compuesta por una o ms capas, las cuales se encuentran
interconectadas entre s.
Entre un par de neuronas de la red neuronal artificial pueden existir conexiones. Estas
conexiones son las sinapsis, tienen asociadas un peso sinptico, y son direccionales.
Cuando la conexin se establece entre dos neuronas de una misma capa hablamos de
conexiones laterales o conexiones intra-capa. Por el contrario, si la conexin se
establece entre neuronas de distintas capas se la denomina conexin inter-capa. Si la
conexin se produce en el sentido inverso al de entrada-salida la conexin se llama
recurrente o realimentada.
Una red puede estar formada por una nica capa de neuronas. En este caso hablamos de
redes monocapa, y las neuronas que conforman dicha capa cumplen la funcin de
neuronas de entrada y salida simultneamente.
Cuando la red est compuesta por dos o ms capas hablamos de redes multicapa.
A su vez, hablamos de redes neuronales con conexin hacia delante (redes feedforward)
cuando las conexiones entre las distintas neuronas de la red siguen un nico sentido,
desde la entrada de la red hacia la salida de la misma.
Cuando las conexiones pueden ser tanto hacia delante como hacia atrs hablamos de
redes recurrentes (redes feedback).
Aprendizaje
Durante la operatoria de una red neuronal podemos distinguir claramente dos fases o
modos de operacin:
La fase de aprendizaje o entrenamiento
La fase de operacin o ejecucin.
EL PROCESO DE APRENDIZAJE
se puede dividir en tres grandes grupos de acuerdo a sus caractersticas [Isasi Viuela y
Galvn Len, 2004], [Yao, 1999]:
FASE DE OPERACIN.
Una vez finalizada la fase de aprendizaje, la red puede ser utilizada para realizar la tarea
para la que fue entrenada. Una de las principales ventajas que posee este modelo es que
la red aprende la relacin existente entre los datos, adquiriendo la capacidad de
generalizar conceptos. De esta manera, una red neuronal puede tratar con informacin
que no le fue presentada durante de la fase de entrenamiento.
ARQUITECTURA
La arquitectura del Perceptron, llamada mapeo de patrones (pattern-mapping), aprende a
clasificar modelos mediante un aprendizaje supervisado. Los modelos que clasifica
suelen ser generalmente vectores con valores binarios (0,1) y las categoras de la
clasificacin se expresan mediante vectores binarios.
El Perceptron presenta dos capas de unidades procesadoras (PE) y slo una de ellas
presenta la capacidad de adaptar o modificar los pesos de las conexiones. La
arquitectura del Perceptron admite capas adicionales pero stas no disponen la
capacidad de modificar sus propias conexiones.
La Figura muestra la unidad procesadora bsica del Perceptron. Las entradas ai llegan
por la parte izquierda, y cada conexin con la neurona j tiene asignada un peso de valor
wji.
La unidad procesadora del Perceptrn realiza la suma ponderada de las entradas segn
la ecuacin (1).
(1)
(2)
(4)
(5)
ESTRUCTURA MADALINE
El sistema Madaline tiene una capa de unidades Adaline que estn conectadas a una
simple unidad Madaline. La Figura muestra cuatro unidades en la capa de entrada, tres
unidades Adaline en la segunda capa y una unidad Madaline en la tercera capa.
Las conexiones entre la capa de entrada y la capa de las unidades Adaline tienen
asociadas un peso ajustable por cada una de ellas. Sin embargo, las conexiones entre la
capa de Adaline y la unidad Madaline no tienen asociado ningn peso. Cada unidad
Adaline transmite su salida (-1 +1) a la unidad Madaline. La Madaline emplea una
regla de mayoras para obtener su salida: si la mitad o ms de las unidades Adaline
Presentan un valor de salida +1, entonces la salida de la Madaline es +1. En caso
contrario el valor de salida de la red Madaline es -1. El entrenamiento de los sistemas
Madaline es similar al entrenamiento de las Adaline. El conjunto de entrenamiento es un
conjunto de patrones de entrada emparejados con las salidas deseadas. Una vez que se
presenta el patrn a la entrada, el sistema Madaline calcula su salida y a continuacin se
compara con la salida deseada. Los pesos son modificados despus de que cada patrn
sea presentado a la entrada del sistema.
Cada una de las entradas est conectada a travs de su peso correspondiente a cada
neurona artificial. En la prctica existen conexiones eliminadas e incluso conexiones
entre las salidas y entradas de las neuronas de una capa. No obstante la figura muestra
una conectividad total por razones de generalizacin.
Normalmente las redes ms complejas y ms grandes ofrecen mejores prestaciones en el
Clculo computacional que las redes simples. Las configuraciones de las redes
construidas presentan aspectos muy diferentes pero tienen un aspecto comn, el
ordenamiento de las neuronas en capas o niveles imitando la estructura de capas que
presenta el cerebro en algunas partes.
Las redes multicapa se forman con un grupo de capas simples en cascada. La salida de
una capa es la entrada de la siguiente capa. Se ha demostrado que las redes multicapa
presentan cualidades y aspectos por encima de las redes de una capa simple. La Figura
Muestra una red de dos capas.
La operacin de un perceptrn multicapa con una nica capa oculta puede ser resumida
de la siguiente manera:
CODIFICACIN DE PARMETROS
Cada individuo (cromosoma) de la poblacin se definir como una cadena binaria. La
longitud de dicha cadena depender de la topologa de la red. Dentro del cromosoma
cada peso de la red neuronal estar representado por 32 bits consecutivos. As, la
cantidad de genes dentro del cromosoma ser proporcional a la cantidad de pesos (y
umbrales) que tenga la red. A lo largo de este captulo se utilizar indistintamente el
trmino peso y gen para facilitar la explicacin de los distintos operadores. Sin
embargo, es importante destacar que 32 genes sern la representacin en el genotipo de
un peso sinptico, existiendo una funcin que transforma un conjunto de 32 bits en el
peso sinptico que representa (y viceversa).
PROGRAMACIN EVOLUTIVA
La programacin evolutiva (PE) es una rama de la computacin evolutiva. La
programacin evolutiva es prcticamente una variacin de los algoritmos genticos,
donde lo que cambia es la representacin de los individuos. En el caso de la PE los
individuos son ternas (tripletas) cuyos valores representan estados de un autmata
finito. Cada terna est formada por:
X1 W1
X2 W2 Y
X0 W3
X1 X2 X1 v X2
V V V
V F V
F V V
F F F
X1 X2 X1 v X2
1 1 1
1 -1 1
-1 1 1
-1 -1 -1
3) Funcin de Activacin:
- Ingresar Aleatoriamente
- Ingresar desde el Teclado
W1 = 1,2 X 0 = -1
W2 = -1,2
W0 = -0,4
X1 W1=1,2
X2 W2 =-1,2 Y
X0 =-1
W3 = -0,4
PASO 01: I Iteracion
Y = W1X1 + W2X2 + W0X0
Y = (1,2)(1) + (-1,2)(1) + (-0,4)(-1)
Y = 1,2 1,2 + 0,4
Y = 0,4 0 Y=1
II Iteracin:
Y = W1X1 + W2X2 + W0X0
Y = (1,2)(1) + (-1,2)(-1) + (-0,4)(-1)
Y = 2,8 0 Y=1
III Iteracion:
Y = W1X1 + W2X2 + W0X0
Y = -2 < 0 Y = -1
W2 = W2 + 2E(ti)(X2)
W2 = (-1,2) + 2(0,5)(1)(1)
W2 = -0,2
W0 = W0 + 2E(t1)(X0)
W0 = (-0,4) + 2(0,5)(1)(-1)
W0 = -1,4
X1 W1=0,2
X2 W2 =-0,2 Y
X0 W3 = -1,4
I Iteracion
II Iteracin:
Y = W1X1 + W2X2 + W0X0
Y = (0,2)(1) + (-0,2)(-1) + (-1,4)(-1)
Y = 1,8 0 Y=1
III Iteracin:
Y = W1X1 + W2X2 + W0X0
Y = (0,2)(-1) + (-0,2)(1) + (-1,4)(-1)
Y=10 Y=1
IV Iteracin:
Y = W1X1 + W2X2 + W0X0
Y = (0,2)(-1) + (-0,2)(-1) + (-1,4)(-1)
Y = 1,4 0 Y=1
PASO 04: Ajuste de Pesos
Factor de Aprendizaje
Wij(t) = Wi(0) + 2E(ti)(Xj)
E=0,5
W1 = W1 + 2E(ti)(X1)
W1 = 0,2 + 2(0,5)(-1)(-1)
W1 = 1,2
W2 = W2 + 2E(ti)(X2)
W2 = (-0,2) + 2(0,5)(-1)(-1)
W2 = 0,8
W0 = W0 + 2E(t1)(X0)
W0 = (-1,4) + 2(0,5)(-1)(-1)
W0 = -0,4
I Iteracion
Y = W1X1 + W2X2 + W0X0
Y = (1,2)(1) + (0,8)(1) + (-0,4)(-1)
Y = 2,4 0 Y=1
II Iteracin:
Y = W1X1 + W2X2 + W0X0
Y = (1,2)(1) + (0,8)(-1) + (-0,4)(-1)
Y = 0,8 0 Y=1
III Iteracion:
Y = W1X1 + W2X2 + W0X0
Y = (1,2)(-1) + (0,8)(1) + (-0,4)(-1)
Y=00 Y=1
IV Iteracion:
Y = W1X1 + W2X2 + W0X0
Y = (1,2)(-1) + (0,8)(-1) + (-0,4)(-1)
Y = -1,6 < 0 Y=-1
X1 W1=1,2
X2 W2 =0,8 Y
X0 W3 = -0,4
Las redes neuronales que puede crear y simular el programa estn formadas por 2 capas
de neuronas:
Y, cada neurona de la capa de entradas est conectada con todas las neuronas de la capa
de salidas. Estas conexiones presentan pesos sinpticos variables: Wij, siendo i el
nmero de la neurona de entrada (Xi) y j el de la neurona de salida (Xj).
Adems, cada neurona de la capa de salidas presenta un valor umbral (Tj), que, para
facilitar la rutina de entrenamiento, se expresa como si fuera un peso sinptico ms,
asociado a una neurona bias (siempre activa).
El programa permite tambin trabajar con la red una vez esta ha sido entrenada, de
forma que introduciendo unos datos de entrada, la red genera unos datos de salida. Y las
tablas con los resultados de la red pueden exportarse en formato texto (.TXT).
- Problemas:
Debido a los problemas que presentan los modelos de redes neuronales de 2 capas (ver
el apartado "Limitaciones del modelo de Perceptrn" en el documento de Conceptos
Tericos), es posible que en determinadas situaciones la red neuronal no pueda llegar a
una eficacia del 100% (cuando la red genera las salidas correctas para todas las entradas
de la tabla de entrenamiento).
Para evitar que, debido a esta causa, el programa entre en un bucle sin fin (quedando
bloqueado), en la pantalla de Entrenamiento existe un botn Stop, que detendr el
entrenamiento de la red. Adems, la eficacia que se desea obtener de la red es regulable,
de forma que se pueda entrenar la red incluso en los casos descritos anteriormente
(aunque obteniendo unos resultados nada exactos).
As, para conocer la funcin de un botn, slo hay que situar el puntero del ratn sobre
dicho botn, y en la barra de estado aparecer una pequea descripcin.
Una vez hecho esto, el programa definir internamente la red (mediante 3 matrices de
variables; una para las neuronas de entrada, otra para las de salidas y otra para los pesos
sinpticos), y presentar un esquema de la red que se acaba de crear.
Estado Valor
Activo 1
Inactivo 0
De manera que los datos que se introducirn en la red sern siempre vectores, formados
por tantas columnas como neuronas presente la capa en la que se introducen.
As, en una red de 2 neuronas en la capa de entrada y una en la capa de salidas, el vector
introducido en la capa de entrada tendra 2 columnas y el introducido en la capa de
salidas 1.
Pero, para simplificar el tratamiento de los datos y acelerar su escritura, los vectores se
introducirn siempre de la siguiente forma: 0101, que equivaldra al vector (0, 1, 0, 1).
Para introducir los datos entrada/salida de la tabla de entrenamiento, se usarn las cajas
de texto, en las que se introducirn los valores para el estado de cada neurona de la capa
siguiendo la notacin descrita. Una vez introducido el par de datos entrada/salida, habr
que pulsar el botn Ok, y estos pasarn a formar parte de la tabla de entrenamiento.
Ejemplo:
Entrada: Salida:
01 1
Si guardamos la red en este punto (opcin Guardar... del men Red), se guardar por un
lado el archivo que describe la estructura de la red (extensin .NN), y por otro un
archivo que contiene los datos de la tabla de entrenamiento (extensin .ENN).
- Entrenar la red:
Una vez introducida toda la tabla de entrenamiento, slo hay que pulsar el botn
Entrenar para pasar a la pantalla de Entrenamiento.
Adems, podemos indicar para cada dato de entrada cual es el resultado esperado (caja
de texto Salida esperada).
Una vez introducidos los datos para que la red trabaje, hay que pulsar el botn Generar
resultados >.
Aparecer entonces la pantalla de Resultados, donde, adems de los resultados se
muestran las discrepancias entre las salidas esperadas y las proporcionadas por la red:
Una vez aqu, se puede guardar la tabla de resultados en formato texto (opcin Guardar
datos de trabajo... del men Datos).
Ejemplo (model1_1.txt):
11, , 1
10, , 0
01, , 0
00, , 0
Ejemplos suministrados:
- MODEL1_1.NN:
La red neuronal que se ha creado es una red con 2 neuronas en la capa de entradas y 1
en la capa de salidas.
X1 X2 Capa de salida
Caso 1 0 0 0
Caso 2 0 1 0
Caso3 1 0 0
Caso 4 1 1 1
Esta es la red usada en el apartado "Un modelo simple de red neuronal" del documento
de Conceptos Tericos.
Si se estrena esta red se obtendrn (tal como se indico en Conceptos Tericos) los
siguientes pesos sinpticos:
W11 1
W21 2
W01 -2
- MODEL2_1.NN:
Esta red neuronal, est entrenada para diagnosticar un resfriado a partir de los sntomas
que se le indiquen.
1 Dolor de cabeza No S
2 Fiebre No S
3 Tos No S
4 Dolor de rodilla No S
X1 X2 X3 X4 Capa de salida
0 0 0 0 0
1 1 1 1 1
1 1 1 0 1
0 0 0 1 0
0 1 1 0 1
0 1 1 1 1
0 0 1 0 0
0 0 1 1 0
1 0 1 0 1
1 0 1 1 1
W21 2 Fiebre
W31 0 Tos
W01 -1
Lgicamente este modelo es un modelo muy sencillo entrenado con pocos casos, de
manera que si usramos ms casos, obtendramos que la tos recibe ms importancia que
el dolor de rodilla.
Notas Adicionales:
- Desarrollo:
El programa ha sido realizado en Visual Basic 3 para Windows 3.x.
Puesto que esta grabado en formato ASCII, aunque no se disponga de Visual Basic 3, se
puede revisar el cdigo (comentado), abriendo los archivos con extensin .FRM en un
editor de textos como el NOTEPAD.EXE de Windows.
- Instalacin:
Para instalar el programa solo hay que descomprimir el archivo .ZIP (usando la opcin
de descomprimir directorios) y ejecutar el programa SETUP.EXE, despues slo hay que
seguir las instrucciones que aparecen en pantalla.
- Consultas:
Para cualquier consulta, problema o comentario sobre el programa:
Las conexiones entre las dos neuronas de entrada y la neurona de salida presentan pesos
sinpticos ajustables mediante el entrenamiento. Y a su vez, el valor umbral (U) de la
neurona 3 puede ser ajustado como un peso sinptico ms, al considerar U = -W0
asociado a una neurona bias (siempre activa: X0 = 1).
Adems, en este modelo, cada neurona de una capa "transmite" su estado de activacin
(0 o 1) a la siguiente capa de neuronas, y despus deja de estar activa.
Ahora, entrenaremos la red de manera que la neurona 3 se active slo si las neuronas 1 y
2 estn activas, y permanezca inactiva en caso contrario. Hay as cuatro posibles casos:
Caso 1 0 0 0
Caso 2 0 1 0
Caso3 1 0 0
Caso 4 1 1 1
Para entrenar esta red, usaremos una regla de aprendizaje derivada del mtodo de
aprendizaje Hebbiano.
El problema de este mtodo es que no tiene en cuenta la eficacia de la red. As, aunque
la red ya esta entrenada y los valores de entrada generen valores de salida correctos, la
regla de aprendizaje continua incrementando los pesos sinpticos entre neuronas
activas.
- Entrenamiento de la red:
Debido al problema de la regla de aprendizaje de Hebb, usaremos una regla de
aprendizaje derivada, y que si tenga en cuenta la eficacia de la red en cada momento:
1. Si la salida generada por la neurona 3 (para los valores de las otras dos
neuronas) es la correcta, no se realizan ajustes de los pesos sinpticos.
2. Si la salida es 1 pero debera ser 0, se reducen slo los pesos de las conexiones
activas segn una constante C.
3. Si la salida es 0 pero debera ser 1, entonces se aumentan slo los pesos de las
conexiones activas segn la misma constante C.
o W2 = W2 + C = 0 + 1 = 1
o W0 = W0 + C = 0 + 1 = 1
W1 1
W2 2
W0 -2
El modelo del Perceptrn est basado en esta idea del ojo: las clulas sensibles de la
retina serian detectores conectados con neuronas de la capa de entrada; estas neuronas
se activan (1) cuando se activa el detector correspondiente. Cada neurona de la capa de
entrada est conectada con diferentes neuronas de la capa de deteccin de
caractersticas. Y cada neurona de esta capa estara conectada a su vez con diferentes
neuronas de la capa de salidas del Perceptrn (figura).
As, por ejemplo, el modelo seria incapaz de aprender a realizar la operacin XOR (O
exclusivo): no puede ser entrenado con xito para que la neurona 3 se active si las
neuronas 1 o 2 estn activas, pero no las dos a la vez.
Esto es debido a que el mtodo de entrenamiento lo que hace es mover la siguiente recta
sobre un plano:
De manera que los puntos (X1, X2) del plano por encima de la recta hacen que la
neurona 3 se active, y los que quedan por debajo de la recta hacen que la neurona 3
permanezca inactiva:
Y no se puede dividir el plano en 2 partes de manera que solo los puntos (0,1) y (1,0)
queden en la zona de activacin de la neurona 3.
Para realizar este tipo de tareas "complejas" es preciso una red neuronal que contenga
ms de una capa de pesos sinpticos ajustables. Para ello, se aaden capas ocultas de
neuronas entre la capa de entradas y la capa de salidas.
Qu es el aprendizaje automtico?
Es una rama de la Inteligencia Artificial que tiene como objetivo el desarrollar tcnicas
que permitan que las computadoras puedan aprender.
Una mquina puede considerarse inteligente cuando cumple con los siguientes
requisitos: