Professional Documents
Culture Documents
12 de Julho de 2008
Resumo
Este trabalho tem como objetivo descrever as principais abordagens para o treinamento
de redes neurais.
1 1
1 Introduï¾ 2 ï¾ 2 o
1
Jï¾ 12 no caso hï¾ 12 brido, parte dos pesos ï¾ 21 encontrado atravï¾ 12 s de um aprendizado
supervisionado e outra parte por aprendizado nï¾ 12 o supervisionado.
Uma teoria de aprendizado deve lidar com trï¾ 12 s questï¾ 12 es: capacidade, complexi-
dade de amostras, complexidade computacional.
Capacidade ï¾ 12 a quantidade de padrï¾ 21 es que uma RNA pode armazenar e os re-
spectivos limiares de decisï¾ 12 o.
A complexidade de amostras que determina a quantidade de amostras necessï¾ 21 rias
para o treinamento que valide uma generalizaï¾ 12 ï¾ 12 o. Em decorrï¾ 12 ncia deste aspecto
que pode surgir o "over-tting", onde a rede estï¾ 21 bem treinada, mas como a amostra
ï¾ 12 muito pequena, pontos diferentes dos treinados apresentam respostas incoerentes.
A complexidade computacional corresponde ao tempo para se obter uma soluï¾ 12 ï¾ 12 o
considerando os padrï¾ 12 es de treinamento.
Quanto as regras de aprendizado, existem quatro tipos bï¾ 12 sicos: correï¾ 12 ï¾ 12 o de
erro, Boltzmann, Hebbiana, e de aprendizado competitivo. Estes serï¾ 21 o descritos na
seï¾ 12 ï¾ 21 o seguinte.
1 1
2 Descriï¾ 2 ï¾ 2 o dos algoritmos de aprendizado Super-
visionado
2
5. Calcular os deltas para as camadas precedentes, propagando o erro na direï¾ 21 ï¾ 12 o
contrï¾ 12 ria. δil = g 0 (hli ) j wij δl+1 , com l = L − 1...1.
P l+1 l+1
2.2 Boltzmann
Nesta regra, procura-se ajustar os pesos das conexï¾ 12 es de forma que os estados das
unidades visï¾ 12 veis satifaï¾ 12 am uma determinada distribuiï¾ 12 ï¾ 21 o de probabilidade. O
parï¾ 12 metros para o ajuste sï¾ 12 o estimados atravï¾ 21 s de mï¾ 12 todos de probabilï¾ 12 sticos,
tais como experimentos de Monte Carlo.
Matematicamente, dene-se a regra de Hebb como: wij = wij (t) + ηyj (t)xi (t), com
xi e yj como os valores de saï¾ 21 da dos neurï¾ 12 nios i e j , respectivamente, conectados por
uma sinapse wij , η a taxa de aprendizado. xi ï¾ 21 entrada da sinapse.
Isto implica que se ambos neurï¾ 12 nios sï¾ 12 o disparados simultaneamente, o peso de
sua conexï¾ 12 o deve crescer.
Nesta regra, apenas uma unidade de saï¾ 21 da ï¾ 12 ativada por vez, e estas competem
pela ativaï¾ 12 ï¾ 12 o. Supondo uma rede com uma camada, para exemplo, o neurï¾ 12 nio com
maior entrada, tem seus pesos atualizados, enquanto as outras sï¾ 12 o mantidas.
Isto implica que este tipo de rede nunca interrompe o aprendizado, exceto quando a
taxa de aprendizado ï¾ 12 nula.