Professional Documents
Culture Documents
Artificiais
Inteligncia Artificial
Tpicos
Introduo
Redes Neurais Humanas
O que so Redes Neurais Artificiais
Caractersticas das Redes Neurais Artificiais
Perceptrons
Perceptrons Multi Camadas
Modelo de Hopfield
3/164
Motivao
Criar mquinas capazes de operar
independentemente do homem
aprender sozinhas
interagir com ambientes desconhecidos
possa ser chamada de autnoma, inteligente ou
cognitiva
capacidade de lidar com eventos inesperados
Utilidade
Teriam maior capacidade de aprender tarefas
de alto nvel cognitivo que no so facilmente
manipuladas por mquinas atuais
Seriam teis onde a presena humana
perigosa, tediosa ou impossvel, como em:
reatoresnucleares
combate ao fogo
operaes militares
explorao ao espao...
5/164
Cincias Cognitivas
Epistemologia
Psicologia Lingstica
Cincia da
Computao Cincias Sociais
Neurobiologia
7/164
Crebro humano
Mais fascinante processador baseado em carbono
10 bilhes de neurnios
todos movimentos do organismo
so conectados atravs de sinapses
processam e armazenam informaes
8/164
Neurnios naturais
Neurnios so formados:
pelos dendritos, que so um conjunto de terminais
de entrada
recebem estmulos
pelo corpo central (soma)
coleta, combina e processa informaes
pelos axnios que so longos terminais de sada
transmitem os estmulos
Neurnios naturais
12/164
Neurnios naturais
Constatao que o crebro processa informaes
de forma diferente dos computadores convencionais
Crebro
velocidade 1 milho de vezes mais lenta
processamento altamente paralelo
1011 neurnios com 104 conexes cada
Computador
processamento extremamente rpido e preciso na
execuo de sequncia de instrues
15/164
Neurnios naturais
O crebro tem 10 bilhes de neurnios
Cada neurnio tem 1.000 a 10.000 conexes
60 trilhes de conexes
1014 sinapses
Crebro X Computador
Computador X RNAs
Computadores Neurocomputadores
Aprendizado
a rede aprende por experincia, no
necessitando explicitar os algoritmos para
executar uma determinada tarefa
22/164
Generalizao
so capazes de generalizar o seu
conhecimento a partir de exemplos anteriores
23/164
O que as RNAs no so
RNN no so circuitos digitais
o modelo MCP usava sinais binrios, o
neurnio biolgico expressa sua ativao pela
freqncia que emite pulsos e esta freqncia
tem uma variao contnua entre dois valores
positivos
O que as RNAs no so
RNN no so homogneas
as RNN no possuem todos os seus
neurnios de mesmo tipo como nas RNA,
apenas em algumas regies existe uma certa
uniformidade no tipo de neurnios
O que as RNAs no so
Nem neurnios nem sinapses tem dois valores
Circuitos cerebrais no so capazes de
clculos recursivos
isto conseqncia dos neurnios no serem
sistemas discretos, levando a rede a no ser
um autmato
logo, equivalncia com problemas solveis por
funes recursivas no tem sentido biolgico
entretanto, os neurnios das RNAs so
capazes de resolver funes recursivas
27/164
Fases da histria da IA
poca pr-histrica
nesta poca nada se conhecia sobre os
mecanismos da mente, nem sob o prisma
fisiolgico nem psicolgico e por esta razo vai
at 1875 quando Camillo Golgi visualizou o
neurnio
Fases da histria da IA
poca Romntica (1943-1956)
o otimismo desordenado, tal um jovem rapaz
romntico, cr que tudo possvel
acaba com a reunio no Darthmouth College
Fases da histria da IA
poca das Trevas (1969-1981)
paralisao de quase todas as pesquisas em IA por falta
de verbas
Renascimento (1981-1987)
comeou a corrida para IA
os resultados obtidos nas pocas anteriores atingiram o
pblico em geral
sistemas especialistas se popularizaram
Acontecimentos
1943 Primeiras informaes da neuro
computao (McCulloch e Pitts)
Psychon
Exitao / Inibio - Sem aprendizado
Acontecimentos
1956 Darthmouth College surgiram os
paradigmas da Inteligncia Artificial:
simblica: simular o comportamento
humano desconsiderando os mecanismos
responsveis
Acontecimentos
1957 Mark I Perceptron, por Frank Rosenblatt,
Charles Wightman e outros
interesse: reconhecimento de padres
Bernard Widrow desenvolveu um novo tipo de
processamento de redes neurais: ADALINE
grande capacidade de aprendizado
valores discretos / binrios / Regra Delta
Acontecimentos
1969 - Problema do XOR - Minsky & Papert
(Livro Perceptrons)
Acontecimentos
1986 - MLP Back-Propagation - Rumelhart, Hinton & Willians
(Multi-nvel)
1987 Primeira conferncia de redes neurais
1980-1990 dcada das aplicaes
Jogos, Robtica, Viso, Reconhecimento de Imagens e
Padres (OCR, Digitais, Assinaturas), Reconhecimento de
Voz (Comandos e Fonemas), Previso de sries
temporais (Aes, tempo, consumo, etc)
1990-2005 revendo conceitos e limitaes
propondo novos modelos
35/164
O Modelo MCP
O Modelo MCP
Funo de ativao
Ento se aplica uma funo de ativao g nesta
soma para derivar a sada:
n
a i =g ini =g
W j,i a j
j=0
Se este nvel de atividade exceder um certo limite ou
limiar (threshold) a unidade produz uma determinada
resposta de sada
a i
38/164
O Modelo MCP
Operao de uma unidade de
processamento
y = 1, se s > t
s = wiXi y = 0, se s t
O Modelo MCP
Funo de ativao
Este modelo foi simplificado
os ns em cada camada da rede disparam
sincronicamente
as entradas em um instante t produzem a sua sada
no tempo t+1
diferente do biolgico, onde no existe sincronismo e
nem ativao em tempo discreto
...
w1 w2 ... wn
Pesos Sinpticos (Efeito
de inibio ou de excitao
sobre a ativao dos sinais
S= w i x i +bias de entrada)
Funo de Ativao
(Regulagem da sada da rede)
Funo de ativao
Funo de ativao
Funo linear
g(ini)
ini
g(ini) = ini
43/164
Funo de ativao
Funo limiar (threshold)
g(ini)
+1
ini
1, se ini
g(ini) =
0, se ini <
44/164
Funo de ativao
Funo sigmoidal logstica (bipolar)
g(ini)
ini
Funo de limiar diferencivel
45/164
Exemplo de funcionamento
46/164
Aprendizagem
Ajustes de seus pesos
Processamento Neural
Aprendizagem no supervisionada
a sada desejada obtida atravs de entradas
repetitivas at a rede reter o conhecimento
no existe sada informada para comparao
deve existir redundncias nos dados para a rede
encontrar padres ou caractersticas dos dados
52/164
Exemplo: Aprendizagem
Implementao da porta lgica AND
Certificar-se de que todas as
respostas esto corretas para
cada conjunto de entradas Tabela Verdade - AND
pela tabela-verdade Entrada 1 Entrada 2 Sada
1 1 1
1 0 0
A RNA possui um nico 0 1 0
neurnio de duas entradas e 0 0 0
uma sada
0 0 0 1 1
0 T 1 T
0
T
0
T
1
0 1
53/164
Exemplo: Aprendizagem
Implementao da porta lgica AND
Para treinar a rede vamos seguir alguns
passos:
= 0,5 y = 1, se s >
y = 0, se s
Funo Soma
n
x i w i
i 1 limiar
54/164
Exemplo: Aprendizagem
Implementao da porta lgica AND
Para treinar a rede vamos seguir alguns
passos: = 0,5
Passo 1: Aplicar a funo Soma Funo Soma
n
n
x i w i x i w i
i 1 i 1
Soma = 1*0 + 1*0 = 0
Passo 2: Aplicar a funo de 1
0.0
0
Transferncia 1 0.0
T
Soma 0,5 y = 0
Soma > 0,5 y = 1 y = 1, se s >
Transferido y = 0, se s
0 para a sada.
Erro!!!!!
limiar
55/164
Exemplo: Aprendizagem
Implementao da porta lgica AND
Passo 3: Ajuste do peso
Equao do erro:
E = Sd - So
onde
Sd a sada desejada
So a sada obtida
Fator de correo:
F = c*x*E
onde
c = 0,5 (constante)
x a entrada
E o erro
Equao do ajuste:
wnovo = w + F
56/164
Exemplo: Aprendizagem
Implementao da porta lgica AND
Passo 3: Ajuste do peso Equao do erro:
E = Sd - So
Calcular o erro: E = 1 - 0 = 1 onde
Sd a sada desejada
Calcular o fator de correo: So a sada obtida
F1 = c*E*x1 F2 = c*E*x2
Fator de correo:
F1 = 0,5*1*1 F2 = 0,5*1*1 F = c*x*E
onde
F1 = 0,5 F2 = 0,5 c = 0,5 (constante)
x a entrada
Calcular o novo peso: E o erro
w1novo = w1 + F1 w2novo = w1 + F2
w1novo = 0 + 0,5 w2novo = 0 + 0,5 Equao do ajuste:
wnovo = w + F
w1novo = 0,5 w2novo = 0,5
57/164
Exemplo: Aprendizagem
Implementao da porta lgica AND
Para treinar a rede vamos seguir alguns passos:
para as entradas [1, 1] ...
pesos iniciais [0,5, 0,5] 1
0.5
1
Passo 1: Aplicar a funo Soma 1 0.5 T
Soma 0,5 y = 0
Soma > 0,5 y = 1
EXERCCIO: Aprendizagem
Implementao da porta lgica AND
EXERCCIO
Testar a rede
Para as entradas [0, 1] e [1, 0]
59/164
EXERCCIO: Aprendizagem
Implementao da porta lgica AND
Para treinar a rede vamos seguir alguns passos:
para as entradas [0, 0] e
pesos [0,5, 0,5] 0 0
Passo 1: Aplicar a funo Soma 0 T
Soma 0,5 y = 0
Soma > 0,5 y = 1
EXERCCIO: Aprendizagem
Implementao da porta lgica AND
Testar a rede: para as entradas [0, 1] e
pesos [0,5, 0,5]
Passo 1: Aplicar a funo Soma 0
0
Soma = 0*0,5 + 1*0,5 = 0,5 1 T
EXERCCIO: Aprendizagem
Implementao da porta lgica AND
Testar a rede: para as entradas [1, 0] e
pesos [0,5, 0,5]
Passo 1: Aplicar a funo Soma 1 0
T
Soma = 1*0,5 + 0*0,5 = 0,5 0
Arquiteturas de RNA
Arquiteturas neurais so tipicamente
organizadas em camadas, com unidades que
podem estar conectadas s unidades da
camada posterior
63/164
Arquiteturas de RNA
Usualmente as camadas so classificadas em
trs grupos:
Camada de Entrada: onde os padres so
apresentados rede
Camadas Intermedirias ou Escondidas: onde
feita a maior parte do processamento, atravs
das conexes ponderadas
podem ser consideradas como extratoras de
caractersticas
Camada de Sada: onde o resultado final
concludo e apresentado
64/164
Arquiteturas de RNA
Nmero de camadas
redes de camada nica
s existe um n entre qualquer entrada e qualquer
sada da rede
X1
X1
X2
X2
X3
65/164
Arquiteturas de RNA
Nmero de camadas
redes de mltiplas camadas
existe mais de um neurnio entre alguma entrada e
alguma sada da rede
X1
X2
X1 X3
X2 X4
X6
X5
X3
X6
X4
X7
X1
X2
X5
X4
X5
66/164
Arquiteturas de RNA
Tipos de conexes dos ns
feedforward ou acclica
a sada do neurnio na i-sima camada da rede no
pode ser usada como entrada de nodos em camadas
de ndice menor ou igual a i
X1
X1 X2
X1 X3
X2 X2 X4
X6
X3 X5
X3 X4 X6
X7
X5
67/164
Arquiteturas de RNA
Tipos de conexes dos ns
feedback ou cclica ou recorrente
a sada do neurnio na i-sima camada da
rede usada como entrada de nodos em
camadas de ndice menor ou igual a i
X1
X2 X1
X4
X2
X5
68/164
Arquiteturas de RNA
feedback ou cclica ou recorrente
o nvel de ativao da rede forma um sistema
dinmico que pode alcanar um estado estvel
ou exibir oscilaes ou comportamento catico
alm disso, a resposta da rede para uma dada
entrada depende de seu estado inicial, que
pode depender das entradas anteriores
por isso, elas podem suportar memria (em
partes)
elas so mais parecidas com o crebro humano
(diferente das acclicas), mas so mais complicadas
69/164
Arquiteturas de RNA
Conectividade
fracamente (ou parcialmente) conectada
X1
X1
X2
X2 X3
X6
X4
X3
X5
X4 X6
X7
X1
X5 X2
X4
X5
70/164
Arquiteturas de RNA
Conectividade
completamente conectada
X1
X2
71/164
Arquiteturas de RNA
Uma rede neural caracterizada, principalmente
pela sua topologia
feedforward, feedback
Modelos de RNA
Perceptrons (acclica)
Perceptrons de Mltiplas Camadas (acclica)
Rede Hopfield (cclica)
...
73/164
Aprendizagem em
Redes Neurais Artificiais
Aprendizagem em
Redes Neurais Artificiais
Definio
Aprendizagem o processo pelo qual os
parmetros de uma RNA so ajustados
atravs de uma forma continuada de
estmulo pelo ambiente no qual a rede est
operando, sendo o tipo especfico de
aprendizagem realizada definido pela
maneira particular como ocorrem os
ajustes realizados nos parmetros
75/164
Aprendizagem em
Redes Neurais Artificiais
Aprendizagem em
Redes Neurais Artificiais
Aprendizagem em
Redes Neurais Artificiais
Regra de Hebb
Desenvolvida por Donald Hebb em 1949
Princpio:
a fora da conexo entre dois neurnios
aumentada se os neurnios esto simultaneamente
excitados
wij = .yi.xj
= taxa de aprendizado
yi e xj = ativaes das unidades yi e xj
78/164
Aprendizagem em
Redes Neurais Artificiais
Lei de aprendizagem de Hebb
Se um neurnio A repetidamente estimulado por
um outro neurnio B, ao mesmo tempo em que ele
est ativo, ele ficar mais sensvel ao estmulo de B,
e a conexo sinptica de B para A ser mais forte.
Deste modo, B achar mais fcil estimular A para
produzir uma sada.
Aprendizagem em
Redes Neurais Artificiais
Funo de Custo
Minimizao do custo
Minimizao do custo
calcule wi wi + (t - o)xi
Para cada peso wi
w
i wi + wi
At que uma condio de trmino seja satisfeita
85/164
Perceptrons
Desenvolvido por Rosenblat (1958)
Perceptrons
Perceptrons
Rede mais simples que pode ser utilizada para
classificao de padres linearmente
separveis
(0,1) (1,1)
(0,0) (1,0)
89/164
(1,1)
(0,1)
(0,0) (1,0)
90/164
(1,1)
(0,1)
???
(0,0) (1,0)
91/164
Perceptrons
H um algoritmo de aprendizado simples que
ajustar (encontrar) um limiar para qualquer
conjunto de treinamento linearmente separvel
Perceptrons
O aprendizado formulado como uma busca
otimizada em um espao de busca
Perceptrons
Treinamento Supervisionado
Correo de erro:
W ij =e x i
= taxa de aprendizagem
xi = valor de entrada
e = (dj yi) = erro (valor calculado valor desejado)
Teorema da convergncia:
Se possvel classificar um conjunto de entradas,
uma rede Perceptron far a classificao
94/164
Perceptrons
Treinamento: Algoritmo
Algoritmo de aprendizado do
Perceptron
Teorema da convergncia (Minsky e Papert, 1969)
Perceptrons
Treinamento
Algoritmo:
97/164
Perceptrons
Algoritmo de teste:
Perceptrons
Apesar de causar grande euforia na comunidade
cientfica, no teve vida longa
sofreu duras crticas de Minsky e Papert sobre sua
capacidade computacional
causando grande desinteresse na rea na dcada de
70 e incio dos anos 80
Perceptrons
Funo linearmente separvel com 11 entradas
booleanas
1
0,95
0,9
0,85
0,8
0,75
0,7
0,65
0,6
Proporo correta no conj. de teste
0,55
0,5
0,45
Coluna B
0,4 Coluna C
0,35
0,3
0,25
0,2
0,15
0,1
0,05
0
Linha 1 Linha 2 Linha 3 Linha 4 Linha 5 Linha 6 Linha 7 Linha 8 Linha 9 Linha Linha Linha Linha Linha Linha Linha
10 11 12 13 14 15 16
Perceptrons
Exemplo do restaurante, no linearmente
separvel
0,95
0,9
0,85
0,8
0,75
0,7
0,65
Proporo correta do conjunto de teste
0,6
0,55
0,5
0,45
Coluna A
0,4
Coluna B
0,35
0,3
0,25
0,2
0,15
0,1
0,05
0
Linha Linha Linha Linha Linha Linha Linha Linha Linha Linha Linha Linha Linha Linha Linha Linha
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
101/164
Aprendizagem em RNAs
Algoritmo de retropropagao
Desenvolvido por Paul Werbos (1974) e redescoberto
independentemente por Parker (1982) e Rumelhart
(1986)
Aprendizagem em RNAs
Algoritmo de retropropagao
O processo de reduo gradativa de erro que
acompanha a minimizao se denomina
convergncia
A medida que a rede aprende, o valor do erro
converge para um valor estvel, normalmente
irredutvel
O processo de aprendizagem prossegue at que
algum critrio seja estabelecido, como por exemplo,
uma diferena sucessiva mnima entre erros
calculados para cada iterao
104/164
Aprendizagem em RNAs
Algoritmo de retropropagao
Regra Delta generalizada
Clculo do erro na sada
LMS
1 2
E= d i y i
2 i
RMS
2
E= d i y i
i
105/164
Problema: Perceptron
redes com uma camada resolvem apenas
problemas linearmente separveis
1, 1 0
0, 1 1
1, 0 1
0, 0 0
109/164
foi usada 4
o problema de escolher o nmero correto de unidades
escondidas ainda no bem entendido
112/164
NH=NS+ NE
NH=1 10=4
Outros:
NH=NSNE
NH= 110=10
113/164
S
E < Ed Pare Rede treinada
N N+1
N
S
N > NMax Pare Nmero mximo de pocas
N
Reclculo dos pesos da camada de sada
Utilizao do Mtodo do
Gradiente Descendente
Reclculo dos pesos da camada intermediria
Rede de Hopfield
Rede de Hopfield
122/164
Rede de Hopfield
Rede de Hopfield
Algoritmo
Uma unidade aleatria escolhida
Se qualquer um dos vizinhos estiver ativo, a
unidade computar a soma dos pesos das
conexes com os neurnios vizinhos ativos
se a soma for positiva, a unidade ficar ativa
se a soma for negativa, a unidade ficar inativa
Rede de Hopfield
Conexes -1
simtrica e
ponderadas unidade
-1 ativa
+1 +3
unidade -1
inativa
+2 +3
+1 -2
+1 -1
125/164
Rede de Hopfield
-1
unidade
escolhida
aleatoriamente -1
+1 +3
-1
+4 -1= +3 ?
+2 +3
+1 -2
+1 -1
126/164
Rede de Hopfield
-1
-1
+1 +3
-1
+2 +3
+1 -2
+1 -1
?
escolhida +2 -3 = -1
127/164
Rede de Hopfield
escolhida
-1
? +3 -2 = +1
-1
+1 +3
-1
+2 +3
+1 -2
+1 -1
128/164
Rede de Hopfield
escolhida -1
?
+1 -2 = -1 -1
+1 +3
-1
+2 +3
+1 -2
+1 -1
129/164
Rede de Hopfield
-1
-1
+1 +3
-1
+2 +3
+1 -2
?
+1 -1
escolhida +3 -0 = +3
130/164
Rede de Hopfield
-1
-1
+1 +3
+6 -4 = +2
-1
? escolhida
+2 +3
+1 -2
+1 -1
131/164
Rede de Hopfield
-1
-1
+1 +3
-1
+2 +3
+1 -2 +3 -1 = +2
? escolhida
+1 -1
132/164
Rede de Hopfield
-1
-1
+1 +3
-1
+2 +3
+1 -2
+1 -1
133/164
Rede de Hopfield
Caracteristicas interessantes
Fator de aproximao
por exemplo:
peixe, grande, cinza e come placton???
Baleia
Baleia no peixe e sim mamfero
135/164
Desenvolvimento de aplicaes
Desenvolvimento de aplicaes
Desenvolvimento de aplicaes
Desenvolvimento de aplicaes
4. Treinamento
seguindo o algoritmo de treinamento escolhido,
sero ajustados os pesos das conexes
importante considerar, nesta fase, alguns
aspectos
a inicializao da rede
o modo de treinamento
o tempo de treinamento
o treinamento deve ser interrompido quando
a rede apresentar uma boa capacidade de
generalizao
quando a taxa de erro for suficientemente pequena
139/164
Desenvolvimento de aplicaes
5. Teste
durante esta fase o conjunto de teste utilizado
para determinar a performance da rede com
dados que no foram previamente utilizados
a performance da rede, medida nesta fase,
uma boa indicao de sua performance real
6. Implantao
140/164
Aplicaes
Sistemas de auxlio ao Diagnstico: Mdico,
Falhas de Sistemas etc.
Aplicaes
Data Mining & KDD (Knowledge Data Discovery)
Robtica Inteligente
Aplicaes
Prognsticos de mercados financeiros
Reconhecimento tico de caracteres (OCR)
Controle de processos industriais
Anlise de jogadores e times (NBA)
Reconhecimento da fala
Piloto automtico
Reproduo da fala
SE
143/164
Educao
Em software educacionais:
identificar deficincias
auxiliando
avaliar desempenhos
prevendo problemas
aprendendo
144/164
Consideraes finais
Vantagens das RNAs
Aplicaes de Machine Learning e Sistemas
Adaptativos
Aplicadas em tarefas onde temos bases de
exemplos disponveis sobre um determinado
problema, realizando a aquisio automtica de
conhecimentos
Associao de padres de entradas e sada
Classificao de padres de forma
supervisionada ou no
145/164
Consideraes finais
Vantagens das RNAs
Aproximao de funes desconhecidas atravs
de amostras destas funes
Trabalhar com dados aproximados, incompletos
e inexatos
Paralelismo, generalizao, robustez
Tarefas complexas realizadas por seres
humanos
146/164
Consideraes finais
Limitaes das RNAs
Consideraes finais
Apesar da neurocomputao ter nascido
praticamente junto com a computao
programada (dcadas de 40 dcada de
50), era invivel que se desenvolvesse
E o seu futuro???
comparvel inveno do avio
148/164
Perceptrons
EXERCCIO
Treinamento
-1 -1 -1 +1 +1 +1
Utilizar a rede treinada para classificar os padres
-1 +1 -1 +1 -1 +1 +1 -1 -1
149/164
Perceptrons
EXERCCIO n
Codificar as entradas
i 1
x i w i
Sada desejada Entrada S = 1
S<=1
=1 = 111
Fator de correo:
w0 F = *x*E
onde
w1 N = taxa de aprendizagem
xjwj x a entrada
d E o erro
w2 j=1
Equao do ajuste:
wnovo = w + F
150/164
Perceptrons
EXERCCIO
Treinar a rede
para o padro -1-1-1 (d = -1)
n
x i w i
i 1
Perceptrons
EXERCCIO
Treinar a rede
para o padro -1-1-1 (d = -1)
wi t+ 1 =w i +ex i
w0 = 0.4 + 0,2(-1)(-1 (+1)) = 0.8
w1 = -0.8 + 0,2(-1)(-1 (+1)) = -0.4
w2 = 0.3 + 0,2(-1)(-1 (+1)) = 0.7
152/164
Perceptrons
EXERCCIO
Treinar a rede
para o padro -1-1-1 (d = -1)
n
x i w i
i 1
Perceptrons
EXERCCIO
treinar a rede
para o padro 111 (d = 1)
Perceptrons
EXERCCIO
Validao:
testar a rede
Para o padro -11-1
Perceptrons
EXERCCIO
Validao: testar a rede
Para o padro -11-1
s = (-1)(0.8) + (1)(-0,4) + (-1)(0.7) = -1.9 (classe 1)
-1 -1 -1 +1 +1 +1
Utilizar a rede treinada para classificar os padres
-1 +1 -1 +1 -1 +1 +1 -1 -1
157/164
Perceptrons
EXERCCIO
Codificar as entradas n
x i w i
Sada desejada Entrada i 1
=1 = 111 S = 1
S<=1
= -1 = -1-1-1
Supor = 0.2, = 0, Equao do erro:
E = Sd - So
w0 = 0.4, w1 = -0.8, w2 = 0.3 onde
Sd a sada desejada
So a sada obtida
Fator de correo:
w0 F = *x*E
onde
w1 N = taxa de aprendizagem
xjwj x a entrada
d E o erro
w2 j=1
Equao do ajuste:
wnovo = w + F
158/164
Perceptrons
EXERCCIO
Treinar a rede
para o padro -1-1-1 (d = -1)
n
x i w i
i 1
Perceptrons
EXERCCIO
Treinar a rede
para o padro -1-1-1 (d = -1)
wi t+ 1 =w i +ex i
w0 = 0.4 + 0,2(-1)(-1 (+1)) = 0.8
w =
1 -0.8 + 0,2(-1)(-1 (+1)) = -0.4
w =
2 0.3 + 0,2(-1)(-1 (+1)) = 0.7
160/164
Perceptrons
EXERCCIO
Treinar a rede
para o padro -1-1-1 (d = -1)
n
x i w i
i 1
Perceptrons
EXERCCIO
treinar a rede
para o padro 111 (d = 1)
Perceptrons
EXERCCIO
Perceptrons
EXERCCIO
Referncias
Russel, S, & Norvig, P. (1995). Artificial
Intelligence: a Modern Approach Prentice-
Hall. Cap.20.
Pearl, J. (1988) Probabilistic Reasoning in
Inteligent Systems