Professional Documents
Culture Documents
arossini@uft.edu.br
Prof. Dr. Alexandre Rossini
Ementa
REDES NEURAIS ARTIFICIAIS
Introdução
REDES NEURAIS ARTIFICIAIS
IA Simbolista
REDES NEURAIS ARTIFICIAIS
IA Simbolista
REDES NEURAIS ARTIFICIAIS
IA Conexionista
REDES NEURAIS ARTIFICIAIS
IA Conexionista
REDES NEURAIS ARTIFICIAIS
• Notícia
• http://g1.globo.com/tecnologia/noticia/2
011/09/computador-avalia-ondas-
cerebrais-e-reconstroi-imagens-de-
filmes.html
Prof. Dr. Alexandre Rossini
Paradigmas de aprendizado
REDES NEURAIS ARTIFICIAIS
SAMUEL, A. L. Some Studies in Machine Learning Using the Game of Checkers. IBM J. Res.
Dev., vol. 3, no. 3, pp. 210–229, Jul. 1959.
Prof. Dr. Alexandre Rossini
Paradigmas de aprendizado
REDES NEURAIS ARTIFICIAIS
Paradigmas de aprendizado
REDES NEURAIS ARTIFICIAIS
Neurônio
REDES NEURAIS ARTIFICIAIS
Neurônio
REDES NEURAIS ARTIFICIAIS
Neurônio
REDES NEURAIS ARTIFICIAIS
Neurônio
REDES NEURAIS ARTIFICIAIS
Neurônio artificial
REDES NEURAIS ARTIFICIAIS
McCulloch, W. S., & Pitts, W. (1943). A Logical Calculus of the Ideas Immanent in Nervous Activity. The
Bulletin of Mathematical Biophysics, 5, 115-133.
Prof. Dr. Alexandre Rossini
Neurônio artificial
REDES NEURAIS ARTIFICIAIS
Neurônio artificial
REDES NEURAIS ARTIFICIAIS
Neurônio artificial
REDES NEURAIS ARTIFICIAIS
Neurônio artificial
REDES NEURAIS ARTIFICIAIS
Neurônio artificial
REDES NEURAIS ARTIFICIAIS
𝒖= 𝒙𝒊 𝒘𝒊
𝒊=𝟏
𝟏 𝒔𝒆 𝒖 ≥ 𝜽
𝒚=
𝟎 𝒔𝒆 𝒖 < 𝜽
Neurônio artificial
REDES NEURAIS ARTIFICIAIS
• Neurônio MCP:
Prof. Dr. Alexandre Rossini
Neurônio artificial
REDES NEURAIS ARTIFICIAIS
Neurônio artificial
REDES NEURAIS ARTIFICIAIS
• Exemplo: 𝒏
𝒖= 𝒙𝒊 𝒘𝒊 θ=0
1 0.2 𝒊=𝟏
-0.5
0 θ y
0.3
1
𝒖 = 𝟏 ∗ 𝟎. 𝟐 + 𝟎 ∗ −𝟎. 𝟓 + 𝟏 ∗ 𝟎. 𝟑
𝒖 = 𝟎. 𝟓
𝒚 = 𝟏. 𝟎
Prof. Dr. Alexandre Rossini
Neurônio artificial
REDES NEURAIS ARTIFICIAIS
Funções de ativação
• A partir do modelo MCP foram
derivados vários outros modelos que
permitem a produção de uma saída
qualquer, não necessariamente 0 ou 1, e
com diferentes funções de ativação.
Prof. Dr. Alexandre Rossini
Neurônio artificial
REDES NEURAIS ARTIFICIAIS
Funções de ativação
y
Linear
Sigmoidal
Degrau
Prof. Dr. Alexandre Rossini
Arquiteturas de RNA
REDES NEURAIS ARTIFICIAIS
Aprendizado em RNA
REDES NEURAIS ARTIFICIAIS
MENDEL, J. M; McLAREN, R. W. Adaptive, Learning, and Pattern Recognition Systems; Theory and
Applications, chapter Reinforcement-learning control and pattern recognition systems, pages 287-318;
New York: Academic Press, 1970.
Prof. Dr. Alexandre Rossini
Postulado de Hebb
REDES NEURAIS ARTIFICIAIS
Postulado de Hebb
REDES NEURAIS ARTIFICIAIS
Postulado de Hebb
REDES NEURAIS ARTIFICIAIS
Aprendizado Hebbiano
REDES NEURAIS ARTIFICIAIS
Década de 1950
REDES NEURAIS ARTIFICIAIS
• 1956 Conferência
de Dathmouth
Prof. Dr. Alexandre Rossini
Perceptron
REDES NEURAIS ARTIFICIAIS
Perceptron
REDES NEURAIS ARTIFICIAIS
Perceptron
REDES NEURAIS ARTIFICIAIS
Perceptron
REDES NEURAIS ARTIFICIAIS
1
x1 w1
x2 w2
y
wn
xn
𝒏
+1 𝑠𝑒( 𝒊=𝟎 𝒙𝒊 𝒘𝒊 )+𝟏>0
y= −1 𝑠𝑒( 𝒏 𝒙 𝒘 )+𝟏≤0
𝒊=𝟎 𝒊 𝒊
Prof. Dr. Alexandre Rossini
Perceptron
REDES NEURAIS ARTIFICIAIS
1 BIAS
x1 w1
x2 w2
y
wn
xn BIAS
𝒏
+1 𝑠𝑒( 𝒊=𝟎 𝒙𝒊 𝒘𝒊 )+𝟏>0
y= −1 𝑠𝑒( 𝒏 𝒙 𝒘 )+𝟏≤0
𝒊=𝟎 𝒊 𝒊
Prof. Dr. Alexandre Rossini
Perceptron
REDES NEURAIS ARTIFICIAIS
1
x1 w1
x2 w2
y
wn
xn
𝒏
+1 𝑠𝑒( 𝒊=𝟎 𝒙𝒊 𝒘𝒊 )+𝟏>0
y= −1 𝑠𝑒( 𝒏 𝒙 𝒘 )+𝟏≤0
𝒊=𝟎 𝒊 𝒊
Prof. Dr. Alexandre Rossini
Perceptron
REDES NEURAIS ARTIFICIAIS
Perceptron
REDES NEURAIS ARTIFICIAIS
Perceptron
REDES NEURAIS ARTIFICIAIS
Modelo de Widrow-Hoff
REDES NEURAIS ARTIFICIAIS
Regra delta
REDES NEURAIS ARTIFICIAIS
Regra delta
REDES NEURAIS ARTIFICIAIS
1
x1 w1
y +1
x2 w2 v
-1
wn -
xn + saída
erro desejada
Prof. Dr. Alexandre Rossini
Regra delta
REDES NEURAIS ARTIFICIAIS
1
x1 w1
y +1
x2 w2 v
-1
wn -
xn + saída
erro desejada
Prof. Dr. Alexandre Rossini
Regra delta
REDES NEURAIS ARTIFICIAIS
Regra delta
REDES NEURAIS ARTIFICIAIS
Regra delta
REDES NEURAIS ARTIFICIAIS
RNA Adaline
REDES NEURAIS ARTIFICIAIS
WIDROW, B; HOFF, M. E. Adaptative switching circuits. Institute of Radio Engineers, Western Electronico
Show and Convention, 1960.
Prof. Dr. Alexandre Rossini
RNA Adaline
REDES NEURAIS ARTIFICIAIS
RNA Adaline
REDES NEURAIS ARTIFICIAIS
RNA Adaline
REDES NEURAIS ARTIFICIAIS
x2 w2 y +1
v
-1
wn
-
xn
+
erro d
Prof. Dr. Alexandre Rossini
RNA Adaline
REDES NEURAIS ARTIFICIAIS
RNA Perceptron
REDES NEURAIS ARTIFICIAIS
ROSENBLATT, F. Principles of Neurodynamics: Perceptrons and the theory of brain mechanisms. Spartan
Books, New York, 1962.
Prof. Dr. Alexandre Rossini
RNA Perceptron
REDES NEURAIS ARTIFICIAIS
1
x1 w1
y
+1
x2 w2
-1
wn -
xn +
erro
saída
desejada
Prof. Dr. Alexandre Rossini
RNA Perceptron
REDES NEURAIS ARTIFICIAIS
• Exemplo
• Desejamos que a rede aprenda a
distinguir ídolos do esporte nacional.
Vamos treinar a rede para reconhecer
dois grandes jogadores de futebol (Pelé
e Ronaldo) e dois grandes pilotos de
automobilismo (Senna e Piquet).
Prof. Dr. Alexandre Rossini
RNA Perceptron
REDES NEURAIS ARTIFICIAIS
• Exemplo
• Desejamos que a rede aprenda a
distinguir ídolos do esporte nacional.
Vamos treinar a rede para reconhecer
dois grandes jogadores de futebol (Pelé
e Ronaldo) e dois grandes pilotos de
automobilismo (Senna e Piquet).
Prof. Dr. Alexandre Rossini
RNA Perceptron
REDES NEURAIS ARTIFICIAIS
• Exemplo
• Inicialmente necessitamos codificar
entradas e saídas, isto porque todos os
valores de uma rede neural Perceptron
devem assumir condições binárias,
0 ou 1. Uma proposta:
00 = Pelé 10 = Senna
01 = Ronaldo 11 = Piquet
0 = Futebol 1 = Automobilismo
Prof. Dr. Alexandre Rossini
RNA Perceptron
REDES NEURAIS ARTIFICIAIS
Normalização de dados
REDES NEURAIS ARTIFICIAIS
Normalização de dados
REDES NEURAIS ARTIFICIAIS
Normalização de dados
REDES NEURAIS ARTIFICIAIS
• Outras formas:
– Normalização por desvio padrão
– Normalização pela soma dos elementos
– Normalização pelo valor máximo dos
elementos
– Normalização por escala decimal
Prof. Dr. Alexandre Rossini
O fracasso do Perceptron
REDES NEURAIS ARTIFICIAIS
O fracasso do Perceptron
REDES NEURAIS ARTIFICIAIS
O fracasso do Perceptron
REDES NEURAIS ARTIFICIAIS
Memórias matriciais
REDES NEURAIS ARTIFICIAIS
Memórias matriciais
REDES NEURAIS ARTIFICIAIS
Memórias matriciais
REDES NEURAIS ARTIFICIAIS
ANDERSON, J. A. A memory model using spatial correlation functions. Kybernetik, 5:113-119, 1968.
WILLSHAW, D. J. Models of distributed associative memory. PhD thesis, University of Edinburgh, 1971.
KOHONEN, T., RUOHONEN, M. Representation of associated data by matrix operators. IEEE Transactions
on Computers, C-22:701-702, 1973.
Prof. Dr. Alexandre Rossini
Modelo de Willshaw
REDES NEURAIS ARTIFICIAIS
WILLSHAW, D. J. Models of Distributed Associative Memory. PhD thesis, University of Edinburgh, 1971.
Prof. Dr. Alexandre Rossini
Modelo de Willshaw
REDES NEURAIS ARTIFICIAIS
Modelo de Willshaw
REDES NEURAIS ARTIFICIAIS
𝟏 𝒔𝒆 𝒙 ≥ 𝟏
𝒈 𝒙 =
𝟎 𝒔𝒆 𝒙 < 𝟏
• Onde n é a quantidade de pares [𝑥 𝑘 , 𝑦 𝑘 ]
Prof. Dr. Alexandre Rossini
Modelo de Willshaw
REDES NEURAIS ARTIFICIAIS
• Exemplo:
Considere os vetores indicados a seguir para
serem armazenados em uma memória de
Willshaw. As associações são 𝑥 1 , 𝑦1 e [𝑥 2 , 𝑦 2 ].
1 0 0 1
0 1 0 0
1 0 1 1
0 0 𝑥2 = 1 0
𝑥1 = 𝑦1 = 𝑦2 =
1 1 1 0
0 1 0 0
0 0 0 1
0 0 0 0
Prof. Dr. Alexandre Rossini
Modelo de Willshaw
REDES NEURAIS ARTIFICIAIS
• Exemplo:
1 0 0 1
0 1 0 0
1 0 1 1
0 0 𝑥2 = 1 0
𝑥1 = 𝑦1 = 𝑦2 =
1 1 1 0
0 1 0 0
0 0 0 1
0 0 0 0
𝑤11 = (𝑦11 ∗ 𝑥11 ) + (𝑦12 ∗ 𝑥12 ) = (0 ∗ 1) + (1 ∗ 0) = 0
𝑤12 = (𝑦11 ∗ 𝑥21 ) + (𝑦12 ∗ 𝑥22 ) = (0 ∗ 0) + (1 ∗ 0) = 0
𝑤13 = (𝑦11 ∗ 𝑥31 ) + (𝑦12 ∗ 𝑥32 ) = (0 ∗ 1) + (1 ∗ 1) = 1
𝑤14 = (𝑦11 ∗ 𝑥41 ) + (𝑦12 ∗ 𝑥42 ) = (0 ∗ 0) + (1 ∗ 1) = 1
𝑤15 = (𝑦11 ∗ 𝑥51 ) + (𝑦12 ∗ 𝑥52 ) = (0 ∗ 1) + (1 ∗ 1) = 1
𝑤16 = (𝑦11 ∗ 𝑥61 ) + (𝑦12 ∗ 𝑥62 ) = (0 ∗ 0) + (1 ∗ 0) = 0
𝑤17 = (𝑦11 ∗ 𝑥71 ) + (𝑦12 ∗ 𝑥72 ) = (0 ∗ 0) + (1 ∗ 0) = 0
𝑤18 = (𝑦11 ∗ 𝑥81 ) + (𝑦12 ∗ 𝑥82 ) = (0 ∗ 0) + (1 ∗ 0) = 0
Prof. Dr. Alexandre Rossini
Modelo de Willshaw
REDES NEURAIS ARTIFICIAIS
• Exemplo:
A matriz W obtida aplicando-se as equações é:
0 0 1 1 1 0 0 0
1 0 1 0 1 0 0 0
0 0 1 1 1 0 0 0
W=
0 0 0 0 0 0 0 0
1 0 1 0 1 0 0 0
1 0 1 0 1 0 0 0
0 0 1 1 1 0 0 0
0 0 0 0 0 0 0 0
Prof. Dr. Alexandre Rossini
Modelo de Willshaw
REDES NEURAIS ARTIFICIAIS
(𝒚𝒌 )′ = 𝜱( 𝑾𝒙𝒌 )
Modelo de Willshaw
REDES NEURAIS ARTIFICIAIS
• Exemplo:
Suponha que agora se deseja recuperar a
associação [𝑥 2 , 𝑦 2 ], ou seja, dado o vetor 𝑥 2
espera-se obter o vetor 𝑦 2 . Isso resulta em W𝑥 2 .
0 0 1 1 1 0 0 0 0
1 0 1 0 1 0 0 0 0
0 0 1 1 1 0 0 0 1
0 0 0 0 0 0 0 0 ∗ 1
1 0 1 0 1 0 0 0 1
1 0 1 0 1 0 0 0 0
0 0 1 1 1 0 0 0 0
0 0 0 0 0 0 0 0 0
Prof. Dr. Alexandre Rossini
Modelo de Willshaw
REDES NEURAIS ARTIFICIAIS
• Exemplo:
Suponha que agora se deseja recuperar a
associação [𝑥 2 , 𝑦 2 ], ou seja, dado o vetor 𝑥 2
espera-se obter o vetor 𝑦 2 . Isso resulta em W𝑥 2 .
0 0 1 1 1 0 0 0 0 3
1 0 1 0 1 0 0 0 0 2
0 0 1 1 1 0 0 0 1 3
0 0 0 0 0 0 0 0 ∗ 1 0
1 0 1 0 1 0 0 0 1 =
2
1 0 1 0 1 0 0 0 0 2
0 0 1 1 1 0 0 0 0 3
0 0 0 0 0 0 0 0 0 0
Prof. Dr. Alexandre Rossini
Modelo de Willshaw
REDES NEURAIS ARTIFICIAIS
• Exemplo:
Suponha que agora se deseja recuperar a
associação [𝑥 2 , 𝑦 2 ], ou seja, dado o vetor 𝑥 2
espera-se obter o vetor 𝑦 2 . Isso resulta em W𝑥 2 .
0 0 1 1 1 0 0 0 0 3 1
1 0 1 0 1 0 0 0 0 2 0
0 0 1 1 1 0 0 0 1 3 1
0 0 0 0 0 0 0 0 1 0 0
1 0 1 0 1 0 0 0
∗
1 =
2 (𝑦 2 )′ =
0
1 0 1 0 1 0 0 0 0 2 0
0 0 1 1 1 0 0 0 0 3 1
0 0 0 0 0 0 0 0 0 0 0
Prof. Dr. Alexandre Rossini
Modelo de Willshaw
REDES NEURAIS ARTIFICIAIS
• Exemplo:
Suponha que agora se deseja recuperar a
associação [𝑥 2 , 𝑦 2 ], ou seja, dado o vetor 𝑥 2
espera-se obter o vetor 𝑦 2 . Isso resulta em W𝑥 2 .
0 0 1 1 1 0 0 0 0 3 1
1 0 1 0 1 0 0 0 0 2 0
0 0 1 1 1 0 0 0 1 3 1
0 0 0 0 0 0 0 0 1 0 0
1 0 1 0 1 0 0 0
∗
1 =
2 (𝑦 2 )′ =
0
1 0 1 0 1 0 0 0 0 2 0
0 0 1 1 1 0 0 0 0 3 1
0 0 0 0 0 0 0 0 0 0 0
Prof. Dr. Alexandre Rossini
Modelo de Willshaw
REDES NEURAIS ARTIFICIAIS
• Exemplo:
Se adicionarmos o par [𝑥 3 , 𝑦 3 ], onde:
1 1
1 1
1 1
𝑥3 = 1 𝑦3 = 1
1 1
1 1
1 1
1 1
W passa a ter todos seus elementos em 1 e a
rede perde a sua capacidade de recuperar as
associações.
Prof. Dr. Alexandre Rossini
Rede Hopfield
REDES NEURAIS ARTIFICIAIS
Rede Hopfield
REDES NEURAIS ARTIFICIAIS
Rede Hopfield
REDES NEURAIS ARTIFICIAIS
• Arquitetura:
Prof. Dr. Alexandre Rossini
Rede Hopfield
REDES NEURAIS ARTIFICIAIS
• Arquitetura:
Prof. Dr. Alexandre Rossini
RNA MLP
REDES NEURAIS ARTIFICIAIS
RNA MLP
REDES NEURAIS ARTIFICIAIS
RNA MLP
REDES NEURAIS ARTIFICIAIS
• Arquitetura:
RNA MLP
REDES NEURAIS ARTIFICIAIS
Fase backward
Prof. Dr. Alexandre Rossini
RNA MLP
REDES NEURAIS ARTIFICIAIS
• Treinamento:
1. Inicializa pesos sinápticos
2. Repete, para cada padrão de
treinamento, até treinar:
i. Fase forward: calcula a saída da rede
ii. Fase backward: retropropaga os erros
ajustando os pesos sinápticos
Prof. Dr. Alexandre Rossini
RNA MLP
REDES NEURAIS ARTIFICIAIS
• Fase forward:
𝒏
𝒗𝒊 = (𝒙𝒋 𝒘𝒊𝒋 ) + 𝒃
𝒋=𝟏
RNA MLP
REDES NEURAIS ARTIFICIAIS
• Fase forward:
– Após calcular 𝑦𝑗 , ele é enviado para a
função de ativação do neurônio.
– Geralmente a função de ativação dos
neurônios de uma rede MLP é uma
função sigmoidal.
– A função de ativação sigmoidal mais
utilizada é a tangente hiperbólica
(tanh).
Prof. Dr. Alexandre Rossini
RNA MLP
REDES NEURAIS ARTIFICIAIS
• Fase forward:
– Tangente hiperbólica:
𝑒 𝒗𝒊 − 𝑒 −𝒗𝒊
𝑦𝑖 = tanh 𝒗𝒊 = 𝒗
𝑒 𝒊 + 𝑒 −𝒗𝒊
RNA MLP
REDES NEURAIS ARTIFICIAIS
• Fase backward:
– Para cada camada:
• Calcula-se o erro dos neurônios
• Ajusta-se os pesos sinápticos que ligam o
neurônio da camada às suas entradas
Prof. Dr. Alexandre Rossini
RNA MLP
REDES NEURAIS ARTIFICIAIS
• Fase backward:
– Para a camada de saída, o erro de um
neurônio i é calculado como na regra delta:
𝒆𝒊 = 𝒅𝒊 − 𝒚𝒊
– Onde 𝑑𝑖 é a saída desejada para o neurônio
i e 𝑦𝑖 é a resposta calculada pela rede para o
neurônio i.
– Contudo, esse erro é para neurônio com
função de ativação linear.
Prof. Dr. Alexandre Rossini
RNA MLP
REDES NEURAIS ARTIFICIAIS
• Fase backward:
– Se foi utilizada função de ativação
sigmoidal, precisamos calcular o inverso da
tangente hiperbólica, expresso abaixo:
𝒆𝒊 𝒔𝒆
se 𝒏𝒆𝒖𝒓ô𝒏𝒊𝒐 𝒍𝒊𝒏𝒆𝒂𝒓
neurônio linear
𝜹𝒊 =
𝟏 − 𝒚𝟐𝒊 ∗ 𝒆𝒊 𝒔𝒆 𝒏ã𝒐 − 𝒍𝒊𝒏𝒆𝒂𝒓
se neurônio não-linear
RNA MLP
REDES NEURAIS ARTIFICIAIS
• Fase backward:
– Para calcular o erro 𝑒 de um neurônio i de
uma camada intermediária é preciso
retropropagar o somatório dos erros 𝛿 de
cada neurônio j da camada de saída
multiplicados por seus respectivos pesos
sinápticos:
𝒏
𝒆𝒊 = (𝜹𝒋 ∗ 𝒘𝒋𝒊 )
𝒋=𝟏
Prof. Dr. Alexandre Rossini
RNA MLP
REDES NEURAIS ARTIFICIAIS
• Fase backward:
– Lembre-se que se foi utilizada função de
ativação sigmoidal, precisamos calcular o
inverso da tangente hiperbólica (vale para
todas as camadas!):
𝒆𝒊 𝒔𝒆 𝒏𝒆𝒖𝒓ô𝒏𝒊𝒐 𝒍𝒊𝒏𝒆𝒂𝒓
𝜹𝒊 =
𝟏 − 𝒚𝟐𝒊 ∗ 𝒆𝒊 𝒔𝒆 𝒏ã𝒐 − 𝒍𝒊𝒏𝒆𝒂𝒓
RNA RBF
REDES NEURAIS ARTIFICIAIS
POWELL, M.J.D. Radial basis function approximations to polynomials. Numerical Analysis 1987
Proceedings, pp.223-241, Dundee, UK, 1987.
Prof. Dr. Alexandre Rossini
RNA RBF
REDES NEURAIS ARTIFICIAIS
RNA RBF
REDES NEURAIS ARTIFICIAIS
RNA RBF
REDES NEURAIS ARTIFICIAIS
– Multiquadrática: 𝒇 𝒖 = (𝒗𝟐 + 𝝈𝟐 )
– Thin-plate-spline: 𝒇 𝒖 = 𝒗𝟐 𝐥𝐨𝐠 𝒗
RNA RBF
REDES NEURAIS ARTIFICIAIS
RNA RBF
REDES NEURAIS ARTIFICIAIS
RNA RBF
REDES NEURAIS ARTIFICIAIS
RNA RBF
REDES NEURAIS ARTIFICIAIS
RNA RBF
REDES NEURAIS ARTIFICIAIS
MACQUEEN, J. Some methods for classification and analysis of multivariante observations. In: 5th
Berkeley Symposium on Mathematical Statistics and Probability, pp.281-297, 1967.
Prof. Dr. Alexandre Rossini
RNA RBF
REDES NEURAIS ARTIFICIAIS
MLP RBF
Uma ou mais camadas Geralmente apenas uma camada
intermediárias intermediária
Neurônios das camadas Neurônios das camadas
intermediárias e de saída têm intermediárias têm funções
funções semelhantes diferentes dos da saída
Entrada da função de ativação é o Entrada da função de ativação é a
produto interno dos vetores de distância euclidiana entre os vetores
entrada e de peso de entrada e de peso
Separa padrões de entrada com Separa padrões de entrada com
hiperplanos hiperelipsóides
Melhor em problemas complexos Para problemas bem-definidos
Constrói aproximadores globais Constrói aproximadores locais para
para mapeamento entrada-saída mapeamento entrada-saída
Prof. Dr. Alexandre Rossini
RNA SOM
REDES NEURAIS ARTIFICIAIS
RNA SOM
REDES NEURAIS ARTIFICIAIS
RNA SOM
REDES NEURAIS ARTIFICIAIS
RNA SOM
REDES NEURAIS ARTIFICIAIS
• Arquitetura:
𝑁𝑒𝑢𝑟ô𝑛𝑖𝑜𝑠 (𝑠𝑎í𝑑𝑎)
𝐸𝑛𝑡𝑟𝑎𝑑𝑎𝑘
Prof. Dr. Alexandre Rossini
RNA SOM
REDES NEURAIS ARTIFICIAIS
𝐻𝑒𝑥𝑎𝑔𝑜𝑛𝑎𝑙 𝑅𝑒𝑡𝑎𝑛𝑔𝑢𝑙𝑎𝑟
Prof. Dr. Alexandre Rossini
RNA SOM
REDES NEURAIS ARTIFICIAIS
𝒅𝒊 𝒕 = (𝒙𝒋 𝒕 − 𝒘𝒊𝒋 )𝟐
𝒋=𝟏
• Onde n é a quantidade de entradas, xj é
a j-ésima entrada e wij é o peso do
neurônio i sobre a entrada j-ésima
entrada.
Prof. Dr. Alexandre Rossini
RNA SOM
REDES NEURAIS ARTIFICIAIS
RNA SOM
REDES NEURAIS ARTIFICIAIS
RNA SOM
REDES NEURAIS ARTIFICIAIS
RNA SOM
REDES NEURAIS ARTIFICIAIS
RNA SOM
REDES NEURAIS ARTIFICIAIS
• Exemplo:
Considere uma rede com 4 neurônios,
topologia quadrada (2x2) e 2 iterações.
Haverá apenas 2 entradas. Fixamos a
taxa de aprendizado =0.9. A
vizinhança, devido ao tamanho
reduzido do exemplo, será apenas o
próprio neurônio.
Prof. Dr. Alexandre Rossini
RNA SOM
REDES NEURAIS ARTIFICIAIS
• Exemplo:
00 01
2 2 3 2
Entrada 1
{0,3}
x1 x2
Entrada 2
2 1 1 3
{7,2} 10 11
Prof. Dr. Alexandre Rossini
• Busca paralela
• Aprendizado por experiência
• Generalização
• Degradação gradual
Prof. Dr. Alexandre Rossini
• Descoberta de associações
• Descoberta de sequências
• Classificação
• Clustering
• Previsão de séries temporais
• Suporte à decisão
• Mineração de dados
Prof. Dr. Alexandre Rossini
Repositórios de dados
REDES NEURAIS ARTIFICIAIS
• Kaggle
https://www.kaggle.com/datasets