Professional Documents
Culture Documents
INSTITUTO DE INFORMTICA
PROGRAMA DE PS-GRADUAO EM COMPUTAO
Dissertao submetida
avaliao, como requisito parcial para a
obteno do grau de Mestre em
Cincia da Computao
AGRADECIMENTOS
Agradeo CAPES por ter financiado a minha pesquisa, ao meu orientador por
sua grande ateno dedicada ao presente trabalho, ao meu pai e a todos os familiares que
contriburam para a realizao desta pesquisa.
Sumrio
Lista de Abreviaturas................................................................................6
Lista de Figuras.........................................................................................7
Lista de Tabelas........................................................................................8
Resumo......................................................................................................9
Abstract...................................................................................................10
1 Introduo............................................................................................11
1.1 Evoluo Biolgica .............................................................................................12
1.2 Neurnios Naturais..............................................................................................14
1.2.1 Neurnio em Repouso........................................................................................14
1.2.2 Disparo do Neurnio..........................................................................................15
1.3 A Necessidade da Evoluo e Adaptao do Conhecimento.............................16
1.4 Inteligncia...........................................................................................................17
1.5 Criaturas de Dennett...........................................................................................18
1.5.1 Criatura Darwiniana............................................................................................19
1.5.2 Criatura Skinneriana...........................................................................................20
1.5.3 Criatura Popperiana............................................................................................20
1.5.4 Criatura Gregoriana............................................................................................21
1.6 Non-Axiomatic Reasoning System......................................................................23
1.6.1 Introduo..........................................................................................................23
1.6.2 O Valor Verdade................................................................................................23
1.6.3 Crena................................................................................................................25
1.6.4 Gramtica...........................................................................................................25
1.6.5 Regras de Inferncia...........................................................................................25
1.6.6 Exemplo.............................................................................................................26
1.6.7 Comentrios Finais.............................................................................................27
1.7 WebMind Artificial Intelligence Engine.............................................................28
1.7.1 Introduo..........................................................................................................28
1.7.2 Tipos de Agentes no WAE.................................................................................28
1.7.3 Mdulos.............................................................................................................30
1.7.4 A Corporificao................................................................................................31
1.7.5 O Esquecimento.................................................................................................31
1.7.6 O raciocnio........................................................................................................32
1.7.7 Representao do Conhecimento........................................................................33
1.7.8 Processamento de Linguagem Natural................................................................34
1.7.9 Baby WebMind...................................................................................................35
1.7.10 Comentrios Finais...........................................................................................36
1.8 Proposta de um Modelo de Esquema Cognitivo Sensrio-Motor Inspirado na
Teoria de Jean Piaget..........................................................................................37
2.3.6 Operaes...........................................................................................................52
2.3.7 Gramtica...........................................................................................................53
2.4 Testes da Induo de Funo Lgica no Determinista....................................53
2.4.1 Contador de 2 Bits..............................................................................................53
2.4.2 Bit que Vai e Vem..............................................................................................57
2.4.3 Comparao com o Modelo Neural Combinatrio..............................................60
2.4.4 Comparao com Redes Bayesianas....................................................................61
2.5 Sistema de Planejamento....................................................................................62
2.5.1 Estrutura de Dados.............................................................................................64
2.5.2 Algoritmo...........................................................................................................65
4 Concluso.............................................................................................90
Anexo 1 Algoritmo do Sistema de Induo..........................................92
Anexo 2 Listagem do Algoritmo EscolheAo do Agente
Minerador Popperiano..........................................................98
Anexo 3 Listagem do Algoritmo EscolheAo do Agente Minerador
Popperiano...........................................................................100
Bibliografia............................................................................................102
Lista de Abreviaturas
CNM
DFD
DNA
deoxiribonucleic acid
NARS
UCP
TP
tamanho da procura
TR
tabela de relao
WAE
Webmind AI Engine
Lista de Figuras
FIGURA 1.1 Neurnio Natural..................................................................................16
FIGURA 1.2 Mdulos do WAE................................................................................30
FIGURA 2.1 Modelo de Agente Skinneriano.............................................................40
FIGURA 2.2 Modelo de Agente Popperiano.............................................................41
FIGURA 2.3 Rede Neural de Causas e Efeitos..........................................................42
FIGURA 2.4 Rede Neural de Causas e Efeitos..........................................................43
FIGURA 2.5 Algoritmo para Testar Induo de Contador.........................................54
FIGURA 2.6 Regras Induzidas..................................................................................55
FIGURA 2.7 Implementao em Object Pascal..........................................................57
FIGURA 2.8 Tela do programa Contador de 2 bits....................................................57
FIGURA 2.9 Evoluo do Bit que Vai e Vem...........................................................57
FIGURA 2.10 Algoritmo para Testar Induo do Bit que Vai e Vem........................59
FIGURA 2.11 Rede CNM.........................................................................................60
FIGURA 2.12 Exemplo de Rede Bayesiana...............................................................62
FIGURA 2.13 Diagrama da Escolha da Ao............................................................64
FIGURA 2.14 Algoritmo da Funo PodeAgir..........................................................65
FIGURA 2.15 Algoritmo da funo FunoDePredio.............................................66
FIGURA 2.16 Algoritmo do funo PlanejaCegamente.............................................66
FIGURA 2.17 Exemplo de plano a ser otimizado.......................................................67
FIGURA 2.18 Exemplo de plano e otimizao...........................................................67
FIGURA 2.19 Plano otimizado..................................................................................67
FIGURA 2.20 Algoritmo do procedimento OtimizaCegamente..................................68
FIGURA 3.1 Energia Consumida x Nmero de Robs do Grupo S...................74
FIGURA 3.2 Janela Principal do Programa Rob Minerador Popperiano...............77
FIGURA 3.3 Janela de Opes..............................................................................79
FIGURA 3.4 Diversos Planos no Otimizados.......................................................80
FIGURA 3.5 Planos da Figura 3.4 um Pouco Otimizados......................................80
FIGURA 3.6 Planos da Figura 3.5 um Pouco mais Otimizados..............................81
FIGURA 3.7 Planos da Figura 3.6 um Pouco mais Otimizados..............................81
FIGURA 3.8 Planos com movimentos diagonais....................................................84
FIGURA 3.9 Janela Principal do Prottipo............................................................87
FIGURA 3.10 Janela de Opes do Prottipo de Predador e Presa..........................87
FIGURA 3.11 Janela de Planos do Prottipo de Predador e Presa...........................88
FIGURA A01 Algoritmo do procedimento AtFreq....................................................93
FIGURA A02 Algoritmo do Procedimento SAtFreq..................................................94
FIGURA A03 Algoritmo do procedimento Pred........................................................94
FIGURA A04 Algoritmo do Procedimento AtualizaVitorias......................................95
FIGURA A05 Algoritmo Genrico de Previso.........................................................95
FIGURA A06 Algoritmo Genrico de Previso.........................................................96
FIGURA A07 Algoritmo da Funo Encontrou( Efeitos ).........................................96
FIGURA A08 Algoritmo da Funo EscolhePiorRelao(TP)...................................97
FIGURA A09 Modelo dos Principais Mdulos da Induo de Funo.......................97
Lista de Tabelas
TABELA 1.1 Tipos de Raciocnio.............................................................................32
TABELA 2.1 Percepo do Ambiente.......................................................................44
TABELA 2.2 Pesos da Rede aps a percepo dos eventos da tabela 1.1..................45
TABELA 2.3 Pesos da Rede aps a percepo dos eventos hipotticos.....................45
TABELA 2.4 Aprendizado de Hebb em sinapse excitatria em neurnio artificial do
tipo [0,1].............................................................................................46
TABELA 2.5 Aprendizado de Hebb em sinapse excitatria em neurnio artificial
bipolar.................................................................................................47
TABELA 2.6 Aprendizado de Hebb proposto por Moser em sinapse excitatria.......47
TABELA 2.7 Comportamento de m,n,f e d para causas e efeitos...............................48
TABELA 2.8 Exemplo de Causas e Efeitos...............................................................49
TABELA 2.9 Exemplo de Tabela de Relao............................................................50
TABELA 2.10 Problema de Previso.........................................................................50
TABELA 2.11 Prevendo o Efeito1............................................................................50
TABELA 2.12 Prevendo o Efeito2............................................................................51
TABELA 2.13 Causas e Efeitos para Induzir Contador de 2 Bits...............................54
TABELA 2.14 Execues do algoritmo da figura 2.5................................................55
TABELA 2.15 Execues do algoritmo da figura 2.5................................................56
TABELA 2.16 Execues do algoritmo da figura 2.5................................................56
TABELA 2.17 Execues do algoritmo da figura 2.10..............................................57
TABELA 2.18 Execues do algoritmo da figura 2.10..............................................57
TABELA 2.19 Execues do algoritmo da figura 2.5................................................59
TABELA 2.20 Exemplo de Vetor do tipo Plano........................................................65
TABELA 3.1 Comportamento dos Robs Petit Poucet 3..........................................72
TABELA 3.2 Comportamento dos Robs Dockers.................................................72
TABELA 3.3 Comportamento dos Robs Dockers.................................................73
Resumo
A inteligncia tem sido estudada como fruto de evoluo biolgica. Nas ltimas
centenas de milhes de anos, a inteligncia tem evoludo juntamente com a biologia. Essa
concluso pode ser obtida ao analisar o comportamento das criaturas que emergiram
assim como a sua capacidade de armazenar e processar informao. A evoluo gerou
criaturas possuidoras de crebros com grande poder de adaptao. Partindo-se do
pressuposto que a inteligncia humana resultado de um processo evolutivo paulatino
que ocorreu ao longo de milhes de anos, faz sentido tentar repetir os mesmos passos
dados ao longo da evoluo da inteligncia artificialmente. A evoluo oferece uma rota
que vai desde tipos de mentes simples at tipos de mentes mais complexas apresentando
um caminho de caractersticas e capacidades que evoluram ao longo do tempo. No
presente trabalho, acredita-se que esse caminho seguido pela evoluo uma boa fonte
de inspirao para a gerao de inteligncia artificial. De acordo com Dennett, um tipo
de mente que apareceu ao longo da evoluo a mente popperiana que aprende as
regras do ambiente e tem a capacidade de imaginar ou planejar estados futuros
permitindo que ela se adapte com facilidade a novas e inesperadas situaes. Sendo
assim, modela-se e implementa-se um agente popperiano capaz de aprender as regras do
seu ambiente e planejar aes futuras baseando-se no seu aprendizado. Por fim, so
implementados dois prottipos de agentes popperianos para resolver problemas distintos
e observa-se a capacidade dos agentes popperianos em se adaptar s condies do seu
meio para alcanar seus objetivos.
10
Abstract
Intelligence has been science's subject of study as a result of biological evolution.
In the last hundred million years, intelligence has evolved together with biology. One
may get to this conclusion by analyzing the behavior of creatures that have surged as
well as their ability to store and process information. Evolution has generated creatures
having brains with great adaptive capacity. Assuming that human intelligence has evolved
through a long and slow process that took place along several million years, it would
make sense to try and replicate artificially the same steps taken in this process. Evolution
shows us a path that goes from the simplest to the most complex minds presenting the
features and abilities that have evolved along time. On the present work it is believed that
the way evolution goes is a good source of inspiration to artificial intelligence. According
to Dennett, a kind of mind that appeared along evolution is the Popperian mind capable
of imagining, planning future states and learning from environment presenting great
capacity to adapt to new and unexpected situations. A Popperian agent is modeled and
implemented to learn from environment rules and to plan future actions based on self
knowledge. Finally, two prototypes of Popperian agents are implemented to solve
distinct problems and it can be observed the capacity of the Popperian agents to adapt to
environment conditions in order to accomplish own objectives.
11
1 Introduo
A inspirao biolgica freqentemente usada no estudo da inteligncia artificial
especialmente nas reas de algoritmos evolutivos e redes neurais artificiais. No presente
trabalho, a evoluo da vida e da inteligncia usada como ponto de partida para o
desenvolvimento de agentes artificiais.
A vida terrestre pode ser vista como um sistema onde a ordem e a complexidade
crescem ao longo dos milhes de anos[DAR87]. A inteligncia algo que emergiu e
selecionada pela evoluo natural . Sendo assim, pode-se discutir o que inteligncia sob
o aspecto evolutivo. Essa discusso pode inclusive comear com a origem da vida e ir
at a conscincia humana.
A evoluo da inteligncia pode ser estudada esquecendo-se os meios biolgicos
que a tornam possvel conforme faz Daniel Dennett. Dennett preocupa-se com a
evoluo do processo informacional com que as criaturas resolvem seu problemas e no
com a evoluo do substrato usado nessas solues. Por outro lado, estudar o impacto
evolutivo e comportamental que ocorreu com a evoluo dos primeiros seres vivos
possuidores de neurnios assim como a funo neuronal no menos interessante. De
fato, os enfoques biolgico[SAG77] e filosfico[DEN97] sobre a evoluo da
inteligncia so discutidos aqui.
O estudo da evoluo da inteligncia justifica-se no presente trabalho tendo em
vista que ele usado como base para o desenvolvimento de um tipo especfico de
inteligncia que emergiu durante a evoluo: a inteligncia popperiana nos moldes que
sugere Dennett. Ainda que as criaturas de Dennett sejam discutidas em profundidade na
presente dissertao, vale ressaltar que a criatura popperiana uma criatura que aprende
as regras do seu meio ambiente e usando essas regras aprendidas planeja o seu futuro
podendo planejar seqncias de aes.
A criatura popperiana tem caractersticas marcantes como o fato de que os planos
que ela gera para alcanar a sua prpria satisfao so difceis de serem previstos por
outra criatura. A experincia vivida por duas criaturas independentes raramente a
mesma. Sendo assim, seu aprendizado raramente o mesmo implicando em
planejamentos feitos sobre aprendizados distintos. O objetivo da presente dissertao a
construo de agentes ou criaturas artificiais com grande capacidade de adaptao na
busca de seus objetivos inspirada na evoluo da vida e da inteligncia. A capacidade da
criatura popperiana de aprender e planejar confere grande capacidade adaptativa na
busca da satisfao.
Pode-se questionar o porqu do uso da teoria da evoluo como fonte de
inspirao para a criao de criaturas extremamente adaptveis ao seu meio.
Considerando que a evoluo vai do mais simples para o mais complexo, sob o aspecto
de engenharia de software, parece fazer sentido comear com modelos de inteligncia
simples que so facilmente entendidos e implementveis artificialmente e gradualmente
avanar para modelos mais complexos seguindo os mesmos passos de complexificao
encontrados na evoluo biolgica. Para tanto, na presente dissertao, discute-se os
seguintes assuntos:
12
13
14
estava armazenado no seu DNA. A evoluo seguia de forma lenta [SAG77]. Uma
bactria usa o conhecimento do seu DNA para construir uma cpia de si mesma. Uma
bactria uma mquina auto-replicativa.
Com o aparecimento dos crebros, a memria dos eventos ocorridos durante a
existncia dos seres poderia ser usada como base de conhecimento para resolver novos
problemas. A medida que a evoluo transcorre, agentes biolgicos cada vez mais
adaptveis ao ambiente e cada vez mais distantes da noo de agente reativo evoluem.
Nesse momento, os seres vivos que possuam crebro tinham uma ferramenta que
incrementava e adaptava o seu conhecimento e comportamento de forma extremamente
dinmica.
Os agentes biolgicos que possuem crebro possuem memria e regras de
comportamento extragenticas (fora do gentico). Na prxima seo, introduzida a
unidade funcional do crebro: o neurnio.
15
16
17
1.4 Inteligncia
O significado do termo inteligncia evoluiu muito ao longo do tempo absorvendo
o significado de outros termos. Morais [MOR 90] entende que o termo inteligncia um
dos termos mais equvocos da filosofia e psicologia atual sobretudo devido diversidade
de contedos que carrega. Por vezes, o termo inteligncia aparece significando
entendimento, intelecto, conjunto de funes cognitivas, razo e capacidade de resolver
problemas.
Orador e poltico romano, Marcus Tullius Cicero [LAR 95] (106 a.C - 46 a.C)
traduziu do grego para o latim o termo intelligentia que significa penetrar dentro das
coisas, captar a sua intimidade, discernir ou entender a essncia.
Modernamente, no existe consenso sobre uma definio de inteligncia.
Spearman desabafa: Nos sucessivos congressos com o objetivo de definir a
inteligncia, discutem-se muitas teorias, ouvem-se brilhantes oradores, mas cada um
expe a sua prpria opinio... irreconcilivel com as demais [MOR 90]. Ainda assim,
muitos autores dividem a inteligncia em dois tipos: (1) capacidade de compreender as
relaes que existem entre os elementos de uma situao; (2) maneira de aplicar
utilmente as experincias adquiridas e retidas na memria.
Na traduo de Cicero, o termo inteligncia refere-se a uma atividade passiva em
relao ao meio. Aquele que possui a inteligncia apenas capta, entende e discerne no
18
19
20
21
22
23
ela for til para a criatura que a detm. Esconder informao uma tarefa til somente
se a criatura em questo est inserida em um ambiente onde ela pode adquirir informao
que os outros no tenham adquirido. Em espcies onde todos os individuos convivem em
grupo, todo o evento percebido por um indivduo logo percebido por todos os outros
indivduos do grupo. Nesse caso, esconder informao algo intil. Por outro lado, em
espcies onde seus indivduos vagueiam sozinhos, um indivduo pode encontrar comida
em um lugar e desejar esconder essa informao fazendo com que os outros no
compartilhem a informao.
improvvel que capacidades atribudas inteligncia emerjam e sejam mantidas
ao longo da evoluo biolgica se elas no forem teis criatura que a possuir. Se a
percepo do eu apareceu com a evoluo, deve haver algum benefcio dessa
percepo para a criatura que a detiver.
At aqui, na presente dissertao, foram introduzidos assuntos que no
pertencem diretamente a cincia de computao e que serviro de base para o
desenvolvimento do agente popperiano. Nas prximas sees, so estudados sistemas
computacionais desenvolvidos ou em desenvolvimento que possam oferecer subsdios
para o que pretendido. Posteriormente, aborda-se o modelo e implementao do
agente popperiano.
24
veracidade na sentena S P .
Para efeito de exemplo, sejam os conjuntos:
S = { gatinho, gatinha, gato pequeno, cachorro }
Gatos = conjunto de todos os gatos
Pode-se afirmar que S Gatos significa as instncias de S so gatos:
n = nmero de instncias de S = 4.
m = nmero de instncias de S que pertencem ao conjunto dos gatos = 3 .
f = m/n = 0,75.
O exemplo anterior mais didtico do que acurado. Uma criatura que no
conhece todos os gatos do mundo e nem todos os elementos do conjunto S no pode
realizar o clculo com total grau de confiana. Alm de calcular f, necessrio calcular o
grau de confiana para o valor obtido.
Supondo que o NARS tenha informao de apenas um nico elemento de S
chamado gatinho que pertence ao conjunto Gatos, calcula-se:
n=1
m=1
f = m/n = 1/1
O problema que uma nica observao do ambiente que resulta em um nico
elemento na amostra muito pouco para ter uma idia confiante de S Gatos . O
valor f normalmente referido como freqncia ou fora deve ser acompanhado de outro
valor c para denotar o grau de confiana que se tem sobre o valor f.
O grau de confiana c a razo entre o nmero de evidncias observadas e o
n
nmero de evidncias a serem observadas: c
. O valor de k uma constante no
n k
sistema e indica o tamanho do futuro prximo. Para efeito de exemplo, com um nico
1
0,5 .
exemplo na amostra e k = 1 encontraremos a confiana c
1 1
Intuitivamente, pode-se afirmar que quanto maior for o intervalo [a,z] que f pode
ocupar no futuro prximo, menor o grau de confiana que se tem sobre f. De fato,
k
1 c . Essa equao afirma que o tamanho do
pode-se verificar que: z a
n k
intervalo [a,z] o complemento para 1 da confiana c.
Sendo assim, existem trs tipos de valores verdade equivalentes que podem ser
transformados uns nos outros: {m,n} , < f,c >, [a,z].
25
1.6.3 Crena
Abordando o exemplo S P < 1 , 0.5 > , observa-se que a freqncia de S em
P 1 com um grau de confiana de 0.5. Apesar da freqncia ser alta, o grau de
confiana 0.5 o que nos impede de crer que S P com muita intensidade.
importante extrair um nmero do par <f,c> que d uma idia sobre o quanto podemos
crer em S P.
A crena identificada pela letra d calculada como a mdia entre a e z como
segue:
a z
2
k
2
n k
Com k=1, o par < 1, 0.5 > pode ser transformado em { 1,1 } ou [0.5 , 1]. Sendo
assim, d = (0.5+1)/2 = 0.75 .
1.6.4 Gramtica
A unidade bsica do conhecimento do NARS o julgamento. O julgamento
uma sentena e um valor de veracidade. Um julgamento representa a opinio do sistema
sobre como um termo pode ser usado como outro. Por exemplo, S P < 1 , 0.5 >
um julgamento de que S pode ser usado como P com valor verdade < 1 , 0.5 >.
O NARS aceita dois tipos de perguntas vindas do ambiente:
1. Pergunta SIM / NO: a pergunta tem a forma de uma sentena e a resposta
a ser dada pelo sistema deve ser um valor verdade com a maior confiana
possvel.
2. Pergunta do tipo O que: uma sentena em que um dos termos
substituido por um ponto de interrogao. O sistema deve responder que
termo melhor substitui o ponto de interrogao para tornar a sentena
verdadeira.
A gramtica constituida pelas seguintes regras de produo:
<julgamento>::= <sentena> <valor verdade>
<questo> ::= <sentena> | <pergunta>
<pergunta> ::= ? < um> <predicado> | <sujeito> < um> ?
<sentena> ::= <sujeito> < um> <predicado>
<termo>
::= <palavra> | {<termo>}
<palavra> ::= <letra> | <letra><palavra> | <palavra>-<palavra>
<letra>
::= a|b|...|y|z
< um>
::= |
26
f1 ,
f 2 c1 c2
f 2 c1 c2 k
>
SP<
f2 ,
f 1 c1 c2
f 1 c1 c2 k
>
27
28
29
30
atores e agentes so a mesma coisa para efeitos do WAE. Sendo assim, preferiu-se
traduzir os termos na forma j citada.
1.7.3 Mdulos
O WAE dividido nos mdulos apresentados na figura 1.2. Em cada mdulo,
residem agentes especializados para resolver uma classe de problemas. Por exemplo, o
mdulo de anlise de sries numricas possui agentes especializados em reconhecer
padres numricos. Os agentes dentro do WAE podem se intercomunicar livremente.
Agentes do mdulo de categorizao podem livremente se relacionar com agentes de
sries numricas. A diviso em mdulos do WAE no restringe a comunicao entre os
agentes. Ela apenas restringe o ponto de moradia dos agentes.
31
1.7.4 A Corporificao
Um aspecto importante na implementao e modelagem de inteligncia artificial
que a inteligncia sempre se apresenta corporificada em alguma criatura. A inteligncia
precisa de um corpo para existir que o meio para perceber e agir sobre o ambiente.
Sendo assim, para construir uma mente artificial equivalente a mente humana, seria
necessrio construir um corpo equivalente ao corpo humano. Uma mquina
verdadeiramente pensante com uma mente digital manifestar a sua inteligncia de forma
diversa forma humana por no ter um corpo humano. Isso no implica que uma
mquina no possa ter uma mente verdadeira.
A mquina o meio pelo qual a inteligncia artificial observa e age no mundo.
Uma mquina que possui percepo da internet perceber textos, imagens e outras
criaturas biolgicas ou artificiais que se comunicam por meio da internet. Provavelmente,
essa mquina falharia no teste de Turing por perceber um ambiente extremamente
diferente do ambiente que a inteligncia humana percebe e ainda assim ser um tipo
genuino de inteligncia.
Sendo assim, essa inteligncia artificial pode ser mais inteligente em aspectos
onde a seu ponto de observao privilegiado e quase certamente apresentar
desempenho inferior onde o ponto de observao da inteligncia humana favorecido.
Tudo isso dependendo da forma como a inteligncia artificial for corporificada.
Assim como outras criaturas tm objetivos de sobrevivncia como alimentao e
reproduo, o objetivo do WAE responder a perguntas feitas por humanos da melhor
forma possvel. Para tanto, o sistema deve estimar quais so os desejos dos usurios
humanos. Sendo assim, para aprender a responder da forma correta, o WAE deve
receber punio ou recompensa para o resultado de cada pergunta a ele submetida. O
esforo necessrio para treinar o WAE certamente enorme.
O WAE foi projetado para poder se comunicar em linguagem escrita humana
com seres humanos, navegar na internet, ler arquivos de texto e dados numricos. Por
motivos j citados, o WAE no passa no teste de Turing ainda que deva ser fluente sobre
os assuntos do seu prprio mundo. De todo jeito, a inteligncia do WAE foi projetada
para ser muito mais parecida com a inteligncia humana do que a inteligncia de um
macaco ou jogo de xadrez.
1.7.5 O Esquecimento
A dinmica de agentes gerando novos agentes que reconhecem determinados
padres acaba por provocar uma exploso combinatria no nmero de agentes. O
esquecimento muito importante para a mente artificial. O esquecimento ou perda dos
agentes menos importantes provoca um evolucionismo ao nvel da populao de agentes.
Os melhores agentes sobrevivem enquanto que os piorem so excludos (esquecidos).
Essa evoluo no nvel dos agentes faz com que a mente artificial seja um sistema
dinmico. Um aspecto importante que o WAE usa uma mistura de evoluo e
inferncia.
O desempenho da mente ser muito melhor se existir uma estratgia para
esquecimento. Apenas para efeito de exemplo, considerando 3 agentes que modelam as
seguintes frases: (1) tudo o que voa pode cair, (2) passarinhos voam, (3) passarinhos
podem cair. Pode-se concluir que o esquecimento do agente que modela a frase
passarinhos podem cair no envolver grande custo considerando que esta informao
pode ser recuperada pela inferncia.
32
1.7.6 O raciocnio
O raciocnio lgico indispensvel para a mente estabelecendo relaes sobre
relaes previamente conhecidas. No WAE, o raciocnio lgico uma parte do sistema e
no o centro conforme ocorre freqentemente em sistemas especialistas. O raciocnio
gera conhecimento de acordo com um conjunto de regras de inferncia pr-determinadas
que so independentes do domnio da aplicao. O raciocnio deriva conhecimento novo
do conhecimento j existente usando informao no explicitamente apresentada no
ambiente.
Para efeito de exemplo, aborda-se a forma com que o WAE trata a herana.
Supondo que B descendente de A e que C descendente de B, a deduo lgica que
C descendente de A.
O fato de que as relaes possuem uma fora significa que a herana no
necessariamente deve ser total tendo fora 1. Assim como qualquer outra relao, a
herana pode ter qualquer valor no intervalo fechado [0,1]. Quando afirma-se que B
descendente de A, afirma-se que as caractersticas de A so encontradas em B.
Mudando-se o ponto de vista, se B descendente de A, ento existem caractersticas de
A que existem em B. Sendo assim, se B descendente de A, ento, com alguma fora, A
descendente de B. Esse tipo de raciocinio chamado de reversibilidade da herana.
Quanto mais reversvel for a herana, maior a semelhana.
A notao a ser seguida a que segue: A
B significa que B descendente de
A. Observe alguns tipos de raciocnio presentes no WAE na tabela 1.1.
Uma lgica determinista que parte de premissas absolutamente certas e chega em
resultados absolutamente certos no suficiente para o que pretendido. A percepo
do mundo real cercada de regras lgicas que tem uma certa probabilidade de serem
vlidas. Nesse sentido, o WAE usa a lgica de termos probabilista ( do ingls
Probabilistic Term Logic PTL) usando as regras de raciocnio apresentadas na tabela
1.1. A probabilidade de um conhecimento ou relao definida pela fora da relao.
TABELA 1.1 Tipos de Raciocnio
Tipo de Raciocnio
Descrio
deduo lgica
reverso da herana
implica B
induo
A B e A C
em um certo grau
implica
abduo
A B e C B
em um certo grau
implica
implica
A em um certo grau
33
A expresso Maria acredita que Deus existe com grau de confiana de 0.3
representada por (acredita, Maria, Deus existe) [0.3]. Os relacionamentos de alta ordem
so tambm chamados de relacionamentos de relacionamentos. Seguem alguns exemplos
de relacionamentos de alta ordem:
(duvida, Joo, (acredita, Maria, Deus existe)[0.9]) [0.6] : Joo duvida com fora
0.6 que Maria acredita que Deus exista com fora 0.9.
(filho, B, A) => (pai, A,B) [0.5] : Se B filho de A, ento A pai de B com
fora 0.5.
Os recursos computacionais so limitados. Sendo assim, deve existir uma
estratgia de controle que determine quando aplicar uma regra de inferncia, quando sair
em busca de premissas e o que fazer com as concluses. Essas decises de quando cada
ao deve ser tomada devem ser feitas para requisitar a menor quantidade de recurso
computacional possvel.
A auto-percepo do WAE est distribuda ao longo de diversos agentes. Um
agente representa o sentido de eu. O agente eu descendente do agente
computador. Essa ligao faz com que as propriedades de computador sejam
atribudas com alguma fora ao agente eu. Essa relao de herana entre
computador e eu representa o sentido de eu sou um computador. A representao
de eu sou um computador feita pelos agentes nodos eu, computador e pelo
agente de ligao de herana.
1.7.7 Representao do Conhecimento
Ainda que seja teoricamente possvel representar todo o tipo de conhecimento
em uma rede de herana, isso no implica que um sistema implementado contendo
somente este tipo de relacionamento seja vivel. Ainda que as regras matemticas
pudessem ser implementadas numa rede de herana, por simplicidade, as regras
matemticas so implementadas dentro de agentes especficos.
Para efeito de entendimento, aborda-se o seguinte exemplo:
BA[s,c]
B descendente de A com fora s (strength) e confiana c (confidence). Supondo
que as propriedade de A e B sejam respectivamente a1, a2, ... an e b1, b2, ... bn sendo ax e bx
nmeros reais que representam a fora da propriedade x, a fora da herana entre A e B
calculada como segue:
fora da herana
a i AND b i
ai
34
x or y
x and y
0.5
0.5
0.75
0.25
0.9
0.9
0.99
0.81
0.9
0.1
0.91
0.09
0.8
0.1
0.82
0.08
ai AND bi
fora da semelhana
ai OR bi
a i and b i
0,5and 0,5
0,5 or 0,5
a i or b i
0,25 0,09
0,75 0,91
0,36
0,21
1,66
35
36
feia.
Barra para o WAE mostrar suas emoes.
37
1.8 Proposta de um Modelo de Esquema Cognitivo SensrioMotor Inspirado na Teoria de Jean Piaget
Inspirado no trabalho de Waslawick [WAS93], Muoz [MU99] prope um
modelo computacional de agente cognitivo inspirado na teoria de Jean Piaget [PIA47]
sobre o desenvolvimento da inteligncia sensria-motora. Muoz acredita que a teoria
piagetiana de esquemas permite a construo de agentes que tenham capacidade de
adaptao e que no necessitam de conhecimento prvio a respeito do meio. Essas
caractersticas permitem ao agente agir em um ambiente desconhecido ou imprevisto.
Nesse agente, tanto a memria, como as regras de comportamento e a previso
esto armazenadas em estruturas chamadas de esquemas. Os esquemas so uma trinca
contendo um contexto, aes e o resultado esperado da aplicao dessas aes no
contexto apropriado. Um ponto alto a ser considerado no trabalho de Muoz que o
esquema pode ser usado para diferentes fins (memria, comportamento, previso)
proporcionando uma estrutura de dados bastante homognea.
Quando o esquema usado como uma regra de comportamento do tipo Se a
situao pertence ao contexto, ento aplica a ao com a esperana de encontrar o
resultado, dito que ele usado de forma procedural. Por outro lado, quando o
esquema usado como uma regra de previso do tipo Se a situao pertence ao
contexto e a ao for aplicada, ento acredita-se que o resultado ser encontrado,
dito que o esquema usado de forma preditiva.
Os esquemas podem ser encontrados em um dos seguintes estados:
No excitado: verificado quando a situao no pertence ao contexto do
esquema.
Excitado: verificado quando a situao pertence ao contexto do esquema e
suas aes no so executadas.
Ativado: verificado quando a situao pertence ao contexto do esquema e
suas aes so executadas.
Os esquemas so construdos atravs da experincia e podem ser modificados por
duas formas distintas:
38
39
2 Grafa-se o termo inteligncia em itlico quando ele apresenta a mesma semntica dada por Dennett.
40
4. Age.
Ao
escolhida
1. Percebe o
ambiente e estado interno.
3. Escolhe a ao mais
Percepo provvel de proporcionar satisfao.
Memria de
Curto Prazo
Ao
escolhida
Satisfao prevista
para um par
(Percepes, Ao).
Satisfao
Percepes e
ao anteriores
2. Aprende
TR
Percepes anteriores,
ao anterior e satisfao atual
FIGURA 2.1 Modelo de Agente Skinneriano
41
4. Age.
1. Percebe o
ambiente e estado interno.
Ao
escolhida
3. Prevendo aes, satisfao e estados
Percepo futuros do ambiente , atravs de
planejamento, escolhe a ao mais
provvel de proporcionar satisfao.
Ao
escolhida
Estado Futuro
previsto para
um par
(Percepes, Ao).
Memria de
Curto Prazo
Percepo
atual
2. Aprende
Percepes e
ao anteriores
TR
Percepes anteriores,
ao anterior e percepo atual
FIGURA 2.2 Modelo de Agente Popperiano
42
2a camada (efeitos)
43
1a camada
2a camada
FIGURA 2.4 Rede Neural de Causas e Efeitos
44
redes neurais artificiais. A medida que o projeto evoluiu, os aspectos de interesse da rede
neural eram abstrados para modelos cada vez mais simples e mais distantes de uma rede
neural artificial. Na verso final, ainda que se possa observar que existe aprendizado por
reforo, imperceptvel que em sua fase inicial usou-se redes neurais artificiais como
inspirao. O presente texto relata desde a inspirao biolgica, os primeiros testes at o
modelo completo.
No decorrer do presente captulo, ficaro evidentes algumas semelhanas entre o
NARS e a forma como a induo de funo lgica proposta aqui. Para facilitar o
entendimento e a comparao, a notao usada no presente captulo a mais prxima
possvel da notao usada no estudo do NARS e do WAE.
2.3.1 Exemplo Introdutrio Simples
Nesse exemplo, aborda-se a figura 2.4. Na tabela 2.2, cada clula das colunas C e
C representa uma sinapse que liga um neurnio da primeira camada com um neurnio
da segunda camada aps a alimentao das percepes da tabela TX1 sendo que:
1) os pesos das sinapses da rede comeam todos em zero.
2) os pesos das sinapses so incrementados sempre que os dois neurnios que a
sinapse liga dispararem em tempos prximos
3) os eventos percebidos do ambiente so os eventos da tabela 1.1.
Causas
(primeira camada)
AB
FF
Efeito
(segunda camada)
C
F
FV
VF
VV
FF
FV
VF
VV
45
TABELA 2.2 Pesos da Rede aps a percepo dos eventos da tabela 1.1
(causas)
(efeitos)
primeira camada C
A B
0.75
A B
0.75
0.5 0.67
0.5 0.67
m
d: crena em que d
(causas)
(efeitos)
primeira
camada
A B
100
100
0.5
0.5
200
0.99
A B
200
0.99
100
100
0.5
0.5
A
A
46
Variao do Peso
Sinptico
nula
nula
nula
positiva
47
Variao do Peso
Sinptico
-1
-1
positiva
-1
negativa
-1
negativa
positiva
Variao do Peso
Sinptico
nula
nula
negativa
positiva
Quanto maior for a relao de causa e efeito (implicao), maior ser o valor de
f. Para o caso binrio estudado no presente tpico, se o valor de f for 1, ento em todos
os casos percebidos houve a relao de causa e efeito. Se, por outro lado, o valor de f
for 0, ento existir um outro tipo de causalidade: a causa inibe o efeito esperado. Se o
valor de f for 0.5, ento no existir relao de causalidade.
Comparando-se as tabelas 2.6 e 2.7, pode-se observar que o comportamento de f
e d est de acordo com o comportamento que deve ter o peso da sinapse no aprendizado
de Hebb de Moser.
Muitos modelos de aprendizado de Hebb apresentam ponto de saturao3.
Considerando que m e n no so negativos e que m n, o valor de f sempre estar no
k
m
2 apresenta-se no intervalo
intervalo fechado [0,1]. Da mesma forma, a crena d
n k
aberto (0,1).
48
Variao da
freqncia f
Variao da
crena d
0 (nula)
0 (nula)
0 (nula)
0 (nula)
m
n 1
m
n
k
2
n k 1 n k
m
( variao < 0)
( variao 0)
m 1
n 1
m
n
k
2
n k
n k 1 n k
( variao 0)
( variao > 0)
Em 80% dos casos que ele executa ao de se mover para a direita, a sua
posio no eixo X incrementada em uma unidade.
49
2.3.4.1Gerao de Regras
A gerao de regras bastante simples. Cada regra gerada vlida para um
determinado par (Causas, Efeitos). No existe nenhuma garantia de que uma regra
gerada a partir de um nico par (Causas, Efeitos) possa ser usada para os demais pares
(Causas, Efeitos) percebidos. Quem verifica a validade da regra o mdulo de
verificao de regras.
Par
1
2
3
4
50
m
1
0.66
1
2
0.5
0.5
0.75
0.75
2
2
0.5
0.5
1
4
4
1
4
0.25 0.33
1
0,83
0.8
m n
2 2
0.75
1 0.25 0.33
51
m n
4 2
0.5
0.5
0,83
Para o Efeito2 a regra de maior crena a regra 8 concluindo-se que Efeito2 vale o
mesmo que Causa2. Nesse exemplo, com base nos passos seguidos acima, o mdulo de
previso prev os efeitos (22,23).
O sistema de induo gera regras por uma heurstica, calcula a fora e a crena
dessas regras e usa as regras de maior fora ou crena para a previso. O sistema de
induo funciona tanto usando regras de maior fora como usando regras de maior
crena; porm, a experincia mostra qual das duas mtricas a mais indicada para cada
problema. Especula-se que em problemas onde no existe determinismo o uso da crena
apresenta melhores resultados.
2.3.4.4Descarte das Regras Inteis
No exemplo de previso, as regras usadas foram 4 e 8. Marcando-se as regras
usadas, pode-se saber quais so as regras inteis por no terem marca
independentemente da sua crena ou fora. Isso permite o uso desse sistema com pouca
memria ao descartar as regras inteis. A gerao de regras novas e o descarte de regras
no usadas ou pouco usadas criam um ambiente competitivo. As regras mais genricas
tendem a ter crena maior favorecendo a sua permanncia em um ambiente competitivo
ao nvel de regra.
2.3.4.5Notas Finais
Essa seo apresenta a idia bsica do sistema de induo. O algoritmo do
sistema de induo apresentado no Anexo 3 em maiores detalhes. Uma heurstica
testada com sucesso foi includa na gerao de regras: apenas so geradas regras para
efeitos que foram incorretamente previstos. Sendo assim, somente so geradas regras
para tentar corrigir erros de previso anteriormente encontrados. Se o sistema de
induo acerta sempre, ele no despende computao para gerar novas regras. O
resultado do uso dessa heurstica que o sistema de induo fica mais rpido.
2.3.5 Testes
Voltando ao exemplo anterior (Causa0 = 1) => (Efeito1 Causa1 + 1), Efeito de
ndice 1 recebe Causa1 + 1 sempre que o teste (Causa0 = 1) verdadeiro. O teste de
igualdade no o nico teste que o sistema de induo pode gerar. Foram
implementados 5 tipos de testes. A forma como o ndice do operando calculado
52
53
<teste>
<tst>
<tstOp>
<ao>
<aofnt>
<Operando>
<OperaoB>
<OperaoU>
<i>
<b>
<lsttestes> <ao>
<lsttestes> <teste> | <teste>
V | ( <tst> )
<Operando> <tstOp> <Operando> | <b> = <Operando>
|>|<|=
Efeitobase := <aofnt>
( <Operando> <OperaoB> <Operando> ) | <b> |
<OperaoU> Causabase
Causa< i > | Causabase + < i >| Causabase - < i >
+ | - | mul | div | mod | and | or | xor
inc | dec | inj | not
nmero natural
byte
54
Causas[i] Efeitos[i]
c1
c0
e1
e0
Em um teste, usando o algoritmo da figura 2.5 com uma tabela de relao com 4
entradas, o sistema de induo gerou as seguintes regras:
1. B=0: (1 = C[0]) => E[B] := C[B] - 1 [ f=1 Vit=43 UltVit=92 ]
2. B=0: V => E[B] := 1 [ f=0,470588235294118 Vit=5 UltVit=91 ]
3. B=1: V => E[B] := (C[0] xor C[1]) [ f=1 Vit=4 UltVit=92 ]
4. B=1: V (1 = C[B-1]) => E[B] := (C[0] - C[B]) [ f=1 Vit=1
UltVit=86 ]
55
Em princpio, quanto maior for a tabela de relao, maior ser o tempo de UCP
gasto na execuo dos mdulos Pred e Encontrou; porm, freqentemente, quanto
maior for a tabela de relao, menos chamadas aos mdulos Pred e Encontrou so
necessrias para induzir as regras de interesse. Por exemplo, executando o algoritmo da
figura 2.5 1000 vezes com 8 entradas na TR, usou-se dois segundos de UCP e em mdia
apenas 6,56 ciclos no lao Repita em cada execuo, por outro lado, executando-se o
mesmo algoritmo com 3200 entradas na TR, encontrou-se 6,51 ciclos em mdia e 39,4
segundos de tempo de execuo. Esses nmeros podem ser conferidos na tabela 2.14.
B=0
(1=C[0])
F=1
Vit=43
UltVit=92
B=1
V
B=0
V
F=0,47
Vit=5
UltVit=91
B=1
V(1=C[B-1])
F=1
Vit=4
UltVit=92
F=1
Vit=1
UltVit=86
Competio
E[B] :=
dec C[B]
Competio
E[B]:=
(C[0]-C[B])
E[B]:=1
E[B]:=(C[0]
xor C[1])
Tamanho da
tempo de UCP
Tabela de Relao
(segundos)
n. total de ciclos
no lao Repita
4.74
14511
14.51
2.61
7027
7.03
2.52
6562
6.56
16
2.79
6378
6.38
32
3.01
6408
6.41
320
5.21
6643
6.64
3200
39.4
6513
6.51
56
Quando a tabela de relao est lotada de regras e uma nova regra deve ser
gerada, uma regra escolhida para ser descartada. A regra a ser descartada a pior regra
de TP regras escolhidas ao acaso. TP um nmero natural que indica o tamanho da
procura pela pior regra. considerada a pior regra a regra que nunca foi usada utilmente
ou foi usada utilmente pela ltima vez h mais tempo.
TABELA 2.15 Execues do algoritmo da figura 2.5 usando os parmetros:
nmero de execues = 1000, TP = 3 e TodaOperao = Falso.
Tamanho da
tempo de UCP
Tabela de Relao
(segundos)
n. total de ciclos
no lao Repita
5.16
16894
16.89
4.39
12984
12.98
5.32
14787
14.79
16
7.79
18809
18.81
32
12.96
24043
24.04
320
89.42
45321
45.32
TP
2.84
7825
7.83
2.58
6886
6.89
2.52
6562
6.56
2.48
6531
6.53
100
2.86
6380
6.38
1000
42.41
6424
6.42
57
for I:=0 to 3 do
begin
MR.Predicao(csCausas[I],csCausas[I],P);
ERRO:=ERRO+MR.Encontrou(csEfeitos[I]);
end;
FIGURA 2.7 Implementao em Object Pascal
Causas
0
1
2
3
0
1
2
012345678901234567890123456789
1000000000000000000000000100000000
0100000000000000000000001000000000
0100000000000000000000000100000000
1000000000000000000000000010000000
Efeitos
0
1
2
012345678901234567890123456789
0000000000000000000000001000000000
0000000000000000000000000100000000
0000000000000000000000000010000000
0000000000000000000000000100000000
58
O algoritmo usado para testar a induo do Bit que Vai e Vem apresentado na
figura 2.10 . Considerando que existe uma funo lgica para cada bit do efeito a ser
induzida a partir da causa, nesse experimento, foram induzidas 34 funes lgicas ao
mesmo tempo. O desempenho do algoritmo pode ser verificado nas tabelas 2.17, 2.18 e
2.19.
Comparando-se as tabelas 2.17 e 2.18, observa-se que o parmetro
TodaOperao tem grande importncia no desempenho do algoritmo. Isso ocorre tendo
em vista que nesse experimento o valor zero no representa informao til. Sendo
assim, com TodaOperao em falso, somente os valores diferentes de zero so usados
para formar novas implicaes.
Tamanho da
tempo de UCP
Tabela de Relao
(segundos)
n. total de ciclos
no lao Repita
50
271.01
20769
207.69
60
117.27
8007
80.07
70
84.25
5235
52.35
80
61.31
3693
36.93
90
33.27
2008
20.08
100
12.97
815
8.15
200
10.42
545
5.45
1000
20.88
521
5.21
10000
169.38
530
5.3
Tamanho da
tempo de UCP
Tabela de Relao
(segundos)
n. total de ciclos
no lao Repita
90
560.12
21728
217.28
200
372.84
7926
79.26
1000
354.37
2773
27.73
59
TP
19.98
1209
12.09
15.71
957
9.57
14.39
898
8.98
15.26
951
9.51
100
12.25
767
7.67
DefineNumCausasEfeitos(34,34)
Causas Percepo()
repita
ErrosPredicao 0
POS 15
para I=1 at 60 faa
// prepara vetor de causas
Atribui 0 para cada elemento dos vetores causas e efeitos
se I > 30
ento Causas[1] 1
seno Causas[2] 1
Causas[POS+4] 1
// predio
Pred(Causas,EfeitosPreditos)
// prepara o vetor de efeitos
se Causas[1]=1
ento faa
POS POS-1
se POS<0
ento POS 29
fim-faa
seno POS (POS + 1) mod 30
Efeitos[POS+4] 1
// testa predio
ErrosPredicao ErrosPredicao + Encontrou(Efeitos)
fim-para
imprime(ErrosPredicao)
at (ErrosPredicao=0)
FIGURA 2.10 Algoritmo para Testar Induo do Bit que Vai e Vem
60
C12
C13
E2
C23
C123
E3
C123
C12
S1
Entrada
(evidncias)
C13
S2
C23
Combinatorial
Sada
(classes)
Aps o aprendizado, quanto maior for o valor do acumulador, mais significa que
ele verdadeiro. Ao contrrio, quanto mais negativo ele for, mais falso ele . Aps a
fase de aprendizagem, feita a poda das sinapses em que o acumulador no atingiu um
determinado limiar.
Voltando ao sistema de induo apresentado aqui, observando-se a figura 2.6,
verifica-se que cada entrada da TR representa: a relao entre uma combinao de
causas (evidncias) e sua conseqncia (classe). A rede CNM e o sistema de induo
apresentado aqui possuem as seguintes caractersticas em comum: (1) aprendizado
supervisionado por reforo que atende a tabela 2.6 permitindo a induo da implicao,
(2) ambos combinam evidncias verdadeiras e (3) ambos tm uma camada competitiva
61
na sada. Vale observar que o lado independente das regras da TR corresponde camada
combinatorial do CNM enquanto que o lado dependente corresponde camada de sada.
Essa concluso pode ser encontrada ao comparar-se as figuras 2.6 e 2.11.
Em alguns casos, a rede CNM tem vantagens sobre o sistema de induo
apresentado aqui: (1) simples e fcil de implementar, (2) em muitos problemas,
encontra a soluo rapidamente.
Por outro lado, em problemas em que existam muitas evidncias e classes (causas
e efeitos), o sistema de induo apresentado aqui despende muito menos memria tendo
em vista que os efeitos e combinaes de causas so alocadas durante a execuo.
Uma rede CNM que combine no mximo duas evidncias (causas) em um
espectro de trinta usaria C(30,2)*30 + 30 + 30 = 13110 neurnios para aprender o
comportamento do Bit que Vai e Vem. A mesma rede CNM combinando at cinco
evidncias apresenta um nmero de neurnios igual a:
(n. de combinaes)* n. de classes + n. de evidncias + n. de classes =
( C(30,5) + C(30,4) + C( 30,3) + C(30,2) ) *30 + 30 + 30 =
( 142506 + 27405 + 4060 + 435 ) *30 +30 + 30 =
5232180 + 30 + 30 = 5232240 neurnios
Por outro lado, conforme mostra a tabela 2.17, o sistema de induo apresentado
conseguiu induzir o comportamento do Bit que Vai e Vem despendendo apenas 50
entradas na tabela de relao. Na TR, cada regra armazenada juntamente com o
nmero de vezes que ela foi usada com sucesso alm da informao temporal que indica
quando ela foi usada com sucesso pela ltima vez. Com essa informao, possvel
estimar quais so as entradas da TR menos e mais teis. Sendo assim, as entradas da TR
menos teis so descartadas enquanto que as mais teis para a induo so preservadas.
Alm disso, somente combinaes de causas percebidas so alocadas no sendo
necessrio alocar todas as combinaes possveis previamente.
Por fim, importante ressaltar que nessa comparao no foram abordadas
capacidades mais complexas do sistema de induo como a capacidade de induzir regras
que envolvam soma, incremento, operaes lgicas e testes.
2.4.4 Comparao com Redes Bayesianas
As redes bayesianas so grafos orientados acclicos onde os arcos representam a
relao de causalidade probabilstica enquanto que os nodos representam variveis ou
estados. A figura 2.12 apresenta um exemplo de rede Bayesiana. Nesse exemplo, a
probabilidade de chuva e feriado ocorrerem de 0.15 e 0.01 respectivamente. Se
ocorrerem chuva e feriado, a probabilidade de ocorrer JP na praia de 0.2.
A relao causal probabilstica uma caracterstica que tambm encontrada nas regras
geradas pelo sistema de induo proposto na presente dissertao; porm, pode-se
encontrar diferenas entre os modelos. Uma diferena que enquanto uma rede
bayesiana acclica, no existe nenhuma restrio para que o sistema de induo gere
uma regra do tipo (a b) e (b a) . A regra (a b) gerada pelo sistema de induo
deve ser lida como: quando a ocorre, ento b ocorrer.
62
P(chuva) = 0.15
P(feriado) = 0.01
Feriado
Chuva
JP na praia
63
64
Percepo
Ao escolhida
Ao do melhor
plano para o
estado atual
Novo Plano
Planos
Estados dos
planos
Percepo
Plano
otimizado
Plano a ser
otimizado
Otimiza
Planos
Planeja
Estado futuro
previsto para um par
(Percepes, Ao)
Estado futuro
previsto para um par
(Percepes, Ao)
TR
FIGURA 2.13 Diagrama da Escolha da Ao
65
ndice
Ao
Estado
(3,128,15,4)
(2,128,15,4 )
(2,127,15,4 )
(3,127,15,5 ) satisfao
2.5.2 Algoritmo
O sistema de planejamento foi implementado em uma classe Object Pascal em
que sua funcionalidade est distribuda entre seus diversos mtodos sendo os mais
importantes PlanejaCegamente, OtimizaCegamente e PodeAgir. Tais mtodos so
descritos a seguir:
PodeAgir(EstadoAtual,Ao): retorna verdadeiro se existe Ao planejada
para o EstadoAtual. Nesse caso, o parmetro Ao retorna a ao a ser
tomada. O parmetro EstadoAtual de entrada enquanto que Ao
parmetro de sada. Internamente, PodeAgir varre todos os planos do vetor
Planos a procura do EstadoAtual. Dos planos que contm o EstadoAtual,
selecionado o plano que mais rapidamente leva a satisfao. O algoritmo da
funo PodeAgir encontra-se na figura 2.14.
Funo PodeAgir(EstadoAtual,Ao)
PlanosSelecionados seleciona os planos do vetor Planos que possuem
o EstadoAtual
Se existe pelo menos 1 plano em PlanosSelecionados
ento faa
MelhorPlano seleciona o plano dos PlanosSelecionados que
leva mais rapidamente a satisfao.
Ao seleciona a prxima ao de acordo com o MelhorPlano
retorna verdadeiro
fim-faa
seno retorna falso
fim-funo
PlanejaCegamente(Plano,EstadoInicial,Profundidade,FunoDePredio,
NmeroDeAes): essa funo retorna verdadeiro se encontrou um plano que
leve satisfao retornando no parmetro Plano o plano achado.
Resumidamente, a busca cega foi implementada da seguinte forma partindo-se
do EstadoInicial: (1) escolhe-se uma ao ao acaso, (2) usa-se a
FunoDePredio para prever o estado a ser alcanado com a ao
escolhida e (3) se atingiu Profundidade ou no encontrou satisfao com o
estado alcanado, volta ao passo 1. O parmetro NmeroDeAes indica o
nmero de aes existentes. Os parmetros EstadoInicial, Profundidade,
FunoDePredio e NmeroDeAes so parmetros de entrada enquanto
que Plano parmetro de sada. A FunoDePredio apresentada na figura
2.15 e passada como parmetro na funo PlanejaCegamente recebe o par
66
OtimizaCegamente
(Plano,
Profundidade,
FunoDePredio,
NmeroDeAes): o procedimento OtimizaCegamente escolhe um trecho do
vetor de entrada Plano e tenta substituir esse trecho por outro trecho menor
de tamanho no superior Profundidade. Esse trecho criado cegamente
usando o NmeroDeAes permitido. Se no consegue otimizar, retorna o
plano original. Os parmetros Profundidade, FunoDePredio e
NmeroDeAes so de entrada enquanto que Plano de entrada e sada. O
algoritmo desse procedimento pode ser visto na figura 2.20.
67
68
Procedimento OtimizaCegamente(Plano,
Profundidade,FunoDePredio,
NmeroDeAes)
EstadoInicial,EstadoFinal, Tamanho Escolhe probabilisticamente trecho
do Plano a ser otimizado. Devolve
os
estados inicial, final e tamanho.
PlanoAuxiliar Tenta achar cegamente um caminho que sai do
EstadoInicial
e vai ao EstadoFinal depositando o resultado em
PlanoAuxiliar
Se achou um caminho que vai do EstadoInicial ao EstadoFinal
ento faa
se Tamanho do PlanoAuxiliar < Tamanho do trecho do Plano
ento substitui Trecho do Plano por PlanoAuxiliar
fim-faa
seno faa
Se PlanoAuxiliar possui estado no inicial que existe em Plano
e atingido por menor nmero de passos em PlanoAuxiliar a
partir de EstadoInicial do que em Plano
ento substitui trecho do Plano pelo trecho de PlanoAuxiliar
que otimizaria o Plano.
fim-faa
fim-procedimento
69
70
71
72
Prioridade
Condio
Ao
.1
Descarregado E
No Percebe Mineral E
No Percebe Pista
Movimento Aleatrio
.2
Descarregado E
Atinge Mineral
Carrega Mineral
.3
Carregado E
No Atinge Base
Retorna Base E
Deixa Duas Pistas
.4
Carregado E
Atinge Base
Descarrega Mineral
.5
Descarregado E
Percebe Mineral
Vai em Direo ao
Mineral
.6
Descarregado E
Percebe Pista
Prioridade
Condio
Ao
.1
Descarregado E
No Percebe Mineral E
No Percebe Pista
Movimento Aleatrio
.2
Descarregado E
Atinge Mineral
Carrega Mineral
.3
Carregado E
No Atinge Base
Retorna Base E
Deixa Duas Pistas
.4
Carregado E
Atinge Base
Descarrega Mineral
.5
Descarregado E
Percebe Mineral
Vai em Direo ao
Mineral
.6
Descarregado E
Percebe Pista
.7
Descarregado E
Atinge Rob Carregado
73
Prioridade
Condio
Ao
.1
Descarregado E
No Percebe Mineral E
No Percebe Pista E
No Percebe Agente
Movimento Aleatrio
.2
Descarregado E
No Percebe Mineral E
No Percebe Pista E
Percebe Agente
Segue Agente
.3
Descarregado E
No Percebe Mineral E
No Percebe Pista E
Atinge Agente
Foge de Agente
.4
Descarregado E
Atinge Mineral
Carrega Mineral
.5
Carregado E
No Atinge Base
Retorna Base E
Deixa Pista
.6
Carregado E
Atinge Base
Descarrega Mineral
.7
Descarregado E
Percebe Mineral
Vai em Direo ao
Mineral
.8
Descarregado E
Percebe Pista
74
75
76
Com o passar do tempo, o nmero de planos que o agente gera pode crescer
consideravelmente. A figura 3.7 mostra o planejamento de um agente minerador
popperiano. Os planos em vermelho so planos de descarga de minrios enquanto que os
planos em preto so planos para carga de minrios. Pode ocorrer a existncia de um
plano que leve do estado A ao estado B e outro plano que leve do estado B ao estado A.
Sendo assim, a criatura correria o perigo de entrar em um lao infinito de execuo.
Um lao infinito de execuo no um problema em si. Um lao infinito de
execuo que propicie satisfao infinita desejvel. O problema a existncia de um
lao infinito de execuo que no leve satisfao. Para impedir tal acontecimento, se o
agente popperiano agindo exclusivamente de acordo com planos previamente feitos
passa por um estado que j passou sem anteriormente atingir satisfao desde o incio
das aes planejadas, significa que o planejamento gerou um lano infinito de execuo.
Sendo assim, para resolver esse problema, quando detectado o lao, apaga-se o ltimo
plano usado. possvel que existam polticas melhores de resolver esse problema;
porm, ao considerar a extenso do presente trabalho, preferiu-se adotar a soluo
simples.
Alm do erro de planejamento estudado no pargrafo anterior, o agente
popperiano deve reconhecer outros tipos de erros de planejamento. Pode ocorrer que
uma transio de estados prevista em um determinado plano no ocorra no momento que
o agente popperiano pe esse plano em prtica. O agente popperiano deve detectar o
erro de transio de estados previsto no plano e descartar esse plano se ele no levar
satisfao.
Outro tipo de erro de planejamento o que segue: o plano no entra em
looping, prediz transies de estados verdadeiras; porm, o agente completa o plano
at o fim e no chega na satisfao. Partindo-se do princpio de que planos devem levar a
satisfao, planos que no levam a satisfao esto incorretos e devem ser eliminados.
De forma resumida, o agente popperiano elimina planos incorretos em 3 casos:
Quando o planejamento provoca um looping.
Um plano prev uma transio de estados e na prtica ocorre outra transio
que no leva satisfao.
A execuo do plano no leva satisfao.
A maior parte do algoritmo da funo EscolheAo destinado a criar, seguir e
apagar planos; porm, a primeira coisa que o agente popperiano modelado faz em
relao a escolha de uma ao propriamente dita fazer uma busca em profundidade 1
para ver se existe alguma ao que leva satisfao. Se existir essa ao, o agente
escolhe essa ao.
Se o agente popperiano no est em condies de alcanar a satisfao com uma
nica ao e nem tem nenhuma ao planejada para o estado onde ele se encontra, ento
ele pode agir com uma ao escolhida ao acaso.
No algoritmo da funo EscolheAo, no se encontra nenhuma referncia do
tipo encontra mina ou descarrega amostra de minrio ou qualquer outra indicao
de que o algoritmo seja definido para resolver um problema em particular. Ao contrrio,
o algoritmo foi definido de forma genrica e pode ser aplicado a uma gama diferente de
problemas. Cada agente popperiano pode ter as suas prprias caractersticas tais como
formas de perceber o seu universo, agir e sentir satisfao com situaes especficas.
77
78
79
estado onde est e no pode atingir a satisfao com uma nica ao,
Randomicidade define a probabilidade das aes escolhidas ao acaso.
80
81
82
83
84
85
86
existia outro predador nessa direo que o bloqueava; porm, um predador no percebe
o outro e fica impossvel saber quando pode-se ir.
Sendo assim, nesse exemplo, deve existir algo na regra de comportamento do
predador que o faa ir para a direita mesmo quando ele acredita que um absurdo
tentar ir para a direita porque a experincia mostra que no se sai do lugar fazendo isso.
Para resolver esse problema, deu-se mais prioridade ao aleatria para que o agente
popperiano predador experimente, ainda que raramente, aes que em princpio so
consideradas absurdas e que podem eventualmente acabar significando grandes
descobertas.
Esse ganho de prioridade na ao aleatria foi conseguido transferindo-se o bloco
da funo EscolheAo do agente minerador que vai da linha 68 a 74 para a linha 21
sem nenhuma outra alterao. A funo EscolheAo do predador popperiano
apresentada no Anexo 1.
87
88
89
90
4 Concluso
No final da concluso do livro A Origem das Espcies [DAR87], Darwin
especula: Entrevejo, num futuro remoto, caminhos abertos a pesquisas muito mais
importantes ainda ... isto , sobre a aquisio necessariamente progressiva de todas as
faculdades e de todas as aptides mentais, o que lanar uma nova luz sobre a origem
do homem e sua histria. Estudando a evoluo da mente, Dennett [DEN97] prope
quatro tipos de mentes que evoluram ao longo do tempo: darwiniana, skinneriana,
popperiana e gregoriana.
O presente trabalho prope um modelo computacional para uma criatura
popperiana. Os agentes popperianos implementados no captulo anterior so rgidos;
porm, a definio proposta deve servir como uma ferramenta para facilitar a
classificao de agentes. Sendo assim, define-se o agente popperiano:
o agente popperiano percebe estados do ambiente e de si prprio,
aprende regras que regem a transio desses estados e usando as regras
aprendidas planeja e executa planos com o objetivo de alcanar satisfao.
O agente popperiano no precisa perceber completamente os estados do
ambiente e de si prprio nem aprender totalmente as regras de transio desses estados.
Para um agente poder ser classificado como popperiano, necessrio apenas que ele
tenha alguma capacidade de aprender as regras do ambiente e alguma capacidade de
planejar nesse ambiente.
A capacidade de adaptao de um agente popperiano certamente algo
marcante; porm, toda essa adaptabilidade tem um custo: agentes popperianos muito
jovens com pouca experincia de vida no dispem de observaes suficientes para
induzir as regras do seu universo percebido de forma correta e quase certamente
produzem planos impossveis de serem realizados o que leva a situaes indesejadas em
sua juventude. Ao contrrio, um agente reativo ou darwiniano est pronto para atuar em
seu ambiente a partir de seu nascimento ou incio de execuo.
Comparando a definio de agente popperiano com a definio de inteligncia de
Pei Wang apresentada no tpico Non-Axiomatic Reasoning System que trabalho e
adaptao com recursos e informao insuficientes [WAN93], o aprendizado das
regras que regem as transies de estados da criatura popperiana obviamente um
processo adaptativo assim como o planejamento. interessante ressaltar que ao
contrrio do NARS, o agente popperiano no precisa ter raciocnio explcito. De fato,
nenhum dos agentes popperianos implementados no presente trabalho possui raciocnio
explcito.
O comportamento do WAE resultado da interao de uma coletividade de
agentes. Conforme alegam seus criadores, os agentes do WAE esto no meio do
caminho entre um neurnio e uma regra lgica. Da mesma forma, o comportamento dos
agentes popperianos implementados regido em parte por uma coletividade de regras
que assemelham-se a neurnios conforme mostra a figura 2.6.
No WAE, existe criao, competio e morte ao nvel de agente fazendo com
que ocorra evoluo das unidades funcionais que compem o WAE. Da mesma forma,
regras so criadas, e eliminadas em um processo competitivo dentro do agente
popperiano. Em ambos os sistemas, as unidades funcionais competem e evoluem
provocando a evoluo comportamental do sistema.
91
92
onde:
Teste: um teste que testa valores do vetor Causas e retorna o valor
verdadeiro ou falso. Por exemplo, (C1 = 1) (Ebase 1) significa que
quando o valor do vetor Causas de ndice 1 for igual a 1, o valor do vetor
Efeitos de ndice base receber 1. O sinal = representa teste de igualdade
enquanto que o sinal representa atribuio. Nesse exemplo, o teste
apenas o termo (C1 = 1). Existem vrios tipos de testes que so descritos na
seo Testes.
Lista de Testes: retorna valor verdadeiro quando todos os testes da lista so
verdadeiros; caso contrrio, retorna falso.
Operao: a operao sempre grava o seu resultado no elemento do vetor
Efeitos de ndice base. A operao pode ser uma simples atribuio ou uma
operao mais complexa. Existem vrios tipos de operaes descritas na seo
Operaes. A operao pode ser testada retornando verdadeiro se o
resultado da ao encontrado em Efeitos.
Base: ndice do elemento de Efeitos que recebe o resultado da operao. Pode
ser usado para endereamento relativo nos testes. Exemplo:
(Cbase-1 = Cbase ) (Ebase 1)
r0: o nmero de vezes em que a lista de testes verdadeira e a operao no
se observa verdadeira. r0 = n m.
m: o nmero de vezes em que a lista de testes verdadeira e a operao se
observa verdadeira. Aqui, o significado de m semelhante ao encontrado no
NARS e no WAE.
93
ltima Vitria: instante de tempo em que ocorreu a ltima vitria. Esse valor
usado para determinar se uma implicao ainda til ou no.
Os valores r0 e m so usados para determinar a veracidade da implicao; porm,
no basta definir se uma implicao verdadeira ou falsa. importante verificar se
determinada implicao til ou no. Os valores NmeroDeVitrias e ltimaVitria
so usados para determinar a utilidade da implicao.
A implicao C1 ou C2 E1 pode ser quebrada em duas implicaes: C1 E1 ,
C2 E1 . Implicaes com o operador lgico ou podem ser quebradas em conjuntos de
implicaes que apresentam somente o conector e. Para manter simplicidade no sistema
de induo, so criadas somente implicaes com o conector e j que o conector ou
pode ser substituido por um conjunto de implicaes.
Os vetores de bytes causas e Efeitos tem tamanhos arbitrrios dependendo da
aplicao para a qual esto sendo usados. Em um teste feito e descrito da seo Bit que
Vai e Vem, chegou-se a usar vetores de causas e Efeitos com 34 bytes.
Algoritmo
A funcionalidade de principal importncia tanto para as criaturas Skinnerianas
como para as criaturas Popperianas a capacidade de prever o futuro com base na
percepo do passado. Quando uma criatura percebe qualquer tipo de evento, ela deve
chamar o procedimento AtFreq que atualiza as freqncias da tabela de relao. Quando
uma criatura pretende agir ou planejar o futuro ou uma situao, ela deve chamar o
procedimento Pred que responsvel pela predio.
A implementao do sistema de induo apresenta os procedimentos que seguem,
entre outros:
AtFreq(causas, efeitos): atualiza os valores r0 e m da tabela de relao com
base nos vetores de causas e efeitos. Os vetores causas e efeitos so
parmetros de entrada. O tpico entitulado Exemplo Introdutrio Simples
proporciona uma boa idia do que feito por esse procedimento. Em tese, as
atualizaes das entradas da tabela de relao independem uma da outra
podendo ser feitas em paralelo sendo essa uma propriedade herdada com a
inspirao na rede neural artificial conforme pode ser visto na figura A01. Essa
uma propriedade no aproveitada em uma implementao feita em hardware
seqencial.
para cada entrada de ndice I da TR
faa
se TR[I].ListaTestes verdadeira
ento faa
se TR[I].Acao verdadeira
ento TR[I].M TR[I].M + 1
seno TR[I].R0 TR[I].R0 + 1
fim-se
fim-para
FIGURA A01 Algoritmo do procedimento AtFreq
94
Pred(causas, efeitos): prediz o vetor efeitos com base no vetor causas usando
a tabela de relao. Causas o parmetro de entrada enquanto que efeitos o
parmetro de sada. O tpico entitulado Exemplo de Predio proporciona
uma boa idia do que feito por esse procedimento. De forma geral, a
predio constitui dos seguintes passos: (1) escolher as implicaes da tabela
de relao que possuam causas verdadeiras, (2) para cada efeito envolvido,
escolher a implicao de maior fora f e us-la para predizer esse efeito.
Dependendo da aplicao, pode-se escolher a implicao de maior crena d.
Atribui 0 para cada elemento dos vetor OCORR
Atribui -1 para cada elemento dos vetor e VI
para cada entrada de ndice I da TR
faa
se TR[I].ListaTestes verdadeira
ento faa
N TR[I].M + TR[I].R0
se N > 0
ento F M/N
seno F 0
IndiceEfeito TR[I].BASE
Efeito resultado da TR[I].Ao
se F > OCORR[IndiceEfeito]
ento faa
Efeitos[IndiceEfeito] Efeito
OCORR[IndiceEfeito] F
VI[IndiceEfeito] I
fim-se
fim-se
fim-para
FIGURA A03 Algoritmo do procedimento Pred
95
Na figura A03, os vetores VI, OCORR e efeitos tem o mesmo tamanho. Cada
elemento do vetor OCORR armazena o valor da maior fora encontrada para
o efeito de ndice IndiceEfeito. O vetor VI armazena os ndices das relaes
usadas na predio. O elemento VI[i] armazena o ndice da relao usada para
prever efeitos[i] com fora OCORR[i].
DefineNumCausasEfeitos(PNC,PNE): define o nmero de causas e o
nmero de efeitos com os quais o sistema deve trabalhar. Internamente,
dimensiona vetores e aloca memria. um procedimento normalmente
chamado na inicializao da criatura.
96
lgica usado para predio est distribudo em seus procedimentos. Para efeito do
presente texto, prever o futuro simplesmente prever os eventos a serem percebidos.
Para aprender a prever o futuro, as criaturas usam algoritmos baseados no algoritmo da
figura A05.
No algoritmo da figura A05, as chamadas ao sistema de induo responsvel pela
previso do futuro foram grafadas em negrito. Nesse algoritmo, o processo de
aprendizado ocorre durante toda a vida da criatura. A varivel ErrosPredicao acumula o
nmero de erros feitos na predio sendo til para medir quo bem a criatura consegue
prever o futuro. Esse algoritmo prev somente a prxima percepo; porm, ele poderia
ser facilmente modificado para prever percepes posteriores.
Foi implementada a funo Encontrou( efeitos ) vista na figura A07 que engloba
as linhas 6 11 do algoritmo da figura A05. Essa funo recebe os efeitos percebidos e
retorna o tamanho da diferena entre os efeitos preditos e os efeitos percebidos. Usando
essa funo, o algoritmo da figura A05 foi convertido no algoritmo da figura A06.
1. Causas Percepo()
2. ErrosPredicao 0
3. enquanto CriaturaVive faa
4.
Pred(Causas,EfeitosPreditos)
5.
Efeitos Percepo()
ErrosPredicao ErrosPredicao +
6.
Encontrou(Efeitos)
Causas Efeitos
7.
8.
fim-faa
9. imprime(ErrosPredicao)
FIGURA A06 Algoritmo Genrico de Previso
97
Causas
(percepo e ao)
Pred
Predio
TR
Efeitos
encontrados
Encontrou
Erros de
predio
98
99
60.
// erro de planejamento?
61.
se (no se encontra em satisfao) e
62.
(a ao passada foi planejada)
63.
ento apaga o ltimo plano usado
64.
65.
Inclui (EstadoAtual e ltimaAo)
66.
na lista EstadosNoPlanejados
67.
68.
se (consegue gerar novo plano) // Planeja Cegamente
69.
ento faa
70.
Sair verdadeiro
71.
Limpa a lista EstadosNoPlanejados
72.
fim-faa
73.
fim-faa
74.
fim-faa
75.
76.se (a ao atual planejada)
77.
ento Inclui (EstadoAtual e AoAtual) na lista EstadosPlanejados
78.
seno faa
79.
Limpa a lista EstadosPlanejados
80.
esquece qual foi o ltimo plano usado para escolha de ao
81.
fim-faa
82.
83.se (est em satisfao)
84.
ento Limpa a lista EstadosPlanejados
85.
86.PercepoAtual[0] Ao
87.Pred(PercepoAtual,PercepoAtual,PercepoEsperada)
88.Retorna (Ao)
89.fim-funo
100
101
58.
na lista EstadosNoPlanejados
59.
60.
se (consegue gerar novo plano) // Planeja Cegamente
61.
ento faa
62.
Sair verdadeiro
63.
Limpa a lista EstadosNoPlanejados
64.
fim-faa
65.
fim-faa
66.
fim-faa
67.
68. //Age ao acaso?
69.se no(Sair) e
70.
(nmero aleatrio > constante)
71.
ento faa
72.
Ao gera Ao ao acaso
73.
Sair verdadeiro
74.
fim-faa
75.
76.se (a ao atual planejada)
77.
ento Inclui (EstadoAtual e AoAtual) na lista EstadosPlanejados
78.
seno faa
79.
Limpa a lista EstadosPlanejados
80.
esquece qual foi o ltimo plano usado para escolha de ao
81.
fim-faa
82.
83.se (est em satisfao)
84.
ento Limpa a lista EstadosPlanejados
85.
86.PercepoAtual[0] Ao
87.Pred(PercepoAtual,PercepoAtual,PercepoEsperada)
88.Retorna (Ao)
89.fim-funo
102
Bibliografia
[ALV97]
[BEN86]
[BEN2001] BEN
Goertzel Home
Page.
2001.
Disponvel
<http://www.goertzel.org/> Acesso em: 8 nov. 2002.
[BRO86]
em:
[DEN97]
[DIE95]
[DOW98]
[DRO92]
[EIG97]
[FEL88]
103
[FEY82]
[GAR94]
[HAM87]
[HAY95a]
[HAY95b]
[HAY98]
[JAM84]
[KAE96]
[KAN97]
[KOH26]
[KOR92]
[MAC89]
104
[MIN87]
[MOR90]
[NET92]
[NIS97]
[NOF98]
[NOR81]
[PEN89]
PENROSE, Roger.
Campus, 1991.
[PEN 94]
[PIA47]
[PIN97]
[SAG77]
[SAG83]
105
[STE96]
[STE90]
[SUT98]
[XTA2002] The
XTag
Project.
Disponvel
<http://www.cis.upenn.edu/~xtag/> Acesso em: 8 nov. 2002.
[WAH98]
em:
WAHDE, Mattias; NORDAHL, Mats G. Coevolving PursuitEvasion Strategies in Open and Confined Regions. In:
INTERNATIONAL CONFERENCE ON ARTIFICIAL LIFE,
6.,1998. Proceedings... Cambridge, MA: MIT Press, 1998.
[WAN2001] WANG, Pei. HyPlan file for Wang Pei. 2002. Disponvel em
<http://www.cogsci.indiana.edu/farg/peiwang/> Acesso em: 8 nov.
2002.
[WAN93]
[WAS93]