Professional Documents
Culture Documents
agentes
Manoel Campos da Silva Filho
O que IA?
Definies de inteligncia artificial so mostradas na figura 1.1, de acordo com oito livros te to. !stas definies variam ao longo de duas principais dimenses. "rosseiramente, as no topo so preocupadas com processos de pensamento e raciocnio, en#uanto as de $ai o endeream a comportamento. %s definies & es#uerda medem sucesso em termos de fidelidade para a performance humana, en#uanto as da direita medem contra um conceito ideal de inteligncia, #ue chamaremos de racionalidade. 'm sistema ( racional se ele fa) a *coisa certa+, dado o #ue ele sa$e. istemas "ue pensam como humanos istemas "ue pensam racionalmente *, e citante novo esforo para fa)er *, estudo de faculdades mentais por meio do computadores pensarem - m.#uinas com uso de modelos computacionais.+ /Charnia: e mentes, no sentido literal e completo.+ McDermott, 11234 /0augeland, 11234 *5% automao de6 atividades #ue n7s *, estudo de computaes #ue fa)em poss;vel associamos com pensamento humano, atividades perce$er, raciocinar e agir.+ /<inston, 111=4 tais como tomada de deciso, resoluo de pro$lemas, aprendi)agem...+ /8ellman, 11924 istemas "ue agem como humanos istemas "ue agem racionalmente *% arte de criar m.#uinas #ue reali)am funes *Bnteligncia Computacional ( o estudo do #ue re#uerem inteligncia #uando reali)adas por proCeto de agentes inteligentes.+ /Doole et al., pessoas.+ />ur)?eil, 111@4 11124 *, estudo de como fa)er computadores *B% ...( preocupada comportamento inteligente reali)arem coisas em #ue, no momento, pessoas em artefatos.+ /Eilssom, 11124 so melhores.+ /Aic: e >night, 11114 Figura 1.1 F %lgumas definies de inteligncia artificial, organi)adas em #uatro categorias 0istoricamente todas as #uatro propostas tm sido seguidas. Como algu(m pode esperar, uma tenso e iste entre propostas centradas ao redor de humanos e propostas centradas ao redor de racionalidade /no estamos di)endo #ue humanos so irracionais no sentido de *emocionalmente inst.veis+ ou *insanos+, apenas #ue no somos perfeitos4. 'ma proposta centrada em humanos deve ser uma cincia emp;rica, envolvendo hip7teses e confirmaes e perimentais. 'ma proposta racionalista envolve uma com$inao de matem.tica e engenharia.
1 de =1
o$Cetivos. 'm agente racional ( um #ue age de forma a alcanar o melhor resultado ou, #uando em incerte)a, o melhor resultado esperado. Ea proposta das *leis do pensamento a enfase foi em inferncias corretas. Fa)endo corretas inferncias ( algumas ve)es parte de ser um agente racional, devido uma forma de agir racionalmente ( raciocinar logicamente para a concluso #ue uma dada ao ir. alcanar um o$Cetivo e ento agir na concluso. Dor outro lado, inferncias corretas no so tudo de racionalidade, devido e istirem fre#uentemente aes onde no h. uma coisa provavelmente correta a fa)er, mas alguma coisa deve ser feita. ! istem tam$(m formas de agir racionalmente #ue no podem envolver inferncia. Dor e emplo, se afastar de um forno #uente ( uma ao de refle o #ue tem normalmente mais sucesso #ue uma ao mais lenta tomada depois de cuidadosa deli$erao.
Neurocincia
Chips de computador podem e ecutar instrues em nanosegundos, en#uanto neurMnios so milhes de ve)es mais lentos. % lei de Moore di) #ue o nNmero de transistores por polegada #uadrada do$ra a cada 1 ou 1,3 ano. % capacidade do c(re$ro humano do$ra grosseiramente a cada = a O milhes de anos.
Filosofia
>enneth Crai: especificou os trs passos chaves de um agente $aseado em conhecimento /D!FBEBA %"!EG! 8%S!%D, !M C,E0!CBM!EG,4H 14 o est;mulo deve ser tradu)ido em representaes internas, =4 a representao ( manipulada pelo processo cognitivo /D!FBEBA C,"EBGBP,4 para derivar novas representaes internas, e Q4 estes so por sua ve), retradu)idos de volta em ao. !le claramente e plicou por #ue isso era um $om proCeto para um agenteH Se o organismo transporta um modelo de pequena escala de realidade externa e de suas prprias possveis aes dentro de sua cabea, ele capaz de tentar v rias alternativas, concluir qual a melhor delas, reagir a situaes !uturas antes que elas sur"am, utilizar o conhecimento de eventos passados tratando com o presente e o !uturo, e em cada !orma de reagir de uma muito mais completa, segura e mais competente maneira # emerg$ncias com as quais ele encara%
Engenharia de Computao
, primeiro computador eletrMnico, o %8C, foi montado por Rohn %tanasoff e seu estudante Clifford 8errS entre 11O@ e 11O= na universidade estadual de Bo?a. Sua pes#uisa rece$eu pouco suporte e reconhecimentoI foi o !EB%C, desenvolvido como parte de um proCeto militar secreto na universidade de DennsSlvania pelo time incluindo Rohn MauchlS e Rohn !c:ert, #ue provou ser o mais influente precursor dos computadores modernos. Ea metade do s(culo, desde ento, cada gerao de hard?are de computador tem tra)ido um aumento na velocidade e capacidade e redu)ido no preo. Derformance do$ra a cada 12 meses ou mais, com uma d(cada ou duas nesta ta a de crescimento. Depois disto, n7s precisaremos de engenharia molecular ou alguma outra nova tecnologia. Q de =1
% m.#uina anal;tica de Charles 8a$$age /191=F12914 foi de longe a mais am$iciosaH ele inclu;a mem7ria endere.vel, programas arma)enados e pulos condicionais, e foi a primeira capa) de reali)ar computao universal. % colega de 8a$$age, %da Tovelace, foi talve) a primeira programadora do mundo /a linguagem de programao %da foi nomeada depois dela4. % B% tem pioneiri)ado muitos tra$alhos na .rea de cincia da computao, como time sharing, interpretadores interativos, computadores pessoais com Canelas e mouse, am$ientes de desenvolvimento r.pido de aplicaes /Aapid %pplication Development Gools K A%D Gools4, tipos de dados de listas encadeadas, gerenciamento autom.tico de arma)enamento e conceitos chaves de programao sim$7lica, funcional, dinJmica e orientada a o$Cetos.
O de =1
O nascimento da IA (1 !"#
Drinceton foi a casa de outra figura influente em B%, Rohn McCarthS. Depois da graduao foi para o Dartmouth College, #ue se tornou o local oficial de nascimento da .rea de B%.
Sovi(ticas4 em 1139. Foi pensado inicialmente #ue seriam simples transformaes sint.ticas $aseadas nas gram.ticas russa e inglesa, e su$stituio de palavras usando um dicion.rio eletrMnico, $astaria para preservar o e ato significado das sentenas. , fato ( #ue a traduo re#uer conhecimento geral do assunto para resolver am$iguidades e esta$elecer o conteNdo da sentena. , segundo tipo de dificuldade foi a no intrata$ilidade de pro$lemas #ue a %B estava tentando resolver. Muitos dos primeiros programas de B% resolveram pro$lemas tentando diferentes com$inaes de passos at( a soluo ser encontrada. !sta estrat(gia funcionou inicialmente por#ue micro mundos continham pou#u;ssimos o$Cetos e portanto, pou#u;ssimas aes poss;veis e curt;ssimas se#uncias de soluo. %ntes da teoria de comple idade computacional ser desenvolvida, era amplamente pensado #ue resolver pro$lemas maiores era simplesmente uma #uesto de hard?are mais r.pido e mais mem7ria.
L de =1
esumo
Diferentes pessoas pensam so$re B% diferentemente. Duas importantes #uestes para perguntar soH Poc est. preocupado com o conhecimento ou com o comportamentoX Poc #uer modelar humanos ou tra$alhar a partir de um padro idealX Eeste livro, adotamos a viso de #ue inteligncia se preocupa principalmente com ao racional. Bdealmente, um agente inteligente e ecuta a melhor ao poss;vel em uma situao. E7s estudaremos o pro$lema de construo de agentes #ue so inteligentes neste sentido. Fil7sofos /anteriores a O@@ a.C.4 conce$eram B% considerando as id(ias #ue a mente ( de alguma forma como uma m.#uina, #ue ela opera so$re conhecimento codificado em alguma linguagem interna, e #ue o pensamento pode ser usado para escolher #uais aes e ecutar. Matem.ticos proveram ferramentas para manipular declaraes de certe)as l7gicas $em como incerte)as e declaraes pro$a$il;sticas. !les tam$(m configuraram a $ase para compreender computao e racioc;nio so$re algoritmos. !conomistas formali)aram o pro$lema de tomar decises #ue ma imi)em os resultados esperados pelo administrador /decisionFmar:er4.
9 de =1
Dsic7logos adotaram a id(ia de #ue humanos e animais podem ser considerados m.#uinas de processamento de informaes. Tinguistas mostraram #ual uso de linguagem ( ade#uado neste modelo. !ngenheiros de computao proveram os artefatos #ue fa)em as aplicaes de B% poss;veis. Drogramas de B% tendem a ser grandes, e eles podem no funcionar sem um grande avano na velocidade e mem7ria #ue a indNstria de computadores tem provido. Georia do controle trata com proCeto de dispositivos #ue agem opcionalmente na $ase de feed$ac:s do am$iente. Bnicialmente, as ferramentas matem.ticas de teoria do controle eram muito diferentes da B%, mas os campos esto ficando mais pr7 imos. % hist7ria da B% tem ciclos de sucesso, otimismos mal colocados, resultando cortes no entusiamo e financiamento. 0ouveram tam$(m ciclos de introduo de novas propostas criativas e sistem.tico refinamento das melhores. B% tem avanado mais rapidamente na d(cada passada devido ao grande uso de m(todos cient;ficos em e perimentos e propostas de comparao. Drogresso recente no entendimento da $ase te7rica de inteligncia tem sido disseminado, com melhorias nas capacidades reais do sistema. %s su$F.reas da B% tem se tornado mais integradas, e a %B tem encontrado $ase comum com outras disciplinas.
2 de =1
!m geral, a ao de escolha de um agente a #ual#uer instante pode depender de todo o hist7rico de percepes at( o momento atual. Matematicamente falando, n7s di)emos #ue um comportamento de agente ( descrito por uma fun#$o de agente #ue mapeia #ual#uer dada se#uncia de percepes para uma ao. Dodemos imaginar ta$ular a funo de agente #ue descreve #ual#uer agenteI para a maioria dos agentes, esta poderia ser uma ta$ela muito grande, at( infinita, de fato, ao menos #ue colo#uemos uma fronteira no tamanho das se#uncias de percepes #ue #ueremos considerar. Dado um agente como e perimento, podemos, em princ;pio, construir sua ta$ela tentando todas as poss;veis se#uncias de percepes e gravando cada ao #ue o agente fa) em resposta. % ta$ela (, o$viamente, uma caracteri)ao e terna do agente. Bnternamente, a funo de agente para um agente artificial ser. implementada por um programa de agente. Y importante distinguir essas duas id(ias. % funo de agente ( uma descrio matem.tica a$strataI o programa do agente ( uma implementao concreta, rodando na ar#uitetura do agente.
Dara ilustrar essas id(ias, usaremos um e emplo simples do mundo do aspirador de p7, mostrado na figura =.=, #ue ( $em simples e podemos descrever tudo #ue acontece nele. !le tem apenas dois locais, #uadrado % e #uadrado 8. , agente aspirador de p7 perce$e em #ue #uadrado ele est. e se h. suCeira l.. !le pode se mover para direita ou es#uerda, aspirar a suCeira ou no fa)er nada. 'ma muito simples funo de agente (H se o #uadrado atual est. suCo, aspire a suCeira, seno, 1 de =1
v. para o outro #uadrado. 'ma ta$ulao parcial desta funo de agente ( mostrada na figura =.Q. 'm simples programa de agente para esta funo de agente ( dado posteriormente na figura =.2.
Bom comportamento:
conceito de racionalidade
'm agente racional ( um #ue fa) a coisa certa K conceitualmente falando, cada entrada na ta$ela para a funo de agente ( preenchida corretamente. ,$viamente, fa)er a coisa certa ( melhor #ue fa)er a errada, mas o #ue significa fa)er a coisa certaX Como uma primeira apro imao, diremos #ue a ao correta ( a#uela #ue permite ao agente ter mais sucesso.
#edidas de performance
% medida de performance incorpora o crit(rio de sucesso do comportamento de um agente. Zuando um agente ( atirado em um am$iente, ele gera uma se#uncia de aes de acordo com as percepes #ue ele rece$e. Se a se#uncia ( deseC.vel, ento o agente tem desempenhado seu tra$alho $em. ,$viamente, no e iste nenhuma medida fi a ade#uada para todos os agentes. Dodemos propor como uma medida de performance, a #uantidade de suCeira limpa em um Nnico turno de 2 horas. 'm agente racional pode ma imi)ar esta medida de performance, limpando a suCeira e Cogando ela no cho novamente, ento limpando outra ve), e assim consecutivamente. 'ma medida de performance mais ade#uada poderia premiar o agente por ter limpado o cho. Dor e emplo, um ponto pode ser conseguido por cada #uadrado limpo a cada passo /talve) com uma penalidade por consumo de energia e gerao de ru;do4. % seleo de uma medida de performance no ( sempre f.cil. Dor e emplo, a noo de *cho limpo+ no par.grafo anterior ( $aseada na m(dia de limpe)a so$re o tempo. %inda #ue a mesma m(dia de limpe)a possa ser alcanada por dois diferentes agentes, um pode fa)er um tra$alho med;ocre todo o tempo en#uanto o outro limpa energicamente mas fa) longas paradas.
1@ de =1
acionalidade
, #ue ( racional em um dado intervalo depende de O coisasH % medida de performance #ue define os crit(rios de sucesso , conhecimento pr(vio do agente so$re o am$iente %s aes #ue o agente pode reali)ar % se#uncia de percepes do agente at( o momento atual Bsto guia para uma defini#$o de agente racionalH &ara cada sequ$ncia de percepes possveis, um agente racional deve selecionar uma a'o que esperada para maximizar suas medida de per!ormance, dada a evid$ncia provida pela sequ$ncia de percepes, e ignorar o conhecimento embutido que o agente tem% Considerando o agente aspirador de p7, ele pode ser considerado racional, pois ele reali)a as aes visando ma imi)ar sua performance, a geografia do am$iente ( conhecida, mas a sua distri$uio da suCeira e locali)ao inicial no, as aes de ir para es#uerda ou direita so e ecutadas de modo #ue o agente no saia dos dois #uadrados, o agente perce$e sua locali)ao e se e iste suCeira nela. %lgu(m pode ver facilmente #ue um mesmo agente poderia ser irracional so$re diferentes circunstJncias. Dor e emplo, uma ve) #ue toda a suCeira ( limpa, ele ir. ficar se movendo desnecessariamenteI se a medida de performance inclui uma penalidade de um ponto para cada movimento, o agente ir. ter um desempenho $ai ;ssimo. 'm agente melhor para este caso poderia no fa)er nada, uma ve) #ue ele est. certo de #ue todos os #uadrados esto limpos. Se o #uadrado pode se tornar suCo novamente, o agente poderia ocasionalmente checar e limpar novamente se necess.rio.
olhar aCuda a ma imi)ar a performance esperada. Fa)endo aes para modificar percepes futuras K algumas ve)es chamada de o(ten#$o de informa#.es K ( uma importante parte da racionalidade. 'm segundo e emplo de o$teno de informaes ( provido pela e/plora#$o #ue deve ser responsa$ilidade do agente aspirador de p7 em um am$iente inicialmente desconhecido. Eossa definio de agente racional no ( somente no sentido de o$ter informaes, mas tam$(m de aprender tanto #uanto poss;vel a partir de suas percepes. , agente pode ter algum conhecimento pr(vio do am$iente. ! istem casos e tremos em #ue o am$iente ( totalmente conhecido a priori, nestes casos, o agente no precisa perce$er ou aprenderI ele simplesmente age corretamente. ,$viamente, tais agentes so muito fr.geis. Per e emplo do $esouro e da vespa na p.gina Q9.
G. i Seguro, r.pido, legal, viagem Auas, tr.fego, Direo, acelerador, CJmeras, sonar, automati)ado confort.vel, ma imi)ar pedestre, clientes fr(io, setas, $u)ina, veloc;metro, "DS, lucros painel od7metro, medidor de acelerao, sensores no motor, teclado
Figura =.O
Drimeiro, #ual ( a medida de performance #ue gostar;amos #ue nosso t. i aspireX Zualidades deseC.veis incluem pegar o destino corretoI minimi)ar consumo de com$ust;vel e desgasteI minimi)ar tempo de viagem eUou custoI minimi)ar violaes de leis de trJnsito e pertur$aes a outros motoristasI ma imi)ar a segurana e conforto do passageiroI ma imi)ar os lucros. ,$viamente, alguns desses o$Cetivos conflitam, logo, e istiro trocas envolvidas. !m seguida, #ual ( o am$iente #ue o t. i ir. encararX Zual#uer motorista de t. i deve tratar com uma variedade de ruas, desde vielas rurais e $ecos ur$anos a autoFestradas. %s ruas cont(m outros tr.fegos, pedestres, animais de$andados, ruas em o$ras, carros de pol;cia, poas e $uracos. , t. i deve tam$(m interagir com potenciais e atuais passageiros. ! istem tam$(m algumas escolhas opcionais. , t. i pode precisar operar na Calif7rnia do Sul, onde neve ( um pro$lema rar;ssimo, ou no %lasca, onde constantemente (. !le pode sempre dirigir pela direita, mas pode ser fle ;vel para dirigir pela es#uerda #uando estiver no Rapo ou "rF8retanha. ,$viamente, #uanto mais restrito o am$iente, mais f.cil de proCetar uma soluo. ,s atuadores dispon;veis em um t. i automati)ado sero #uase os mesmos dos dispon;veis para um motorista humanoH controle so$re o motor atrav(s do acelerador e controle so$re a direo e frenagem. %dicionalmente, ele necessitar. de uma sa;da para uma tela ou sinteti)ador de vo) para falar com os passageiros, e talve) alguma forma de se comunicar com outros ve;culos, 1= de =1
educadamente. Dara alcanar seus o$Cetivos no am$iente, o t. i necessitar. conhecer onde ele est., o #ue mais h. na rua, e a velocidade #ue ele est. indo. Seus sensores $.sicos podem ento incluir uma ou mais cJmeras de GP control.veis, um veloc;metro e um odMmetro. !le pode ter um "DS para dar informaes precisas de seu posicionamento e sensores de infraFvermelho ou sonares para detectar a distJncia de outros carros ou o$st.culos. Finalmente, ele precisa de um microfone ou teclado para os passageiros re#uisitarem um destino. Ea figura =.3 temos um es$oo dos elementos D!%S $.sicos para diversos outros tipos de agentes. De fato, o #ue importa ( a comple idade do relacionamento entre o comportamento do agente, a se#uncia de percepes geradas pelo am$iente e a medida de performance. %lguns am$ientes reais so muito simples. Dor e emplo, um ro$M proCetado para inspecionar peas vindas por uma esteira rolante pode fa)er algumas suposies simplesH #ue as Nnicas coisas vindas pela esteira so peas #ue ele conhece e #ue e istem apenas duas aes /aceitar ou reCeitar4.
'ipo de Agente Sistema de diagn7stico m(dico Sistema de an.lise de imagem de sat(lite Ao$M coletor de partes Medidas de 0erformance 10erformance Measure2 Am(iente 13nvironment2 Atuadores 1Actuators2 ensores 1 ensors2
SaNde do paciente, Daciente, hospital, Mostrar #uestes, !ntrada dos sintomas minimi)ar custos, causas e#uipe m(dica testes, diagn7sticos, por teclado, respostas do tratamentos, paciente, pes#uisa orientao Categori)ao correta da Do?nlin: a partir do Mostrar %rraSs imagem sat(lite em 7r$ita categori)ao da cena cores de pi els de
Dercentual de partes na !steira rolante com 8rao cai a correta partesI cai as mo
articulado
de
Gutor de ingls Ma imi)ar a pontuao de ConCunto de Mostrar e erc;cios, !ntrada pelo teclado interativo estudantes em testes estudantes, agncia de sugestes, correes testes
Figura =.3
!m contraste, alguns agentes de soft4are /soft?ares ro$Ms ou sof(ots4 e istem em dom;nios ricos e ilimitados. Bmagine um soft$ot proCetado para voar em um simulador de voo. , simulador ( muito detalhado, o am$iente comple o inclui outros avies e operaes em terra, e o agente de soft?are deve escolher uma ao, a partir de uma ampla variedade de aes, em tempo real. ,u imagine um sof$ot proCetado para scanear fontes de not;cias na internet e mostrar itens de interesse para seus clientes. Dara fa)er isso $em, ele necessitar. de ha$ilidades de processamento de linguagem natural, aprender os interesses de cada cliente e mudar os planos dinamicamente K por e emplo, #uando a cone o para um fonte de not;cias cai ou #uando outra se torna online.
1Q de =1
do agente tem acesso completo ao estado do am(iente o tempo todo , conseguindo o$servar todos os aspectos relevantes para escolher uma ao a e ecutar, assim, o am$iente ( completamente o$serv.vel, sendo #ue relevJncia depende das medidas de performance. 'm am$iente pode ser parcialmente o$serv.vel devido a ru;do ou sensores no acurados ou parte do estado do am$iente #ue esteCam faltando F por e emplo, o agente aspirador de p7 com apenas um sensor de suCeira local no pode di)er se h. suCeira em outros #uadrados, e um t. i automati)ado no pode sa$er o #ue outros motoristas esto pensando. Determinstico / estoc&stico 1determinstico / n$o determinstico2H e o pr)/imo estado do am(iente * completamente determinado pelo estado atual e a#.es e/ecutadas pelo agente, ent$o podemos di%er "ue o am(iente * determinstico, ou se5a, previsvel6 sen$o, * estoc&stico. !m princ;pio, um agente no precisa se preocupar so$re incerte)as em um am$iente determin;stico e completamente o$serv.vel. Se o am$iente ( parcialmente o$serv.vel, todavia, ele pode parecer ser estoc.stico. Motorista de t. i ( claramente estoc.stico, por#ue ele no pode predi)er o comportamento do tr.fego, al(m do mais, um pneu pode estourar. , mundo do aspirador de p7, como descrevemos, ( determin;stico, mas variaes podem incluir elementos estoc.sticos como aparecimento randMmico de suCeira e um mecanismo de suco no confi.vel. Se o am$iente ( determin;stico, e ceto pelas aes de outros agentes, di)emos #ue o am$iente ( estrat*gico. 3pis)dico / se"uencial 1epis)dico / n$o epis)dico2H em um am(iente epis)dico, a e/peri-ncia do agente * dividida em epis)dios at7micos. Cada epis7dio consiste da percepo do agente e reali)ao de uma Nnica ao. Crucialmente, o pr)/imo epis)dio n$o depende de a#.es reali%adas em epis)dios anteriores. !m um am$iente epis7dico, a escolha de uma ao depende somente do pr7prio epis7dio. 'm agente para apontar peas defeituosas em uma linha de montagem $aseia cada deciso somente na pea atual, sem se preocupar com decises anteriores, e a deciso atual no afeta decises futuras. 3m am(ientes se"uenciais, a decis$o atual pode afetar todas as decis.es futuras. Vadre) e um motorista de t. i so se#uenciaisH em am$os os casos, aes de curto pra)o podem ter conse#uncias de longo pra)o. Am(ientes epis)dicos s$o mais simples por"ue o agente n$o tem "ue pensar a frente, ou se5a, n$o tem "ue pensar nas conse"u-ncias futuras de suas a#.es, apenas nas conse"u-ncias da a#$o atual. 3st&tico / din8mico9 e o am(iente pode mudar en"uanto o agente est& deli(erando, podemos di%er "ue ele * din8mico, sen$o, * est&tico. %m$ientes est.ticos so mais f.ceis de lidar pois o agente no precisa ficar o$servando o mundo en#uanto est. decidindo uma ao a e ecutar, nem precisa se preocupar com a passagem do tempo. %m$ientes dinJmicos, por outro lado, esto continuamente perguntando ao agente o #ue ele #uer fa)erI se ele no decidiu ainda, isto conta como se tivesse decidido por fa)er nada. e o am(iente n$o muda com a passagem do tempo mas a performance do agente sim, ent$o di%emos "ue ele * semi!din8mico. Dirigir um t. i ( claramente dinJmico. Vadre), #uando Cogado com um rel7gio, ( semiFdinJmico. Rogos de palavras cru)adas so est.ticos. Discreto / continuo9 :m am(iente discreto, como o 5ogo de /adre%, tem um con5unto finito de estados, al*m de um discreto1finito2 con5unto de percep#.es e a#.es . Dirigir um t. i ( um pro$lema de estados, aes e tempo cont;nuos. Agente ;nico / multi agente9 :m 5ogo de palavras cru%adas * claramente de apenas um agente, 5& o /adre% * um am(iente de 2 agentes< =adre% * um am(iente multi agente competitivo< No am(iente do t&/i, evitar colis.es ma/imi%a a performance de todos os agentes, logo ele * um am(iente multi agente parcialmente cooperativo, al*m de parcialmente competitivo, por e/emplo, competindo por vagas de estacionamento e passageiros. Como podemos esperar, o mais dif;cil caso ( parcialmente o$serv.vel, estoc.stico,
1O de =1
se#uencial, dinJmico, cont;nuo e multi agente. % figura =.L lista algumas propriedades de diversos am$ientes. %lgumas podem variar de acordo com a forma #ue o am$iente foi definido e a especificidade com a #ual deseCaFse implementar a soluo. Dor e emplo, muitos am$ientes so epis7dicos em um n;vel mais alto do #ue as aes individuais do agente, como em um torneio de adre), #ue consiste de uma se#uncia de Cogos, onde cada Cogo ( um epis7dio, assim, a contri$uio de um movimento em um Cogo para a performance geral do agente no ( afetada pelos movimentos no Cogo anterior. Dor outro lado, decises feitas em um Nnico Cogo so certamente se#uenciais.
Am(iente Dalavras cru)adas Vadre) com rel7gio Dirigir t. i Diagn7stico m(dico %n.lise de imagens Ao$M coletor de partes Controlador de Aefinaria Gutor de ingls interativo >(serv&vel Gotalmente Gotalmente Darcialmente Darcialmente Gotalmente Darcialmente Darcialmente Darcialmente Determinstico Determin;stico !strat(gico !stoc.stico !stoc.stico Determin;stico !stoc.stico !stoc.stico !stoc.stico 3pis)dico Se#uencial Se#uencial Se#uencial Se#uencial !pis7dico !pis7dico Se#uencial Se#uencial 3st&tico !st.tico SemiFDinJmico DinJmico DinJmico DinJmico DinJmico DinJmico Discreto Discreto Discreto Cont;nuo Cont;nuo Cont;nuo Cont;nuo Discreto Agentes Single Multi Multi Single Single Single Single Multi
SemiFDinJmico Cont;nuo
Figura =.L
A estrutura de agentes
, tra$alho da B% ( proCetar o programa do agente #ue implementa a funo de agente mapeando percepes para aes. E7s assumimos #ue este programa rodar. em algum tipo de dispositivo computacional com sensores f;sicos e atuadores, o #ue chamamos de ar"uiteturaH agente [ ar#uitetura \ programa. ,$viamente, o programa #ue escolhemos deve ser apropriado para a ar#uitetura, #ue pode ser um DC comum ou um carro ro$M com muitas cpu]s, cJmeras e outros sensores. !m geral, a ar#uitetura fa) as percepes para o programa a partir dos sensores, roda o programa e alimenta as escolhas de aes do mesmo para os atuadores.
Programas de agente
, programa do agente #ue proCetaremos ter. o mesmo s:eletonH ele pega as percepes atuais como entradas a partir de sensores e retorna uma ao para os atuadores. Eote a diferena entre o programa do agente, #ue toma a percepo atual como entrada, e a funo de agente, #ue toma todo o hist7rico de percepes. , programa do agente toma apenas a percepo atual como entrada pois nada mais ( disponi$ili)ado pelo am$ienteI se as aes do agente dependem de toda a se#uncia de percepes, ele deve arma)enar as percepes. Dor e emplo, a figura =.9 mostra um programa de agente realmente trivial, #ue fica de olho na se#uncia de percepes e ento as usa para inde ar uma ta$ela de aes para decidir o #ue fa)er. % ta$ela representa e plicitamente a funo de agente #ue o programa do agente incorpora. Dara construir um agente racional desta forma, precisamos construir uma ta$ela #ue contenha as aes apropriadas para cada se#uncia de percepes poss;vel.
13 de =1
Y instrutivo considerar por#ue uma proposta $aseada em ta$elas para construo de agentes ( condenada a falhar. Considere um t. i autom.ticoH a entrada visual a partir de uma Nnica cJmera vem na fai a de grosseiramente, =9M$ps /Q@ framesUs, LO@ O2@ pi els com =O $its de informao de cor4. Bsto d. uma ta$ela com cerca de 1@ =3@.@@@.@@@.@@@ entradas para uma hora de direo. %t( uma ta$ela para adre) poderia ter 1@13@ entradas. , nNmero de .tomos em um universo o$serv.vel ( menos #ue 1@2@. %pesar disto, um agente dirigido por ta$elas fa) o #ue #ueremosH implementa a funo deseC.vel de agente. , desafio chave para B% ( encontrar como escrever programas #ue, para uma e tenso poss;vel, produ)am comportamento racional a partir de uma #uantidade pe#uena de c7digo no lugar de um grande nNmero de entradas de ta$ela.
,s tipos $.sicos de programas de agentes, #ue incorporam os princ;pios su$Cacentes de #uase todos os sistemas inteligentes soH Agentes refle/ivos simplesH , tipo mais simples de agente, #ue selecionam aes com $ase na percepo atual, ignorando o resto do hist7rico de percepes. Dor e emplo, o agente aspirador de p7, pois suas decises so $aseadas somente na locali)ao atual e se l. h. suCeira. 'm programa para esse agente ( mostrado na figura =.2. Bmagine voc dirigindo um carro. Se a lu) de freio do carro da frente acende, voc nota isto e comea a frenar. !m outras palavras, alguns processamentos so feitos em entradas visuais para esta$elecer a condio #ue chamamos *, carro na frente est. parando+. !nto, isto dispara alguma cone o esta$elecida no programa do agente para a ao *iniciar frenagem+. E7s chamamos tal cone o de regra de condi#$o!a#$o, escrita comoH if carFinFfrontFisF$ra:ing then initiateF$ra:ing. 0umanos tem muitas cone es, algumas das #uais so aprendidas /como dirigir4 e outras 1L de =1
#ue so refle os natos /como piscar4. , programa da figura =.2 ( espec;fico para um am$iente particular. 'ma proposta mais gen(rica e fle ;vel ( primeiro construir um interpretador de prop7sito geral para regras de condioFao e ento criar um conCunto de regras para um am$iente espec;fico. % figura =.1 d. a estrutura desse programa geral em uma forma es#uem.tica, mostrando como as regras de condioFao permitem ao agente fa)er cone es de percepes para aes. , programa do agente ( mostrado na figura =.1@.
Agentes refle/ivos (aseados em modelosH % forma mais efetiva de gerenciar am$ientes parcialmente o$serv.veis ( manter estados internos #ue depende do hist7rico de percepes, e com isso, temFse informaes de estado da .rea parcialmente o$serv.vel do am$iente. %tuali)ar esta informao com o tempo re#uer #ue dois tipos de conhecimento seCam codificados no programa do agente. Drimeiro, precisamos de informaes de como o mundo evolui, independentemente do agente. Segundo, precisamos de algumas informaes so$re como as aes do agente afetam o mundo. !ste conhecimento do mundo ( chamado de modelo do mundo. 'm agente #ue usa tal modelo ( chamado de agente $aseado em modelo. % figura =.11 d. a estrutura de um agente refle ivo com estado interno, mostrando como a percepo atual ( com$inado com um estado interno antigo para gerar a descrio atuali)ada do estado atual. , programa do agente ( mostrado na figura =.1=.
19 de =1
Agentes (aseados em o(5etivoH Conhecer o estado atual do am$iente no ( sempre suficiente para decidir o #ue fa)er. Dor e emplo, em uma Cuno de ruas, o t. i pode virar & es#uerda, & direita ou ir em frente. % deciso correta depende de onde ele est. tentando chegar, ou seCa, al(m da descrio do estado atual, o agente precisa de algum tipo de informao de o$Cetivo #ue descreva situaes #ue so deseC.veis K por e emplo, o destino do passageiro. , agente pode com$inar isso com o resultado de poss;veis aes para poder escolher aes #ue alcancem seus o$Cetivos. % figura =.1Q mostra a estrutura deste tipo de agente.
Eote #ue tomar decises desse tipo ( fundamentalmente diferente das regras de condio-ao descritas anteriormente, pois envolvem consideraes so$re o futuro como *, #ue acontecer. se eu fi)er isto e istoX+ e *Bsto me far. feli)X+. Eo proCeto de agentes refle ivos, esta informao no ( e plicitamente representada, por#ue as regras em$utidas 12 de =1
mapeiam diretamente percepes para aes. !m$ora um agente $aseado em o$Cetivo parea menos eficiente, ele ( mais fle ;vel pois o conhecimento #ue suporta suas decises ( representado e plicitamente e pode ser modificado. Se comear a chover, o agente pode atuali)ar seu conhecimento de como efetivamente seu freio ir. operarI isto automaticamente far. com #ue todos os comportamentos relevantes seCam alterados para se ade#uarem &s novas condies. Dara um agente refle ivo, por outro lado, n7s podemos ter #ue reescrever muitas regras de condioao. , comportamento do agente $aseado em o$Cetivo pode facilmente ser alterado para ir a um local diferente. %s regras do agente refle ivo para #uando virar e #uando ir em frente funcionam somente para um Nnico destinoI elas devem ser todas su$stitu;das para ir a #ual#uer lugar novo. Agentes (aseados em utilidade 1no sentido de ser ;til2 H ,$Cetivos so)inhos no so realmente suficientes para gerar comportamento de alta #ualidade na maioria dos am$ientes. Dor e emplo, e istem muitas se#uncias de aes #ue levariam o t. i ao seu destino /desta forma, alcanando seu o$Cetivo4 mas algumas so mais r.pidas, seguras e confi.veis, ou mais $aratas #ue outras. ,$Cetivos apenas proveem uma distino $in.ria crua entre os estados *feli)+ e *infeli)+, en#uanto uma medida de performance mais geral pode permitir uma comparao de diferentes estados do mundo de acordo com e atamente #uo feli) eles podem fa)er o agente e se eles podem ser alcanados. Devido *feli)+ no soar muito cient;fico, uma terminologia costumeira ( di)er #ue um estado ( prefer;vel do #ue outro, ento ele tem maior utilidade para o agente. % figura =.1O mostra a estrutura deste tipo de agente. % funo de utilidade mapeia estados /ou uma se#uncia de estados4 em nNmeros reais, #ue descrevem o associado grau de felicidade. 'ma completa especificao da funo de utilidade permite decises racionais de dois tipos de casos onde os o$Cetivos so inade#uados. Drimeiro, #uando e istem o$Cetivos conflitantes, somente um dos #uais pode ser alcanado /por e emplo, velocidade e segurana4, a funo de utilidade especifica a troca apropriada. Segundo, #uando e istem muitos o$Cetivos #ue o agente pode mirar, e nenhum dos #uais pode ser alcanado com certe)a, a utilidade prov uma forma em #ue a pro$a$ilidade de sucesso pode ser ponderada contra a importJncia dos o$Cetivos. 'm agente #ue possui uma e pl;cita funo de utilidade pode tomar decises racionais.
11 de =1
Aprendi2ado de agentes
!m um famoso paper anterior, Guring /113@4 considerou a id(ia de programar sua m.#uina inteligente & mo. , m(todo #ue ele propMs ( para construir m.#uinas de aprendi)agem e ento ensin.Flas. !m muitas .reas de B%, isto ( atualmente o m(todo preferido para criao de sistemas no estado da arte. %prendi)ado tem outra vantagemH permite ao agente operar em um am$iente inicialmente desconhecido e se tornar mais competente #ue seu conhecimento inicial so)inho poderia permitir. 'm aprendi)ado de agente pode ser dividido em #uatro componentes conceituais, como mostra a figura =.13. % mais importante distino ( entre o elemento de aprendi%agem, #ue ( respons.vel por fa)er melhorias, e o elemento de performance, #ue ( respons.vel por selecionar aes e ternas. , elemento de performance ( o #ue n7s temos previamente considerado ser o agente inteiroH ele toma as percepes e decide em aes. , elemento de aprendi)agem usa feed$ac:s a partir da crtica de como o agente est. agindo e determina como o elemento de performance deve ser modificado para operar melhor no futuro.
, proCeto do elemento de aprendi)agem depende muito do proCeto do elemento de performance. Zuando tentamos proCetar um agente #ue aprende uma certa capacidade, a primeira #uesto no ( *Como vou coloc.Flo para aprender istoX+ mas *Zue tipo de elemento de performance meu agente necessitar. para fa)er isto uma ve) e aprender como fa)erX+. Dado um proCeto de agente, mecanismos de aprendi)agem podem ser constru;dos para melhorar cada parte do agente. , elemento ?crtica@ di) ao elemento de aprendi)agem #uo $em o agente est. operando com respeito a um padro de performance fi o. % cr;tica ( necess.ria por#ue as percepes por elas mesmas no proveem indicao do sucesso do agente. , Nltimo componente do aprendi)ado do agente ( o gerador de pro(lemas. !le ( respons.vel por sugerir aes #ue iro guiar para novas e informativas e perincias. , ponto ( #ue, se o elemento de performance tem sua forma, ele pode continuar fa)endo as aes #ue so melhores, dado o #ue ele conhece. Mas se o agente est. deseCando e plorar um pouco, e fa)er talve) algumas aes opcionais num curto pra)o, ele pode desco$rir muito melhores aes a longo pra)o. , tra$alho do gerador de pro$lemas ( sugerir estas aes e plorat7rias. =@ de =1
Dara tornar todo o proCeto mais concreto, vamos retornar ao e emplo do t. i automati)ado. , elemento de performance consiste de ignorar colees de conhecimento e procedimentos #ue o t. i tem para selecionar suas aes de direo. , t. i vai a rua e dirige, usando seu elemento de performance. % cr;tica o$serva o mundo e passa informaes para o elemento de aprendi)agem. Dor e emplo, depois #ue o t. i fa) uma virada r.pida & es#uerda entre trs ruas de grande tr.fego, a cr;tica o$serva a linguagem chocante dos outros motoristas. % partir desta e perincia, o elemento de aprendi)agem ( capa) de formular uma regra di)endo #ue a#uilo foi uma ao ruim, e o elemento de performance ( modificado instalando a nova regra. , gerador de pro$lemas pode identificar certas .reas de comportamento necessitando de melhoria e sugerir e perimentos, tal como tentar parar em ruas de diferentes superf;cies, so$re diferentes condies de tempo. , elemento de aprendi)agem pode fa)er mudanas para #ual#uer componente de *conhecimento+ mostrado no diagrama do agente /figuras =.1, =.11, =.1Q e =.1O4. , caso mais simples envolve aprender diretamente a partir de se#uncias de percepes. ,$servaes de pares de sucessivos estados do am$iente podem permitir #ue o agente aprenda *como o mundo evolui+ e o$servaes dos resultados de suas aes podem permitir ao agente aprender *o #ue minhas aes fa)em+. Dor e emplo, se um t. i e erce uma certa presso de frenagem en#uanto dirigindo em uma rua molhada, ento ele ir. em $reve encontrar #uanto de desacelerao ele ir. alcanar.
3esumo
'm agente ( alguma coisa #ue perce$e e age no am$iente. % fun#$o de agente para um agente especifica a ao tomada por um agente em resposta a #ual#uer se#uncia de percepes. % medida de performance avalia o comportamento do agente no am$iente. 'm agente racional age para ma imi)ar o valor esperado da medida de performance, dada a se#uncia de percepes #ue ele v. 'ma especificao de am(iente inclui uma medida de performance, o am$iente e terno, os atuadores e os sensores. DroCetando um agente, o primeiro passo deve sempre ser especificar o am$iente to completamente #uanto poss;vel. %m$ientes variam ao longo de v.rias dimenses significantes. !les podem ser completamente ou parcialmente o$serv.veis, determin;sticos ou estoc.sticos, epis7dicos ou se#uenciais, est.ticos ou dinJmicos, discretos ou cont;nuos e de Nnico agente ou multi agente. , programa do agente implementa a funo do agente. Agentes refle/ivos simples respondem diretamente a percepes, en#uanto um agente refle/ivo (aseado em modelo mantem um estado interno para rastrear aspectos do mundo #ue no so evidentes na percepo atual. Agentes (aseados em o(5etivo agem para alcanar seus o$Cetivos, e agentes (aseados em utilidade tentam ma imi)ar suas pr7prias e pectativas de *felicidade+. Godos os agentes podem melhorar suas performance atrav(s de aprendi%ado.
=1 de =1