You are on page 1of 13

Trans/Form/Ao, So Paulo,

v. 14, p. 109- 1 2 1 , 1 99 1 .

ROBOTS , INTENCIONALIDADE E INTELIGNCIA ARTIFICIAL*

Joo de Fernandes TEIXEIRA * *

RESUMO: O artigo aborda probleTrUls filosficos relativos natureza da intencionalidade e


da representao mental. A primeira parte apresenta um breve histrico dos problemas, percor
rendo rapidamente alguns episdios da filosofia clssica e da filosofia contempornea. A segunda
parte examina o Chinese Room Argwnent (Argumento do Quarto do Chins) formulado por J.
Searle. A terceira parte desenvolve alguns argumentos visando mostrar a inadequao do modelo
funcionalista de mente na construo de robots. A concluso (quarta parte) aponta algutnas al
ternativas ao modelo funcionalista tradicional, como, por exemplo, o conexionismo.
UNfl'ERMOS: lntencionalidade; representao mental; inteligncia artificial; funcionalismo;

robots; conexionismo.

I
A questo da natureza da intencionalidade e da representao mental constitui um
dos mais tradicionais problemas da Filosofia. Em diversos episdios da histria das
idias, os filsofos tent aram responder a pergunta de como possvel pard nossa
mente formar uma representao do mundo exterior que servisse de guia no s para
sua cognio como, tambm, para a orientao de nossos prprios comportamentos.

O surgimento da filosofia cartesiana, na poca clssica, constitui um marco impor


tante na histria desta questo. Com efeito, deve-se a Descartes a revoluo filosfica
que trouxe como conseqncia fun<lamental a separao entre mente e corpo, ou en
tre res cogitans e res extensa. Mas ao mesmo tempo em que efetuava esta mudana
paradigmtica na histria da Filosofia, o cartesianismo deixava como herana no
apenas o problema de formular uma articulao entre as duas substncias de modo a
poder explicar o comportamento, como tambm a questo da prpria possibilidade de
cognio do chamado mundo exterior. Uma vez postulada a existncia de duas
substncias distintas e sua mtua irredutibilidade, restava saber como nossas idias
(ou representaes) poderiam espelhar esse mundo fora de ns e para alm dos limites
de nossa mente.
*
**

Comunicao apresentada na XIV Jornada de Filosofia e Cincias Humanas - UNESP - Marlia - outubro
de 1 990.
Departamento de Filosofia de Faculdade de Filosofia e Cincias - UNES P 1 7500 - Marlia - SP.
-

1 10

Uma soluo parcial para o problema, oferecida pelo cartesianismo, foi sustentar a
existncia de um Deus Todo-Poderoso e no enganador que asseguraria a corres
pondncia entre o mundo e a representao mental que dele formamos. Este
Deus - o famoso deus ex machina cartesiano - constituiria uma espcie de garantia
metafsica de que o conhecimento e a representao correta do mundo exterior pode
riam ser alcanados.
Contudo, ao relermos a obra de Descartes, notamos hoje que a idia de um deus
ex machina parece muito mais uma hip6tese ad hoc do que uma real tentativa de re
solver o problema da natureza da representao mental. E alguns anos mais tarde,
num epis6dio posterior da hist6ria da Filosofia, a questo parece ser retomada, desta
vez com a obra de I. Kant. Com efeito, se tivssemos de fazer um resumo brutal e ao
mesmo tempo grosseiro do contet1do da primeira Crtica kantiana, poderamos dizer
que Kant buscava investigar como que operaes internas de nossa mente poderiam
captar relaes objetivas estabelecidas no mundo externo, tomando assim possveis o
conhecimento e a representao adequada de uma realidade independente de n6s. A
soluo proposta por Kant - muito mais interessante do que a cartesiana - foi
afirmar que a realidade que enxergamos e representamos moldada pelas operaes
do nosso aparelho cognitivo. Assim, o estudo deste t1ltimo proporcionaria ao mesmo
tempo o conhecimento da t1nica verso do mundo que nos disponvel - uma
verso que no , contudo, subjetiva, mas limitada pelo modo como nossas represen
taes podem se articular.
Os sculos XIX e XX contriburam com mais alguns episdios interessarites na
hist6ria do problema da natureza da representao mental. Em 1925, o psic610go e
fil6sofo Franz Brentano publica a Psychologie von empirischen Standpunkt e, numa
de suas passagens freqentemente citadas afirma que:

Every mental phenomenbn is characterized by what the scholastics of the


Middle Ages called the intentional (and also mental) inexistence of an
object, and what we could call, although in not entirely unambiguous terms,
the reference to a content, a direction upon an object (by which we are not
to understand a reality in this cases) or an immanent objectivity ( 1 , p. 50) .
Brentano reviveu o termo intencionalidae de textos de fil6sofos medievais. Ele
no queria pura e simplesmente reviver o termo resgatando seu significado original,
mas tambm explorar algumas das conseqncias advindas de sua re-adoo. Uma
delas (e cremos que seja a mais importante) foi asseverar a existncia de um hiato entre
o fsico e o mental, derivado da impossibilidade de sistemas fsicos virem a gerar
estados intencionais.
Neste ponto Brentano parece ter sido bastante fiel tradio medieval que o inspi.
rara. Os fil6sofos medievais julgavam que, todas as vezes que pensamos, por exem
plo, numa rosa, uma rosa entra na nossa mente. Claro que a rosa que entra na nossa
mente no pode ser uma rosa no sentido f(sico, e da eles julgarem que a gerao de
idias e representaes requer a capacidade de nossa mente receber formas imate
riais - algo que s6 seria possvel na medida em que nossa mente nada tem de fsico.
TranslForm/Ao, So Paulo, v. 14, p. 109- 1 2 1 , 1 99 1 .

111

A imaterialidade da mente seria, assim, um pr-requisito da sua prpria faculdade de


representar objetos do mundo exterior.
Mas a importncia hist6rica das teses de Brentano no se resume a re-afinnao da
imaterialidade do mental. a partir de seus textos que se inicia uma aproximao entre
as questes envolvendo a natureza da representao mental e aquelas envolvendo a
natureza da intencionalidade e dos estados intencionais, que passam a ser vistas como
constituindo um nico problema filos6fico amplo e gemI. Assim sendo , representar
significa estabelecer uma relao entre um contedo mental e o possvel objeto a ele
correspondente no mundo exterior - uma relao que pressupe uma direcionalidade
em relao a este objeto. Detenninar a natureza desta relao e da direcionalidade
que a toma possvel significa encontrar uma soluo pam o problema da intenciona
lidade e da natureza da representao mental.
Ecos desta nova maneira de formular a questo tradicional da representao mental
podem ser encontrados na literatum contempornea sobre Filosofia da Mente, como
por exemplo a seguinte passagem da Anlise da Mente de B . Russell :
"Vamos supor que estamos pensando na Catedral de S. Paulo. ( . . . ) temos de
distinguir trs elementos que necessariamente se combinam na constituio
desse pensamento. Primeiro, temos o ato de pensar, que ser o mesmo, inde
pendentemente do que estivermos pensando. Depois temos o que caracteriza
o pensamento em comparao com outros pensamentos: o contedo. E
finalmente, temos a Catedml de S. Paulo, que o objeto de nosso pensamento.
Deve haver uma diferena entre o contedo de um pensamento e aquilo sobre
o que o pensamento recai, dado que o pensamento est aqui, ao passo que
aquilo sobre o que o pensamento recai pode no estar; portanto v-se clara
mente que o pensamento no o mesmo que a Catedral de S . Paulo. Isto
parece mostrar que devemos distinguir entre contedo e objeto. ( . . . ) O objeto
pode existir sem o pensamento, mas o pensamento no. pode existir sem o ob
jeto: os trs elementos , ato, contedo e objeto so todos obrigados a constituir
uma nica ocorrncia chamada "pensar na Catedml de S . Paulo." (3, p. 1 4)
Se lermos esta passagem de B . Russell com a devida ateno, verificaremos que
nela se esboa nitidamente a relao contedo-objeto do pensamento bem como a
idia de uma direcionalidade (intencionalidade) presente na relao que d lugar a
representao mental.
11

O surgimento de disciplinas novas tais como a Inteligncia Artificial e a Cincia


Cognitiva que presenciamos nas ltimas dcadas, reavivou os debates filos6ficos
acerca da natureza da representao mental. A Inteligncia Artificial, na tentativa de
realizar um de seus principais projetos, qual seja, a simulao do comportamento in
teligente, deparou-se com a questo: Pode um sistema artificial gerar estados intenTranslForm/Ao, So Paulo, v. 14, p. 109- 1 2 1 , 1 99 1 .

1 12

donais e representar o mundo exterior? Ser que, como supunha Brentano, a inten
cionalidade determina um hiato intransponvel entre o fsico e o mental de tal maneira
que a gerao de estados intencionais atravs da construo de sistemas artificiais
(f{sicos) estaria inevitavelmente condenada ao fracasso? Esta indagao traz uma nova
dimenso para o problema ttlos6fico tradicional da representao mental; uma di
menso que extravasa os limites de uma polmica puramente ttlos6fica. Afinal, da
capacidade de gerar estados intencionais depende a pr6pria possibilidade de simular
comportamentos inteligentes, dotados de elevado grau de flexibilidade, uma vez que
a representao do mundo exterior contribui diretamente para sua adaptao face a
mudanas nas circunstncias ambientais .
Este debate toma um impulso decisivo a partir da publicao do artigo de J. Searle,

Minds, Brains and Programs em 1 980. Neste artigo, Searle apresenta uma critica
vigorosa da possibilidade de se obter um equivalente mecnico para o fenmeno
cognitivo humano que normalmente denominamos compreenso. Seu ponto de partida
a anlise dos programa s para compreender hist6rias curtas desenvolvidas por R.
Schank na Universidade de Yale e que se concretizaram no trabalho Scripts, Plans,

Goals and Understanding.

Os programas desenvolvidos por R. Schank - conforme assinalamos - tm por


objetivo a compreenso de hist6rias. Por exemplo, se se fornece a um computador o
seguinte relato: um homem entra num restaurante, pede um sanduche e sai sem pagar
ou deixar gorjeta porque notou que o po estava estragado , o programa de Schank
construdo de tal maneira que lhe possvel responder coerentemente questes elabo
radas com base no texto da hist6ria. Tendo em vista estes resultados, Schank sustenta
que este tipo de programa capaz de compreender o texto e constituir uma expli
cao para a capacidade do ser humano de compreender textos ou hist6rias curtas.

As criticas desenvolvidas por Searle s pretenses de que um tal programa real


mente compreende baseiam-se na construo de um experimento mental que reproduz
o procedimento do pr6prio programa. O caminho adotado por Searle para construir
. este experimento mental o inverso do procedimento normalmente utilizado para
elaborar simulaes cognitivas: trata-se de instanciar o programa de Schank num
sujeito humano.
Imagine um falante trancado num quarto. Este falante s6 conhece o Portugus e
tem em seu poder: a) um texto escrito em Chins; b) um conjunto de regras de trans
formao, em Portugus, que permite executar operaes sobre o texto em Chins.
Estas operaes so idnticas quelas desempenhadas pelos programas de Schank:
trata-se de operaes de decomposio e recomposio de palavras com base num
script que contm informao relevante (por exemplo, sobre como so os restaurantes
em geral, qual o procedimento para pedir comida, etc.) o que capacita o sistema a
responder as questes desejadas.
O falante (trancado no quarto) recebe periodicamente novos textos em Chins e
aplica estas operaes ou regras de transformao associando as seqncias anteriores
com as seqncias mais recentes. Com base nestas regras de transformao ele passa
TranslForm/A0 r S o Paulo,

v.

1 4, p. 109- 121 , 199 1 .

113

a emitir ou escrever mais seqncias de smbolos em Chins. Claro que o falante preso
no quarto no sabe precisamente o conteddo das informaes que ele est gerando
com base nos dois textos e nas regras de transformao. O primeiro texto corresponde,
no nosso experimento mental, ao relato que elaborado com base neste relato, e, as
<novas seqncias geradas, s respostas a estas questes. As regras de transformao
so bastante complexas, e concebidas de maneira tal que elas simulem os processos
mentais e o comportamento lingstico de um falante nativo de Chins numa conver
sao habitual. Aps um certo tempo o falante aprendeu a manipular perfeitamente
estas regras de transformao, e, com base nos outputs um observador externo pode
ria dizer que ele compreende Chins - o que, no entender de Searle constitui um
contra-senso.
A instanciao dos programas de Schank num sujeito humano, reproduzida neste
experimento mental, , para Searle, bastante reveladora. Ela mostra que os programas
desse tipo no estabelecem as condies necessrias para a simulao da atividade
cognitiva da compreenso: o falante aplica as regras de transformao e compreende
estas regras, mas as seqncias de smbolos em Chins no tm nenhum significado
para ele. A manipulao de smbolos realizada no programa inteiramente cega.
Ademais, como ressalta Searle na resposta s objees ao seu texto Minds, Brains
and Programs, "a manipulao de smbolos formais por si s6 no tem intencionali

dade, no sequer manipulao de smbolo, uma vez que esses smbolos no simbo
lizam nada. Eles tm apenas sintaxe, mas no semntica". (4, p. 3(0)
Ainda na sua resposta s objees, Searle ressalta que a esses programas "falta
aquilo que chamarei de intencionalidade intrlseca ou de genunos estados mentais".

(4, p. 305)
A atribuio de intencionalidade ou de significado diz Searle, , nestes casos,
sempre uma atribuio a posteriori, dependente da intencionalidade intrlseca dos
sujeitos humanos que observam os outputs do programa.
Mas o que "intencionalidade intrnseca" no entender de Searle, e que parentesco
tem esta noo com a idia de significado? O conceito de intencionalidade intrnseca
no largamente explorado em Minds, Brains and Programs. Searle o desenvolve
com maior profundidade em outros artigos, tais como lntrinsic lntentionality e What
are lntentional States (1982), bem como no seu livro de 1983,lntentionality. A in
tencionalidade, segundo Searle, uma "capacidade" apresentada pelos seres vivos,
atravs da qual nossos estados mentais se relacionam com os objetos e estados de
coisas no mundo. Assim, se tenho uma inteno, esta inteno deve ser a inteno de
fazer alguma coisa, se tenho um desejo ou um medo, este desejo e este medo devem
ser um desejo ou medo de alguma coisa que est no mundo. Um estado intencional
pode ser definido, grosso modo, como uma representao associada a um determinado
estado psicol6gico.
Esta mesma capacidade - estritamente biol6gica no entender de Searle - percorre
nossa linguagem, convertendo-a num

po

particular de relao organismo/mundo.

Contudo, ela no uma propriedade da linguagem e sim uma propriedade especfica

TranslForm/Ao, So Paulo,

v.

14, p. 109-121, 1991.

1 14

que nossos estados mentais imprimem ao nosso discurso. Nesta operao, os sinais
lingsticos, sejam eles os sons que emitimos ou as marcas que fazemos no papel,
passam a ser representaes de coisas ou estados de coisas que ocorrem no mundo, e
no caso especfico das representaes lingsticas podemos afirmar que elas consti
tuem descries dessas representaes ou mesmo representaes de representaes
que esto na nossa mente. A intencionalidade dos estados mentais no derivada de
formas mais primrias da intencionalidade, mas algo intrlsecO aos pr6prios estados
mentais . Neste sentido, a intencionalidade a propriedade constitutiva do mental e
sua base estritamente biol6gica - s6 os organismos desempenham esta atividade
relacional com o mundo, constituindo representaes . Sua origem est nas pr6prias
operaes do crebro e na sua estrutura, constituindo parte do sistema biol6gico
humano, assim como a circulao do sangue e a digesto.

A intencionalidade intrlseca, presente no discurso lingstico, constitui uma forma


derivada de intencionalidade que consiste na relao das representaes lingsticas
com os estados mentais intencionais , o que permite que estas 11ltimas sejam represen
taes de alguma coisa do meio ambiente. Em outras palavras , esta relao entre
representaes lingsticas e estados intencionais transforma o cdigo lingstico
num conjunto de signos , ou seja, estabelece o seu significado. Neste sentido, a inten
cionalidade intrlseca constitui para Searle a condio necessria para que um sistema
simb6lico adquira uma dimenso semntica. Sem esta dimenso semntica no podemos
falar de compreenso. E sem esta relao entre representaes mentais ou contel1dos
intencionais e representaes lingsticas no podemos falar de compreenso de textos
ou compreenso lingstica.
A ausncia da intencionalidade intrlseca nos programas desenvolvidos por
Schank est na base da afmnao de Searle de que estes l1ltimos constituem um pro
cedimento cego de associao de signos sem significado - um procedimento cego
que no deve ser confundido com autntica compreenso lingstica.
Ora, at que ponto podemos supor que as afirmaes de Searle so corretas ? Se o
forem, a questo que formulamos no incio desta seco estaria respondida em carter
definitivo, ou seja, sistemas artificiais no podem gerar estados intencionais e nem
tampouco representar o mundo exterior.
Ocorre que vrios fil6sofos favorveis ao projeto da Inteligncia Artificial apre
sentaram vrios contra-argumentos s posies defendidas por Searle. Alguns deles
apontaram falhas no argumento principal, salientando que no sabemos se de fato os
computadores podem ou no compreender alguma coisa. A situao seria semelhante
a quando observamos um ser humano responder a perguntas acerca de um texto
qualquer: como podemos estar certos de que essa pessoa compreende o que est
fazendo? Por acaso muitos de nossos processos mentais cotidianos no so to rotineiros
que os fazemos por uma associao to mecnica e cega como as do computador? Se
as operaes efetuadas pelo falante trancado no quarto so cegas, ser que no podemos
afirmar o mesmo de nossas proprias operaes mentais? Mesmo quando tentamos
examinar o fluxo de nossos pensamentos, isto no nos d nenhuma informao acerca
TranslForm/Ao, S o Paulo, v. 14, (l. 1 09- 1 2 1 , 1 99 1 .

1 15

de como ocorrem as operaes de nosso crebro . Somos, em grande parte, opacos para
n6s mesmos - e no seria essa uma situao idntica quela de algum que olha para os
resultados das operaes de um computador e, com base nestes 11ltimos, quer sustentar

a afIrmao de que essa mquina nada compreende acerca dessas operaes?

difcil saber quem tem razo num debate deste tipo: como todas as polmicas

filos6fIcas, esta tambm deve ser inconc1usiva. Entretanto, preciso fazer uma ob
servao importante : a crtica de Searle pode ser considerada correta se levarmos em
conta o tipo de modelo computacional da mente sobre a. qual ela recai. Trata-se de
um

modelo muito especfico e que vigorou at meados dos anos

80, qual sej a, o ftm

cionalismo.
O funcionalismo baseia-se na tese de que a essncia de nossos estados psicol6gicos
reside na sua interconexo (s vezes causal) com outros estados, formando uma com
plexa economia de estados internos que media os
c omportamentais.

inputs do meio ambiente e os outputs

A natureza e a razo de ser destes nossos estados mentais - sejam

eles crenas, volies, imagen s mentais ou o que quer que seja - so determinadas

fzmcionalmente tendo em vista os objetivos e tarefas que um sistema vai realizar. A pe


culiaridade desta concepo reside, contudo, no fato de que os estados mentais e sua
natureza so definidos e constitudos atravs de um conjunto de relaes abstratas que
eles mantm entre si. Este conjunto pode ser instanciado em diferentes mecanismos ou
sistemas, sejam eles computadores antigos com suas vlvulas , sej am organismos com
sua estrutura biol6gica como o caso do

homo sapiens.

Se o sistema capaz de instan

ciar este conjunto de relaes abstratas, ele ser um sistema mental ou uma "mente" .

A contrapartida computacional desta concepo de mente ser a idia de que a


produo de comportamento inteligente baseia';'se na manipulao adequada de SD
bolos, de acordo com um conjunto de regras que uma vez aplicadas a estes sDbolos
devem gerar procedimentos efetivos (Nota

A) . A mente uma mquina que realiza

computaes, isto , que opera sintaticamente sobre representaes. Uma determinada


tarefa computvel se- ela puder ser concebida de tal forma que seja reduzida a um
conjunto de representaes e de instrues (regras , programas) que opere sobre elas.
Ora, at que ponto este modelo de mente ser vlido? Discutir a validade do ar
gumento de Searle parece pressupor, num primeiro momento, uma discusso dos li
mites do modelo funcionalista.
fi

Numa passagem bastante significativa, o lingista e fil6sofo norte-americano J.


Fodor procura definir a noo de computao que norteia a elaborao dos modelos
funcionalistas da mente :

"I take it that computational processes are both symbolic and formal . They
are defined over representations, and they are formal because they apply to
representations in virtue of (roughly) the syntax of representations. "
(2, p . 226)
Trans/Form/Ao, So Paulo, v. 14, p. 109- 1 2 1 , 1 99 1 .

1 16

Ora, haver u m limite para nossa capacidade de transformar todas a s nossas repre
sentaes do mundo em representaes do tipo simblico? E at que ponto sistemas
artificiais, construdos com base no modelo funcionalista de mente podero efetiva
mente vir a gerar representaes do mundo externo?
Podemos iniciar, esta discusso, imaginando uma situao na qual desejemos
construir um robot, com a malidade de executar uma ampla variedade de tarefas
num meio ambiente real . Para usarmos uma metfora familiar, podemos supor que este
robot tem uma forma semelhante a de um ser humano, com a CPU (Central Processing
Unit) correspondendo ao crebro (ou mente ! ) . A CPU controla o movimento dos
perifricos que, dotados de censores, transmitem dados acerca do meio ambiente. Estes
dados so, por sua vez, transformados e processados pela CPU que os utiliza para
orientar os comportamentos do robot. Em outras palavras, a CPU deste robot elabora
os inputs que chegam, transformando-os em representaes do seu meio ambiente,
que passam a desempenhar o papel de estados internos que vem se somar a outros es
tados internos que possam porventura serem gerados pelas suas prprias operaes.
Isto torna nossa mquina imaginria bastante sofisticada, dotada de um elevado grau
de autonomia e de complexidade que se aproximam daquela de um ser humano, pos
sibilitando a auto-organizao de seu prprio repertrio de comportamentos.
Ora, tudo se passa como se a CPU deste robot fosse uma espcie de "cmara ce
ga" , onde ocorre um enorme fluxo de estados internos. A situao semelhante
quela do nosso crebro, que um palco por onde passa um enorme fluxo de infor
maes, sejam estas provenientes das prprias atividades cerebrais e orgnicas, ou
provenientes do mundo externo atravs dos sentidos. Ocorre, porem, que o crebro
no pode "ver" de onde provm as informaes (ele uma "cmara escura") e tem
de decidir, unicamente com base no seu contedo, quais so os estados internos legi
timamente representacionais e quais so aqueles que resultam de sua prpria atividade.
O mesmo ocorre na CPU de nosso robot, que teria de realizar esta tarefa: distinguir
entre estados representacionais e outros estados internos sem o auxilio de uma pro
gramao prvia.

A dificuldade, de estabelecer a distino entre estados internos de natureza repre


sentacional e outros tipos de estados internos, pode se converter num verdadeiro
obstculo para a possibilidade de atribuir estados intencionais a sistemas artificiais.
Dois casos tpicos ilustram esta dificuldade:
a) O problema da me11U5ria
Considere-se novamente o caso do nosso robot.
Trata:-se de uma rplica mecnica de um ser humano adulto. Ele no dispe de um
passado ou uma "infncia" . Podemos suprir esta deficincia atravs de um "implante
de memria" , ou seja, o implante de uma memria artificial, composta de propo
sies (lembranas de proposies, em geral expressas verbalmente, tornando-se
memria auditiva) ou mesmo como um conjunto de imagens mentais caprichosamente
elaboradas e implantadas. Uma vez implantado este dispositivo, nossa rplica mec
nica, provavelmente, apresentar um comportamento externo como se tivesse uma
me11U5ria, sendo capaz de responder adequadamente a questes acerca de seu suposto
-

TranslForm/Ao, So Paulo, v. 14, p. 1 09- 1 2 1 , 1 99 1 .

117

passado, numa cena algo fanliar de fico cientfica que encontramos no filme

Blade Runner.
Entretanto, a similaridade de comportamento exibida pela rplica ser apenas apa
rente: sem programao prvia no h como distinguir dentre estados internos aqueles
que correspondem a mem6rias e aqueles que correspondem a estados mentais refe
rentes a eventos no presente. Se as "mem6rias" forem expressas na forma de contedos
mentais de carter imagtico, elas se tomam indistinguveis de outros contedos
imagticos que normalmente classificaramos como imagens mentais, imaginao, etc.
No caso das proposies a situao no diferente: exprimir uma proposio como
ocorrendo no passado, atravs de uma sentena com um verbo no passado no significa
referir-se a algo que ocorreu anteriormente no tempo. No caso de um ser humano a
dificuldade poderia ser suplantada: contedos mentais relacionados a lembranas se
riam distintos de outros na medida em que incorporariam e conservariam (parcialmente)
uma relao causal com os eventos passados que efetivamente os produziram.
b) O problema da percepo e da alucinao - Se construirmos um robot e nele
adaptarmos um mecanismo de viso artificial que sirva para orientar suas aes no
meio ambiente, bastante provvel que tal mecanismo de viso artificial no gere
percepes e sim alucinaes verdicas. Entendemos por alucinao verdica um tipo
peculiar de experincia visual no qual o contedo imagtico e informacional coincide
com aquele de uma percepo genuna. Por exemplo, teremos um caso de alucinao
verdica quando uma pessoa tiver diante de si uma paisagem e simultaneamente
alucin-la com todos os seus detalhes. A cena real e a experincia visual (alucinat6ria)
coincidem perfeitamente em termos de contedo imagtico e informacional, embora
essa pessoa possa at mesmo estar vendada, e suas experincias visuais estarem sendo
produzidas por uma neurocirurgia.
Pode um sistema artificial distinguir percepes de alucinaes verdicas? Tomemos
como ponto de partida um sistema que consiste de uma CPU conectada a um "olho
mecnico" - algo parecido com uma cmara de TV, responsvel pela produo de
imagens do meio ambiente onde este sistema se move. Supondo que este mecanismo
de viso artificial sirva para a orientao do comportamento, parece haver, neste caso,
apenas duas possibilidades. A primeira consistiria em estabelecer todas as aes - e,
conseqentemente, todas as "percepes" ou "experincias visuais" que seriam pro
duzidas pelo seu olho mecnico. Assim, por exemplo, poder-se-ia programar o robot
para andar do centro de Paris at a Torre Eiffel, ao mesmo tempo que seu mecanismo
de viso artificial produzisse experincias visuais com um contedo inteiramente
semelhante quelas que um ser humano tem quando caminha do centro de Paris at a
Torre Eiffel. A situao, neste caso, no difere muito daquela na qual o neurofisi610go
introduz agulhas e eletrodos no crebro de seu paciente, produzindo imagens visuais.
Este papel desempenhado pelo programador que, alm de produzir alucinaes
verdicas na sua mquina, estaria tambm controlando suas aes. O grau de auto
nomia desta mquina seria mnimo e mesmo que, por hip6tese, seu dispositivo'de
viso fosse capaz de gerar percepes, tal dispositivo tomar-se-ia praticamente dis
pensvel.

TranslForm/Ao, So Paulo, v. 14, p. 109-121, 1991.

118

A segunda alternativa consistiria em projetar um robot com alto grau de autonomia,


dotado apenas de algumas metas internas gerais. Esta mquina mais sofisticada e no
inteiramente pr-programada teria um mecanismo de viso que se encarregaria de sua
interao com o meio ambiente, possibilitando a auto-organizao do seu prprio
repertrio de comportamentos. Mas como funcionaria este mecanismo de viso? Se
se tratar de algo parecido com a cmara de TV de que falamos a pouco, tambm, neste
caso, este dispositivo estaria muito mais prximo da gerao de alucinaes verdicas
do que de percepes. A relao entre as imagens registradas pela cmara e as cenas
do mundo a elas correspondentes seria estabelecida atravs de uma relao causal;
. como poderia tal mquina distinguir, dentre seus estados internos de carter imagtico
quais seriam aqueles que correspondem s suas percepes e a partir destas produzir
comportamentos adequados?
Se projetarmos uma mquina altamente sofisticada, ela ser dotada de capacidade
de gerar estados internos de carter imagtico: memrias, imagens mentais , etc. Se
esta mquina no tiver sido previamente programada para tal, ela no ter condies
de gerar uma distino entre processos internos e processos externos. A incapacidade
de estabelecer esta distino sem o auxlio de programao prvia faz com que suas
percepes sejam assimilveis ao fluxo de processos internos, tomando-as indistin
guveis das alucinaes verdicas que poderiam igualmente estar ocorrendo no seu
interior. Esta mquina, por mais sofisticada que fosse, no estaria percebendo o
mundo a sua volta: ela no pode representd-lo. Seu sucesso na execuo de tarefas e
na produo de comportamentos adequados ao seu meio ambiente poderia ser muito
grande, mas tratar-se-ia, no melhor dos casos, de uma adequao cega, que no pres
supe a gerao de estados intencionais. Seria uma situao estruturalmente seme
lhante ao produtor de textos em Chins de que nos fala J. Searle (Nota B).
Os dois problemas de que tratamos acima parecem sugerir uma resposta negativa
no que diz respeito a possibilidade de sistemas artificiais virem a gerar estados inten
cionais. Eles apontam para a existncia de grandes obstculos que, ainda precisam
ser superados para que isto seja possvel. preciso, agora, tentar responder a nossa
primeira indagao, qual seja, se haver um limite para nossa capacidade de trans
formar todas as nossas representaes do mundo em representae& do tipo simblico.
Abordaremos esta quest examinando um terceiro conjunto de problemas.
c) O problema da auto-referncia
Nosso ponto de partida ser novamente um
robot com alto grau de autonomia comportamental e semelhana em relao a um ser
humano. Poderia este robot, em alguma ocasio, ter o pensamento "estou aqui" ?
-

Na literatura contempornea sobre Filosofia da Mente desenvolveu-se a viso de


que a base hierrquica das representaes possveis constituda por contedos men
tais pr-representacionais ou pr-conceituais. Esta concepo fundamenta-se na idia
de que o carter significativo que estruturas mentais possam adquirir no depende
apenas de sua manifestao local no organismo (ou no crebro), mas da totalidade do
ambiente onde esse organismo atua. Assim, a determinao do carter significativo
de certos contedos mentais no seria dada unicamente por caractersticas intrnsecas
TranslForm/Ao, So Paulo, v. 14, p. 1 09- 1 2 1 , 1 99 1 .

1 19

que estes pensamentos possam exibir, mas pela sua ocorrncia contextual estabelecida
numa relao entre organismo e meio ambiente. Estes estados mentais - cujo carter
intencional estabelecido por esta relao simbi6tica com o meio ambiente - so
chamados pensamentos de re e constituem a base hierrquica das representaes
possveis. Seu trao distintivo consiste no fato de eles implicitamente incorporarem
um vnculo com a existncia de seus referentes no mundo - um vnculo que res
ponsvel no apenas pela pr6pria possibilidade de sua ocorrncia na vida mental do
organismo, como tambm pela sua pr6pria identidade enquanto pensamentos.
A natureza intencional (a direcionalidade) deste tipo de pensamentos bsicos
dada por fatores contextuais que compem circunstncias que participam da ocorrn
cia destes pensamentos, e os dotam de uma dimenso semntica oriunda da relao
do sujeito (ou organismo) com uma realidade extramental. Assim, por exemplo, os
partidrios deste tipo de viso, acerca da natureza de pensamentos bsicos (de re),
tm chamado ateno para a necessidade de se distinguir entre ter um pensamento
sobre Londres de um pensamento acerca de Londres. Pois para ter um pensamento
sobre Londres eu posso estar em qualquer lugar, bastando apenas que minha mente
fonne algumas proposies ou imagens das torres do Parlamento e da Oxford Street,
enquanto para ter um pensamento acerca de Londres (e se este pensamento deve
tambm dar minha localizao espacial) , preciso que eu (meu organismo) esteja.
fisicamente em Londres como condio necessria. A distino no puramente
lingstica como poderamos ser levados a crer: ela aponta para uma diviso funda
mental entre dois tipos de pensamentos, pois o pensamento acerca de Londres (de
re) tem sua dimenso semntica estabelecida pelas circunstncias contextuais em que
ocorre o pensamento, enquanto o pensamento sobre Londres independe destas lti
mas (e constitui um pensamento de dieto).
Substanciando este ponto de vista poder-se-ia afmnar a impossibilidade de se
construir um robot ou um mecanismo que fosse capaz de ter o pensamento "estou
aqui" . O problema que este pensamento especfico (de re), "estou aqui" , teria de
ser representado no programa central que controla o robot. mas aqui encontramos
uma dificuldade fundamental: se o carter semntico deste tipo de pensamento de
pende do fato de ele incorporar um fator extramental derivado de uma ligao com as
circunstncias de sua ocorrnCia contextual, o pensamento do tipo "estou aqui" no
adquire significado pelo fato de eventualmente constituir-se como uma represen
tao. Isto porque o significado de pensamentos deste tipo no decorre de nenhum
tipo de contedo especificvel, seja ele iJ'nagtico ou proposicional: mesmo que em
algum momento do programa do robot aparecesse a proposio "estou aqui " , ela
poderia nada dizer acerca da posio do robot no seu meio ambiente. Em outras pa
lavras, o carter transcendente (e semntico) de um pensamento de re resiste a sua
transfonnao plena numa representao ou num pensamento de dieto plenamente
conceitualizado. Mas haver outra maneira de programar a CPU do robot sem antes
conceitualizar todas as operaes que esta deve realizar? (Nota C)

TranslForm/Ao, So Paulo, v. 14, p. 1 09- 1 2 1 , 1 99 1 .

1 20

IV
Os problemas que delineamos na seco anterior no nos obrigam a validar a con
cluso de que o projeto cientfico da Inteligncia Artificial est necessariamente
fadado ao fracasso. Esta a concluso que pensadores com J. Searle gostariam de
extrair das proposies acima, para tentar esboar mais um argumento em favor da
impossibilidade de simulao do comportamento inteligente. Mas esta no a con
cluso que desejamos extrair, sobretudo na medida em que no partilhamos dos
pontos de vista de J. Searle.
No nos parece que os objetivos propostos pela Inteligncia Artificial sejam ina
tingveis . Quem sustenta esta perspectiva corre o mesmo tipo de risco que correram
aqueles que, no sculo passado, sustentaram a idia de que o homem jamais poderia
chegar a lua. Ocorre, entretanto, que o modelo computacional de mente, que tem sido
utilizado por muitos te6ricos da Inteligncia Artificial, precisa de uma ampla reviso.
'
Esta reviso, que j se iniciou a alguns anos atrs, implica uma reformulao concei
tual de grande porte que visa redefinir a metfora a ser empregada na descrio dos
fenmenos mentais. A elaborao de uma nova metfora implica o progressivo aban
dono de noes pioneiras da Inteligncia Artificial, como por exemplo a pr6pria m
quina de Turing e os pressupostos bsicos do funcionalismo tradicional. Trata-se de
uma tarefa que j se encontra em marcha, protagonizada pelo aparecimento dos cha
mados modelos conexionistas.
Estes novos modelos reaproximam a Computao da NeurofIsiologia e da Biologia
Evolucionria, procurando desenvolver uma nova metfora onde, por exemplo, o
conhecimento pr-proposicional ou subsimblico poder ser adequadamente acomo
dado, resolvendo algumas das dillculdades que a Inteligncia Artificial tradicional
no pde superar. "O crebro a melhor metfora para falarmos da mente" - eis o
que parece sugerir o conexionismo, num empreendimento te6rico de grande enverga
dura, que visa integrao de vrios tipos de conhecimento que at ento permane
ceram estanques, isto , sem uma articulao interdisciplinar. Do conexionismo e da
profunda revoluo te6rica que nele est contida, teremos oportunidade de falar em
outro trabalho .

NOTAS
A - Para se ter uma noo mais detalhada de Mquina de Turing e de procedimento
efetivo ver: Teixeira J. de F. O que Inteligncia Artificial, capo 2.
B - Um estudo mais detalhado dos problemas envolvidos na percepo e na elabo
rao de sistemas artificiais de viso est no artigo de minha autoria " A Mquina
de Enxergar" (Revista Discurso, n. 19, 1 99 1 ) - Departamento de Filosofia da
USP. (No prelo) . Trecho semelhante ao explorado, neste item, encontra-se no
referido artigo.
C - Para um estudo da oposio de re e de dieto ver o artigo de minha autoria "In
teligncia Artiflcial e Caa aos Andr6ides" (Psicologia, 1 990, nmero especial
sobre Filosofia da Psicologia, no prelo). Trecho semelhante ao explorado, neste
item, encontra-se no referido artigo.
TranslForm/Ao, So Paulo, v. 14, p. 1 09- 1 2 1 , 1 99 1 .

121

TEIXEIRA, J. de F . Robots, intentionaJity and artificial intelligence. Trans/Forml Ao, So


Paulo, v. 14, p. 109- 1 2 1 , 1 99 1 .
ABSTRACT:

The paper focuses

in pmlosopmcal problems concerning the nature

of

intentionality and mental representation. The first part presents a historical outline of the problem
and reviews some classicaUcontemporary writings on the questiono The second part examines the
so-called Chinese Room Argument formuJated by J. Searle. The third part presents a few
arguments aiming to show the inadequacy of the functionalist model for the design of robots. The
conclusion points to some alternatives to the traditional functionalist model such as, for instance,
the connectionist modelo
KEYWORDS: lntentionality;
robots; connectionism.

mental

representation;

artificial intelligence; functionalism;

REFERNCIAS BIBLIOGRFICAS
1. B RENT ANO, F. Psychology from an empirical standpoint. Trad. A. C. Pancurello, D. B .
Terrell and L . L . McAlister. New York: Humanities Press, 1 925/ 1 973.
2. FODOR, J . Representations: philosophical essays on the foundations of cognitive science.
Cambridge, MA: The MIT Press, 1 98 1 .
3. RUSSEL, B . A anlise da mente. Trad. Antonio Cirurgio. Rio de Janeiro: Zahar,
1971/ 1 976.
4. SEARLE, J. Minds, brains and programs. In: HAUGELAND, J., ed.
Vermont: B radford B ooks, 1 98 1 .

Mind designo

BIBLIOGRAFIA CONSULTADA
DESCARTES , R. Meditaes. Trad. J. Guinsburg e Bento Prado Jr. So Paulo: Abril Cultural,
1 979. (Os pensadores).
KANT, I. Crftica da razo pura. Trad. Valrio Rohden e Udo B. Moosburger. S o Paulo:
Abril Cultural, 1 980. (Os pensadores).

SCHANK, R. Scripts, plans, goals and understanding. Hillsdale: N. 1. Lawrence Erlbaum,


1 977.
SEARLE, J. lntentionality. Cambridge: Cambridge University Press, 1 983.
SEARLE, J .

Intrinsic intentionaJity. Behavioural and Brain Science, Cambridge, v. 3 , 1 980.

SEARLE, J.

What are intentional states. In: DREYFUS , H., ed.


Vermont: B radford B ooks, 1 982.

Husserl, intentionality and

cognitive science.

TEIXEIRA, J . de F. O que inteligncia artificial. So Paulo: B rasiliense, 1 990. (Primeiros


Passos, n 230)

TranslForm/Ao, So Paulo, v. 14, p. 1 09- 1 2 1 , 1 99 1 .

You might also like