You are on page 1of 10

EL ALMA (I)

Tal y como hemos indicado en la pgina anterior, a estas alturas de nuestro anlisis del conocimiento, podemos dar por conocida la ciencia. De entre sus distintas ramas, nos interesan ahora aquellas que describen a distintos niveles el cerebro humano. El funcionamiento del cerebro no es muy bien conocido, lo cual es comprensible, ya que, para avanzar, la ciencia necesita experimentar, y no sera de buen gusto experimentar con cerebros humanos vivos sin el consentimiento de su dueo, consentimiento que pocos seres humanos estaran dispuestos a otorgar. As, el problema de entender el funcionamiento del cerebro humano podra compararse al problema de entender el funcionamiento interno de un ordenador para alguien que careciera a priori de conocimientos de electrnica o informtica y no se le permitiera hurgar en el aparato mientras est encendido. Y aun si se le permitiera, comprender la relacin entre el software y el hardware sin tener acceso al cdigo fuente del sistema operativo sera prcticamente imposible. Y esto no convierte a un ordenador en un objeto "misterioso" ni, mucho menos, milagroso. Por eso mismo, tampoco debemos inferir de nuestras lagunas sobre el funcionamiento del cerebro que haya en l nada de misterioso o milagroso. Pese a dichas lagunas, la principal conjetura racional en torno al cerebro es que permite explicar totalmente el comportamiento humano, es decir, que si tuviramos un conocimiento del cerebro humano similar al que tenemos de los ordenadores y pudiramos manipular cerebros con la misma precisin con la que podemos manipular el hardware de un ordenador, entonces sera posible insertar quirrgicamente en un individuo conocimientos, recuerdos, creencias, gustos, podramos provocar sentimientos y estados de nimo, etc. Recprocamente, analizando el cerebro de un individuo podramos "leer" lo que sabe, lo que piensa, lo que recuerda, etc. Estas conjeturas nos llevan a plantearnos si la conciencia es el mero resultado de la actividad cerebral o si, por el contrario, la existencia de la conciencia como internamente la conocemos no puede fundamentarse nicamente en la existencia de una actividad cerebral, sino que requiere la existencia de algo ms, algo que no tenga nada que ver con neuronas e impulsos elctricos, a lo que podemos llamar alma. Ante todo, debemos tener presente que acabamos de introducir el concepto de alma como un concepto totalmente vaco, del que no podemos decir nada a priori. Si la razn nos llevara a concluir que todo ser consciente ha de tener un alma, todava estara por ver qu caractersticas tendra que tener esa alma. En particular, sera del todo improcedente partir de la base de que aqu estamos llamando alma a lo que alguna de las muchas religiones que se han apropiado del trmino entienden por tal. Por ejemplo, muchas religiones consideran que los seres humanos tienen alma y los animales no. Ahora bien, si entendemos el alma como un sustrato necesario para la existencia de conciencia distinto de lo que es un cerebro (que es lo que en nuestro contexto debemos entender), entonces es difcil imaginar un argumento que niegue la existencia de alma en un perro o un chimpanc. Quiz, para concretar el problema de la existencia del alma, sea til recordar el argumento de otra pelcula: en El sexto da, el malo es el dueo de una compaa que se dedica a clonar ilegalmente seres humanos. El procedimiento es muy sencillo en la

prctica: se toma una muestra de ADN del sujeto a clonar y se guarda en un ordenador toda la informacin necesaria para reconstruir su estado cerebral en un momento dado. A partir de estos dos datos, en un tiempo muy breve, la tecnologa permite construir un cuerpo idntico al del sujeto y grabar en su cerebro todos los datos ledos en el cerebro original. Los malos se hacen peridicamente "copias de seguridad" de sus cerebros, de modo que si, por ejemplo, uno de ellos muere (ser malo en una pelcula en la que el bueno es Arnold Schwarzenegger tiene sus riesgos) al cabo de poco tiempo se "reencarna" en un clon que es l mismo salvo que no recuerda nada de lo sucedido en el (breve) intervalo de tiempo que va desde que se hizo la ltima copia de su cerebro hasta su muerte. En realidad no es necesario morir para clonarse. Si, por ejemplo, uno pierde un brazo, puede suicidarse y clonarse, con lo que vuelve a vivir con el brazo intacto. Aunque es fcil encontrar mil inconvenientes a la viabilidad de esta tcnica, no hay ningn motivo a priori por el que no fuera posible llevarla a la prctica (tal vez con variantes no esenciales para nuestros argumentos, pero que la hicieran ms verosmil). El problema que se plantea entonces es si una persona sobrevive realmente a la clonacin. Si alguien piensa que un ser consciente est vinculado necesariamente a un alma, entonces es obvio que, tanto si el clon tiene o no alma, no puede tener la misma alma que el original, dado que incluso sera posible que ambos coexistieran, por lo que tendra que concluir que el original ha muerto y el clon es otro, otro igual, pero otro. En cambio, si alguien piensa que un ser consciente no es ms que la actividad de su cerebro, entonces podra aceptar que el cerebro concreto que soporta dicha actividad es irrelevante, por lo que el proceso de clonacin supone nicamente que una misma persona cambia de cuerpo. Si un original coexiste con su clon (que es precisamente lo que le ocurre a Schwarzenegger en la pelcula) apareceran problemas legales sobre qu derechos tendra cada uno, pero trascendentalmente no podra decirse que uno es "ms l" que el otro. Hay otro ngulo desde el que abordar el problema que nos evita los problemas derivados del desconocimiento que tenemos sobre el funcionamiento del cerebro, o de las dificultades que podran impedir una manipulacin como la que requerira la clonacin que acabamos de describir. Hay muchas pelculas que nos pueden servir de ilustracin. Por ejemplo, podemos pensar en la saga de la Guerra de las galaxias. En ella se describe una sociedad en la que conviven seres humanos, seres vivos de otras especies variopintas, equiparables, en cuanto a seres conscientes racionales, con los seres humanos y, por ltimo, una amplia gama de robots, en la que encontramos desde meras mquinas sofisticadas hasta androides que se comportan exactamente igual que seres humanos. El arquetipo es el androide protagonista, C3PO. Se trata de una mquina, de la que se conocen todos los detalles sobre su funcionamiento, pues ha sido fabricada por el hombre, pero se comporta como un ser humano: habla, piensa, opina, tiene miedo, se queja, se preocupa por sus seres queridos, etc. En este contexto, el problema sobre la existencia del alma est ntimamente relacionado con el problema de si podemos considerar a C3PO como un ser consciente. Precisemos esto: Supongamos que le pregunto a un amigo de qu color es la camisa que llevo puesta, y me responde que es azul. Entonces puedo estar seguro de que mi amigo puede ver mi camisa y tiene la capacidad necesaria para reconocer que es azul. Por otra parte, podra hacer fcilmente que mi ordenador pronunciara la frase "veo que tu camisa es azul", incluso hacer que lo dijera cuando me oyera decir "de qu color es mi camisa?". En este caso alguien ingenuo podra pensar que mi ordenador ve mi camisa y reconoce que

es azul, pero no es verdad. Mi ordenador no sabe lo que est haciendo. Simplemente, es una mquina capaz de reconocer el patrn de voz "de qu color es mi camisa?", en el sentido de que puede distinguir si pronuncio esa frase u otra distinta, aunque no la entienda, y de activar, como respuesta, siguiendo un programa, un sintetizador de voz que reproduzca unos sonidos que para l no significan nada. Podra decir que mi ordenador me oye preguntar por el color de mi camisa, puesto que reconoce mi voz y reconoce que es precisamente esa frase la que pronuncio, pero no puedo afirmar que es consciente de que le estoy preguntando por el color de mi camisa. De hecho, mi ordenador no es consciente de nada en absoluto. El problema es: suponiendo que existiera C3PO, cuando pregunto a C3PO de qu color es mi camisa y l me responde que es azul, podemos afirmar que l es consciente, como lo sera yo en su lugar, de que le estoy haciendo una pregunta y de que, al mirarme, ve que mi camisa es azul, o solamente parece que es as, como lo parece cuando mi modesto ordenador me responde con la frase "veo que tu camisa es azul"? Aunque mi ordenador pudiera engaar a algn incauto, no cuesta nada darse cuenta de que su "conciencia" es pura apariencia. Por ejemplo, si le preguntara por el color de mi camisa vistiendo una camisa roja, el seguira respondiendo "veo que tu camisa es azul". Esto no le ocurrira a C3PO: si me pongo una camisa roja y le vuelvo a preguntar, me responder que ahora mi camisa es roja. En general (y esto es lo que estamos suponiendo al suponer que existe C3PO) el robot responder siempre como lo hara un ser humano, de modo que no es posible refutar su posible conciencia poniendo en evidencia que no entiende lo que dice. Pero la pregunta sigue en pie: Es C3PO consciente o slo lo aparenta con absoluta perfeccin?, Cuando C3PO dice, por ejemplo, "R2D2, eres un cabezota, me desesperas!", podemos entender literalmente que C3PO se desespera y que est levemente disgustado en el mismo sentido en que podra estarlo yo, o slo es una mquina recitando frases con total coherencia? La relacin de esto con el alma es obvia: No cabe duda de que C3PO no tiene alma, pues todo su comportamiento puede ser explicado con el mismo detalle con que podemos explicar todo lo que hace un ordenador de hoy en da. Si admitimos que C3PO es consciente en el pleno sentido de la palabra, entonces debemos concluir que nosotros tampoco necesitamos un alma (al menos, no como explicacin de nuestra conciencia, aunque aqu no entramos en si hay un dios que nos ha regalado un alma con otros fines, pero eso sera otra clase de alma), por lo que postular que tenemos alma sera irracional (si tratamos de extraer de ah alguna consecuencia sobre el mundo) o, cuanto menos, una afirmacin metafsica (en caso contrario). Recprocamente, si, de algn modo, concluyramos que la mera actividad cerebral, o cualquier clase de proceso fsico, no puede explicar que yo sea consciente como trascendentalmente s que lo soy, entonces nos veramos obligados a concluir que C3PO no puede tener conciencia, no puede ver lo que dice ver, ni sentir lo que dice sentir, ni entender lo que dice entender, sino nicamente aparentarlo con absoluta perfeccin. No est de ms apuntar aqu que el problema hipottico de si C3PO sera consciente o no es exactamente el mismo que el problema real de si cualquier ser humano distinto de m mismo es consciente o no. Si miro en la cabeza de C3PO, ciertamente, no ver pensamientos, ni sentimientos, ni intuiciones, etc., pero si miro en la cabeza de cualquier persona, tampoco ver nada de eso. En un caso ver circuitos electrnicos y en el otro neuronas, pero ni lo uno ni lo otro se parece en nada a los pensamientos, sentimientos, etc.

La afirmacin de que un ordenador capaz de comportarse como un ser humano sera consciente exactamente igual que lo es un ser humano, es decir, que no es posible parecer consciente sin ser realmente consciente, se conoce como Tesis de la inteligencia artificial. El matemtico Alan Turing la plante en trminos de lo que hoy se conoce como el test de Turing, que, ligeramente actualizado, podramos plantearlo as: imaginemos que ponemos a un hombre a chatear con dos sujetos, es decir, a dialogar sin verse, intercambiando mensajes a travs de un ordenador. De los dos interlocutores, uno es humano, mientras que el otro es un ordenador autnomo, lo que significa que recibe los mensajes y genera las respuestas sin que ningn humano medie en el proceso. Si nuestro hombre es incapaz de distinguir cul de sus dos interlocutores es el humano y cul es el ordenador, entonces, el ordenador ha superado el test de Turing y, si aceptamos la tesis de Turing, eso ha de interpretarse como que es un ser plenamente consciente. Naturalmente, sera necesario plantear el test en condiciones de "deportividad". Por una parte, habra que repetirlo muchas veces para evitar aciertos o errores por azar, o quiz plantear dilogos entre un ordenador y muchos seres humanos para que la probabilidad de acertar quin es el ordenador por puro azar fuera pequea. Por otra parte, el ordenador tiene permiso para mentir, ya que su misin es engaar a su interlocutor. De lo contrario, bastara preguntarle eres un ordenador? o cuntos aos tienes? para identificarlo. Tambin habra que evitar que el ordenador pudiera ser descubierto por detalles no esenciales. Por ejemplo, un humano puede cometer errores al teclear una frase, mientras que las frases del ordenador no pasaran por el proceso fsico del tecleado, as que, o bien se corrigen los mensajes del humano antes de hacrselos llegar a su interlocutor, o bien se aconseja al ordenador que, de vez en cuando, provoque algn error tipogrfico en los suyos, etc. Est de m-as aclarar que jams se ha construido (o, mejor dicho, programado) un ordenador capaz de superar el test de Turing. De hecho, pese a que la inteligencia artificial ha logrado avances interesantes en las ltimas dcadas, hay que admitir que todava se est muy lejos de lograr dicha meta. De todos modos, para hacernos una idea de lo que sera un ordenador consciente, conviene examinar un ejemplo real de conversacin improvisada entre un ser humano y un programa de ordenador llamado SHRDLU. No pretendemos en ningn momento presentar a un programa tan limitado como lo es SHRDLU a modo de "prueba", o siquiera indicio, de que los ordenadores pueden llegar a ser conscientes. Simplemente creemos que nos ayudar a entender con ms precisin en qu consistira un ordenador consciente. Para empezar, SHRDLU nos permite descartar un tpico. Es fcil creer que un ordenador que imitara el comportamiento intelectual humano tendra una capacidad de clculo incomparable con la de los humanos reales, de modo que, si le preguntramos cunto da 253 por 827, nos respondera inmediatamente que 209.231; pero no tiene por qu ser as. Por ejemplo, SHRDLU, como todo programa de ordenador, realiza muchas operaciones matemticas por segundo; sin embargo, al mismo tiempo podemos decir que SHRDLU slo sabe contar hasta diez. Esto significa que si, al cabo de un cierto tiempo, le preguntamos cuntos bloques ha movido, nos dir que muchos, ms de los que puede contar. Y es que, a la hora de entender a SHRDLU, es imprescindible distinguir entre su parte "consciente" y su parte "inconsciente".

Por ejemplo, en algn lugar de la memoria de SHRDLU est codificada la situacin de su mundo de bloques: de un modo u otro, all consta que hay un bloque azul, que ocupa tal posicin, que tiene tales dimensiones, etc. Si le preguntamos a SHRDLU cuntos bloques azules ve, el programa analizar sus datos, recorrer todos los registros de bloques que hay en su memoria y comprobar que slo uno tiene asignada la propiedad "ser azul". Ello le llevar a generar la respuesta "uno". En este sentido, podemos decir que SHRDLU es consciente de que slo ve un bloque azul. Ahora bien, si le preguntamos cmo sabe que slo hay un bloque azul, la respuesta de SHRDLU no ser "porque he recorrido los registros de bloques que hay en mi memoria y slo he encontrado uno con la propiedad de ser azul". O bien SHRDLU ser incapaz de encontrar un sentido a la pregunta o, a lo sumo, responder, "no lo s", y esto no es una evidencia de que SHRDLU no es realmente consciente, hay muchas evidencias de ello, pero esto no es una de ellas. Si SHRDLU tuviera una capacidad intelectual similar a la humana y, en particular, fuera capaz de entender la pregunta, su respuesta seguira siendo "no lo s" o, puestos a ser ms precisos, podra decir "no lo s, slo s que veo dos bloques verdes, dos rojos y uno azul, adems de otros objetos que no son bloques, pero yo no hago nada para saber que es as, simplemente lo s". En ltima instancia, el hecho de que un determinado bloque sea azul puede consistir en que en la direccin de memoria 454.678 del ordenador que soporta a SHRDLU est escrito el nmero 1, mientras que el bloque sera verde si hubiera un 2, etc. Ahora bien, SHRDLU puede manejar los conceptos de "bloque", "color de un bloque", etc., pero no conoce el concepto de "direccin de memoria nmero 454.678", ni mucho menos est al corriente de que el ordenador que lo soporta mire esa direccin para pintar de azul uno de los bloques que muestra, ni que el color azul se codifique como un 1, etc. En este punto es imprescindible una aclaracin: El lector puede pensar que estamos "haciendo trampa" al hablar de lo que SHRDLU "conoce" y "desconoce", pues con ello ya estamos suponiendo implcitamente que es consciente de algo. No es as. De hecho, ya hemos dicho que no pretendemos afirmar que SHRDLU sea consciente de nada. Lo que sucede es que es perfectamente posible interpretar estos trminos en sentido metafrico, pero de forma que las frases en que aparezcan tengan un significado concreto evidente. Por ejemplo, podemos decir que SHRDLU sabe que un bloque puede sostener a otro bloque, pero no saba que una pirmide no puede sostener a otro bloque hasta que no ha intentado hacerlo y ha visto que era imposible. Estas afirmaciones nicamente pretenden describir de la forma ms clara posible el comportamiento de SHRDLU, lo cual no requiere interpretarlas literalmente. Un ejemplo ms sencillo: imaginemos que juego al pocker contra mi ordenador. En cierto sentido, mi ordenador conoce mis cartas, pues estn almacenadas en algn lugar de su memoria, pero, si el programa contra el que juego es "honrado", ste "no mirar" mis cartas, en el sentido de que no las tendr en consideracin a la hora de establecer su poltica de apuestas. As, puedo decir que el ordenador "conoce" su jugada, pero no "conoce" la ma, o incluso sera oportuno decir que mi jugada est en su "subconsciente" y la suya en su "parte consciente", y todo esto no es ms que una forma cmoda de describir lo que el ordenador hace y lo que no hace. No obstante, aunque esta aclaracin es suficiente para nuestros fines, es obligado sealar que la llamada tesis de la inteligencia artificial fuerte sostiene que estos usos de "saber", "conocer", "pensar", etc. no son metafricos en absoluto, sino que tienen el mismo sentido que cuando se aplican a seres humanos. As, podemos decir que SHRDLU es consciente realmente de que un bloque puede sostener a otro bloque, y que

si alguien se apoya en un coche y, sin querer, dispara su alarma antirrobo, entonces el coche cree que alguien est intentando robarlo (pero el coche se equivoca). Y quien piensa as no lo hace porque le haya impactado en exceso la pelcula Cars, en la que los coches son autnticas personas, sino que est afirmando que lo que usualmente entendemos por "saber", "creer", etc., aplicado a seres humanos, son procesos de la misma naturaleza, slo que mucho ms complejos. Si alguien oye desde su casa la alarma antirrobo de su coche, entonces piensa lo mismo que su coche: que alguien intenta robarlo. La diferencia est que en el caso del coche ste es un pensamiento simple, que no puede descomponerse en partes constitutivas, ya que el coche no es consciente de s mismo, ni de lo que es robar, etc. En cada momento, el coche slo sabe (o cree saber) si alguien est intentando robarlo o no. En cambio, el dueo del coche es capaz de descomponer ese pensamiento en partes ms simples y a su vez vincularlo con otros pensamientos. Sin embargo, en ambos casos estamos ante un hecho anlogo: un sistema (sea un choche, sea un ser humano) ha pasado de un estado previo a otro asociado con la posibilidad de que un determinado coche est siendo vctima de un intento de robo. Se podra discutir mucho sobre este punto de vista, pero no vamos a hacerlo porque en ningn momento trataremos de apoyarnos en la tesis de la inteligencia artificial fuerte. Volviendo a SHRDLU, una vez que hemos entendido que un programa de ordenador, sea SHRDLU o un mero programa de jugar al pocker, puede tener una parte consciente y una parte inconsciente, deberamos ver claramente la falta de fundamento de otro tpico en torno a los androides: algunos estaran dispuestos a aceptar que pudiera existir un ordenador con el que fuera posible mantener una conversacin racional, pero no que pudiera tener sentimientos, corazonadas, gustos, iniciativas ms o menos caprichosas y, en suma, todo aquello que de "irracional" tienen los seres humanos. Aqu hay que distinguir dos problemas distintos: una cosa es el problema de tratar de reproducir en un ordenador, por ejemplo, el sentido esttico humano, de modo que un ordenador pueda distinguir un buen poema de un poema ridculo, o una meloda hermosa de otra vulgar, de forma que su criterio, dentro del margen de divergencia que encontramos en los propios seres humanos cuando emiten sus propios juicios estticos, pueda considerarse propio de un ser humano; en cambio, otro problema distinto es lograr que un ordenador tenga su propio sentido del gusto, que no tiene por qu aproximarse en nada a los gustos humanos. Por poner un ejemplo muy simple: a muchos humanos les resulta placentero que les acaricien la espalda, pero la misma caricia en la planta de los pies la pueden considerar una tortura. Igualmente, podramos programar a un ordenador para que considerara placentero que alguien pulse la tecla "A" de su teclado, mientras que considerara insufrible que se pulse la tecla "B". No costara nada hacer que, en cuanto el ordenador detecte que se ha pulsado la tecla "B", se bloquee cualquier actividad mental que no vaya destinada a lograr que esto deje de suceder, como suplicarlo, estar dispuesto a hacer cualquier cosa a cambio, o incluso llegue a perder la conciencia temporalmente. Tambin es posible hacer que el ordenador sufra daos cuando se le pulsa la "B": que pierda ciertos contenidos de memoria, etc. Estas reacciones estaran en la parte subconsciente del programa, de modo que, por una parte, a nivel consciente, no sabra explicar por qu le molesta que se le pulse la "B", ni sera capaz de no "prestar atencin" a la tecla "B", del mismo modo que SHRDLU no tiene capacidad para negarse a obedecer las rdenes que se le dan y que es capaz de entender y ejecutar.

Ms en general, podramos programar un ordenador de modo que en cierta direccin de su memoria almacenara un nmero que puede variar de 0 a 10, donde 0 representara el dolor ms insoportable y 10 el mayor placer posible. Este nmero podra modificarse tanto por sucesos fsicos, como que se le pulse la tecla "A" o la tecla "B", como por el propio estado mental del ordenador, pero no de forma consciente. Por ejemplo, la contemplacin de ciertas imgenes podra provocarle un aumento de este nmero, mientras que otras lo haran disminuir. Esto sucedera como consecuencia de la aplicacin de ciertos algoritmos, similares a los algoritmos que permiten a SHRDLU interpretar las rdenes y las preguntas que se le formulan. La nica diferencia es que, en lugar de desencadenar procesos internos (como la bsqueda de una respuesta para una pregunta, o la forma de llevar a trmino una orden) proporcionaran juicios: ciertas imgenes aumentaran el grado de placer y otras lo disminuiran. El ordenador no sabra qu criterio emplean esos algoritmos subconscientes para decidir una cosa o la otra. Simplemente, cuando le preguntramos si le gusta una imagen, sabra responder "S, me gusta mucho" o "es horrible, por favor, qutala de mi vista, que me da angustia verla", etc. segn se haya modificado mucho o poco su grado de placer, ya en un sentido, ya en el contrario. Es importante que no estamos discutiendo aqu si un ordenador as realmente sentira placer o dolor, sino que tan slo estamos esbozando cmo se podra lograr que un ordenador se comportara como un ser humano y, en particular, que mostrara estados de nimo gobernados por procesos ms o menos sofisticados de los que el propio ordenador no fuera consciente y, en particular, que no pudiera explicar satisfactoriamente. Este mismo esquema podra hacer que un ordenador tuviera toda clase de gustos, apetencias, voliciones, criterios personales, etc. Como ya hemos indicado, otra cosa distinta es que sus criterios subjetivos pudieran asemejarse a los humanos. Esto sera mucho ms difcil, tal vez del todo imposible en la prctica, pero no porque los criterios humanos sean inabarcables racionalmente, sino porque son demasiado caprichosos. Es como si tiramos al suelo cien canicas y luego las recogemos marcando con un punto el lugar donde ha cado cada una. Esa disposicin de las canicas no tiene nada de especial, lo cual no quita para que sea prcticamente imposible estudiar la forma de lanzar las canicas con la pretensin de que vuelvan a caer exactamente en las mismas posiciones. Si pudiramos acceder a los algoritmos que sigue el cerebro humano para establecer sus criterios subjetivos, no habra ninguna dificultad terica para reproducirlos en un ordenador, pero identificar un algoritmo complejo slo a partir de sus entradas y salidas puede ser misin imposible. En ausencia de un diccionario, que es muy dudoso que exista, es muy probable que jams seamos capaces de descifrar la escritura etrusca ms all de unos pocas palabras que ms o menos se conocen, pero esto no significa que la lengua etrusca sea incomprensible. Los etruscos la entendan, porque ellos la inventaron. Del mismo modo, que en la prctica sea imposible reconstruir los algoritmos que regulan los sentimientos humanos no significa que estos sean irracionales, en el sentido fuerte de que sea imposible explicarlos mediante un algoritmo suficientemente complejo y, en particular, que sea imposible reproducirlos fielmente en un ordenador. Esto nos lleva a concluir que el nivel necesario para superar el test de Turing es mucho mayor que el que realmente es razonable exigir para que un ordenador pueda considerarse consciente. Podra darse el caso de que un ordenador se comportara plenamente como un ser consciente y, pese a ello, se distinguiera fcilmente de un ser

humano por matices que nada tienen que ver con la presencia o ausencia de conciencia. Un ciego de nacimiento no puede entender el concepto de color en el mismo sentido pleno en que lo entiende alguien que pueda ver, pero eso no disminuye en nada su facultad de ser consciente. Si programramos un ordenador ciego, capaz de or y de hablar, pero no de ver, tal vez podra pasar el test de Turing convenciendo a los humanos de que es un hombre ciego, pero si resulta incapaz de explicar qu se siente al pasar hambre, o cuando se tiene sueo, entonces no engaar a nadie, ya que es imposible que un ser humano no haya pasado por tales experiencias, pero esas carencias no son ms relevantes que la ceguera a la hora de evaluar la presencia o ausencia de conciencia. Para terminar de perfilar el problema de la inteligencia artificial, vamos a pintar un esbozo de cmo debera estar organizado a grandes rasgos un ordenador que imitara la conciencia humana en lo esencial. Si no queremos que sea un ordenador ciego, deberemos dotarlo de una o varias cmaras que le permitan captar imgenes de su entorno. Al menos dos, mejor que una, pues comparar distintos puntos de vista facilita enormemente el primer problema que el ordenador tendr que resolver para llegar a ser consciente del mundo: deber traducir la informacin plana que le ofrecen las cmaras a una imagen tridimensional. En principio, la imagen digitalizada que le proporciona cada cmara puede representarse como una sucesin de ternas (x, y, t, c), donde (x, y) es un par de coordenadas relativas al campo visual de la cmara, t es un nmero que representa el instante al que corresponde la imagen y c es un cdigo que representa un color. Lo que el ordenador necesita hacer a partir de estos datos es asignar una profundidad a cada punto, integrando los datos correspondientes a la misma cmara en tiempos distintos, a cmaras distintas en un mismo tiempo, as como los datos internos de que disponga sobre el movimiento al que est sometida cada cmara. Finalmente, la informacin se reorganizar en forma de una nica sucesin de quntuplas (x, y, z, t, c), donde ahora (x, y, z) son coordenadas espaciales, t es el tiempo y c es de nuevo un cdigo de color. El cerebro humano hace esto (no en trminos de cudruplas y quntuplas, naturalme nte, pero eso es irrelevante) con una rapidez endiablada. Si vemos una imagen como la de la izquierda, inmediatamente somos capaces de afirmar que vemos un prisma verde, que tiene encima una pirmide roja, que detrs de ambos hay un prisma azul, etc. El problema de obtener una imagen tridimensional a partir de una imagen bidimensional como sta es ya un problema muy complejo (incluso sin tener en cuenta el movimiento) y, desde luego, dista mucho de ser el ms complejo que aparece al tratar de construir inteligencia artificial; pero no es ms que un problema matemtico, y no hay nada que sugiera que la

nica forma de resolverlo con rapidez sea requiriendo los servicios de alguna clase de alma. Probablemente, cualquier intento eficiente de resolver este problema exigir hacerlo simultneo al paso siguiente, que es obtener una descripcin conceptual de la imagen. El ordenador tiene que contar con subprogramas que puedan responder, cuando sean solicitados, a preguntas tales como cuntos objetos hay, de qu tamaos, de qu formas, de qu colores, cmo se mueve cada uno, etc. Esto supone crear registros estructurados de memoria individuales para cada objeto que se detecte en las imgenes. SHRDLU proporciona indicios de cmo un ordenador puede gestionar algunos conceptos, si bien, un ordenador que pretenda equipararse a un ser consciente necesitar ser capaz de manejar un sistema conceptual mucho ms amplio, ms abstracto. De hecho, deber ser capaz de formarse y gestionar nuevos conceptos de cualquier grado de complejidad, incluso si presentan ambigedades esenciales. Con la capacidad de entender frases de cualquier grado de complejidad, el ordenador podr almacenar cualquier informacin sobre el mundo, ya sea en forma de textos que l entienda, ya en una forma ms abstracta acorde con la forma en que gestiona el lenguaje, es decir, en trminos de estructuracin de conceptos. (Por ejemplo, la estructura de memoria que contiene el uso del concepto de "sardina", podra contener un apartado que lo vincule con el concepto de "pez", sin necesidad de que dicha informacin est expresada mediante la frase "la sardina es un pez", que necesitara ser interpretada para ser entendida. Al contrario, dicha frase podra ser generada a partir de la estructura del sistema conceptual. La pretendida conciencia del ordenador estar determinada por su grado de acceso a la informacin que l mismo maneja. Ya hemos hablado de esto. En principio, no tendra por qu conocer nada del proceso por el que las imgenes bidimensionales que captan sus cmaras se traducen a imgenes tridimensionales, ni de los criterios que siguen los subprogramas encargados de conceptualizar estas imgenes. Por ejemplo, si le preguntamos si los bordes del bloque azul son rectos, el ordenador activar un subprograma que detecte las porciones de la imagen correspondientes a dichos bordes y determine si son rectos. Para ello, lo que har el subprograma es comprobar si los puntos identificados como parte de un mismo borde satisfacen (al menos con suficiente aproximacin) una relacin lineal (en el sentido matemtico de la palabra) y, en funcin del resultado, darn una respuesta afirmativa o negativa que podr ser usada por otras partes del programa, en especial por la que ha reclamado la intervencin del subprograma, pero todo el criterio empleado por el subprograma, en trminos de coordenadas y relaciones numricas, no trascender. En particular, si le preguntamos al ordenador qu coordenadas tienen los vrtices del bloque azul en su sistema de referencia interno, a pesar de que estamos preguntando por una informacin concreta que est contenida en el ordenador, ste no sabr responder, porque no dispondr de ningn subprograma que le aporte dichos datos. Es lo mismo que si a nosotros nos preguntan en qu lugar del cerebro almacenamos lo que sabemos sobre los peces. Ni siquiera sabemos cmo se almacena esa informacin, aunque, sin duda, est ah. Observemos que todos los procesos que el ordenador emplea para analizar las imgenes que recibe (o para construir imgenes generadas por l espontneamente) se basarn en la geometra tridimensional eucldea. Por eso podemos decir (cuanto menos, metafricamente) que el ordenador posee una facultad de intuicin espacio-temporal que le impone a priori la geometra tridimensional eucldea, en el sentido de que est condicionado a que todas las imgenes que recibe se interpreten necesariamente en

trminos de esta geometra. En particular, si le preguntamos por qu dice que los bordes del prisma azul son rectos, no sabr qu responder. Dir: "los veo rectos". A diferencia de SHRDLU, el ordenador deber disponer de algoritmos internos que determinen qu quiere hacer en cada momento. Aqu, en principio, hay muchas alternativas posibles, al menos a priori: tal vez sea posible construir una conciencia totalmente coherente consigo misma, que sepa en cada momento lo que quiere, o bien se podra construir una conciencia "ms humana", que disponga de subprogramas subconscientes que propongan distintas opciones en mutuo conflicto y que deban ser conciliadas por otro subprograma. El grado de conciencia que el ordenador tenga de cada uno de los subprogramas que regulen su voluntad o que le aporten informacin sobre su estado interno determinarn que su comportamiento sea, siempre en comparacin con los humanos, ms "racional" o ms "pasional". Ya hemos explicado (siempre a grandes rasgos, evidentemente) cmo podra hacerse para que el ordenador tuviera sus propios gustos, intereses, etc. Por ejemplo, el ordenador podra disponer de un subprograma inconsciente que analizara cada informacin aprendida recientemente para evaluar si sera interesante obtener ms datos al respecto y, en caso afirmativo, modificara una variable de "curiosidad" que formara parte de los datos sobre los que operara el algoritmo encargado de decidir lo que el ordenador desea hacer en cada momento. Dicho algoritmo debera conocer, no slo el estado de curiosidad, sino tambin el objeto de dicha curiosidad, aunque no necesariamente los criterios que ha seguido el subprograma para establecer que dicho objeto merece atencin. Dichos criterios, a su vez, pueden depender de varios parmetros que contribuiran a definir la "personalidad" del ordenador (ms dado a la ciencia, o a la poesa, con ms vehemencia o con menos, etc.) No tiene sentido ir ms all en nuestra descripcin, pues, al fin y al cabo, estamos hablando de algo que nadie sabe realmente cmo tendra que ser. Probablemente, un lector familiarizado con los progresos de la inteligencia artificial podra sealar muchos defectos en el esbozo que acabamos de hacer. No obstante, esto carece de importancia. No hemos pretendido sealar un camino a seguir en las investigaciones en torno a la inteligencia artificial, sino nicamente mostrar al lector que no es descabellado pensar en la posibilidad de que un ordenador est en condiciones de decir "veo una silla verde" o "me aburre esto de mover bloques de un sitio a otro" en un contexto en el que dichas afirmaciones no puedan ser consideradas como meras frases de papagayo, sino que expresen realmente un estado interno del ordenador. Nada de lo dicho aqu ha de entenderse como un argumento a favor o en contra de la existencia del alma. En esta pgina nos hemos limitado a plantear el problema en sus diversas facetas. Si hemos dedicado ms espacio a la relacionada con la inteligencia artificial ha sido simplemente porque hemos considerado que era la que ms se prestaba a ser malinterpretada y que, por tanto, requera ms aclaraciones. En las dos pginas siguientes defenderemos la tesis de que no hay razones para suponer que la existencia de la conciencia, tal y como la conocemos, requiera algo ms que la actividad de un sistema suficientemente complejo, sea un cerebro, sea un ordenador, por lo que postular que cada ser humano tiene un alma es dogmtico o, a lo sumo, segn como se plantee, es una afirmacin puramente metafsica.

You might also like