Hazme real

Texto de la exposición Mario Romero. Redes fantasmas y humanoides, 2007.

Imaginemos por un momento que pudiéramos encontrarnos frente a un Nexus 6 fabricado por la Tyrell Corporation para realizar trabajos peligrosos en las colonias exteriores de la Tierra. O ante David o, su versión femenina, Darlene, el meca-niño con capacidad de amar fabricado por Cybertornics Manufacturing. Somos capaces de  figurarnos el mundo que habitan y su escenario. El sombrío Los Angeles de 2019 en el que Rick Deckard se dedica a eliminar los replicantes Nexus-6, sublevados por el deseo de prolongar su existencia más allá de los cuatro años de vida programados [1]. O el Manhattan sumergido por el deshielo polar donde el profesor Allen Hobby crea el robot-niño capaz de tener sentimientos, que adoptarán Monica y Henry mientras esperan que la ciencia les devuelva a su hijo biológico Martin [2]. Entendemos la ficción y podemos dejarnos llevar por ella, pero ¿qué sentiríamos ante su presencia real? Si pudiéramos sentarnos delante de ellos deslumbrados por su apariencia humana, sabiendo que son robots, ¿qué clase de extrañeza o de desasosiego nos inundaría?

rachael-siendo-sometida-al-test-de-voigt-kumpf

Nuestra primera empresa, ante androides tan perfectos, sería quizás dilucidar si realmente estamos ante una máquina con capacidad de pensar. Desde los orígenes de la inteligencia artificial es éste un tema central de discusión, ilustrado por el experimento conocido como el Test de Turing [3]. La prueba consiste en enfrentar a un observador que interroga a una máquina y a un ser humano, de modo que, basándose en sus respuestas, debe decidir cuál es cuál. Si la máquina consigue burlarle y hacerse pasar por humana, si se comporta en todos los aspectos como inteligente, entonces, según Turing, debe ser inteligente [4].

Más allá del amplio debate generado por el experimento [5], una de las objeciones planteadas resulta de especial interés. Dicha refutación argumenta que el test sólo se basa en observaciones sobre la conducta conversacional y obvia el diseño computacional del ordenador que tenemos delante. Es decir, el test considera la máquina como si fuera una caja negra a cuyas operaciones internas no tenemos acceso, por lo que sólo juzga la salida y prescinde de la valoración sobre la condición “pensante” del programa informático que la generó.

El problema que supone esta elusión del contenido interno de la máquina dio lugar a otro conocido experimento mental, la habitación china, ideado por John Searle. Imaginemos a un individuo en el interior de una sala que hace las veces de caja negra aislante del exterior. Recibe textos escritos con símbolos chinos, idioma que desconoce, sin embargo posee un manual con correspondencias de entrada y salida escrito en su lengua materna. El individuo encuentra correspondencias adecuadas que provocan en los sujetos externos la impresión de que comprende el idioma chino, pero en el fondo no es así. Según Searle, algo similar ocurre con la computadora, ésta manipula con acierto las reglas sintácticas, pero no tiene acceso al contenido semántico. La máquina no puede comprender, ya que carece de intencionalidad, es decir, de la capacidad de referir el mundo externo, se mueve sólo dentro de su sistema de símbolos lógicos. La valoración exclusiva de la salida, es decir, los textos chinos correctamente contestados, según Searle, no es suficiente para considerar a la máquina como dotada de la capacidad real para el pensamiento, quedando la cuestión así sin resolver.

Situémonos de nuevo delante de nuestro androide, indistinguible de un ser humano real, a cuyo interior no tenemos acceso. Lo observamos moverse, contestar a nuestras preguntas, fumar pausadamente, quizás coger un bolígrafo y escribir, mirarnos a los ojos fijamente, decirnos: “te quiero”. Nos desorienta y nos hace sentirnos extrañamente incómodos. Pero pensemos por un momento… ¿Y si no es una máquina? Del mismo modo que no sabemos lo que pasa dentro de un robot, nos mantenemos ignorantes sobre lo que realmente ocurre dentro de los demás seres humanos. ¿Realmente razonan como nosotros? ¿Perciben el mundo de modo similar? ¿Comparten nuestros sentimientos y afectos? El sentido común nos hace responder de modo afirmativo a estas preguntas, pero los filósofos han ideado un ser hipotético que nos incita a dudar sobre lo inmediato de nuestra respuesta: el zombi [6]. El zombi sería una criatura cuya estructura física, aspecto y comportamiento es idéntica a la de un ser humano, pero que sin embargo, es incapaz de poseer experiencias conscientes. Es decir, carecería de las sensaciones cualitativas asociadas a los estados mentales, la sensación íntima e intransferible del color rojo, el frío, el miedo o el amor. El zombi carece de conciencia, entendida como aquello que tiñe la cognición de esa cualidad inefable que nos hace sentirla como nuestra.

¿Y si delante de nosotros tuviéramos no ya un autómata sino un zombi? Ambos, zombi y robot, plantean el mismo problema de la caja negra: no sabemos lo que ocurre dentro de ellos y si su experiencia tiene o no ese halo, difícil de definir, propio de lo humano. El zombi sería entonces una especie de androide perfecto, hecho de carne y hueso, pero ¿y si realmente todos los seres humanos que me rodean fueran zombis? Nada hay que me proporcione una certeza plena sobre lo contrario -duda razonable que ha explotado cierta ciencia-ficción de inspiración alienígena [7]-. De hecho, existen algunas personas que realmente sienten que un ser querido ha sido reemplazado subrepticiamente por un doble y sostienen esta creencia con determinación, pese a lo disparatado e improbable que resulta. Son aquellos que padecen el llamado delirio de Capgras cuya causa, según propone Andrew Young [8], sería el hecho de que, funcionando correctamente en el individuo afectado el sistema de identificación consciente, el sistema inconsciente, límbico, está dañado, de modo que el reconocimiento carecería de la resonancia emocional que debiera tener. El resultado es que el paciente tiene la sincera convicción de que está frente a un impostor. Lo relevante aquí es que el sujeto, en lugar de atribuir a su sistema perceptivo y cognitivo esta deficiencia, considera que es el mundo el culpable: para él su ser querido se ha convertido en un zombi.

Deduciríamos pues de esto que lo que nos hace descartar al resto de los seres humanos la creencia de estar rodeados de zombis sería quizás, más allá de nuestros conocimientos sobre filogenia o el ya mencionado sentido común, esta coloración emocional que imprimimos a nuestra relación con nuestros semejantes: la tendencia a la empatía que poseemos como especie.

Es la empatía la que provoca que no sólo seamos capaces de imaginar el estado mental de otra persona, sino que incluso experimentemos con ella el sentimiento que adivinamos al observarla [9]. Es la empatía la que nos hace ser compasivos, la que nos permite amar, la que nos hace pensar que nuestra mascota se alegra al vernos, la que nos hace incluso conmovernos ante una imagen inerte –la fotografía de un ser querido-, o la que hace que Monica, la madre adoptiva de David, el meca-niño, se estremezca delante de él. Y no en vano por eso, los replicantes Nexus-6 son sometidos al Test de Voigt-Kumpf para ser descubiertos: un test de empatía.

El test pondría de manifiesto la dificultad de reducir a la lógica computacional está capacidad empática, base de los sentimientos, y especialmente de aquel que se tiene por más sublime, el amor. Debido a ello, la máxima aspiración de cierta Inteligencia Artificial será la de programar un androide con la capacidad de tener sentimientos, de amar. Como Rachael, la replicante experimental de la que se enamora Rick Deckard -inciertamente correspondido- y que construye sus emociones a partir de recuerdos implantados, o como el propio David, al cual una secuencia de dígitos le une de modo inseparable –y un tanto obsesivo- a Monica, su madre adoptada.

Preguntémonos de nuevo ante nuestro androide: ¿Qué clase de inquietud o de zozobra nos embarga? Y respondamos ahora a la pregunta: aquélla de lo que, pareciéndose a nosotros mismos, despertando nuestra íntima identificación, sabemos carece de ese principio vital del cual nos abrigamos y creemos -y queremos- metafísico. Digámoslo ya, nos perturba aquello que siendo en apariencia igual a nosotros, sabemos ausente de alma. Y ello porque tenemos la íntima esperanza de que, más allá de un común aspecto y comportamiento, exista algo que nos diferencie de los androides –y los zombis-, algo más que nos haga especiales como individuos y como especie. Esto es lo que Gilbert Ryle llamó el fantasma en la máquina, para ilustrar la creencia de que somos algo más aparte de biología. Y es esto lo que se dirime en el actual debate sobre la conciencia humana, debate entre aquellos que defienden posturas materialistas o funcionalistas, basadas en el metáfora del ordenador, y aquéllos que, herederos del dualismo cartesiano, que distingue entre la res extensa –la máquina- y la res cogitans –el fantasma-, reivindican ese algo especial propio de la cognición humana, que puede situarse en la excepcionalidad fisiológica del cerebro humano, la cualidad propia de la experiencia sensorial humana –los qualia– o la capacidad para la autoconciencia. Es ese fantasma el que necesitamos imperiosamente para sentirnos únicos.

El robot humanoide es un radical trampantojo que no sólo engaña nuestro ojo, sino nuestro entendimiento imponiéndose como realidad figurada, espejo carente de trascendencia, identidad otra, pero sin alma, que opera como simiente de duda sobre nuestra propia condición: siendo semejantes en apariencia y conducta, siendo tanto su interior como el nuestro hipotética caja negra inaccesible, ¿quién puede asegurarnos que no estemos nosotros también huérfanos de alma? ¿Quién que no seamos zombis a la búsqueda de un fantasma esquivo que dé sentido a nuestra existencia? ¿Quién que no sea estéril esta búsqueda de ese algo inefable que nos caracterizaría y distinguiría como únicos?

Quizás debamos acompañar a David, el niño robot que podía amar, en su viaje hasta la Coney Island sumergida del futuro, a la búsqueda del Hada Azul que, como a Pinocho, lo convierta en un niño de carne y hueso. Y una vez allí, frente a ella, repetir con él, con su mismo ingenuo entusiasmo: “Por favor, Hada Azul, hazme real”.

el-hada-azul-sumergido-en-coney-island-espera-a-david

* * *

[1] Blade Runner, de Ridley Scott, 1982, basado en la obra de Philip K. Dick ¿Sueñan los androides con ovejas eléctricas? de 1968.

[2] Inteligencia Artificial, de Steven Spielberg, 2001, basado en la obra de Brian W. Aldiss Los superjuguetes duran todo el verano de 1969.

[3] El experimento es propuesto por Alan Turing, uno de los primeros teóricos de la inteligencia artificial, en el artículo Computing machinery and intelligence, publicado en 1950.

[4] Se puede ver un ejemplo clásico de una máquina que intenta simular un diálogo “inteligente” en Eliza, el programa ideado por Joseph Weizenbaum en 1966. Podemos encontrar varias versiones de Eliza en la web, por ejemplo en http://chayden.net/eliza/Eliza.html o en http://www-ai.ijs.si/eliza/eliza.html

[5] Ver, por ejemplo, COPELAND, Jack. Inteligencia artificial. Alianza Editorial. Madrid, 1996. Págs. 69-96.

[6] Aunque la idea del autómata es un tema recurrente en la filosofía de la mente, la figura del zombi es introducida por Robert Kirk en su artículo «Zombies vs. Materialists», 1974 y ha tenido gran difusión y controversia en el estudio contemporáneo sobre la conciencia humana.

[7] En la novela de Jack Finney Los ladrones de cuerpos (1955), unos alienígenas sustituyen progresivamente a los distintos miembros de una comunidad manteniendo su apariencia externa, ante la sospecha creciente de los que aún permanecen como humanos de que algo extraño, que no pueden describir, les ocurre. La novela ha sido llevada al cine en tres ocasiones: La invasión de los ladrones de cuerpos, de Don Siegel, 1956; La invasión de los ultracuerpos, de Philip Kaufman, 1978; y Secuestradores de cuerpos, de Abel Ferrara, 1994.

[8] DENNETT, Daniel. Dulces sueños: obstáculos filosóficos para una ciencia de la conciencia. Katz Barpal Editores S.L. Madrid, 2006. Pág. 113.

[9] El antropólogo Nicholas Humphrey sitúa el origen de la autoconciencia en esta capacidad para la empatía de la especie humana. Siendo el contexto social el ámbito de interacción principal del ser humano, prever los estados interiores de sus congéneres constituyó una ventaja adaptativa crucial. En el esfuerzo por desentrañar lo que la conducta de sus semejantes podía significar, los primeros hombres fueron conjeturando qué sentían ellos mismos, constituyendo así su autoconciencia. HUMPHREY, Nicholas. La mirada interior. Alianza Editorial. Madrid, 1993.