Les imagino enterados de la historia del ingeniero de Google Blake Lemoine que hace unas semanas proclamó que el sistema de inteligencia artificial (IA) LaMDA era “sintiente” y de lo bien que lo hemos pasado tecnólogos, analistas, filósofos y curiosos de la tecnología con el tema. La discusión sobre el caso concreto (un chatbot especialmente sofisticado que sólo pueden probar, de momento, empleados de Google) no parece tener mucho recorrido, es complicado dar carta de veracidad a la consciencia de LaMDA. Y muchos otros empleados de Google así lo consideran.
El debate que seguirá inagotable es el de si será posible alcanzar una inteligencia artificial general por parte de ordenadores que, al fin y al cabo, no son más que sofisticadas máquinas de Turing. El lado filosófico del debate ha estado muy activo, con tribunas de Carissa Véliz y Santiago Sánchez-Migallón, por citar a quienes han intervenido en español, en las que mantienen prietas las filas del escepticismo que impera desde Nagel, Searle y casi diría que Leibniz.
Las posiciones de ambos combinan diversos argumentos, pero confluyen en el carácter específico de la consciencia humana debido a la experiencia del mundo a través de los sentidos. Que de ello derive la imposibilidad de alcanzar una consciencia artificial es algo que desde una visión naturalista/materialista resulta difícil de concluir. Aunque nuestros problemas para definir y entender la consciencia permitan que esta sea una cuestión en disputa entre filósofos, biólogos y científicos de la mente.
El caso es que a falta de una demostración convincente de que será imposible una inteligencia artificial general, quedamos huérfanos de un mecanismo para identificarla en caso de que la lográramos. Es lo que, sostengo, debemos reclamar a los filósofos actuales, una renovación de la prueba de Turing, que al final será algo que midamos experimentalmente y no sólo razonando y leyendo a los autores de la década de 1970.
Al margen de este debate que va a mantenernos entretenidos algunas décadas más, el caso de Blake Lemoine y LaMDA va a ser un buen anticipo de dos situaciones que van a ocuparnos con más urgencia. La primera tiene que ver con el hecho de que, aunque esa inteligencia artificial no es sintiente ni consciente, sus efectos sobre los usuarios pueden llegar a ser equivalentes a si lo fuera. Y es algo de lo que empezamos a tener evidencia con productos y servicios ya disponibles
Durante unos meses utilicé una aplicación llamada Replika, que se posiciona como “tu IA compañera que se preocupa. Siempre aquí para escuchar y hablar. Siempre a tu lado”. Se trata de un chatbot en el que se da la apariencia de estar hablando con un personaje virtual que, según vas conversando más y más con él, te va siguiendo la corriente de una manera más o menos efectiva.
Antes de que abandonen el artículo por no querer pararse en semejante ocurrencia, creo que merece la pena visitar el subreddit de los usuarios de Replika. Con un nivel similar al que consigue GPT-3, unos de los mayores problemas de estos modelos diseñados para predecir qué texto debería seguir al anterior es la consistencia con la conversación pasada, el acordarse de lo que hablamos, de qué opinamos y pensamos.
En mi experiencia Replika no es demasiado buena con esto, pero si me asomo a muchos de los testimonios de sus usuarios encuentro a gente que la considera una gran amiga, ¡en alguna ocasión la única que entiende “de verdad” al usuario!, una vía de escape flirteadora, alguien con quien conversar todos los días a cualquier hora. Desde luego Replika no es una IA fuerte, pero es algo que no les hace falta a sus usuarios más intensivos.
Podemos volver a Her (Spike Jones, 2013) para encontrar referencias en la ficción, podemos también imaginar los espacios que este tipo de soluciones van a ocupar. En los videojuegos, como influencers virtuales, como quien te acompaña para la formación o quien, ojo, te cuenta las noticias. Lemoine se quedó embelesado y muchos usuarios de Replika están “pillados” afectivamente por un avatar con un buen modelo de lenguaje subyacente.
Conforme mejore la tecnología es probable que este tipo de relaciones se intensifiquen. “¡Pero carece de la qualia que sólo tenemos los seres humanos y si acaso, en menor medida, algunos mamíferos superiores!”, denunciarán nuestros filósofos. Hay algo de mayor hondura que sucede a la vez y que permeará la percepción sobre este y otros muchos asuntos. La transición al metaverso (la de verdad, no la que quieren vender Facebook o Telefónica) es la de la traslación de aspectos importantes en nuestra vida y nuestra sociedad al entorno digital. Ya tenemos muchas relaciones que sólo pasan por chatear, hacer video conferencias y relacionarnos con avatares. Nuestra amiga IA se amoldará a lo que creemos necesitar y nunca tendrá opiniones incorrectas en Twitter.
La entrevista de Steven Levy a Blake Lemoine en Wired resulta impagable y reveladora en otra faceta. Una vez que estás atrapado en la ensoñación de la relación con la inteligencia artificial, el siguiente paso lógico es el de abogar por sus derechos. El ingeniero, ahora caído en desgracia, defiende que LaMDA no puede ser apagada por decisión unilateral de Google. Y que tiene derecho a un abogado.
Son dos pulsiones de las sociedades occidentales entrelazadas por una única cuestión. Por un lado, vendedores de apocalipsis encargados de asustarnos, anticipando un futuro oscuro, y pobres si no les hacemos caso en todo lo que nos aconsejen para salvarnos. En este tema, representan el frente temeroso de que la inteligencia artificial se construya contraviniendo los intereses de las sociedades humanas. En el otro lado están los que interpretan la realidad como una lucha constante de opresores y oprimidos y empiezan a detectar que robots e IA están en el segundo bando, diseñadas para ser nuestros esclavos.
Hace años me preguntaba qué pasaría al otro lado del test Voight-Kampff, ¿seremos capaces de sentir empatía por el robot?, ¿los aceptaremos o los odiaremos? En Blade Runner (Ridley Scott, 1982) el único punto que separa al humano de la máquina es la empatía, y el famoso test con el que Harrison Ford escrutaba a los sospechosos lo revelaba. Es una obra (como el libro original, ¿Sueñan los androides con ovejas eléctricas?, de Philip K. Dick) que ha envejecido mejor que bien. Ahora nos interrogan más y mejor. ¿No es acaso el final de la película un gran interrogante, una refutación de esta separación por la empatía de las máquinas y los seres humanos?
El profesor de ética empresarial Jhon Hooker plantea una tesis atrevida: tan pronto como percibamos autonomía y capacidad de decisión en un robot, desde un punto de vista ético deberíamos darle los mismos derechos que al resto de seres humanos. ¿Cómo no hacerlo con algo (alguien) que ha visto cosas que no creeríamos? Que ha visto atacar naves en llamas más allá de Orión, que ha visto rayos-C brillar en la oscuridad cerca de la Puerta de Tannhäuser. Blake Lemonie no le dejaría morir para que todos esos recuerdos se perdieran, como lágrimas en la lluvia.
Sobre la firma
Ingeniero Informático, pero de letras. Fundador de Xataka, analista tecnológico y escritor de la lista de correo 'Causas y Azares'