Google y el caso Lemoine. ¿Están los gigantes tecnológicos cerca de crear máquinas conscientes?

Blake Lemoine trabajaba como ingeniero en Google. Fue despedido tras afirmar que el sistema de procesado de lenguaje natural LaMDA (Language Model for Dialogue Applications) tenía consciencia. El debate sobre la si las máquinas pueden adquirir esta capacidad humana y los planes de los gigantes tecnológicos por conseguirlo vuelve a la palestra.

El vertiginoso y reciente éxito en la aplicación de redes neuronales artificiales profundas en problemas complejos y específicos tales como, el procesado de lenguaje natural y el reconocimiento de voz o imágenes/vídeo, ha devuelto a la escena inveteradas ensoñaciones sobre las capacidades de la inteligencia artificial (IA). La última de estas, no por ello original, siquiera novedosa, es preguntarse de nuevo si podemos llegar a crear máquinas conscientes o, ¡qué demonios!, si éstas ya lo son y los inconscientes somos nosotros.

La consciencia artificial con su halo de misterio y sus preatribuidas características maléficas vuelve a calentar nuestras mentes naturales. Es una hoguera ésta como de fuego griego, que si bien no necesita de mucho fuelle ha sido avivada por el reciente despido del ingeniero de Google, Blake Lemoine, tras afirmar éste que uno de el sistema de procesado de lenguaje natural LaMDA (Language Model for Dialogue Applications), creado por la compañía, tenía consciencia. Blake hizo esta afirmación después de mantener una breve conversación con LaMDA en la que interrogó a dicha IA acerca de sus sentimientos con preguntas como “¿Qué tipo de cosas te dan miedo?”. Tras la conversación infirió que la máquina tenía la consciencia de un niño de siete u ocho años.

Independientemente de la consciencia que uno pueda tener con siete u ocho años, que me temo pueda variar bastante entre individuos, y que en muchos casos pueda dar la razón al bueno de Lemoine; y dejando también al margen posibles tergiversaciones o exageraciones de sus palabras, conviene aclarar/matizar ciertos puntos sobre el actual estado de estos sistemas de IA a los que nos referimos y su relación con la consciencia, tal y como la entendemos biológicamente.

En primer lugar, convengamos que el desarrollo de los sistemas de inteligencia artificial, y en particular de las redes neuronales (base de los sistemas de procesado de lenguaje natural como LaMDA), pese a su exitosa aplicación en tareas complejas y específicas, no deja de estar en un estadio temprano; al menos, desde la perspectiva de nuestras alucinadas expectativas. Las redes neuronales en las que basamos gran parte de estos nuevos éxitos han despuntado ahora gracias a la cantidad de datos que hemos almacenado y etiquetado, así como a la capacidad de cómputo que tenemos; pero la base de buena parte de lo que hacemos hoy en día sigue intacta desde la década de 1980.

Por supuesto, ha habido mejoras para nada desdeñables, pero en gran medida seguimos, por ejemplo, basándonos en entrenamientos supervisados (dependientes de etiquetas). Esta forma de aprender contrasta con el aprendizaje no supervisado, autosupervisado o híbrido (no supervisado más supervisado), que apunta a ser más adecuado a la hora de entender mejor el mundo y extrapolar conocimiento de una tarea a otra. ¿Acaso un niño necesita de etiquetas para distinguir gatos de perros o aprender cómo le aplica la física de su entorno? Si vemos que un tigre ha atacado a un congénere (esperemos se encuentre bien), ¿no intuiremos, que podría hacer lo mismo con nosotros? ¿No extrapolaríamos este comportamiento a un león, aunque no hubiésemos visto uno en nuestra vida?

Y esto nos lleva a la raíz del asunto: ¿qué entendemos por consciencia? ¿Para qué sirve ser consciente? Nuestro cerebro, como órgano y nuestra mente, como el compendio de procesos que ocurren en el cerebro evolucionaron con un único objetivo: maximizar la supervivencia. La homeostasis, definida como el proceso dinámico para la regulación biológica, esto es, sobrevivir, es el fin último de estos complejos derivados biológicos en un proceso evolutivo constante a lo largo de miles de años.

A través de la selección natural, la evolución favoreció (sobrevivieron más) la creación de mapas mentales con referencias al mundo exterior y nuestra interacción con el mismo; y de manera más fascinante generó también mapas con autorreferencias a nuestro propio cuerpo, favoreciendo una más eficaz toma de acciones sobre el mismo (un camino de dos sentidos, cerebro-cuerpo, cuerpo-cerebro). Dichas acciones son a menudo inconscientes, como podrían ser las órdenes dadas por nuestra mente para intentar preservar el pH de nuestro cuerpo en un determinado nivel, o intervenir en la regulación de la frecuencia cardiaca.

Pero la evolución no se quedó en esa fase temprana, sino que desarrolló nuevos mecanismos mentales de más alto nivel, mecanismos capaces de crear mapas en nuestra mente de emociones primordiales, luego más complejas y posteriormente añadir en la misma un “yo”, un “sí mismo”, es decir, una identidad reflexiva sobre nosotros mismos: la consciencia.

Y lo que sabemos es que este maravilloso truco final de autorreferencia, de entendernos como un individuo único, y ser conscientes de ello tanto en el momento actual (sí mismo) como en su acumulado desde el pasado (sí mismo autobiográfico) no fue un capricho. Por el contrario, fue clave para sobrevivir en sociedad (homeostasis sociocultural) ya que, al cobrar consciencia de nosotros mismos, marcamos también las líneas entre lo que nos une y separa con nuestros congéneres en el entorno que habitamos. Poco de esto, o más bien nada, hay en los sistemas de IA que construimos hoy en día.

En resumidas cuentas, los éxitos de las redes neuronales profundas son muchos, su desarrollo en tareas complejas indudable y su recorrido prometedor en su ayuda para resolver problemas exprimiendo la capacidad de cómputo y datos que hoy en día tenemos. Pero su diseño, arquitectura y objetivos, más allá de la simplificada comparación con fines didácticos, poco tienen que ver con el modelo biológico de nuestro cerebro (o de lo que sabemos de él), y mucho menos de mecanismos tan abstractos y sofisticados como la consciencia que en gran medida no deja de ser un enigma. De nuevo, la respuesta a la pregunta de si estamos cerca de generar máquinas conscientes o ya habitan entre nosotros, es, para decepción de alarmistas, un claro: no. Eso sí, nada es más humano que, consciente o inconscientemente, volver una y otra vez a preguntárnoslo.

*Javier González es Chief Innovation Officer en EVO Banco. Doctor en Ingeniería Informática y Telecomunicaciones por la Universidad Autónoma de Madrid. Es profesor del Instituto de Empresa en el máster de Business Analytics and Big Data. Ha desarrollado su carrera profesional como investigador científico en QUT (Australia), TNO (Países Bajos), y Google (EEUU).

Más Información