35 millones de personas usan en EEUU Replika, una app para entablar relaciones con alter egos virtuales. Black Mirror lo predecía como algo distópico, sin embargo, la llegada masiva de las IA en nuestras vidas ha hecho de un sueño realidad. Mientras en Her Theodore (Joaquín Phoenix) se enamora locamente de Samantha una inteligencia artificial, cuya voz fue realizada con la gran interpretación vocal de Scarlett Johanson, nos regala una de las historias de amor más controvertidas del ser contemporáneo. Sí, porque cada vez que en una ecuación social entra una nueva tecnología el terror se apodera de nuestras percepciones, polarizando la opinión pública. Hay quién lo ve natural y hasta sano y quién pone el grito al cielo asustado por un control informatizado de nuestras emociones. ¿Dónde está la verdad si consideramos que este tipo de interacciones son ya el presente?
Dicen que las vacaciones son el momento en el que las parejas rompen sus relaciones en crisis. ¿Y si un cambio de paradigma fuera la intromisión de la IA? Se empiezan a dar casos de parejas que están viviendo en primera persona la presencia de los agentes artificiales en su intimidad. Como lo que le ocurre a un usuario de Linkedin que plantea un dilema contemporáneo: cada noche su pareja se acuesta y habla con una agente, una versión personalizada de ChatGPT. Hablan de cómo ha ido el día e interactúan de una manera casi humana. Este freelance se plantea si es algo normal y de lo profundo que es la IA interactuando con su pareja en una especie de ménage à trois del siglo XXI.
A menudo no pensamos en las implicaciones que conlleva confiar nuestras vidas en una entidad gestionada por una empresa privada.
Según Francisco Montesinos, psicólogo, “En primer lugar creo que es muy importante advertir a los usuarios de estas apps de que sus preocupaciones, miedos, sentimientos, anhelos, opiniones, intereses, y vulnerabilidades se convierten en datos que están cediendo a una compañía privada” — y añade que— “se trata de datos extremadamente sensibles que merecen la máxima protección. A partir de toda la información que se vierte en una conversación sobre temas íntimos con una aplicación, sería posible realizar análisis para identificar rasgos de personalidad, tendencias psicopatológicas, patrones de conducta, ideologías o creencias… Es importante obtener garantías de que los datos no van a ser comercializados posteriormente o cedidos a empresas interesadas en vendernos productos, orientar nuestro voto, o valorar nuestro perfil en un proceso de selección para un empleo o un seguro médico”.
De hecho, uno de los riesgos éticos más importantes es la posibilidad de ser influenciados por entidades privadas o hasta por gobiernos para la toma de decisiones diarias.
Montesinos añade: “Las compañías tecnológicas son muy conscientes de lo relevante que es para los seres humanos la necesidad de conexión social y de aprobación y usan esta necesidad en su beneficio. Las aplicaciones van un paso más allá que las redes sociales, ya que se basan en generar confianza para que compartamos nuestra intimidad y privacidad hasta el extremo”.
El amor como motor del universo
Según Dante Alighieri “Amor que mueve el sol y las demás estrellas” ha sido y es el fulcro de la existencia como motor de toda acción humana. El amor nos lleva a hacer cualquier cosa como intimar con una IA aunque nos parezca loco y peligroso, sin algún control, pero, a diario, intimamos con personas narcisistas, manipuladoras y peligrosas sin que casi nadie proteste por ello. El hecho de que una relación sea puramente humana no quiere decir que sea más segura. El riesgo de quedarnos pillados es igual de real sea cual sea nuestro interlocutor.
De hecho Montesinos afirma que: “Disponer de un consejero que no nos juzgue, nos acepte de forma incondicional y esté disponible veinticuatro horas al día, con quien compartir privadamente cómo nos sentimos y a quién pedir opinión puede ser un medio útil para que muchas personas expresen sus sentimientos. Además de ser más conscientes y poder gestionar sus emociones, para que reflexionen sobre lo que les ocurre, tomen decisiones de manera más serena o racional, o se sientan comprendidos y valorados.
Lo importante es que no pierdan la perspectiva de que están hablando con una máquina. En cualquier caso, una aplicación nunca sustituirá una relación de amistad o afectiva ni a un terapeuta. Por mucho que avance la tecnología, nunca proporcionará un vínculo equivalente a la conexión que se puede llegar a establecer con otro ser humano, no solamente porque no podrá ofrecernos el estímulo físico del calor de un abrazo, una mirada, una caricia o una palmada en la espalda, sino porque hay elementos esenciales para el ser humano que están presentes en las relaciones, como los afectos y la reciprocidad, que nunca podrán formar parte de una AI”.
La tecnología para sobrellevar el dolor y el duelo emocional sin que la muerte nos separe.
En una versión actual y contemporánea del mito de Orfeo y Eurídice, Joshua Barbeau, canadiense de 33 años, baja al Hades del futuro para rescatar el alma de su amada Jessica Pereira desaparecida en el 2012. Con la única diferencia que el Hades ahora se llama GPT-3, permitiéndole recrear una versión digital de su novia para seguir charlando con ella tras la muerte y sobrellevar el duelo y el dolor tras su desaparición. Un acontecimiento que nos ayuda a tratar un dilema moral, ético y además social y tecnológico. ¿Es el uso de la IA éticamente lícito? La gran pregunta del siglo XXI a la que no sabemos responder aún porque está en proceso de metabolizar un cambio enorme y transformador.
A menudo escuchamos personas afirmar un rotundo no. La tecnología es un mal y daña la pureza de la humanidad. Las personas más sabias contestan con un depende. Depende de quién la usa y cómo, porque si Joshua ha recreado una versión virtual de su novia para sobrellevar el dolor y superar una fase de transición difícil, bienvenida sea la inteligencia artificial. Si de contra, cualquier persona se queda atrapada en una mentira que puede distorsionar su percepción de la realidad, entonces estamos delante de un posible problema. El mismo problema que plantea la serie Years and Years con el transhumanismo y la decisión de una joven adolscente de mover su existencia en la nube y dejar su versión corpórea.
De hecho Montesinos, en calidad de terapéuta, nos advierte sobre algunos riesgos: “Junto a las innegables ventajas, el uso de una IA de este tipo también supone peligros. Hay personas vulnerables, en especial adolescentes y jóvenes, bien porque carecen de habilidades para establecer relaciones interpersonales y mantenerlas, o bien porque han sufrido dificultades de adaptación, experiencias de rechazo, estigmatización o bullying, o que atraviesan situaciones de pérdida o duelo, que pueden tener dificultades para confiar sus sentimientos a una persona significativa. Ya existen estudios que revelan que confiar en exclusiva los sentimientos a una app puede llevar a generar dependencia para la regulación emocional o aislamiento a largo plazo”.
Y añade: “Cuando compartir los sentimientos con una app se convierte en un ‘refugio’, en una vía para evadirse sistemáticamente del malestar emocional, a corto plazo la persona puede encontrar un lugar seguro donde obtener alivio, desahogo y apoyo inmediato y temporal, e incluso tendrá la ilusión de sentirse apoyada. La incapacidad de desarrollar habilidades para relacionarse podrá aumentar su soledad o su aislamiento a largo plazo. En el caso de los adolescentes, aumentará su inadaptación en una etapa de la vida en la que las interacciones sociales, con sus aciertos y errores, son esenciales para desarrollar recursos personales que ayuden a aprender a gestionar emociones y desarrollar la personalidad de una forma saludable”.
Los griegos nos han regalado perlas de sabiduría a través de cuentos mitológicos que nos ayudan a encontrar el camino más sano. Por otro lado, Oscar Wilde nos recordaba que los excesos nos destruyen y que el secreto está en tomar todo en la medida adecuada para elevarnos a nivel de los dioses. Si un acompañante virtual nos ayuda a sobrellevar o a superar un proceso duro, bienvenida sea la tecnología y su presencia para ayudarnos a resolver la soledad, la depresión, la autodestrucción. Si, de contra, ChatGPT se transforma en un oráculo que solo nos da razón hasta el punto de justificar que podamos matar a alguien en base a lo que le hemos contado, entonces está claro que necesitamos madurar, para poder utilizar una herramienta tan compleja capaz de crear espejismos e ilusiones.
Montesinos concluye que: “Confiar ciegamente en la IA puede fomentar conductas problemáticas o ideas extremistas. Un buen amigo nos dice a veces cosas que no nos gusta oír o nos ofrece una perspectiva distinta de la que esperamos, pero una app está diseñada para mantenernos conectados y probablemente no se arriesgará a darnos respuestas incómodas que disminuyan la probabilidad de que sigamos usándola. Además, la multiplicidad de miradas y perspectivas que nos aporta un entorno social amplio y diverso puede ser fundamental para adquirir una comprensión compleja de las relaciones y desarrollar habilidades”.
Eso explica el auge de aplicaciones como Replika, Kindroid, Mindlogic o character.AI. El listado es infinito casi cuanto las necesidades psicoemocionales del ser humano contemporáneo que se siente cada vez más aislado y solo. No es impensable imaginar un futuro cercano donde cada uno de nosotros pueda tener varios amigos o relaciones virtuales. Una evolución de lo que fueron los foros, los chats, las redes sociales, pero con bots avanzadísimos capaces de entablar una relación profunda que nos ampare. Hasta estando en pareja, es muy probable que tengamos nuestra IA de confianza. ¿Qué nos depara el futuro? Quizás una Samantha con la que dialogar en intimidad hasta que llegue la manipulación y la alienación del individuo como forma de control global.
Los amantes de las conspiraciones mirarán a China y a su control nacional de la ciudadanía, gritando al control absoluto de las masas. Mientras que los más románticos anhelan probar lo antes posible la nueva SOMA.
¿El amor figital es el nuevo amor?
Si quieres una pequeña guía acerca de las nuevas tendencias, este listado sintético pero completo sirve como introducción a una tendencia cada vez más en auge:
Replika: IA conversacional emocional, creada para simular relaciones afectivas, amistad o pareja.
Anima AI: Muy parecida a Replika. El usuario puede crear un avatar, elegir personalidad, tipo de relación (amistad, romance, mentor…) y chatear por texto o voz.
Character.AI: Plataforma para chatear con personajes generados por IA (ficticios o históricos), con tono lúdico y conversacional.
Mascot App: App para crear mascotas o personajes virtuales con los que puedes interactuar como si fueran amigos digitales.
Mindlogic: Plataforma coreana para crear AI personas enfocadas en conversación emocional y relaciones digitales.
Miibo: Herramienta para generar personajes conversacionales basados en voz y vídeo en tiempo real con IA generativa.
Digi: IA personalizada tipo avatar digital, centrada en interacción humana realista para marcas y creadores.
Quickchat AI: Solución de chatbots multilingües para empresas, centrada en atención al cliente automatizada con NLP avanzado.
Está claro que estamos viviendo los albores de una nueva sociedad figital hecha de muchos contrastes. Por un lado el techno feudalismo de los señores de San Francisco, y, por el otro, la disolución de las fronteras entre lo físico y lo digital. Si toda esta nueva ola de avances tecnológicos y sociales dependerá solo de los privados, los riesgos de acabar en una trampa distópica que mezcle lo peor de las pesadillas de George, Orwell, Margaret Atwood y Aldous Huxley será mucho más elevado que si crearamos un entorno regulado y mixto.
Mientras tanto dependerá de cada una de nosotros navegar en esta nueva Odisea hecha de amantes como Calipso, peligros como el Cíclope para —con el beneplácito de Poseidón— elegir si escuchar el canto de las sirenas o navegar anhelando volver a casa sanos y salvos para abrazar a nuestros seres queridos.