Del porno a Donald Trump. ChatGPT al servicio de los mentirosos

Por si no tuviéramos bastante con el creciente problema de los ‘deepfakes’ en sí mismos, el simple hecho de que existan ha dado lugar a un fenómeno conocido como el beneficio del mentiroso, en el que el clima de desconfianza generalizada que provocan las ultrafalsificaciones creadas con inteligencia artificial generativa se está usando con fines perversos por la élite del poder para manipular a la sociedad para que ponga en duda escándalos reales.

Si la fábula de Pedro y el lobo tuviera lugar hoy, el problema no sería que los campesinos no creyeran al chaval, sino que hasta se pondrían de parte del cánido. Y es que la moraleja sobre las consecuencias de no ser honesto empieza a desdibujarse a medida que la inteligencia artificial (IA) generativa se vuelve más capaz de fabricar contenidos falsos hiperrealistas o deepfakes, y estos, a su vez, se convierten en arma arrojadiza para generar un clima de escepticismo generalizado.

“Durante el año pasado, esta nueva tecnología se utilizó en al menos 16 países para sembrar dudas, difamar a los oponentes o influir en el debate público”, advierte la edición de este año del informe Libertad en la Red elaborado por la organización sin ánimo de lucro Freedom House. Aunque España no es uno de ellos, no hace falta irse muy lejos para encontrar casos de deepfakes enturbiando cuestiones políticas y sociales: Francia, Alemania, Reino Unido y, por supuesto, Estados Unidos, figuran en la lista. “En Francia, una imagen manipulada por IA de un anciano golpeado por la policía circuló por Internet durante las protestas de marzo de 2023, a menudo junto a comentarios que menospreciaban al presidente Emmanuel Macron”, señala el informe.

Lo grave no es solo que la tecnología permita disfrazar mentiras de verdades con fines perversos, como sucede habitualmente con las pornovenganzas generadas con IA. Además, en este nuevo mundo en el que todo puede ponerse en duda, importantes sucesos reales podrían fácilmente acabar desmentidos equivocadamente si alguna de las partes interesadas los tilda de bulos generados con inteligencia artificial. Y ¿sabe quién es el único que sale ganando cuando toda verdad parece mentira y toda mentira parece verdad? El lobo.

Es como si el animal lograra convencer a los campesinos de que no se ha comido al rebaño de Pedro argumentando que los restos de ovejas muertas son parte de una farsa orquestada por el chaval para perjudicarle. El fenómeno se conoce como “el beneficio del mentiroso, en el que la cautela generalizada ante las falsedades sobre un tema determinado puede enturbiar las aguas hasta el punto de que la gente no crea en las afirmaciones verdaderas”, explica el informe, y añade: “Por ejemplo, políticos han calificado informes fiables como falsificaciones habilitadas por la IA, o han difundido contenido manipulado para sembrar dudas sobre contenido genuino muy similar”.

En realidad, esto es algo que ya sucedía sin ayuda de la inteligencia artificial. Donald Trump no necesitó deepfakes para convencer a una turba desquiciada de que las elecciones de 2020 habían sido manipuladas a pesar de que no tenía ninguna prueba que lo justificara. El problema es que “las herramientas basadas en IA que pueden generar texto, audio e imágenes se han vuelto más sofisticadas, accesibles y fáciles de usar rápidamente, lo que ha provocado una preocupante escalada de estas tácticas de desinformación”, señala el texto.

“Los deepfakes sí representan una amenaza para la política, pero en este momento la más tangible es el hecho de acusar a los deepfakes para hacer que lo real parezca falso”, alertaba ya en 2019 el investigador de Deeptrace Lab Henry Ajder, a raíz de la publicación de su propio informe sobre el tema. Su trabajo exponía el suceso que ocurrió en Gabón a finales de 2018 cuando la población empezó a dudar de si su entonces presidente, Ali Bongo, seguía vivo. Tras meses sin aparecer en público, su tradicional video para felicitar el año nuevo los ciudadanos no hizo más que avivar los rumores sobre su supuesta muerte y encubrimiento por parte del Gobierno ante quienes estaban convencidos de que era falso.

Bongo no solo sigue vivito y coleando, sino que ocupó el cargo de presidente hasta finales de agosto de este mismo año. Lamentablemente ese tipo de situaciones se producen con cada vez más frecuencia. Entre los casos más recientes identificados por Freedom House está el que salpicó al funcionario indio Palanivel Thiagarajan en abril de este año tras la filtración de unas grabaciones en las que se le escuchaba menospreciar a sus compañeros. Thiagarajan denunció que los audios habían sido generados por máquinas, a pesar de que varios investigadores independientes determinaron que al menos uno era auténtico.

Los deepfakes reales ya llevan tiempo socavando la sociedad que conocemos por sí solos. Su capacidad de suplantar la identidad de alguien en foto, audio o video está siendo explotada por los ciberdelincuentes para perpetrar fraudes y robos millonarios. Por no hablar de los cada vez más graves y frecuentes delitos de deepfakes pornográficos generados con inteligencia artificial generativa. Esta misma semana, una investigación independiente publicada por Wired advierte de que la publicación de este tipo de videos falsos y no consentidos, y que perjudican desproporcionadamente a las mujeres, se ha disparado.

“Se han vuelto omnipresentes. Según el investigador, que solicitó el anonimato para evitar ser atacado en línea, se han subido al menos 244.625 videos a los 35 principales sitios web creados exclusiva o parcialmente para albergar deepfakes pornográficos en los últimos siete años. Durante los primeros nueve meses de este año, se subieron 113.000 videos a los sitios web, un aumento del 54% respecto a los 73.000 subidos en todo 2022. Para fines de este año, el análisis prevé que se habrán producido más videos en 2023 que el número total de cada dos años combinados”, recoge el citado medio.

Para más inri, el beneficio del mentiroso supone otra vuelta de tuerca a toda esta problemática. Por ejemplo, en el caso de los robos en los que la voz de algún responsable corporativo fue replicada y utilizada para convencer a sus trabajadores para que realizaran transferencias indebidas, cabría la posibilidad de que dicho fraude hubiera sido perpetrado de verdad por el ejecutivo en cuestión, quien intentaría librarse de la culpa alegando una suplantación de identidad mediante inteligencia artificial que, en realidad, nunca habría tenido lugar.

MÁS PODER PARA EL PODER

El fondo de esta crisis, especialmente acusada en el mundo de la política y los negocios, es que “es un arma más para los poderosos, que ahora pueden responder con: ‘Es un deepfake’, ante cualquier cosa que pueda demostrar corrupción y abusos contra los derechos humanos”, advirtió también en 2019 el experto abusos contra los derechos humanos de la organización Witness, Sam Gregory, a raíz de la publicación del informe de Deeptrace Lab. En esa misma pieza, el experto en desinformación y director de la organización sin ánimo de lucro Thoughtful Technology Project, Aviv Ovadya, aseguraba que esta era su mayor preocupación en torno a los deepfakes y añadía: “Es bueno cuestionar la evidencia. Pero lo que [los creadores de desinformación] realmente quieren no es que cuestionemos más, sino que lo cuestionemos todo”.

Y es que, además de librarse de posibles acusaciones, que la sociedad viva en un clima de escepticismo generalizado es lo que da beneficios a los mentirosos. “Los políticos no solo señalan su propia inocencia, también critican a sus rivales y a los medios de comunicación, lo que incita a sus partidarios a unirse contra la oposición”, explica otro estudio del Instituto Tecnológico de Georgia publicado en 2021.

En este contexto no es de extrañar que Freedom House concluya que “la libertad en Internet a nivel mundial ha empeorado por decimotercer año consecutivo”. Junto al auge de los deepfakes y su impulso al beneficio del mentiroso, la organización señala otros ataques más clásicos a los derechos humanos perpetrados en Internet en los que “la IA no ha desplazado por completo a los métodos más antiguos de control de la información”.

El informe detalla: “Un récord de 41 gobiernos bloquearon sitios web con contenido que debería estar protegido según los estándares de libertad de expresión dentro del derecho internacional de derechos humanos. Incluso en entornos más democráticos, incluidos Estados Unidos y Europa, los gobiernos consideraron o impusieron restricciones al acceso a destacados sitios web y plataformas de redes sociales, un enfoque improductivo ante las preocupaciones sobre la interferencia extranjera, la desinformación y la seguridad en línea”.

La conclusión es que, al mismo tiempo que la censura, los abusos y la desinformación siguen aumentando mediante las tácticas a las que nos ha tocado acostumbrarnos a la fuerza, la inteligencia artificial generativa está convirtiéndose en otro erosionador de la democracia y la sociedad, ya sea cuando se utiliza para fabricar mentiras con fines perversos o simplemente cuando se usa como argumento para cuestionar cualquier escándalo real que el público sí debería conocer.

¿La solución? Tristemente, muy complicada. “Nuestras arquitecturas legales y políticas no están diseñadas de manera óptima para responder”, lamentaban ya en 2018 dos expertos en derecho en la investigación en la que acuñaron el término del beneficio del mentiroso. A pesar de los crecientes esfuerzos por regular la IA que estamos viendo últimamente, el hecho de que los problemas que acarrea no hayan hecho más que multiplicarse con los años augura un futuro sombrío, tanto para Pedro como para todos nosotros. Los lobos deben estar relamiéndose…

Sobre la firma

Marta del Amo

Periodista tecnológica con base en ciencias. Coordinadora editorial de 'Retina'. Más de 12 años de experiencia en medios nacionales e internacionales como la edición en español de 'MIT Technology Review', 'Público', 'Muy Interesante' y 'El Español'.

Más Información