“Una imagen vale más que mil palabras” es, seguramente, uno de los refranes más trillados de nuestro idioma. Se le han dado innumerables vueltas a la frase según se quiera realzar el poder de las letras, o el de las imágenes. Pero la vuelta que no se preveía es que, ante el auge del deep-fake, una imagen ya no vale nada. Suene lapidario, pero si nos enmarcamos en el territorio de la búsqueda de la verdad, una fotografía o un video, son ya productos tan fácilmente manipulables que han perdido su coronado lugar en el trono de la credulidad.
En la web disponemos de una cantidad inabarcable de material basado en deep-fake. Desde los más frívolos memes o bromas, hasta aquellos que usan perversas usurpaciones de identidad en la pornografía, e incluso los que son susceptibles de provocar hecatombes internacionales manipulando discursos políticos en tono belicista. La facilidad con que se pueden llegar a producir y la infinidad, literalmente hablando, de su potencial los ha convertido en elementos virales a los que debemos prestar mucha atención. Una tarea que, a pesar de los esfuerzos de organismos públicos y privados por controlar la crítica avalancha de mentiras, recae inevitablemente en la acción individual. Y para combatir a un enemigo, lo primero es conocerlo.
¿QUÉ ES UN DEEP FAKE?
Ya sabemos que los deep-fake, también llamados “medios sintéticos”, son todo el espectro del audiovisual que pretende convencernos, a través de un material ficticio, que algo se trata de un hecho real. Profundizando en la cirugía, la matriz del deep-fake es la inteligencia artificial. Concretamente, se emplean técnicas de machine learning, llamadas deep learning, las cuales consisten en una red de algoritmos que dota a los terminales de la capacidad para identificar patrones en datos masivos y elaborar predicciones.
De entre las muchas formas de deep-fake con las que nos podemos topar, cabría establecer 3 marcos generales.
1. La modulación de voz: La IA logra simular la voz de alguien hasta el punto de alcanzar una suplantación extremadamente auténtica, difícil de distinguir de la original. ¿Recuerdan la película Terminator 2 (1991)? Lo que hacen los androides en la cinta imitando voces por teléfono es ya una realidad.
2. La sincronía de labios: Como su propio nombre indica, la IA logra adaptar los labios de alguien en un video para que parezca que lo que está diciendo se corresponde con el audio elegido. Gracias a esto, no es complicado darse de bruces con material audiovisual en el que un político, o un sujeto mediático, parezca estar pronunciando discursos sin sentido. E incluso peligrosos.
3. El intercambio de caras: Es la técnica más compleja de lograr. Con ella la IA puede generar rostros (e incluso cuerpos enteros) con los que logra una ficción absoluta de apariencia muy convincente.
Más allá de terminologías, lo que debemos comprender es que esta tecnología, antaño casi onírica, o sólo al alcance de grandes estudios de televisión con presupuestos millonarios, está hoy a golpe de clic para personas con nociones medias de informática.
¿CÓMO SE CREA UN DEEP FAKE?
Gracias a esa red neuronal, capaz de procesar miles de imágenes, audios y videos, un programa puede definir patrones concretos con los que alumbrar imitaciones de una exactitud casi absoluta del objeto original. El deep learning es, básicamente, un cúmulo de algoritmos trabajando para aprender a generar un producto visual o auditivo tras procesar una base de datos. Un almacén que, en vista de las tremendas capacidades de los programas, puede extenderse a la infinitud de la red. A esto habrá de sumarse el uso de redes adversariales generales (GAN). Explicado fácilmente, esto quiere decir que dos de esas redes neuronales que mencionamos se pelean entre ellas, compitiendo por generar una imagen que la otra no pueda identificar en base a sus datos de entrenamiento, mientras la razón de ser de la segunda es evitar que se la engañe.
Pero si lo que nos referimos es a hecho prácticos, a la capacidad de poner en marcha nosotros mismos las habilidades de un generador de deep-fake, por ejemplo, sólo tenemos que descargar la aplicación Reface en nuestro móvil. Una vez a punto, Reface nos permitirá falsearnos a nosotros mismos, intercambiando nuestra cara por la de un famoso en una importante cantidad de videos, gif o imágenes.
Aunque si queremos ir un paso más allá, podemos entrar en la web de Chat GPT y acceder a su modelo de inteligencia artificial generativa de vídeo, llamado Sora. La velocidad a la que el programa es capaz de crear un producto audiovisual de cualquier cosa que le pidamos es apabullante. Y no sólo la velocidad, sino también la calidad. Un realismo que alcanza tal nivel que el divulgador de IA español, Carlos Santana, dijo de él: “Lo que tenéis que entender es que Sora representa algo más grande que un generador de vídeo. Es un ‘mal’ simulador del mundo real”. Huelga decir que disponer de una herramienta a golpe de teclado que sea capaz de generar una “mala simulación” (debido a pequeñas contradicciones visibles en los resultados de los vídeos, cada día menos evidentes, por cierto) es un delirio que escapaba incluso a las fabulaciones más atinadas de los futurólogos de antaño.
¿CÓMO DETECTAR UN DEEP FAKE?
Tal y como advertíamos al principio, poner la sospecha por delante en cualquier video, imagen o grabación que nos llegue, es el primer paso para no caer en la trampa de una posible manipulación. Aun siendo una actitud considerablemente latosa, siendo innegable que habitar una ininterrumpida duda es un trabajo pesado, se trata de algo que debemos automatizar de cara a poner en marcha el resto de las estrategias de identificación. Sin sospecha, sólo resta la confianza y el triunfo del engaño.
Lo primero que debemos observar son las incongruencias en la piel de los personajes. Si la zona de las ojeras está muy lisa o la piel de la frente muy arrugada, es un indicador muy bueno para diagnosticar si se trata de un deep-fake. Esto mismo es aplicable al color de los labios, que puede no tener una tonalidad armónica con el resto de la cara.
Lo segundo, el sombreado. Si vemos zonas con una iluminación muy elevada, donde, instintivamente, sabemos que debiera haber sombra, y viceversa, nos encontramos seguramente ante un producto falso. Cosa que se extiende al vello facial, por lo general muy denso, excesivamente ensombrecido, o al contrario, demasiado disimulado.
Lo tercero sería comprobar la gestualidad facial. El parpadeo de los ojos, el movimiento de la boca. Cuando estos no son orgánicos y resultan arrítmicos o robóticos, es fácil que estemos ante un engaño.
En general, es importante estar ojo avizor en el momento en el que lo que estemos viendo nos deje un mal sabor de boca. Los residuos, por muy minúsculos que sean, pueden percibirse si somos precavidos. De ahí que lo más importante sea estar prevenidos ante la posibilidad de que lo que estamos viendo sea falso. Pues si una vez comprobado confirmamos su veracidad, nos habremos ahorrado la ventana de error en la que, quien sabe, podríamos haber dicho o hecho muchas cosas de las que nos arrepentiríamos al saber de la falsedad, o veracidad, del producto.
FORMAS DE COMBATIR LA MENTIRA
Organismos públicos y entidades privadas, como el Banco Santander, ya están poniendo en marcha activas campañas de concienciación con las que brindar a los ciudadanos un kit de herramientas para hacer frente a los fraudes derivados del deep-fake.
Porque, más allá de tener clara su existencia, es importante saber cómo reaccionar una vez detectado. Evitar acciones como el spoofing, donde los ciberdelincuentes suplantan la identidad de personas u organizaciones públicas, o privadas, falsificando los remitentes de correo electrónico, insertando SMS falsos sobre un hilo legítimo, e incluso alterando el número o el identificador de las llamadas, está en manos de los individuos. Para empezar, no compartiendo contraseñas, no introduciendo credenciales de ningún tipo después de hacer clic en un enlace sospechoso o llamando a la posible empresa suplantada.
Pero si se da el caso de enfrentarnos a un deep-fake donde una voz, similar a la de nuestra gestora del banco, nos invita a compartir los datos de nuestra cuenta, y dudamos de si se trata de una trampa, lo más importante es reportar esas sospechas. La mayor parte de organismos disponen ya de una línea de contacto a fin de denunciar estas actividades, lo que facilita, no sólo esquivar la posible estafa, sino también ayudar a que otras víctimas no caigan en ella.
En definitiva, la mejor forma de combatir los ciberdelitos derivados del deep-fake, es con una ciudadanía informada, y con la seguridad de que dispone de organizaciones de confianza a las que acudir en la lucha común contra la ciberdelincuencia.