Robos millonarios utilizando inteligencia artificial: ¿Pueden los ‘deepfakes’ suplantar nuestra identidad?

El imparable avance de las tecnologías capaces de imitar rostros y voces de personas reales está empezando a ser aprovechado por los criminales para convencer a sus víctimas para que hagan todo tipo de cosas para sacar tajada, desde invertir en estafas de criptomonedas hasta realizar transferencias indebidas.

Por @Rhizomatika_Lab

Una nota de voz en la que un CEO de una compañía pide a sus subordinados transferir 220.000 euros a un proveedor en Hungría de manera urgente. Un vídeo en el que un ex gurú de las criptomonedas solicita a clientes perjudicados que pinchen un enlace para recibir compensaciones. Un holograma que negocia acuerdos empresariales en una videollamada, haciéndose pasar por un ejecutivo. Estos son solo algunos de los usos que los criminales ya le han dado a la tecnología deepfake, que recrea voces e incluso rostros mediante inteligencia artificial (IA), para suplantar la identidad en el mundo empresarial.

Las herramientas para crear deepfakes procesan cientos de referencias y contenido ya existente para “enseñar” a la inteligencia artificial cómo replicar una imagen o un sonido (en este caso voces o caras). De hecho, la publicidad ya las ha empleado para devolver a las pantallas a personalidades como Lola Flores, Cantinflas y Salvador Dalí de manera póstuma. En el contexto del despegue de programas como Midjourney, que generan imágenes cada vez más detalladas, los especialistas advierten de que los criminales también pueden aprovecharlas para replicar el rostro de personas sin su consentimiento y consumar estafas, aunque con ciertas limitaciones.

“Ya se han visto varios casos en los que se ha empleado esta tecnología para cometer crímenes. Por un lado, tenemos las llamadas del CEO que han sido utilizadas para confirmar transferencias de millones de euros. Por el otro, se han empleado para superar entrevistas de trabajo en remoto y conseguir un puesto que permita a los criminales robar información confidencial de la empresa que los contrató”, explica a Retina el director de Investigación y Concienciación de la compañía de ciberseguridad ESET en España, Josep Albors.

Añade que compañías como Microsoft ya están trabajando en herramientas de detección específicas para deepfakes  y opina que, en el futuro, posiblemente se verá una competencia entre los creadores de estos programas y los de sistemas capaces de reconocerlos.

“Un ejemplo que ya ha sucedido es el uso de tecnología deepfake para convencer a personas para que inviertan en fraudes de criptomonedas. Se han modificado vídeos de personalidades del sector tecnológico para hacer parecer que están diciendo algo que no dijeron durante una conferencia. De hecho, es un método bastante común en este tipo de estafas”, señala la analista de seguridad de la compañía Bitdefender Silviu Stahie.

Los expertos consultados para este reportaje coinciden, sin embargo, en que la tecnología de los deepfakes aún no puede burlar a la biométrica. Por ejemplo, las herramientas de reconocimiento facial que se emplean para desbloquear los teléfonos o realizar operaciones bancarias pueden distinguir de forma precisa si se encuentran ante una persona real o una réplica digital. “La biometría facial, como la de los teléfonos, necesita un objetivo 3D para funcionar, lo que significa que no pueden ser engañados por una representación 2D, sin importar lo buena que sea”, cuenta Stahie.

En cuanto a la suplantación de voces, desde ESET indican que cualquier sistema de reconocimiento facial y actual que sea “mínimamente competente” es capaz de reconocer cuando está frente a un deepfake. No obstante, Albors resalta que, más allá de los sistemas, se deberían analizar las vulnerabilidades de los datos biométricos que se recolectan. “Actualmente, resulta prácticamente imposible engañar a un sensor biométrico. Sin embargo, los datos biométricos son únicos de cada persona y no pueden ser cambiados, por lo que el robo y suplantación de estos datos representa un peligro real que debemos tener en cuenta”, advierte el experto.

ALGUNAS VÍCTIMAS DE LOS ‘DEEPFAKES’

Binance. En 2022, el jefe de Comunicaciones de esta conocida plataforma de intercambio de criptomonedas, Patrick Hillman, reveló que había sido “suplantado por un holograma creado con inteligencia artificial” durante múltiples videollamadas. Según el ejecutivo, esta falsificación se utilizó para negociar distintos acuerdos sobre criptomonedas en la plataforma.

FTX. La infame plataforma de intercambio de criptomonedas fue otra de las víctimas de los deepfakes. Tras el anuncio de su colapso y bancarrota en noviembre de 2022, un vídeo falso de su CEO, Sam Bankman-Fried, empezó a circular por las redes indicando que los perjudicados podrían acceder a una compensación si pinchaban en un enlace para acceder a una página web. En realidad, todo esto era parte de una estafa para robar datos y dinero de las víctimas.

Reino Unido. La compañía de ciberseguridad Avast reveló que en 2019 una empresa energética de Reino Unido fue víctima de una estafa que utilizaba deepfakes de voz. Los criminales falsificaron un mensaje de voz del CEO de la compañía matriz para contactar con los empleados de la subsidiaria y solicitar múltiples transferencias a proveedores. Los ciberdelincuentes consiguieron estafar 220,000 euros

Más Información