Sora, la nueva fábrica de ‘deepfakes’. ¿Puede OpenAI dejar sin trabajo a los ‘youtubers’?

Resulta paradójico que una tecnología capaz de hacer cosas tan bonitas represente una amenaza tan grande para la sociedad. Cualquier trabajador de la industria audiovisual debería estar preocupado, mientras que todos los demás debemos empezar a cuestionarnos qué vamos a hacer para aprender a distinguir la realidad. Aunque el siguiente paso lógico en la carrera de la IA muestra bastantes fallos, desaparecerán dentro de poco.

Sam, porfa no me conviertas en un sintecho”, le dijo el popularísimo youtuber Mr. Beast al CEO de OpenAI cuatro minutos después de que anunciara Sora, el nuevo modelo de inteligencia artificial (IA) de generación de video de la compañía. En cuestión de otros 20 minutos, el chaval le pide un video de un mono jugando al ajedrez y, casi por arte de magia, Altman se lo devuelve. Apenas dura 10 segundos, el mono se gira, mira a cámara, y el mundo ha cambiado para siempre.

Conseguir una IA que genere video con tal nivel de calidad y realismo en tan poco tiempo era el siguiente paso lógico de la compañía después de ChatGPT. Cuando me enteré del lanzamiento sabía que los videos que iba a ver serían impresionantes. Y lo son. Pero su impacto y lo que supone es mucho más profundo.  “Lo que tenéis que entender es que Sora representa algo más grande que un generador de vídeo. Es un ‘mal’ simulador del mundo real, y como subproducto, es capaz de generar vídeos… La hazaña es TAN BESTIA”, dijo en X el divulgador de IA español Carlos Santana.

Uno de los vídeos que OpenAI ha creado para promocionar Sora.

Esa ha sido la característica más comentada en las pocas horas que han pasado desde el anuncio: la capacidad del modelo de entender la física y las dinámicas del mundo real. Obviamente tiene fallos, y gordos, como este pato que vuela hacia atrás (por eso dice Santana que “es un ‘mal’ simulador”), pero ahí está, simulando la realidad a gusto del consumidor y en segundos. Solo es cuestión de tiempo que llegue a hacerlo perfectamente bien, probablemente no demasiado.

¿Qué hará entonces el gremio de actores, maquilladores, iluminadores, cámaras, técnicos de sonido, localizadores, productores, diseñadores gráficos, artistas de los de videojuegos…? Piénsalo. ¿Cuánto tiempo, presupuesto y equipo humano habría sido necesario para grabar el video del mono jugando al ajedrez? Jaque mate, industria audiovisual. Porque Altman lo ha hecho en minutos y gratis.

Ahora toca decir las típicas frases con las que las big tech tratan de calmar a la sociedad cada vez que sus productos torpedean los cimientos de nuestras estructuras productivas y laborales:

  1. Siempre hará falta un humano al mando que le diga al sistema lo que tiene que hacer.
  2. Democratizará la generación de productos audiovisuales.
  3. Impulsará la creatividad de los creativos.

Todo eso es cierto, pero, también lo es el miedo de Mr. Beast y el de todo aquel que se gane la vida en cualquier lugar de la cadena de la industria audiovisual. Esto afecta al cine, a la televisión, a la publicidad, a los videojuegos, a la música, a los medios de comunicación y, por supuesto, a los influencers, tiktokers, youtubers, creadores de contenido, o como quieras llamares.

Es lo que pasa siempre con la automatización, lo que se lleva advirtiendo desde hace años. No sabemos el número de trabajos que desaparecerán, Goldman Sachs dice que 300 millones en la próxima década. Puede que sean más, puede que menos, pero de lo que no cabe duda es de que la industria audiovisual tiene motivos para preocuparse, igual que se preocupó esta humilde periodista cuando leyó esta columna escrita por GPT-3 en The Guardian en 2020, mucho antes de que el mundo conociera a ChatGPT.

La diferencia con cualquier revolución industrial anterior es que las automatizaciones previas desplazaban trabajos de muy baja cualificación, y eso era bueno, dijeran lo que dijeran los luditas, porque era relativamente fácil reconvertir a esos trabajadores. Pero la amenaza de la inteligencia artificial recae sobre trabajos de cualificación media, cuyos profesionales tendrán mucho más difícil eso de recolocarse.

Podrán reciclarse rápidamente como repartidores de Glovo, conductores de Uber, moderadores de contenido y etiquetadores de datos, pero adquirir las exigentes competencias técnicas asociadas a los empleos más demandados en la actualidad, como la ciberseguridad, les costará mucho más. Buena suerte con eso del reskilling.

También está la cuestión del robo/plagio/inspiración de OpenAI sobre trabajo de todos aquellos que produjeron los miles o probablemente millones de videos que habrá necesitado para entrenar su nuevo modelo. “Meta, Google y OpenAI están utilizando el duro trabajo de periódicos y autores para entrenar sus modelos de IA sin compensación ni reconocimiento”, denunció el senador demócrata de EEUU Richard Blumenthal una audiencia sobre el impacto de la IA en el periodismo.

En el caso de Sora, la situación es exactamente la misma. “Cuando empecé a trabajar en IA hace cuatro décadas, simplemente no se me ocurrió que uno de los mayores casos de uso sería la imitación derivada, transfiriendo valor de artistas y otros creadores a megacorporaciones, mediante el uso de cantidades masivas de energía. Esta no es la IA con la que yo soñaba”, ha dicho el psicólogo, neurólogo y experto en IA Gary Marcus. Desde que se publicó el modelo, no ha parado de tuitear (o como se diga ahora) para señalar sus fallos y limitaciones desde su visión privilegiada de experto en el cerebro humano.

¿QUÉ ES REAL?

Y, por supuesto, está la desinformación, EL TEMA de la desinformación. ¿Qué decir de esto que no se haya dicho ya? Antes de que Sora viera la luz, el Foro Económico Mundial ya había avisado de que la desinformación generada con IA es el segundo gran riesgo al que se enfrena la humanidad en este momento, solo por detrás del clima extremo. Así que estamos ante la amenaza de siempre, pero con otra dosis más de esteroides.

Cuanto más realistas y fáciles de hacer se vuelvan estas creaciones, más fácil será que los malos las utilicen para fines perversos, algo especialmente preocupante en un año tan marcadamente electoral como 2024. “¿El mayor peligro inmediato de la IA actual? Probablemente: Crear desinformación para influir en las elecciones”, dijo Marcus hace un par de semanas.

Por supuesto, OpenAI no ha tardado en informar de las precauciones que está tomando para evitar los malos usos. “Está creando herramientas para ayudar a detectar contenidos engañosos, con detectores que puedan decir cuándo un vídeo ha sido generado por Sora. También ha desarrollado potentes clasificadores de imágenes que se utilizan para revisar los fotogramas de todos los vídeos generados y garantizar que cumplen sus políticas de uso antes de mostrárselos al usuario”, cuentan nuestros compañeros de El País.

Lamentablemente, por muchos fallos que tenga, por muchos patos que vuelen hacia atrás, el avance de la tecnología es imparable y cada vez va más rápido. Da igual que la regulación prohíba la difusión de deepfakes pornográficos, las llamadas telefónicas con voces artificiales y la publicidad electoral generada con IA, las herramientas para hacer todo esto están ahí, igual que las bombas, las pistolas y las armas biológicas, por muy prohibidas que estén.

Así que, por muchas herramientas que desarrolle la industria, quien quiera usar la IA para el mal, usará la IA para el mal, y cada uno de nosotros seremos los responsables últimos de que no nos la cuelen. El futuro se muestra sombrío en este sentido, especialmente a medida que la tiktokización de la información y aceleración de la vida va limitando nuestra voluntad de razonar y de entender el contexto y la complejidad de los problemas, y con ella, nuestro pensamiento crítico.

Pero, como me dijo un amigo en cuanto se enteró del lanzamiento de Sora, “yo el futuro lo veo claramente en ‘ponme la Guerra de las Galaxias, pero como si estuviera dirigida por Wes Anderson y acabara con Vader adoptando un ewok’”. Esa posibilidad también está ahí. Así que, puede que todo acabe siendo mentira, pero al menos podremos ver la mentira que elijamos, aunque no tengamos un empleo del que vivir.

Sobre la firma

Marta del Amo

Periodista tecnológica con base en ciencias. Coordinadora editorial de 'Retina'. Más de 12 años de experiencia en medios nacionales e internacionales como la edición en español de 'MIT Technology Review', 'Público', 'Muy Interesante' y 'El Español'.

Más Información