Durante 40 años, el actor James Earl Jones ha sido la voz de Darth Vader en su versión original. Ahora que por fin se retira, Disney no ha considerado necesario realizar un casting para sustituirle. Con las grabaciones de todos estos años e inteligencia artificial (IA) (en concreto, la de los ucranianos Respeecher), los espectadores de las futuras apariciones del comandante del Gran Ejército del Imperio Galáctico seguirán escuchándole. Incluso sonará más joven, similar a sus primeras apariciones y no tanto a la voz madura de Earl Jones en Rogue One (2016).
El asunto resulta noticioso por afectar a uno de los personajes más icónicos del siglo XX, pero usar tecnología para conseguir la aparición de actores y actrices retirados o fallecidos es algo que se hace desde hace años. Sonada fue la aparición de Marlon Brandon en Superman Returns (2006) dos años después de su muerte. Carrie Fisher y Peter Cushing también fueron resucitados digitalmente en la saga de Star Wars, Lola Flores, en la famosa campaña publicitaria de hace unos años o, mi anuncio favorito con esta técnica, el del presentador que “anticipó” el documental The Last Dance décadas antes de su rodaje.
Al principio los estudios tiraban de la técnica de imagen generada por computadora (CGI) y metraje rodado previamente por el actor a “recrear”, pero en los últimos años y en los trabajos más finos, cada vez se tira más de la inteligencia artificial para crear estos deepfakes. En un negocio en el que las caras conocidas venden entradas y en el que cada vez se apuesta más sobre seguro, la inversión económica en tecnología que estire la vida útil de las estrellas aparece como rentable.
La preocupación en el sector lleva tiempo creciendo, como en todos los empleos afectados por el cambio tecnológico. Tanto es así que el sindicato británico de creativos Equity lanzó una campaña hace meses llamada “Evita que la Inteligencia Artificial robe el show”. Sus reclamaciones se centran en un punto crucial: los intérpretes deben de ser dueños de las futuras recreaciones de su trabajo con IA, tanto a la hora de dar el permiso para hacerlas, como a la de reclamar un pago justo por ellas. Al igual que en otras profesiones creativas, veremos herederos del artista gestionar y explotar su legado.
Hay un uso de este tipo de tecnologías en el cine que deja entrever hacia dónde soplan los vientos de futuro. Algo que interesa mucho a las productoras es aplicar una suerte de filtros antienvejecimiento, es decir, contar con actores actuales viejos en su versión rejuvenecida. El punto interesante es que, en casos como el cameo de Luke Skywalker en la serie The Mandalorian y las actuaciones de Robert De Niro, Al Pacino y Joe Pesci en El Irlandés (2019), técnicos de efectos especiales independientes han mejorado los resultados de Disney y Netflix con herramientas libres o gratuitas.
Es aquí donde creo que está el interés de cara a futuro, y no tanto en la voz de Darth Vader. Se trata de la mal llamada democratización (yo más bien diría abaratamiento) de los servicios y tecnologías que permiten crear contenidos con IA. Hemos hablado por aquí de las IA generativas para imágenes, tenemos herramientas para crear textos a partir de un comienzo y hemos visto las primeras versiones de proyectos de texto a vídeo. El trabajo desde la idea al contenido resulta cada vez más fácil, barato y rápido. Pronto el crear vídeos sin rodar, con rostros que parezcan humanos y efectos notables dejará de ser exclusiva de grandes estudios o agencias publicitarias.
Para intentar adivinar la aplicación de estos desarrollos deberíamos seguir el rastro del dinero. En ocasiones la incorporación de la inteligencia artificial se puede producir desde la plataforma, no desde el creador. TikTok tiene varios proyectos en torno a la música creada con IA, una por la que no pagaría royalties: el negocio mejora cuando los virales se hagan con canciones que a la plataforma le cuestan cero, en lugar del último éxito de Rosalía
En otras, se trata del abaratamiento de costes, del aumento de productividad o de la explosión creativa. Una agencia que, de repente, renuncia a las fotos de stock de pago, un copy que empieza a usar GPT-3 para contenido de bajo nivel, un youtuber que no tiene presupuesto para producciones avanzadas y encuentra en la IA la posibilidad de trascender el formato tipo “me siento en mi habitación y hablo a la cámara”.
Un aspecto crucial en esta generación de contenidos mediante IA es que vamos a asistir a un enorme aumento dela cantidad y sofisticación. Un informe de Europol citaba a “expertos” que predicen que para 2026 el 90% de los contenidos será generado “sintéticamente”. Añadiría: será posible automatizar la creación de miles de textos, fotos y vídeos, lanzarlos a las plataformas, medir y retroalimentar el proceso con las métricas que indican cuáles han tenido más éxito.
La gran pregunta no es si se podrá hacer, sino si nos gustará o si no acabaremos en una suerte de valle inquietante. Al margen de los problemas evidentes que se generan cuando la creación ilimitada de contenidos se cruza con la desinformación y los deepfakes, queda la duda de si los humanos reclamaremos el pequeño papel que nos queda. La ideación de qué quiere contar ese vídeo, esa imagen y ese texto. Si nos rebelaremos ante la propuesta de que sea también la máquina quien anote los trending topics, las tendencias de búsqueda y lo que tiene audiencia para elegir qué debe ser creado.
Venimos contando que la supremacía de TikTok como plataforma frente a Instagram y otras tiene que ver en gran medida con su funcionamiento: la experiencia no depende de a quién sigas, sino de cómo sus algoritmos aciertan que te va a gustar. En un mundo repleto de toneladas de contenido generado por inteligencias artificiales capaces de optimizarlo para cualquier algoritmo, parecemos condenados al papel de ojos pasivos, entretenidos siempre, con el engagement por las nubes y la agencia propia por los suelos.
Sobre la firma
Ingeniero Informático, pero de letras. Fundador de Xataka, analista tecnológico y escritor de la lista de correo 'Causas y Azares'