ChatGPT y la IA generativa: motor de creatividad, bulos y desempleo

La explosión de sistemas de inteligencia artificial creativos aplicados a la generación de texto e imagen están sacudiendo los cimientos de la industria audiovisual. Para 2026 el 90% de los contenidos podría generarse de forma sintética sin que sepamos todavía qué impacto tendrá en el empleo, la economía y la desinformación.

Hay un aspecto del shock producido por ChatGPT al que se ha atendido poco: ¿cómo es posible que su nivel sea tan abrumadoramente superior a los asistentes de voz de tres de las compañías más grandes del mundo, como es el caso de Amazon con Alexa, Apple con Siri y Google? Años después de la voz se postulara como la próxima gran interfaz entre humanos y máquinas, tenemos un agujero de 10.000 millones en las cuentas de Amazon, despidos y desencanto. Mientras tanto, OpenAI está en boca de todos y se apunta a una valoración de 20.000 millones de dólares para inversores.

La principal razón es que OpenAI ha asumido los riesgos necesarios para dar un buen empujón a las expectativas en torno a la inteligencia artificial (IA). Modelos como GPT-3 pueden ofrecer respuestas, conversación y compañía a un nivel mucho mejor que Alexa, Siri y Google, pero al precio de correr riesgos por la aparición de respuestas inadecuadas, cuando no agresivas, insultantes o disparatadas. Es lo que destacábamos en la pieza que dedicamos a ChatGPT: “Lo producido por la IA de OpenAI suele tener muchos errores. Y es que hay contextos en los que, si el servicio no es 100% riguroso, no es aceptable nunca. ChatGPT responde con convencimiento y ofrece un discurso aparentemente con sentido, pero, al igual que sus mejores momentos resultan impresionantes, también encontramos errores infantiles, fallos garrafales y empecinamientos incomprensibles”.

También anotábamos que, si bien el servicio de chat es nuevo, la API de GPT-3 lleva disponible desde 2020 sin que hayan surgido grandes aplicaciones online que hayan puesto en valor su producción. La mayoría de grandes empresas de tecnología no quieren correr riesgos legales y reputacionales. Ejecutivos de Google han advertido de que la imagen de la empresa podría verse afectada si se mueve demasiado rápido en la tecnología de chat de IA. El de las búsquedas es un sector conservador y hay razones fuertes para que así sea. El celo de Google llega hasta el punto de no dejar probar LaMDA, su alternativa a GPT-3, fuera de la empresa. El affaire de su ingeniero Blake Lemoine proclamando que LaMDA era una herramienta “sintiente” y que, por tanto, debía tener derechos, no ha ayudado a que Google dé más pasos hacia la apertura.

El caso es que OpenAI ha acertado al atreverse a poner en producción y gratis ChatGPT. El retorno económico directo es un desastre, dado que se trata de un servicio muy caro de mantener y no genera ingresos inmediatos para la organización. Pero ha conseguido acelerar, estimular y poner en el centro de la conversación tecnológica a las IA generativas. Y mientras el negocio de OpenAI sea ofrecer una API a otros desarrolladores, el resultante es una noticia estupenda para ellos: los mejores cerebros técnicos y gran parte de la inversión en start-ups se está moviendo de otras categorías a la inteligencia artificial.

Este modus operandi no es nuevo, ya jugaron el rol de gran dinamizador de las IA generativas de imágenes. Con el lanzamiento de Dall-e 2 (aunque el acceso requería invitación) la organización logró captar la atención de gran parte de los tecnófilos y medios. Luego le siguieron varios competidores, como la espectacular Midjourney y la más abierta Stable Diffusion, que en su momento resultaron lo más asombroso en el mundo de la tecnología que se había visto en años.

De repente y tras el pistoletazo de OpenAI nos encontramos con una competición en la que un actor aparece con una estrategia diferencial: Stable Diffusion. El modelo de Stability AI es más abierto, de forma que es posible descargarlo y ejecutarlo en local. Además está siendo modificado por muchos otros equipos de programación (quizás el caso más conocido es el de los avatares mágicos de Lensa), con lo que tenemos una explosión de creatividad, y también de polémica.

TRABAJO, DESINFORMACIÓN Y DERECHOS DE AUTOR

Por un lado, hay un sector de artistas y creativos que denuncian el modo en que estos modelos han aprendido (a partir de sus obras sin consultarles ni pagarles) y de las posibilidades que abren (por ejemplo, imitar el estilo de artistas con sólo pedirlo). Por otro lado, el debate sobre el uso para la desinformación de estos modelos generativos está sobre la mesa. No es sólo la previsible explosión de contenidos generados con inteligencia artificial que tendremos los próximos años, también se va a abaratar la producción de deepfakes, contenidos erróneos y directamente engañosos.

La exigencia de control por parte de políticos e instituciones puede romper el sueño de modelos más abiertos y reforzar el carácter centralizador de poder y control que algunos suponen a la inteligencia artificial. Mientras Stable Diffusion está dando pasos hacia un modelo más moderado, surgen alternativas como Unstable Diffusion que se basan en la tecnología del primero, pero bajo la bandera de la libertad creativa total.

El tercer debate en disputa es el del impacto en el empleo y la economía. Un informe de Europol citaba a “expertos” que predicen que para 2026 el 90% de los contenidos será generado “sintéticamente”. A su vez tenemos el informe presentado por el Observatorio Nacional de Tecnología y Sociedad que destaca que el 53,7% de los encuestados consideraba que el actual cambio tecnológico generaría un aumento del desempleo. Los miedos a la robotización y automatización, a la destrucción de puestos de trabajo que ahora ejecutamos las personas es tan antiguo como la Revolución Industrial, si no más.

¿Cómo de acertadas son estas previsiones y temores? Al ritmo acelerado de innovación en este campo se antoja muy difícil hacer previsiones, pero si acaso podemos intuir dos tendencias: sí parece cumplirse que el uso de IA generativas puede sustituir a los humanos en la creación de contenidos de muy bajo nivel, como fotos de stock genéricas, textos para páginas sin grandes aspiraciones estilísticas y copys para anuncios de Internet; a su vez parece perfilarse un escenario en que el empleo no lo conseguirá una IA, sino alguien con una mayor productividad gracias a ella. En programación, para desarrollar información o para hacer bocetos de imágenes y probar ideas, vamos hacia un paraíso de autocompletar las partes más tediosas del proceso creativo.

No son los únicos debates que nos esperan en 2023. En el ciclo del hype tecnológico hay anotada una cita ineludible: la aparición de GPT-4 de OpenAI. Al margen de las grandes expectativas de los entusiastas, va a ser un momento de la verdad para esta generación de IA. Con su salida podremos responder a la pregunta de si estos modelos darán lugar a una inteligencia artificial conversadora que no se equivoque ni invente (o que al menos separe lo que sabe de lo que no). Los escépticos apuntan a que estas limitaciones son inherentes al concepto de modelos largos de lenguaje, los creyentes, a que es una cuestión de tamaño, y que con más parámetros en el modelo y más datos sería posible que nuestra boca abierta con ChatGPT no vuelva a cerrarse en 2023.

Sobre la firma

Antonio Ortiz

Ingeniero Informático, pero de letras. Fundador de Xataka, analista tecnológico y escritor de la lista de correo 'Causas y Azares'

Más Información