Más allá de DeepSeek: la otra cara del la IA de código abierto

DeepSeek, el modelo de IA chino, ha despertado un renovado interés por el código abierto que puede evitar que la tecnología quede en manos de una sola compañía o un grupo de ellas, dificultando la creación de oligopolios. Sin embargo, el modelo no está exento de polémicas.

Los modelos de IA propietarios, controlados por una empresa, tienen restricciones. Es de esperar que sea así. Los responsables del sistema deben evitar que el modelo dé respuestas a consultas del estilo ‘¿cómo puedo fabricar un explosivo casero?’, ‘redacta un email creíble para estafar 1.000 euros al receptor’ o ‘produce una noticia falsa sobre X tema para favorecer X punto de vista’.

Estas peticiones recibirán negativas por parte de ChatGPT o Google Gemini. En realidad, tampoco se podrán cursar en las versiones oficiales de Llama 3, de Meta, que está basado en código abierto, o de DeepSeek-V3. Sencillamente tienen limitaciones para impedir este tipo de malos usos. Pero cuando los modelos de código abierto se ponen en manos de la comunidad es posible modificarlos. Y entre las cosas que se pueden cambiar están las restricciones que tenía el software.

De esta forma, nada más lanzarse Llama 3 o los últimos modelos de DeepSeek aparecieron versiones sin censura, sin los llamados guardarraíles. Como su nombre indica, estos elementos —incrustados en el software— impiden que el sistema se salga de la carretera. Es decir, que dé respuestas potencialmente peligrosas. Al estar disponible el código online, algunos desarrolladores son capaces de descubrir cómo están programados estos límites y suprimirlos.

El número de desarrolladores de la comunidad de código abierto vinculada a la IA no para de crecer en GitHub y en otras plataformas. Tradicionalmente, el movimiento open source ha actuado como una fuerza liberadora en la industria tecnológica. Se opone al hermetismo de los sistemas cerrados de las compañías. Y sus beneficios son comúnmente aceptados, también en el ámbito de la inteligencia artificial.

El código abierto evita que la tecnología quede en manos de una sola compañía o un grupo de ellas. De manera que sea accesible para otras de menor tamaño y se dificulte la creación de oligopolios. El movimiento tiene la ventaja de funcionar mediante el trabajo colectivo. Así, la comunidad de desarrolladores contribuye al código con mejoras, adaptaciones y también con la detección de vulnerabilidades. Toda esta inteligencia colectiva permite construir sistemas de tecnología punta que solo compañías con muchos recursos pueden permitirse. Es lo que se llama democratizar la tecnología, por usar una expresión con sabor estadounidense. Además, este tipo de desarrollos son transparentes. El código está disponible para que cualquiera los revise, de manera que se puede garantizar que no existen puertas traseras ni otros elementos indeseados.

El software de la startup china DeepSeek y la serie Llama, de Meta, son ejemplos de modelos de IA de código abierto. Pero no son los únicos. La francesa Mistral AI también ha compartido sus sistemas con la comunidad. El generador de imágenes Stable Diffusion igualmente es de código abierto, así como el generador de GIFs Stable Video Diffusion.

Todos estos sistemas tienen sus propias limitaciones. Pero cualquier actor con malas intenciones puede descargarse el código de uno de estos modelos y modificarlo a su gusto. Llegados a este punto, los creadores ya no pueden hacer nada. Esa tecnología podría servir para generar desinformación de manera industrial, diseñar ataques de phishing o ayudar a robar contraseñas.

No es algo extravagante. En la Dark Web, punto de encuentro del hampa de Internet, los mercados ofrecen programas como FraudGPT o WormGPT. Nombres que no dejan lugar a dudas sobre su propósito. Ambos se basan en el LLM GPT-J, desarrollado por la empresa EleutherAI en 2021. Este grupo de investigadores de inteligencia artificial se juntó para formar una entidad sin ánimo de lucro. Su primer objetivo fue crear una réplica de GPT-3, un modelo de OpenAI, y lanzarlo bajo licencia open source.

Hoy en día GPT-J casi se sitúa en la prehistoria de la IA generativa. Los modelos de código abierto que tenemos ahora son mucho más potentes. Por cierto, OpenAI se fundó con el propósito de crear sistemas de IA de código abierto. Pero en 2019 sus responsables creyeron —así lo hicieron saber al menos— que era demasiado peligroso continuar liberando las siguientes versiones de GPT con su código fuente y los pesos del modelo (la fortaleza de las conexiones entre los nodos de la red neuronal).

Otro aspecto polémico son los desnudos artificiales. Ningún generador de imágenes desarrollado por una empresa conocida permitirá al usuario desnudar a una persona a partir de una foto. Se entiende que esta es una funcionalidad polémica que puede conducir a abusos, como la lesión del derecho a la privacidad, del derecho al honor o incurrir en acoso digital. Y esto sin que haya menores de por medio, algo que agravaría los riesgos mucho más.

Sin embargo, existen múltiples aplicaciones para crear este tipo de desnudos a partir de IA. Y parte de ellas podrían haber tomado como base generadores de imágenes open source. Un estudio llevado a cabo por investigadores de la Universidad de Florida y la Universidad de Washington, plasmado en el paper ‘Analyzing the AI Nudification Application Ecosystem’, apuntaba que muchos de los sitios web que generan desnudos afirman haberse construido sobre modelos open source.

Estos investigadores señalan que la proliferación de modelos de código abierto en plataformas como Hugging Face (donde se comparten progresos y herramientas sobre IA) ha contribuido a la disponibilidad de las aplicaciones de desnudos en los últimos años. Aunque en favor de Hugging Face hay que decir que la plataforma ha tomado cartas en el asunto. Ahora elimina todo contenido que pueda conducir directamente a aplicaciones para desnudar personas a partir de fotografías. Los artículos que hacen mención de este tipo de herramientas tienden a ser suprimidos con presteza.

Los investigadores recomiendan a los responsables de los modelos de código abierto incluir elementos en el código que permitan rastrear a quienes hacen un uso abusivo de su tecnología. Una tarea que es todo menos sencilla.

Además, los modelos open source no suelen ser completamente open source. A veces se comparte el código fuente, pero los desarrolladores también piden que se hagan públicos los pesos de la red neuronal y los datos de entrenamiento. Este último aspecto da para un tema espinoso. Ni Meta ni DeepSeek ni Mistral AI o Stability AI han compartido los conjuntos de datos con los que han entrenado sus modelos. Y esto podría llevar a un conflicto de corte legal. Si una compañía utiliza una versión propia de un modelo de código abierto y este genera datos que violan los derechos de autor, ¿de quién es la responsabilidad?

Más Información