Retina Santander

Derechos de autor y ChatGPT: ¿es plagio si los prompts son míos?

En la era de la inteligencia artificial, herramientas como ChatGPT han transformado la forma en que creamos. Desde estudiantes hasta profesionales, cada vez más personas utilizan modelos generativos para producir textos, imágenes o ideas. Pero esta revolución también ha abierto un debate: ¿quién es realmente el autor del contenido generado? Y, ¿es plagio si el prompt lo he escrito yo?

Una de las mayores confusiones en torno al uso de inteligencia artificial generativa es asumir que todo lo que produce es completamente nuevo. Modelos como ChatGPT se entrenan con grandes volúmenes de información pública, aprendiendo patrones lingüísticos y conceptuales para generar respuestas. Pero la IA no “inventa” desde cero. Su producción se basa en reinterpretaciones y mezclas del conocimiento previo, lo que implica que, en ocasiones, puede aproximarse demasiado a obras preexistentes.

Aquí es donde entra la cuestión de la autoría: si el texto fue generado por una IA, pero en base a mis instrucciones precisas, ¿me pertenece? La legislación aún está en proceso de adaptarse, pero la respuesta más aceptada actualmente es que sí puede considerarse autor a quien interviene creativamente mediante prompts, siempre que su participación haya sido sustancial.

Por tanto, el prompt no es solo una orden: es una forma de expresión. Una huella personal. Y si esta dirección resulta determinante para el contenido final, puede dar lugar a derechos de autor. Ahora bien, esto no convierte automáticamente a todo texto generado por IA en una obra original o protegible.

¿Y el plagio? ¿Cuándo cruzamos la línea?

El plagio implica presentar una creación ajena como propia. En el contexto de la IA, hay dos formas de incurrir en este error: cuando el modelo genera contenido que imita demasiado a una obra protegida, o cuando un usuario se atribuye una creación generada automáticamente sin revelar su procedencia. Si bien la IA no tiene derechos como un autor humano, las obras de las que se nutre sí pueden estar protegidas.

Además, si un usuario introduce prompts para que la IA reproduzca el estilo, el contenido o la estructura de textos específicos sin atribución, el riesgo de violar derechos ajenos aumenta.

En este panorama, la transparencia y la responsabilidad se vuelven claves. Decir que un texto fue “escrito con ayuda de IA” no resta valor: añade contexto. Y cada vez más sectores están trabajando para que esa transparencia se convierta en norma.

Formarse para no equivocarse

Algunas entidades han detectado la llegada de una necesidad formativa y han impulsado en los últimos años iniciativas dirigidas a un uso consciente y ético de la IA. En 2023, el Banco Santander lanzó 2.000 becas para aprender a dominar ChatGPT, ofreciendo formación práctica sobre cómo usar esta tecnología para generar contenido, mejorar la productividad y fomentar la innovación.

Además, en colaboración con ClarkeModet, desarrolló un curso gratuito titulado “Protección de software y estrategias de seguridad en IA”, enfocado para empresas y profesionales que desearan comprender cómo proteger su propiedad intelectual frente al impacto de tecnologías como la IA.

Estas acciones reflejan la preocupación creciente por un uso informado de estas herramientas, reconociendo que no solo cambian la forma de crear, sino también la forma en que entendemos la autoría y el valor del trabajo intelectual.

Una herramienta, no un atajo

La clave no está en prohibir el uso de la IA, sino en aprender a integrarla de forma ética. Como cualquier herramienta, puede servir para potenciar la creatividad… o para falsearla. Por eso, más allá de la legalidad, es vital que los usuarios se pregunten: ¿estoy creando o simplemente automatizando? ¿Estoy aportando algo único o reproduciendo lo que ya existe?

En este nuevo contexto, los prompts bien formulados son algo más que comandos. Son el punto de partida de una co-creación. La diferencia entre un uso legítimo y uno problemático puede depender de una sola línea de texto.

Los límites entre creatividad humana y producción artificial seguirán difuminándose. La legislación aún avanza detrás de la tecnología, pero cada paso cuenta. El verdadero desafío no es legal ni técnico, sino cultural: redefinir qué significa crear en un mundo donde las máquinas también escriben.

Más Información