Me cuesta recordar cuándo la conversación digital dejó de parecer una plaza pública defectuosa para convertirse en una mezcla de casino, escaparate y laboratorio de pruebas. No quiero glorificar internet versión 2009 (tampoco era precisamente un jardín idílico), pero hay algo nuevo en el aire: el viejo machismo se ha actualizado a modelo de suscripción.
La hipersexualización de las mujeres en la era de la IA generativa no es solo una “deriva cultural” ni un problema de memes desagradables. Es una mutación de escala. Antes, la violencia sexual digital necesitaba tiempo, habilidad o acceso a imágenes reales. Ahora, con herramientas de “nudify”, modelos generativos y distribución instantánea, la producción de humillación se ha abaratado, automatizado y normalizado. Y cuando algo se abarata, suele pasar una cosa: se multiplica.
Ojalá fuera una anécdota tecnológica. Sin embargo, estamos ante la nueva infraestructura de violencia.
El cuerpo femenino como interfaz de experimentación
La promesa publicitaria de parte del ecosistema generativo ha sido creatividad, productividad, personalización. La realidad de una parte de su uso social ha sido otra: desvestir mujeres sin consentimiento, fabricar imágenes sexuales falsas, extorsionar, acosar, disciplinar y silenciar.
En el último año ha habido un aumento del 464% en el último año de los deepfakes, siendo las mujeres víctimas del 99% de los deepfakes pornográficos «. Ya no hablamos de un “sesgo” anecdótico del sistema: es una orientación de mercado.
Internet Matters, en un informe sobre nude deepfakes y menores, resume bien el cambio: herramientas antes asociadas a celebridades ahora se usan contra personas corrientes, predominantemente niñas y mujeres, y sitúa los nudify tools como un vector de abuso con usos de acoso, extorsión y violencia sexual digital. Además, recoge que esos sitios aparecen en buscadores generalistas y ofrecen generar imágenes sexuales de personas reales en cuestión de segundos por un precio ínfimo. Traducido al castellano político: hemos permitido que se consolide una miniindustria que convierte la cosificación en servicio digital.
El problema nunca ha sido (únicamente) que alguien genere una imagen falsa. El problema es el circuito completo: herramientas fáciles de usar, tutoriales, pasarelas de pago, app stores, grupos de difusión, algoritmos de recomendación, plataformas que escalan visibilidad y un ecosistema que penaliza poco y tarde. Es la cadena de valor de la humillación.
Y por eso la respuesta pública suele llegar desenfocada. Nos centramos en el episodio (la imagen, el escándalo, el caso viral) y no en el modelo (quién distribuye, quién monetiza, quién recomienda, quién se beneficia).
El daño no es solo íntimo: también es democrático
La hipersexualización algorítmica de las mujeres no se queda en el plano privado. Tiene efectos públicos. Muy públicos. Demasiado.
Cuando una adolescente descubre que cualquiera puede fabricar su desnudo y hacerlo circular por un grupo en cuestión de minutos, nuestra respuesta suele ser decirle a ella -a la víctima- que tenga “cuidado con internet”. Pero ahí está la trampa: el problema no es solo la prudencia individual. El mensaje real es mucho más brutal: aunque tengas cuidado, tu cuerpo puede convertirse en contenido sin tu permiso. Y cuando ese aprendizaje se interioriza, cambia la forma de estar en el espacio público: qué dices, cuánto te expones, si opinas, si denuncias, si te presentas, si lideras.
Ese coste diferencial de participar (más alto para mujeres y niñas) es un problema democrático, no solo moral.
En España, el Gobierno ha situado esta cuestión en el centro del debate sobre protección de menores y plataformas. Pedro Sánchez anunció recientemente su propuesta de prohibición de acceso a redes para menores de 16 años, en una ofensiva para “recuperar el control” del ecosistema digital; y, días después, informó de la orden a Fiscalía para investigar a X, Meta y TikTok por la difusión de material sexual infantil generado por IA. En esa cobertura se citaba, además, un dato especialmente alarmante atribuido a Save the Children: uno de cada cinco jóvenes en España -mayoritariamente chicas- afirma que se crearon y compartieron imágenes falsas desnudas de sí mismas cuando eran menores. Ese dato no describe solo un problema de seguridad infantil. Describe una forma de socialización del miedo.
Vuelvo a una idea que ya asoma en el debate sobre menores y redes: proteger a la infancia puede ser necesario, pero es peligrosamente insuficiente si dejamos intacta la arquitectura que produce el daño. Cerrar el saloon a los menores mientras dentro se sigue sirviendo violencia como producto premium no resuelve el problema de fondo. Lo desplaza. Y, de paso, normaliza una idea terrible: que el espacio digital es intrínsecamente ingobernable.
No lo es. Difícil, sí. Ingobernable, no.
La regulación existe. La pregunta ¿es suficiente?
De hecho, el marco europeo ya ofrece una base más ambiciosa de la que solemos reconocer. El Digital Services Act (DSA) obliga a las grandes plataformas y buscadores a evaluar riesgos sistémicos vinculados a sus servicios, incluyendo efectos sobre derechos fundamentales, discurso cívico y procesos electorales, así como riesgos relacionados con violencia de género, menores y bienestar físico y mental. Además, exige que esas evaluaciones tengan en cuenta factores como sistemas algorítmicos de recomendación, moderación de contenidos, sistemas de anuncios y prácticas de datos, y contempla medidas de mitigación que incluyen cambios de diseño y de funcionamiento del servicio.
Es decir: el problema no está solo en el contenido. También está -y la norma ya lo reconoce- en la arquitectura de amplificación.
Por su parte, el AI Act introduce obligaciones de transparencia para ciertos usos, incluyendo la obligación de informar cuando se generan o manipulan imágenes, audio o vídeo que constituyan ultrasuplantaciones (deepfakes), con excepciones concretas (por ejemplo, determinados usos autorizados por ley y matices para obras creativas, satíricas o de ficción). También prevé obligaciones de divulgación para texto generado por IA en asuntos de interés público, con excepciones vinculadas a revisión humana/control editorial y responsabilidad editorial.
Eso es importante. Pero no suficiente.
Porque la transparencia, por sí sola, puede convertirse en una coartada estética: una etiqueta elegante pegada a una agresión masiva. Si no va acompañada de capacidad real de retirada, trazabilidad, sanción, fricción en la viralidad y responsabilidad en la cadena de monetización, el resultado es previsible: más cumplimiento formal, mismo daño estructural.
La cultura de la humillación
Igualmente, y aunque hay que reconocer el esfuerzo por gobernar lo que parece ingobernable, no termina de resolver el marrón. Centrarse exclusivamente en la esfera digital no arregla el problema. Desgraciadamente, todos sabemos que hecha la norma, hecha la trampa: se cierra una puerta, se abre un canal; se bloquea una web, aparece otra con otro nombre, otra pasarela de pago y otro tutorial. Pero incluso si la persecución técnica mejorara mañana, seguiríamos teniendo intacto el problema de fondo.
Lo que se necesita es un cambio de cultura, y eso cuesta imaginarlo en un ecosistema donde el heteropatriarcado sigue campando a sus anchas con una impunidad bastante rentable.
Los datos más recientes de Fad Juventud refuerzan precisamente esa idea de que el problema no empieza -ni termina- en el algoritmo. El Barómetro Juventud y Género 2025 dibuja un panorama de avance y reacción al mismo tiempo: solo el 38,4% de la juventud se declara feminista (casi 12 puntos menos que el máximo de 2021, cuando alcanzó el 49,9%), aunque el 49,2% sigue considerando que el feminismo es necesario para lograr la igualdad real. Es decir, conviven adhesión y desconfianza, conciencia del problema y rechazo al marco que lo nombra.
La fractura se ve con especial claridad entre chicos y chicas. Según el barómetro, el 51,5% de los varones jóvenes considera que el feminismo se usa como “herramienta de manipulación política y adoctrinamiento” (frente al 38,8% de las chicas), y esa percepción se ha duplicado entre ellos en cinco años. Al mismo tiempo, solo el 48,9% de la juventud percibe que en España existen desigualdades de género “grandes o muy grandes”, con una brecha de más de 20 puntos entre mujeres (61,4%) y hombres (36,7%). No estamos solo ante un desacuerdo ideológico: estamos ante una disputa por el propio diagnóstico de la realidad. Lo cual, es aún más grave.
Y, sin embargo, el mismo estudio muestra una contradicción que encaja demasiado bien con el momento político y cultural: el 67,7% considera que la violencia de género es un problema muy grave, pero a la vez el 50,8% cree que los hombres están desprotegidos ante denuncias falsas y el 44,6% piensa que se ha perdido la presunción de inocencia. En otras palabras: no estamos ante una juventud “sin valores”, sino ante una generación atravesada por marcos incompatibles, expuesta a discursos contradictorios y a una ofensiva antifeminista que convive con principios igualitarios ya interiorizados. Por eso el problema no se arregla solo con regulación tecnológica. La IA no inventa esa lógica; la acelera. Si una parte relevante del clima cultural sigue transmitiendo que las mujeres están disponibles para ser evaluadas, consumidas o humilladas, la tecnología simplemente convierte esa violencia en un sistema más rápido, más barato y más escalable. Dicho de forma menos académica: seguimos viviendo con un buffet libre de hipersexualización, y ahora además con versión freemium. Como tantos otros problemas modernos, está en nuestras manos cambiarlo. Otra cosa es que queramos hacerlo.