La urna está vacía, pero el voto ya se ha emitido. No hay colas en los colegios electorales ni papeletas que contar: un algoritmo las ha rellenado por cada ciudadano a las 3 de la madrugada. La distopía tiene nombre mercantil: Democracia Predictiva S.A. Así bautizó la prensa al proyecto de ley de voto automatizado que, en nuestro escenario satírico, se aprueba para delegar el sufragio en la inteligencia artificial. ¿Cómo hemos llegado hasta aquí?
Tu historial de Google como programa electoral
Aunque ficticia, esta “ley de voto predictivo” encuentra precedentes reales inquietantes. Ya en 2018, España coqueteó con la idea de usar datos personales para influir en el voto: una reforma legal (LOPD 3/2018) añadió el artículo 58 bis a la Ley Electoral, permitiendo a los partidos recopilar datos sobre opiniones políticas de los ciudadanos y bombardearles con propaganda personalizada. Aquello provocó un escándalo: se tildó de “espionaje ideológico” y el Tribunal Constitucional lo anuló por violar derechos fundamentales. La breve vida de ese artículo dejó clara la tentación y el peligro de la microsegmentación electoral mediante algoritmos que ya llevabamos anunciando desde el escándalo de Cambridge Analytica.
Por otro lado, Europa comenzaba a sentar las bases para regular la inteligencia artificial (IA) en la vida pública. En 2024, el Parlamento Europeo aprobó el primer Reglamento de IA, que prohíbe ciertos usos considerados inaceptables –por ejemplo, sistemas de puntuación social al estilo chino que clasifiquen a las personas según su comportamiento o características. Bruselas vetó estos métodos por generar “sociedades distópicas indeseables”, marcando línea roja frente a una posible algocracia autoritaria.
Asimismo, la UE dejó claro que cualquier sistema de IA usado en elecciones será considerado “de alto riesgo”, sujeto a estricta transparencia, trazabilidad y supervisión humana. En España, el Gobierno movió ficha en 2025 con un anteproyecto de Ley de Buen Uso y Gobernanza de la IA que prohíbe expresamente el uso opaco de algoritmos en decisiones políticas sin supervisión humana. En pocas palabras, la legislación real camina en dirección opuesta a nuestra distopía: pretende frenar abusos de la IA, no entregarle la democracia.
Sin embargo, a medida que la tecnología avanza y la participación ciudadana flaquea, algunos empiezan a fantasear con soluciones tech a los problemas de la política tradicional. En nuestra historia imaginaria, la abstención récord de unas elecciones unida al hartazgo con la polarización lleva a proponer un remedio digital: “Si Netflix adivina qué serie quieres ver, ¿por qué no puede un algoritmo adivinar tu voto?”. La idea prende como la pólvora en tertulias tecnocráticas. Total, dicen sus defensores, ¿no escogería la IA mejor que un ciudadano desinformado o apático? La promesa suena a ciencia ficción, pero recordemos que ya en 2013 un algoritmo pudo predecir con asombrosa precisión la ideología de un usuario analizando sus “Me gusta” de Facebook. Cien clics bastaban para saber si uno era de izquierda o derecha, religioso o ateo, incluso rasgos de personalidad ocultos. Si los datos pueden descifrar nuestras afinidades políticas mejor que nosotros mismos, ¿acaso no tiene lógica dejarles también el voto? Con este argumento provocador, se termina aprobando la Ley de Democracia Predictiva en una noche calurosa de verano.
Cuando tu smartwatch vota por ti: democracia paso a paso (literal)
El Sistema de Voto Predictivo (SVP) es presentado como la octava maravilla de la innovación cívica. En términos técnicos, combina big data, aprendizaje automático y una pizca de audacia orwelliana. Cada ciudadano es perfilado continuamente a partir de su huella digital: historial de compras, likes en redes sociales, series vistas, geolocalización, expedientes médicos, conversaciones grabadas por Siri… todo alimenta la máquina de votar. La IA central de Democracia Predictiva S.A. construye un modelo dinámico de tus preferencias políticas. Según el folleto informativo, el algoritmo “conoce tus ideales mejor que tú mismo, sin sesgos ni emociones del momento”.
La votación ya no es un acto puntual, sino un proceso perpetuo en segundo plano. El día de las elecciones, a las 03:00 AM, el SVP emite automáticamente el voto de cada elector en nombre suyo, calculando qué opción política coincide más con su yo estadístico. Si en tu municipio hay elecciones locales, autonómicas y generales a la vez, tranquilo: el sistema rellena todas las papeletas pertinentes en microsegundos. No hay margen de error humano ni mesas contando votos mal (ni lentamente). Los resultados se conocen al instante con aparente precisión matemática.
Las situaciones absurdas que genera este mecanismo pronto salen a la luz. Un hombre se despierta y descubre que “ha votado” por un partido animalista… simplemente porque su smartwatch registró que paseaba al perro tres veces al día. Una joven abstencionista, que jamás quiso participar, se entera de que el sistema igualmente escogió por ella la opción “más acorde con su estilo de vida sedentario y consumo de TV” – al parecer, el algoritmo decidió que alguien que pide comida a domicilio cuatro veces por semana prefiere gobiernos que incentivan la economía digital. En otro caso estrambótico, el SVP de un ciudadano vegano le adjudicó el voto a un candidato ultraconservador tras confundir el significado de sus búsquedas sobre “proteína vegetal militar” (era para un proyecto escolar sobre alimentación en el ejército, pero la IA asumió simpatías marciales). El ministerio responsable se apresura a calificar estos casos de “anécdotas aisladas”, aunque en redes sociales circulan miles de memes de gente a la que el robo-voto le ha salido rana.
Técnicamente, las autoridades defienden que el sistema tiene un porcentaje de acierto superior al 99% en “reflejar fielmente la voluntad del electorado”. Pero ¿qué significa realmente acertar? Si la IA siempre vota lo que hubieras votado tú, surge la pregunta: ¿para qué demonios necesitamos la IA? Y si alguna vez vota distinto a tu preferencia real, entonces te está robando el voto. Es una paradoja digna de Black Mirror: o la máquina es redundante, o es tiránica. Sus creadores, no obstante, exhiben diagramas y papers para convencer de que el balance coste-beneficio es positivo. Se acabaron las elecciones costosas, el ausentismo y incluso –alegan– la manipulación informativa: “el algoritmo es inmune a las fake news, toma su decisión con frialdad de datos puros”.
En esta visión, el SVP es como un piloto automático de la democracia: te lleva al destino que supuestamente querías, pero sin que tengas que conducir. Y claro, muchos pasajeros se inquietan al mirar por la ventana y no ver más que código opaco conduciendo el autobús.
Reacciones: entre el entusiasmo tecnócrata y el pánico democrático
La llegada de Democracia Predictiva S.A. provoca reacciones polarizadas. Sus valedores –un curioso consorcio de políticos desgastados, tecnólogos utópicos y votantes perezosos– celebran el advenimiento de la “democracia 5.0”. Según ellos, la participación ya no será un problema: todos los ciudadanos “votan” gracias al asistente digital. Ya nadie puede quejarse de que su voz no se escuchó, porque la máquina se ha asegurado de interpretarla. Además, proclaman que la IA votante es absolutamente neutral e imparcial. Al fin y al cabo, un algoritmo bien entrenado “no se deja llevar por emociones ni corrupciones”. Promete conjugar dos virtudes antaño opuestas: la objetividad de una máquina y la subjetividad de atender los deseos individuales de cada persona.
En teoría, sería el árbitro perfecto: preciso, justo, infalible. Ya en 2018 un pionero de esta idea, el activista japonés Michihito Matsuda, cuando presentó a un “candidato IA” a la alcaldía de Tama. Aquella vez el robot no ganó, pero dejó sembrada la semilla: ¿y si efectivamente las máquinas pudieran gobernar mejor que las personas?
Del otro lado, críticas y alarmas suenan a todo volumen. Organizaciones de derechos civiles y filósofos recuerdan que la legitimidad democrática no consiste solo en acertar con la política correcta, sino en que el pueblo decida por sí mismo. “Una democracia no se legitima por la bondad técnica de sus decisiones, sino por la autorización libre de los gobernados”, clama en un artículo un politólogo escandalizado.
En términos menos académicos, una activista resume el problema en Twitter: “Hemos pasado de ‘el pueblo decide’ a ‘el dato decide’, y en el camino perdimos la voluntad popular”. Porque, en efecto, ¿qué queda de la voluntad o la libertad si tu voto lo calcula un ente digital invisible? Los detractores subrayan que la promesa de objetividad algorítmica es un espejismo: los sesgos existen, aunque vengan codificados. Al fin y al cabo, estos sistemas tienden a perpetuar los prejuicios de sus programadores y de los datos con los que fueron entrenados La supuesta neutralidad puede ocultar una caja negra de arbitrariedades muchísimo menos comprensibles que las de un político de carne y hueso.
También preocupan los abusos y manipulaciones posibles. ¿Quién audita al gran votante artificial? ¿Qué impide que el gobierno de turno retoque el algoritmo para inclinar la balanza a su favor? Aquí los defensores replican que hay un sistema de blockchain inviolable que garantiza integridad, pero la confianza pública está lejos de ganarse. Tras tantos escándalos de filtraciones de datos, malware electoral y fake news, cuesta creer en la incorruptibilidad de un programa, por complejo que sea. Como dijo la investigadora Renée DiResta sobre chatbots políticos, la IA es un arma de doble filo: útil para acercar la política al ciudadano, pero también peligrosa si se usa para disimular propaganda o suplantación.
Error 404: voluntad popular no encontrada
Esta disyuntiva nos lanza de lleno a preguntas filosóficas de fondo: ¿Es libre una sociedad cuyas decisiones están delegadas en algoritmos? Si la democracia es, según su etimología, el poder del pueblo, ¿sigue siéndolo cuando ese poder se ejerce mediante fórmulas que ningún ciudadano ordinario entiende? En nuestra sátira, el gobierno insiste en que el pueblo sí decide, solo que de forma predictiva: cada individuo “ha decidido” a través de sus acciones cotidianas, sus datos, y la IA solo interpreta esa voluntad difusa. Pero muchos no lo ven así.
Un veterano activista bromea amargamente: “Primero nos quitamos el trabajo con la automatización, ahora nos quitamos el voto. Al paso que vamos, que la IA también pague los impuestos por mí.” La ironía refleja un temor: que estemos cediendo esferas completas de autonomía a las máquinas, renunciando no solo al esfuerzo de votar, sino al derecho mismo de equivocarnos. Porque, ¿y si una ciudadanía quiere conscientemente algo irracional o distinto de lo que le recomiendan sus patrones de datos? En la democracia tradicional, incluso el voto más visceral o inesperado cuenta. En la democracia calculada, ese margen de indeterminación tiende a cero. Todo es previsible, anticipable… ¿y profundamente anti-humano?
El filósofo surcoreano -y reciente Premio Princesa de Asturias- Byung-Chul Han advertía que en la sociedad del Big Data el futuro se vuelve una mera extrapolación del pasado, ahogando la espontaneidad. Aplicado al voto, esto sugeriría que una democracia plenamente predictiva corre el riesgo de petrificar las tendencias existentes. Si siempre te he votado verde, siempre lo haré; si tu yo digital es abstencionista, jamás “querrá” votar. Sin capacidad de sorpresa o deliberación, la política deviene un espejo estático de los datos. Tal vez eficientemos la toma de decisiones, pero al precio de convertir al ciudadano en sujeto pasivo, un mero proveedor de datos cuya voluntad real se asume, no se pregunta.
Por supuesto, nuestros personajes ficticios también exploran aristas positivas: ¿Y si el algoritmo, libre de pasiones, tomara decisiones más sensatas que el electorado? ¿Es preferible una “voluntad popular” manipulada por bulos a una “voluntad programada” basada en información objetiva? La tentación platónica de un gobernante inteligente resurge bajo la forma de IA. Algunos politólogos futuristas han llegado a plantear modelos de “democracia algorítmica” donde la IA gestionaría ciertos asuntos complejos mejor que los políticos, aumentando la eficiencia y anticipando soluciones. No olvidemos que en ámbitos como la justicia ya existen sistemas predictivos que aconsejan sentencias o evalúan riesgo de reincidencia, y en la administración pública se usan algoritmos para asignar recursos de forma óptima. La pregunta es dónde trazamos la línea: ¿admitiríamos un juez robot? ¿y un votante robot en nuestro nombre? Nuestra ficción lleva al extremo una promesa y un riesgo reales: la gobernanza algorítmica.
El espejo internacional: experimentos reales con IA política
Aunque el relato de la Democracia Predictiva S.A. es satírico, en el mundo actual ya vemos pinceladas que lo inspiran. Estonia, por ejemplo, ha sido pionera en digitalizar su democracia. Desde 2005 ofrece voto por internet, y en 2023 rompió récords: por primera vez se emitieron más votos online que papeletas en papel. Los estonios pueden votar desde el salón de su casa con su DNI electrónico y confían masivamente en el sistema digital, muestra de la credibilidad que ha ganado la tecnología allí La llamada “república digital” ha demostrado que la comodidad técnica puede convivir con la confianza democrática… aunque siempre con el ser humano tomando la decisión final.
En Japón, como mencionamos, Michihito Matsuda hizo campaña en 2018 presentando un “candidato IA” para la alcaldía de Tama. Aunque era más performance que realidad, prometía decisiones libres de prejuicios humanos gracias al análisis de big data. No ganó, pero abrió el debate: ¿votarías a un programa si promete gobernar mejor? Hoy, esa pregunta ya no suena tan descabellada a algunos votantes jóvenes desencantados con los políticos tradicionales.
India llevó la IA a las campañas electorales: en 2019, el partido BJP de Narendra Modi usó algoritmos para hiper-personalizar su propaganda en más de 20 idiomas, lanzando 2.000 versiones distintas de un mismo discurso adaptadas a perfiles específicos. Prácticamente, cada segmento del electorado indio recibió un mensaje hecho a su medida, optimizado con reconocimiento facial y análisis de sentimientos en redes sociales. Una prueba real de que, incluso sin votar por nosotros, los algoritmos ya moldean lo que oímos y vemos en campaña.
En Estados Unidos, en las recientes elecciones presidenciales algunas campañas llegaron a usar clonación de voz de sus candidatos para realizar llamadas automáticas casi indistinguibles de una humana. De nuevo, la línea entre lo auténtico y lo sintético se difuminó. Un incidente muy sonado ocurrió en enero de 2024, en las primarias de Nueva Hampshire: miles de votantes recibieron una llamada automatizada con una voz de IA imitando al presidente Joe Biden, urgiéndoles a no votar en la primaria demócrata supuestamente para “guardar su voto” para noviembre. Era, por supuesto, un engaño diseñado para suprimir la participación. La fiscalía estatal abrió una investigación por este deepfake telefónico, y finalmente se descubrió que fue obra de un consultor político temerario que buscaba “dar la voz de alarma” sobre la IA; le cayó una multa millonaria y cargos penales por la trastada. Este caso real muestra el potencial de la IA para distorsionar procesos electorales si se usa con fines maliciosos, y explica por qué tantos reguladores están inquietos.
En China, por otra parte, el gobierno ha aplicado la tecnología de forma muy distinta: en lugar de votar por los ciudadanos (recordemos que allí no hay elecciones libres), emplea algoritmos para monitorear y controlar el comportamiento social. El famoso sistema de crédito social puntúa a cada persona según datos de su vida –multas, comentarios en redes, hábitos de consumo– y premia o castiga en consecuencia. Este mecanismo que ha traspasado todas las fronteras de Black Mirror para convertirse en real y en expansión, automatiza decisiones públicas como vetar a ciudadanos con baja puntuación de acceder a ciertos empleos, viajar en avión o conseguir préstamos.
Es la distopía hecha norma: el individuo reducido a un expediente digital bueno o malo. Europa miró ese ejemplo con horror y lo proscribió explícitamente en su Ley de IA, como vimos. Pero algunos observadores advierten que elementos de esa algocracia china podrían colarse en democracias por la puerta de atrás, si no se anda con cuidado. Por ejemplo, sistemas de seguridad predictiva que detectan “comportamientos anómalos” en la población o policías algorítmicas que decidan dónde patrullar. La línea entre ayudar en la toma de decisiones públicas y tomar la decisión en sí puede difuminarse rápidamente.
Finalmente, Reino Unido en 2024 publicó un White Paper recomendando que los partidos declaren públicamente cualquier uso de IA en sus campañas y etiqueten los contenidos generados artificialmente. Es una vía regulatoria interesante: no prohíbe la tecnología, pero exige transparencia total para que el votante sepa si le habla un humano o un algoritmo. En otras palabras, mantienen la ficción intacta de que la decisión final es humana, pero obligan a revelar si hubo truco tecnológico detrás.
El ciudadano perfecto: obediente, predecible y monitorizado
La historia satírica que hemos narrado busca exagerar para iluminar un dilema muy real. La automatización extrema del voto sería, probablemente, un suicidio de la democracia tal y como la entendemos: significaría renunciar voluntariamente al poder de decidir, delegándolo en sistemas que, por muy sofisticados que sean, no comparten nuestras responsabilidades ni nuestros valores intrínsecos. Puede que una IA nunca se canse, nunca sea corrupta, nunca se abstenga… pero tampoco puede sentir la injusticia, indignarse ante un abuso o cambiar de opinión por convicción moral por mucho que para su estilo de vida otro voto tenga más sentido. La democracia no es solo output eficiente de buenas políticas, es también proceso, debate, participación activa y, sí, a veces incertidumbre y cambio inesperado. En la balanza entre eficiencia y libertad, cargar todo el peso en la eficiencia algorítmica puede inclinarla peligrosamente.
Al final de Democracia Predictiva S.A. nos queda un sabor agridulce. Como ciudadanos, queremos soluciones a la crisis de confianza en la política, queremos aprovechar la IA para mejorar la toma de decisiones públicas –¿quién no querría políticas más racionales, informadas y personalizadas?–. Pero también nos damos cuenta de que la línea que separa la utopía de la distopía es muy fina. Una cosa es usar algoritmos para apoyar el trabajo humano (por ejemplo, detectar patrones de corrupción, simular escenarios económicos, facilitar la participación directa mediante plataformas digitales) y otra muy distinta es reemplazar la voluntad popular. Lo primero empodera a la gente con mejores herramientas; lo segundo la convierte en espectadora de su propio sistema político.
En la visión distópica aquí presentada, los algoritmos votan por nosotros y nos prometen representarnos mejor que nuestros representantes. Sin embargo, quizá la auténtica solución pase por lo contrario: formar ciudadanos más informados y participativos, capaces de usar la tecnología sin ser usados por ella.En la encrucijada entre la comodidad digital y la libertad democrática, conviene que los fines éticos –la dignidad, la autonomía y la voz de cada persona– sigan guiando el rumbo. Solo así evitaremos que la pesadilla de Democracia Predictiva S.A. se materialice y, en cambio, aprovecharemos lo mejor de la IA para reforzar, y no suplantar, nuestra querida y caótica democracia humana.
*Elsa Arnaiz Chico preside Talento para el Futuro y colabora con la Global Partnership for Education