La principal amenaza de la inteligencia artificial generativa es la posibilidad real de que erosione la confianza, uno de los pilares invisibles sobre los que se sostiene cualquier civilización. El filósofo de la cognición Daniel Dennett lo expresó con crudeza en un ensayo para The Atlantic sobre lo que llamó “el problema de las personas falsas” .
Su advertencia era clara: nos enfrentamos al riesgo de una auténtica pandemia de identidades ficticias capaces de hacerse pasar por reales. Y esa proliferación podría socavar la confianza humana hasta el punto de poner en peligro el funcionamiento mismo de nuestras sociedades. No es una exageración retórica, se trata de un diagnóstico tan perturbador que Dennett llegó a sostener que las compañías que emplean la inteligencia artificial para crear personas falsas deberían rendir cuentas por ello.
Por primera vez en la historia, la tecnología permite falsificaciones verosímiles de personas a gran escala. No se trata solo de fotos manipuladas o perfiles dudosos, sino de identidades digitales completas: rostros generados por algoritmos, voces sintéticas que imitan a individuos concretos, historiales coherentes en redes sociales, estilos de escritura personalizados, patrones de comportamiento creíbles. Personas falsas capaces de interactuar, opinar, seducir, manipular o estafar sin que nadie al otro lado pueda saber con certeza que no existen.
El problema de fondo no es el engaño aislado, que siempre ha existido, sino la pérdida de una base común de credibilidad. Cuando cualquier vídeo, cualquier audio y cualquier testimonio pueden ser falsos, la sospecha se convierte en reflejo automático. Y una sociedad donde todo es potencialmente falso no es una sociedad más crítica, sino una sociedad más cínica, más vulnerable y más fácil de manipular. La duda permanente no fortalece la verdad, sino que la paraliza.
La confianza es el hilo invisible que sostiene el tejido de la vida social. Confiamos en que el dinero tiene valor, en que un título académico acredita conocimientos reales, en que una fotografía documenta un hecho, en que una persona que firma un contrato existe. También confiamos en que, aunque haya mentiras, existen mecanismos razonables para detectar la verdad. Sin esa base común de confianzas que damos por supuestas, convivir se vuelve mucho más difícil. La inteligencia artificial está cambiando profundamente esa base común. Ahora crear identidades o pruebas falsas ya no requiere grandes recursos ni conocimientos especiales. Con herramientas cada vez más accesibles, se pueden producir a escala industrial contenidos diseñados para parecer auténticos. El resultado no es solo más desinformación, sino una degradación general del concepto mismo de prueba.
En ese contexto, la política se vuelve especialmente vulnerable. Las democracias son especialmente frágiles ante este escenario pues dependen de que los ciudadanos compartan, al menos, un conjunto básico de hechos. Si el espacio informativo se llena de testimonios fabricados, campañas automatizadas, movimientos sociales ficticios y campañas de desinformación automatizadas, el debate pierde todo su sentido. No hace falta convencer a todos de una mentira, basta con sembrar suficiente confusión para que nadie esté seguro de nada.
La justicia tampoco queda al margen. Los tribunales se apoyan en pruebas, declaraciones y peritajes. Si los audios y los vídeos dejan de ser fiables por defecto, cada proceso exigirá verificaciones técnicas complejas y costosas, y aun así persistirá la duda. El efecto no será solo más lentitud, sino más margen para la impunidad.
En la vida cotidiana, el impacto es más silencioso, pero igual de profundo. Las relaciones personales, cada vez más mediadas por pantallas, se apoyan en señales de autenticidad: una voz, un gesto, una historia compartida. Si proliferan interlocutores artificiales indistinguibles de los humanos, la interacción digital se llena de fantasmas. Podemos terminar hablando, confiando o incluso enamorándonos de entidades que no sienten y no asumen ninguna responsabilidad ni vulnerabilidad. La asimetría es total: de un lado, vulnerabilidad humana; del otro, cálculo estadístico.
Esta degradación de la confianza también tiene afecta a la economía. Los mercados. funcionan porque existe una expectativa razonable de honestidad en la información: datos financieros, reseñas, identidades de vendedores y compradores. Si todo puede ser falsificado a escala por sistemas automáticos, aumentan los fraudes, se encarecen las verificaciones y se reduce la disposición a participar. Lejos de generar eficiencia, la digitalización sin garantías produce fricción y retraimiento.
Dennett hablaba también en su ensayo de “virus mentales” porque la metáfora epidemiológica encaja con precisión. Las falsedades amplificadas por identidades falsas se propagan, mutan y se adaptan a gran velocidad. Y, como ocurre con los virus biológicos, el daño no proviene solo del agente en sí, sino del debilitamiento del sistema inmunitario “social”: la confianza en que es posible distinguir entre lo fundado y lo inventado.
Cuando esa confianza compartida se erosiona, se debilitan también las instituciones encargadas de sostenerla: el periodismo, la ciencia, la educación, la justicia. Si la producción masiva de falsificaciones desborda su capacidad de verificación, no solo se difuminan los hechos; se desacredita a quienes intentan defenderlos. El resultado es un terreno fértil para el autoritarismo, la manipulación y el miedo.
El peligro, por tanto, no es una futura y muy poco verosímil “rebelión” de las máquinas, sino algo más sutil y más inmediato: que, al inundar nuestro entorno de imitaciones convincentes, la inteligencia artificial deteriore las condiciones que hacen posible la vida en común. Una sociedad en la que nadie sabe qué creer es una sociedad donde la fuerza y la propaganda sustituyen al diálogo y a la evidencia.
La advertencia contenida en estas líneas no es tecnófoba, sino un ejercicio de responsabilidad. Si no abordamos de forma decidida el problema de la proliferación de identidades y contenidos falsos con marcos legales, herramientas de verificación y una educación crítica a la altura del desafío, corremos el riesgo de socavar aquello que damos por sentado: la posibilidad de compartir una realidad común. Y sin esa base mínima de confianza, la civilización corre un grave peligro.
*Ramon López de Mántaras. Instituto de Investigación en Inteligencia Artificial, CSIC