La trampa de la resiliencia: hacia una inteligencia artificial que repare lo colectivo

Nos dicen que somos afortunados, que no debemos quejarnos, que debemos ser resilientes. Pero ¿y si la ansiedad no es un fallo individual, sino una señal de que algo en el entorno no funciona? Es necesario cuestionar la narrativa del bienestar superficial, desmontar los discursos motivacionales desde las elites y proponer una inteligencia artificial que no sirva para anestesiar el malestar, sino para entenderlo mejor y diseñar respuestas más humanas, más justas y más conectadas con la realidad.

El espejismo del bienestar

Una mesa de ping pong en la oficina, una charla de “bienestar emocional”, una suscripción gratuita a una app de meditación o mindfulness. Una fruta en la entrada del coworking, una pared con frases motivacionales tipo “haz lo que amas”, “tú puedes con todo”, talleres de yoga exprés en la hora del almuerzo. Mientras tanto, los salarios no alcanzan, los alquileres asfixian, los contratos son temporales, la conciliación es un mito y los datos de salud mental en Europa muestran una curva ascendente que no parece detenerse.

La palabra resiliencia lo inunda todo. Se pide a las personas que sean fuertes, flexibles, adaptables, incluso felices en medio de la incertidumbre. Pero el imperativo de la resiliencia individual, promovido desde empresas, gobiernos y plataformas, oculta una renuncia política: si aguantas en silencio, no harás preguntas. Si meditas, no protestas. Si gestionas tu ansiedad con un chatbot, no señalarás al sistema que la produce.

El psicólogo Alejandro García Alamán lo expresa con una claridad incómoda: “Si los alquileres costaran la mitad y la gente tuviera un salario decente, nuestras consultas se vaciarían.” Lo que diagnostica no es solo el fracaso de una economía, sino el uso perverso de la retórica del cuidado. La salud mental se privatiza emocionalmente: si te sientes mal, es porque no lo estás intentando lo suficiente.

Este relato de la resiliencia como responsabilidad individual ha sido reforzado por muchas de las tecnologías emergentes. En lugar de ofrecer herramientas para transformar contextos, la mayor parte de aplicaciones digitales —incluidas las basadas en IA— han promovido soluciones autorreferenciales: autoseguimiento emocional, autoayuda automatizada, autodiagnóstico permanente. Todo empieza y termina en ti. Nunca en el entorno.

Judith Butler, una de las filósofas más influyentes de nuestro tiempo y referente de la pensamiento crítico contemporáneo y la ética de la vulnerabilidad, lo resume con lucidez: “Lo que llamamos problemas individuales son, a menudo, formas silenciosas de injusticia colectiva”.

Es aquí donde empieza la verdadera pregunta: ¿qué nos estamos negando a ver cuando todo el peso recae sobre los hombros de quien sufre?

Hoy la ansiedad, por poner un ejemplo, rara vez se lee como un síntoma de un entorno asfixiante, sino como falla individual. Se diagnostica ansiedad, sin detenernos a pensar en las condiciones que la provocan; no se interroga la precariedad, la hiperexigencia, la soledad o el miedo a perderlo todo. Se patologiza la tristeza sin leer su contexto. Se transforma la experiencia humana en un error de funcionamiento.

Hemos dejado de preguntar qué le ha pasado a una persona para asumir directamente que el problema es la persona. Trabajas sin descanso y sientes angustia: tienes ansiedad. ¿Y si la ansiedad no es un desequilibrio químico sino una respuesta cuerda a un mundo enfermo?

El diagnóstico tapa la historia, lejos de abrir caminos,  bloquea las preguntas y privatiza el dolor. Convierte lo colectivo en invisible y lo estructural en un asunto personal.

En el fondo, esta privatización del sufrimiento actúa como una ideología disfrazada de ayuda. Las imágenes que circulan —el empleado siempre disponible, la madre multitarea que lo puede todo, el joven que se reinventa sin descanso— no denuncian el malestar social, lo camuflan. Operan como espejos deformantes que no muestran la raíz del problema, sino una versión domesticada del dolor, encajada y silenciada bajo el ideal de la adaptación individual o la superacion personal.

Cuando la realidad no modelamos nosotros, otros lo hacen por nosotros

Pero al margen de este modelo de capitalismo emocional y tecnológico —tan eficaz como perverso, aunque no nuevo—, existe hoy algo aún más inquietante: ¿quién decide qué debe adaptarse y qué no? Y es que si no decidimos colectivamente cómo diseñar y gobernar estas herramientas, lo harán quienes ya están reconfigurando el futuro a su imagen.
Como ha señalado recientemente Evgeny Morozov en El País, figuras como Elon Musk y Sam Altman “no llegaron a Washington como invitados, sino como arquitectos”. Su influencia no se limita a imponer nuevas herramientas, sino a rediseñar el significado mismo de lo posible. “Su magnitud en la reconfiguración de la realidad […] no tiene precedentes.” No proponen tecnologías para mejorar la vida; proponen futuros enteros, sin preguntar quién va a habitarlos ni con qué costes sociales.

El poder tecnológico contemporáneo no solo promete soluciones, sino que transforma la propia idea de solución: lo reparable ya no es el tejido social, sino el individuo que falla. La innovación se convierte en ideología, y la IA deja de ser una herramienta para volverse una escenografía del rendimiento emocional. Morozov lo retrata con precisión cuando describe la nueva figura del “oligarca intelectual”, capaz de intervenir no solo en los mercados, sino en las narrativas de sufrimiento y salvación.

El algoritmo no basta: hacia una IA del común

En lugar de ser una máquina al servicio de la autoexigencia, la inteligencia artificial —entendida como conjunto de herramientas, modelos y decisiones humanas— puede contribuir al empoderamiento comunitario. El cambio no pasa por abandonar la tecnología, sino por reclamar su diseño y orientación política: del coaching digital individual a la infraestructura pública del cuidado.

La pregunta no es qué puede hacer la IA por sí sola, sino qué podemos hacer nosotros con ella cuando se concibe como bien común, gobernado con ética, transparencia y justicia social.

Con un enfoque así, estas herramientas pueden ayudarnos a ver vínculos donde antes solo había datos dispersos: por ejemplo, mapear patrones de soledad crónica en entornos urbanos, no para etiquetar a individuos “de riesgo”, sino para diseñar redes de apoyo desde lo local.

Pueden identificar desiertos de servicios —barrios sin centros de salud, sin acceso a atención psicológica, sin espacios comunes— y ayudar a priorizar políticas con criterios de equidad territorial.

Pueden fortalecer el trabajo de organizaciones comunitarias, ofreciendo análisis predictivos sobre los factores sociales y ambientales que profundizan la exclusión: desde riesgos climáticos hasta brechas digitales.

Y pueden servir para crear nuevas formas de participación ciudadana, donde las decisiones se tomen a partir de datos abiertos, accesibles y construidos con las comunidades, no sobre ellas.

Lo que necesitamos es una inteligencia artificial que no simule empatía, sino que la haga estructural. Que no nos repita frases motivacionales, sino que redistribuya poder. Que no nos diga cómo ser felices, sino que nos permita construir entornos donde vivir con dignidad no sea un privilegio.

Contra la happycracia digital

La resiliencia no debería ser la capacidad de soportarlo todo, sino la posibilidad de transformarlo todo con otros. Y eso implica cambiar también nuestra relación con la tecnología.

No necesitamos más asistentes virtuales que nos digan cómo dormir mejor mientras ignoramos por qué no podemos descansar. Necesitamos sistemas que comprendan que el bienestar no es solo un dato biométrico, sino un derecho colectivo.

Frente a la happycracia digital —ese mandato de estar bien a toda costa, incluso cuando no hay motivos—, la IA debe ser una aliada del cuidado organizado, de la transformación compartida, de la justicia anticipada. No como fetiche tecnocrático, sino como infraestructura ética y democrática.

Porque el verdadero desafío no es convertirnos en atletas emocionales de un sistema que nos rompe.

No es meditar más, ni respirar mejor, ni instalar otra app de bienestar.

No es repetir mantras de coach en redes sociales mientras todo a nuestro alrededor se desmorona, convirtiendo el sufrimiento en contenido y la precariedad en una oportunidad de superación en clave de “reel”. 

Ni dejarnos “motivar” por relatos inspiradores pronunciados desde escenarios dorados por quienes jamás han conocido el miedo al desahucio, al hambre o al olvido.

Tampoco necesitamos que una élite galardonada nos sermonee con que “somos parte del 1 % más afortunado del planeta” o que “vivimos en la mejor etapa de la historia de la humanidad”, ni que diagnostique a los jóvenes como “impacientes”.

Esta retórica, inspirada en una versión diluida y pretenciosa del neohobbesianismo —más cercana a la autoayuda de élite que al pensamiento político serio—, además de superficial y carente de sustento riguroso, no empodera: infantiliza el descontento, convierte toda protesta en una muestra de ingratitud y moraliza el privilegio, presentando el hecho de tener más como una prueba de mérito personal o visión estratégica, como si el éxito fuera simplemente una cuestión de actitud y no de estructuras que perpetúan la desigualdad.

Comparar el malestar con los extremos de la miseria global o histórica no es un acto de empatía: es una falta de sensibilidad, de inteligencia emocional o, quizás, algo más perverso: una forma sofisticada de silenciamiento. El dolor no se jerarquiza: se acompaña, se comprende y se transforma. Es dejar de decirle a la gente que el problema está en su cabeza… cuando está en su salario, en su casa, en su calle.

La resiliencia no es un estado mental, es una tarea colectiva, y es ahí donde las decisiones sobre el uso de la inteligencia artificial deben tomar posición:
¿Vamos a seguir desarrollando sistemas que afinen diagnósticos para que aprendamos a sufrir en silencio?
¿O vamos a emplear la IA como herramienta pública para escuchar lo que de verdad duele y construir lo que de verdad falta?

* Miguel Alexandre Barreiro-Laredo es Fellow en MIT y profesor asociado en IE University. Colabora como asesor del Programa de las Naciones Unidas para el Desarrollo (PNUD) en la Unidad de Respuesta a Crisis.

Más Información