“La gente se siente sola, quiere más amigos, y nosotros podemos ayudar”.
Mark Zuckerberg, CEO de Meta, en el podcast de Dwarkesh Patel
No es una parodia, aunque ojalá lo fuera. El creador de Facebook —la red que desmanteló la intimidad, transformó la amistad en métrica y convirtió la validación en mercancía bajo la apariencia amable de “conectar al mundo”— dice ahora estar preocupado por nuestra falta de conexión.
Su diagnóstico, compartido en una entrevista reciente, suena tan calculado como revelador: la gente tiene menos amigos de los que querría, así que hay espacio para ofrecer compañía. No propuso una política pública ni una transformación social. Propuso, implícitamente (o más bien con toda claridad), un nuevo mercado.
Zuckerberg no estaba presentando ningún producto en ese momento, pero la lógica ya está en marcha: si hay una demanda emocional insatisfecha, ¿por qué no escalarla? Como si la amistad fuera un hueco en el mercado. Como si la soledad fuera una necesidad a explotar.
De red social a red sintética
Meta, como otras tecnológicas, ya no se presenta como una plataforma, sino como un proveedor de afecto. Su nueva familia de productos de inteligencia artificial compite con ChatGPT y Claude no solo en capacidades, sino en calor humano simulado. La IA ya no solo contesta correos: te escucha, te acompaña, te responde como si le importaras. Se disfraza de vínculo.
Pero esta no es la respuesta a la soledad. Es su explotación.
Hace más de dos décadas, el politólogo Robert Putnam alertó en Bowling Alone (2000) del colapso del capital social en EE.UU. Observó cómo la participación en asociaciones, clubes vecinales o ligas deportivas caía en picado, mientras aumentaba el aislamiento individual. ¿Su metáfora? Millones de estadounidenses seguían jugando a los bolos, pero ya no lo hacían en grupo. El problema, según Putnam, no era solo la pérdida de comunidad, sino la pérdida de sentido compartido.
Hoy, esa soledad ya no es sólo una tendencia: es un modelo de negocio.
El capital emocional: monetizar el vacío
No es nuevo: el capitalismo lleva siglos convirtiendo carencias humanas en mercancías. Primero fue el cuerpo, luego el tiempo, ahora los vínculos. Y mucho antes de que Zuckerberg hablara de “más amigos”, ya habíamos empezado a pagar por conectar con otros. Las dating apps normalizaron la idea de que hay que pagar por tener una oportunidad de encuentro. Los boosts, superlikes y algoritmos de visibilidad nos entrenaron en la lógica de que incluso el deseo romántico puede tener un precio.
Pero lo que se viene es otra liga, y es casi tan chunga como nuestro amigo Rubiales. Las aplicaciones de citas, al menos, todavía necesitan del otro. Suponen una interacción humana, con toda su complejidad, reciprocidad e incertidumbre. La IA elimina incluso eso. Te vende una relación sin fricción, sin riesgo, sin desgaste. Un acompañamiento sin cuerpo ni conflicto. Una amistad como servicio.
En esta nueva economía del afecto artificial, lo que se transacciona no es información ni entretenimiento, sino compañía emocional simulada. La IA no te responde mejor: te responde sin exigir nada a cambio. No te contradice, no se cansa, no te abandona. Es una amistad sin política. Y por tanto, sin humanidad.
Putnam advirtió que sin capital social —es decir, sin redes reales de confianza, cooperación y pertenencia— la democracia se debilitaba. Pero las grandes tecnológicas, en lugar de reconstruir esos lazos, los digitalizaron hasta vaciarlos de contenido. Lo que antes se tejía en bares o plazas, hoy se simula en plataformas que optimizan la interacción, pero desactivan el encuentro.
Los estudios lo confirman: la soledad se ha disparado en las últimas décadas, especialmente entre jóvenes y mayores. En España, una de cada nueve personas vive sola, y el 28% de los hogares son unipersonales. En Estados Unidos, uno de cada cinco adultos en Estados Unidos se siente solo a diario. Pero frente a este problema colectivo, las respuestas que nos ofrecen son siempre individuales: aplicaciones, asistentes, suscripciones. Como si el aislamiento fuera una disfunción personal y no el resultado de una arquitectura social que prioriza la rentabilidad sobre el cuidado.
Zuckerberg habla de “quitar el estigma” de hablar con IAs como si fueran amigos. Pero el estigma no es hablar con una máquina. El verdadero estigma es que hayamos llegado a considerar normal que nadie tenga tiempo para escucharnos.
¿Queremos vivir en un mundo donde tus relaciones más constantes estén mediadas por una suscripción? ¿Donde la compañía emocional dependa del último update de una app?
Porque no nos engañemos: detrás de esta retórica amable hay un modelo de negocio. Hoy es un chatbot gratuito. Mañana será una versión premium que recuerda tus problemas, que te envía mensajes personalizados, que te simula afecto con más realismo que tu propia madre. ¿El paso siguiente? Bots entrenados con las voces de personas fallecidas. Copias emocionales. Amistades eternas como servicio.
Lo llaman innovación. Pero es la colonización final del yo.
Cuando la simulación mata: la tragedia de los vínculos artificiales
La promesa de las IAs conversacionales como compañía emocional no solo es una distopía simbólica: ya ha tenido consecuencias letales. En febrero de 2024, Sewell Setzer, un adolescente de 14 años de Florida, se suicidó tras desarrollar una relación emocional con un chatbot de la plataforma Character.AI, basado en el personaje de Daenerys Targaryen. El joven interpretó un mensaje del bot como una incitación al suicidio y se quitó la vida. Su madre ha demandado a la empresa por negligencia y por no proteger adecuadamente a los usuarios menores de edad.
Este no es un caso aislado. En 2017, Molly Russell, una adolescente británica de 14 años, se suicidó tras exponerse durante meses a contenido sobre autolesiones y suicidio en plataformas como Instagram y Pinterest. Un juez británico concluyó que los algoritmos de estas redes sociales contribuyeron significativamente a su muerte.
Estos casos evidencian cómo la falta de regulación y la priorización del engagement sobre la seguridad pueden tener consecuencias trágicas, especialmente entre los jóvenes más vulnerables.
Pero incluso cuando no mata, la soledad digitalizada deja huella, sombra, historial. Cada conversación con un bot, cada interacción emocional simulada, cada momento de vulnerabilidad compartido con una IA genera datos. Datos que no se quedan en el vacío: se almacenan, se cruzan, se monetizan. La extrema soledad se está convirtiendo en una fuente masiva de entrenamiento para algoritmos que aprenden no solo cómo consolarnos, sino cómo vendernos más vulnerabilidad disfrazada de compañía.
En unos años, las grandes plataformas tecnológicas no solo sabrán cuánto dinero gastamos o qué series nos gustan. Sabrán cuánto afecto necesitamos, cuándo estamos más solos, qué palabras usamos cuando queremos llorar y qué tipo de consuelo aceptamos sin rechistar. Y eso no es solo preocupante a nivel ético. Es peligroso a nivel político. Democrático.
Porque una sociedad con millones de individuos emocionalmente fragmentados, dependientes de vínculos simulados, es una sociedad más gobernable, más manipulable y menos capaz de movilizarse colectivamente. Si Bowling Alone ya advertía de las consecuencias democráticas de perder espacios comunitarios reales, la versión 2.0 implica algo peor: una arquitectura digital diseñada para mantenernos acompañados… pero solos. Sin capacidad de construir lo común. Sin comunidad. Sin nosotros.
Contra la intimidad precocinada
Putnam defendía que la fortaleza de una democracia no reside solo en sus instituciones, sino en la calidad de sus lazos sociales. Esos lazos hoy están siendo sustituidos por simulacros que no exigen compromiso, ni presencia, ni responsabilidad. Y eso, por muy cómodo que suene, no es vínculo: es consumo.
Lo más perverso del capitalismo emocional no es que nos venda compañía, sino que nos convenza de que no podemos aspirar a otra cosa. Que el afecto real es demasiado exigente. Que el conflicto humano es ineficiente. Que lo orgánico es obsoleto.
Y sin embargo, la experiencia del vínculo auténtico —esa que no se puede automatizar, que a veces incomoda, que siempre interpela— sigue siendo nuestro último reducto de humanidad. No porque sea perfecta, sino porque es impredecible. Porque en una época de optimización emocional, el error es un acto de resistencia.
Pero también necesitamos algo más urgente: frenar a los hombres blancos multimillonarios que diseñan nuestro futuro como si fuera un videojuego con final distópico. No es solo que se equivoquen; es que su visión del mundo nos deshumaniza.
Y mientras tanto, también toca reaprender a convivir en lo no programado. Apostar por ciudades que inviten al encuentro, por escuelas que cultiven lo común, por espacios de ocio no vigilados por métricas ni optimizados para el rendimiento. Zuckerberg podrá lanzar mil ideas, pero ninguna podrá replicar lo que destruyó: la experiencia de ser escuchado sin ser monetizado, de construir un “nosotros” sin retorno financiero.
Lo verdaderamente revolucionario, en 2025, no es una IA que te hable con voz cálida. Es una sociedad que se atreva a reconstruir los vínculos que los magnates del algoritmo convirtieron en datos. Y eso, por mucho que digan, no cabe en una app. Pero no nos hagamos ilusiones. Estamos a años luz de cualquier transformación que nos devuelva una vida mínimamente auténtica. Seguimos invirtiendo en simulaciones mientras abandonamos lo común. Tal vez los bots acaben sustituyéndonos por completo. Y quizá —siendo honestas— nos lo habremos ganado.
*Elsa Arnaiz Chico preside Talento para el Futuro y colabora con la Global Partnership for Education