En la celebración de su 50º aniversario, Microsoft estaba pletórica. Atravesaba uno de sus mejores momentos: cifras espectaculares, innovación sin precedentes y una merecida fiesta tras medio siglo de dominio tecnológico. Sin embargo, en medio del entusiasmo, surgieron voces disonantes. Dos empleados, que más tarde serían despedidos, protestaron por los vínculos de la empresa con el ejército israelí.
La historia no trascendió de inmediato. Poco a poco, más trabajadores empezaron a exigir explicaciones. Hoy ya son más de mil, organizados en la plataforma No Azure for Apartheid, con un mensaje claro: “Rechazamos ser cómplices”.
Las protestas giran en torno a sistemas de inteligencia artificial impulsados por Microsoft, y empleados por las Fuerzas de Defensa de Israel en operaciones militares. Algunos de estos sistemas, como Lavender y The Gospel, han sido señalados por su papel en la selección de objetivos humanos durante los primeros bombardeos sobre Gaza.
Lavender, en particular, es una IA diseñada para identificar a personas con presuntos vínculos con Hamás. Según investigaciones periodísticas, generó una lista de hasta 37.000 objetivos potenciales. Su aplicación masiva, en combinación con The Gospel, supuestamente facilitó la decisión sobre dónde lanzar los misiles. Esto contribuyó a ataques con un elevado número de víctimas civiles.
The Gospel, a su vez, analiza grandes volúmenes de datos procedentes de diversas fuentes, desde imágenes de drones hasta comunicaciones interceptadas, para identificar la ubicación de miembros e infraestructuras vinculadas a Hamás. Su objetivo es apoyar la planificación de ataques. Es el primer eslabón de lo que, en jerga militar, se conoce como “kill chain”.
Ante las acusaciones, el ejército israelí respondió que “contrariamente a lo que se afirma, las Fuerzas de Defensa de Israel no utilizan un sistema de inteligencia artificial que identifique a operativos terroristas ni que intente predecir si una persona es un terrorista.”
La inteligencia artificial también está integrada en otros sistemas de control que permiten supervisar a la población palestina mediante la recopilación y el cruce de datos biométricos. Wolf Pack actúa como una base de datos centralizada que perfila a las personas y posibilita su seguimiento constante, especialmente en Cisjordania y Jerusalén. Blue Wolf combina una aplicación móvil con tecnología de reconocimiento facial, utilizada por patrullas y en puestos de control para identificar y registrar personas sobre el terreno. Por último, Mabat 2000 es un sistema de monitoreo basado en cámaras CCTV con soporte de inteligencia artificial, diseñado para observar el movimiento en espacios públicos como Jerusalén Este y la Ciudad Vieja.
Las principales organizaciones de derechos humanos como Human Rights Watch, Amnistía Internacional y B’Tselem coinciden: lo que ocurre allí es un régimen de apartheid, sustentado en parte por tecnologías digitales. En palabras de Agnès Callamard, secretaria general de Amnistía Internacional: “Hemos constatado que las crueles políticas israelíes de segregación, desposesión y exclusión en todos los territorios bajo su control equivalen claramente a un apartheid. La comunidad internacional tiene la obligación de actuar”.
Ahora, volviendo a Microsoft, los empleados no solo cuestionan el uso que Israel hace de su tecnología. La propia empresa ha admitido no tener visibilidad sobre cómo se emplea una vez implementada. Pero si no sabes cómo se usa tu tecnología, ¿no deberías preverlo en los contratos? No puedes simplemente desentenderte. Lo que está en entredicho es algo más profundo: la ética de los contratos firmados, la opacidad en las decisiones y la aparente contradicción entre los valores que la empresa proclama y sus prácticas comerciales.
Todo esto ocurre en una compañía que asegura que “respetar los derechos humanos es un valor central de Microsoft” y que la tecnología debe usarse para “empoderar y proteger a todos”. Según su propia declaración, las personas solo confiarán en tecnologías que “respeten sus derechos y promuevan la dignidad humana”.
Ahora, un grupo de inversores se ha unido a los empleados e insta al gigante de Redmond a publicar un informe detallado que explique cómo garantiza que sus herramientas de inteligencia artificial no se utilizan para violar derechos humanos ni el derecho internacional humanitario. Esta iniciativa responde a las crecientes acusaciones de complicidad, que ponen en duda la efectividad de los procesos internos de la compañía para prevenirlo.
La dirección de la empresa ha respondido con una entrada de blog sin firmar: “no hemos encontrado pruebas de que nuestras tecnologías, incluyendo Azure y nuestra inteligencia artificial, se hayan utilizado para causar daño, ni de que el Ministerio de Defensa de Israel haya violado nuestros términos de servicio o nuestro código de conducta de IA.” Y añade que sus operaciones se guían por sus compromisos en derechos humanos. Según su propia evaluación, la compañía ha cumplido con ellos en sus actividades comerciales en Israel.
Sin embargo, un informe respaldado por Naciones Unidas acusa a 48 corporaciones de Estados Unidos, incluida Microsoft, de participar en “la economía del genocidio”. Su autora, Francesca Albanese, ha sido sancionada por el senador Marco Rubio, quien afirmó que Albanese colaboró directamente con la Corte Penal Internacional en iniciativas para investigar, arrestar, detener o enjuiciar a ciudadanos de Estados Unidos o Israel, sin el consentimiento de ambos países.
En 2020, la década empezó con una promesa audaz: el capitalismo necesitaba reinventarse.
Las compañías ya no debían servir solo a sus accionistas, sino también a empleados, clientes, proveedores y a las comunidades en las que ejercían impacto. Las corporaciones debían demostrar responsabilidad social, ambiental y ética. Ganar dinero, claro. Pero guiadas por un propósito. El beneficio no era un fin en sí mismo, sino un medio para alcanzar algo más.
En 2025, los principios éticos de las grandes tecnológicas chocan con la realidad del genocidio en Gaza. El mundo observa. Los gigantes tecnológicos, entre ellos Microsoft, tienen que dar un paso adelante y definir hasta dónde llega su responsabilidad. Si los principios éticos resultan ser papel mojado, entonces debemos repensar el papel de sus tecnologías en todos los ámbitos de nuestra sociedad.