Tecnología, poder y protesta: ¿dónde trazamos la línea?
Despidos en Microsoft reavivan el debate sobre ética, libertad de expresión y el rol de la IA en conflictos armados
En un mundo cada vez más controlado por algoritmos y plataformas digitales, las líneas entre la ética, la política y la tecnología se difuminan peligrosamente. La reciente controversia en Microsoft por la participación de sus empleados en protestas contra su involucramiento en programas militares israelíes arroja una luz inquietante sobre cómo las grandes tecnológicas gestionan la conciencia de sus trabajadores... y hasta qué punto son cómplices en conflictos globales.
Despedidos por protestar durante un evento histórico
El viernes, durante la celebración del 50º aniversario de Microsoft, la compañía fue sacudida por dos protestas inesperadas por parte de empleados. La ingeniera de software Ibtihal Aboussad interrumpió la presentación de Mustafa Suleyman, CEO de Microsoft AI, proclamando:
“Ustedes dicen que usan la inteligencia artificial para el bien, pero Microsoft vende armas inteligentes al ejército israelí... cincuenta mil personas han muerto y Microsoft alimenta este genocidio.”
En medio de un evento que celebraba el legado tecnológico de la compañía, con figuras como Bill Gates y Steve Ballmer presentes, el carácter disruptivo del acto obligó a suspender momentáneamente la transmisión.
Aboussad fue escoltada del escenario tras arrojar a los pies del CEO una keffiyeh, símbolo reconocido de la resistencia palestina. Más tarde, otro trabajador, Vaniya Agrawal, se unió a la protesta, interrumpiendo otro segmento del evento.
Ambos empleados fueron despedidos de forma inmediata. Microsoft argumentó que la protesta representó una "disrupción del negocio" y afirmó que existen canales internos para expresar desacuerdos, siempre que no se perturben las operaciones.
La conexión entre Microsoft y el conflicto en Gaza
Las manifestaciones no fueron casuales. Un reportaje de investigación publicado a inicios de este año reveló que Microsoft y su socio OpenAI han proporcionado herramientas de inteligencia artificial al ejército israelí, las cuales han sido presuntamente utilizadas para seleccionar objetivos militares durante las ofensivas en Gaza y Líbano.
Uno de los ejemplos más dramáticos relatados involucra un ataque aéreo erróneo en 2023, en el que una familia libanesa perdió tres niñas y una abuela tras el bombardeo de un vehículo. Esta conexión directa entre tecnología y daño civil ha provocado la reacción de empleados, activistas y medios de derechos humanos.
No es un caso aislado: Google también en la mira
El temor de muchos activistas tecnológicos es que este tipo de relaciones entre gobiernos y grandes tecnológicas se estén normalizando. En 2023, más de 40 empleados de Google fueron despedidos por realizar ocupaciones pacíficas en oficinas en Nueva York y California. ¿La razón? Protestaban contra Project Nimbus, un acuerdo de 1.200 millones de dólares para proporcionar servicios de IA y nube al gobierno israelí.
Incluso después del despido, varios de esos empleados interpusieron una queja formal ante la Junta Nacional de Relaciones Laborales de EE. UU. por violación de derechos.
¿Qué papel juega la IA en conflictos bélicos?
La inteligencia artificial, utilizada en medicina, educación o servicios públicos, se ha convertido también en una arma en los campos de batalla modernos. Mediante algoritmos de análisis de datos y reconocimiento de imágenes, se pueden identificar "objetivos estratégicos" con una rapidez jamás vista. Pero esto crea un riesgo: ¿quién supervisa a la IA? ¿A quién responsabilizamos si hay errores?
Según reportes del medio AP, el programa israelí Lavender —que presuntamente usa herramientas de IA para priorizar objetivos de ataque— fue desarrollado con servicios de Azure, la plataforma de nube de Microsoft. La crítica recae en el hecho de que se estarían priorizando intereses geopolíticos por encima de principios éticos.
La ética corporativa en entredicho
La cultura empresarial en las grandes tecnológicas históricamente ha promocionado su apoyo a la innovación, diversidad y pensamiento crítico. Sin embargo, los últimos episodios revelan una paradoja: cuando los trabajadores ejercen ese mismo pensamiento crítico, se exponen a represalias.
"Nos dicen que tienen canales para escuchar nuestras voces, pero cuando usamos esos canales no pasa nada. Cuando tomamos acción directa, nos despiden", comentó un trabajador de Google bajo anonimato. Una dinámica similar parece haberse repetido en Microsoft.
Además, grupos como No Azure for Apartheid, conformado por trabajadores en oposición al uso militar de la IA, han exigido transparencia y una auditoría independiente de los contratos militares llevados adelante por Microsoft.
¿Se criminaliza la disidencia interna?
Desde el movimiento Tech Workers Coalition, uno de los más activos desde 2020, se ha criticado la creciente censura corporativa frente a la disidencia ética. Varios expertos consideran preocupante que empleados no puedan expresar objeciones morales sin poner en riesgo sus empleos.
La periodista Naomi Klein ha señalado repetidamente:
“Cuando las empresas tecnológicas importan más que los derechos humanos, estamos ante un fallo estructural del capitalismo moderno.”
¿Qué mensaje se le está enviando al mundo cuando una protesta sobre crímenes de guerra implica una desvinculación inmediata sin diálogo?
¿Qué sigue para Microsoft?
La empresa, con una valuación de más de 3 billones de dólares y operaciones en más de 190 países, se encuentra bajo el escrutinio de accionistas, usuarios y trabajadores. ¿Puede darse el lujo de ignorar los llamados éticos sin sufrir consecuencias reputacionales o económicas?
No es casual que figuras del activismo digital estén llamando a boicots, auditorías éticas y reformas internas. Incluso algunos académicos estiman que, en los próximos años, muchas compañías tecnológicas enfrentarán demandas colectivas por responsabilidad en conflictos internacionales asistidos por IA.
¿Y el resto de la industria?
Casos similares se están viendo en empresas como Amazon, Palantir y Meta (Facebook), todas con vínculos de diversa índole con contratistas militares. Sin embargo, una diferencia clave radica en que Microsoft tiene —o tenía— una reputación de promover el debate interno y escuchar a sus empleados. Esa confianza parece resquebrajarse.
El periodista tecnológico Casey Newton expresó en su boletín Platformer:
“Lo irónico es que en un evento para celebrar los 50 años de contribuciones de Microsoft al mundo, se evidenció lo poco que ha evolucionado el concepto de ética para algunos de sus ejecutivos. Quizás se sienten más cómodos desarrollando mundos virtuales que enfrentando las verdades del real.”
Una causa generacional
Esta no es solo una historia de IA y contratos. Es también una historia de jóvenes ingenieros, programadores y trabajadoras que ya no quieren construir productos que perpetúen violencia. Y ese espíritu de insubordinación ética podría ser el primer paso hacia una transformación urgente en las estructuras de poder digital.
Mientras tanto, se multiplican las voces que exigen a Microsoft rendir cuentas —no sólo ante sus accionistas, sino ante la historia.