Microsoft ha decidido retirar el acceso de la Unidad 8200 del ejército israelí a sus servicios de cloud e inteligencia artificial. Esta decisión, que se hizo pública el 25 de septiembre de 2025, llega tras una investigación que demostró que esta tecnología se utilizaba para recopilar y controlar datos de ciudadanos palestinos. La noticia ha vuelto a poner sobre la mesa el debate sobre el papel de las grandes tecnológicas en casos de vigilancia masiva.
Un uso de la tecnología muy cuestionado
La Unidad 8200, que tiene fama por su trabajo en ciberseguridad, usaba servicios de Microsoft para gestionar unos 8.000 terabytes de datos, principalmente para analizar llamadas telefónicas de palestinos en Gaza y Cisjordania. Estos datos se empleaban después en la toma de decisiones operativas, incluso en acciones militares, lo que genera muchas dudas sobre la ética de usar tecnología en conflictos armados. Todo esto ha salido a la luz gracias a una investigación conjunta de medios como The Guardian y +972 Magazine, que destapó el uso indebido de estas herramientas tecnológicas.
El contacto entre Microsoft y la Unidad 8200 empezó en 2021, cuando Satya Nadella, CEO de la compañía, se reunió con el comandante de la unidad. Desde entonces, ambas partes habían colaborado en asuntos de ciberseguridad, pero las últimas revelaciones han obligado a Microsoft a cambiar el rumbo y a replantear el control y uso de sus servicios en situaciones delicadas.
La reacción de Microsoft y sus consecuencias
Después de conocer los hechos, Microsoft decidió suspender el acceso de la Unidad 8200 a Azure, su plataforma de servicios en la nube. Brad Smith, presidente de Microsoft, fue tajante al decir que la empresa “no proporciona tecnología que permita la vigilancia masiva de ciudadanos”. Así lo expresó para dejar clara la postura de Microsoft y su compromiso de no contribuir a la vulneración de los derechos humanos.
Esta revocación del acceso llegó pocos días después de que la Unidad 8200 trasladase sus datos fuera de Israel. Según el propio ejército, este cambio no les había limitado en sus operaciones. Aun así, la decisión de Microsoft vuelve a abrir el debate sobre hasta qué punto las grandes tecnológicas deben vigilar cómo se usan sus productos y servicios.
Revisiones y antecedentes recientes
Conviene recordar que, en mayo de 2025, Microsoft ya había permitido un acceso limitado a su tecnología para facilitar la localización de rehenes tras los ataques del 7 de octubre de ese año. Fue una medida puntual y bajo estrictas medidas de control. Ahora, con todo lo que ha salido a la luz, Microsoft se ha visto obligada a iniciar una revisión independiente de su relación con la Unidad 8200.
Sin embargo, la empresa insiste en que, pese a la preocupación, no ha encontrado pruebas de que sus servicios se hayan usado para causar daño a personas en Gaza. También aclara que no puede ver todo lo que sus clientes hacen en su propia infraestructura, por lo que solo pueden auditar lo que está a su alcance.
Un debate que va mucho más allá
El caso de Microsoft y la Unidad 8200 forma parte de una discusión global sobre la vigilancia y el papel de las grandes tecnológicas en conflictos armados. El uso de sistemas de recopilación de datos en situaciones de ocupación plantea cuestiones éticas y legales que requieren un examen a fondo. La comunidad internacional sigue de cerca cómo las empresas pueden influir en la dinámica de los conflictos, sobre todo cuando están en juego la privacidad y los derechos fundamentales.
El aumento del uso de tecnología avanzada en la guerra convierte este caso en un momento clave para que las empresas revisen y refuercen sus políticas de responsabilidad social y el uso que se hace de sus productos. Esta revisión es fundamental, no solo para Microsoft sino para todo el sector tecnológico, que se enfrenta al reto de valorar el impacto real de sus operaciones y su responsabilidad ética en situaciones sensibles.