El primer genocidio apoyado por la “inteligencia” artificial

En Gaza se está realizando una matanza gobernada por la inteligencia artificial
0
665
PBC -comparte

Un sueño de muchos de los genocidios y las purgas del siglo XX (nazi, comunista, el sufrido por el pueblo armenio…) sería el de realizar una matanza selectiva de las poblaciones, según razas, ideologías o simplemente por pertenencia a una comunidad política, sin apenas moverse de sus cuarteles.

Además la matanza sería realizada de forma indirecta (un dron con armas ejecutaría) y de alguna forma la última decisión la tomaría un algoritmo…

En un momento donde todos los derechos de los pueblos frente al genocidio, que fueron consensuados en la mitad del siglo XX han saltado por los aires, la IA ha venido a validar la eficacia de la tecnología al servicio del mal.

El libro The Human-Machine Team, traducido como El equipo humano-máquina: cómo crear una sinergia entre la inteligencia humana y la artificial que revolucionará nuestro mundo, fue escrito en 2021 bajo el seudónimo de General de Brigada Y.S. The Guardian revelaba en abril su verdadero nombre, Yossi Sariel, actual comandante de la unidad de élite de inteligencia israelí 8200, la división secreta de ciberinteligencia de las Fuerzas de Defensa de Israel (IDF). En este libro se refería a la capacidad militar para el diseño de una máquina que podría procesar rápidamente cantidades masivas de datos con los que generar miles de objetivos potenciales para ataques militares al calor de una guerra.

Este programa de inteligencia artificial existe y ha sido utilizado desde octubre de 2023 con el nombre de Lavender. Este software se alimenta de la IA para generar objetivos de asesinato en la guerra contra Gaza, y ha sido usado en los primeros meses de la guerra tras el 7 de octubre. En su punto álgido, el sistema consiguió generar 37.000 personas como objetivos humanos potenciales, a pesar de saber que el sistema tiene un margen de error de del 10%, y que marca a individuos que tienen simplemente una conexión suelta con grupos militantes de Hamás, o en muchos casos, ninguna.

Además, el algoritmo tiene instrucciones para permitir infringir “daños colaterales” que pueden alcanzar entre 10 o 20 civiles y, dependiendo de la potencialidad del target, de hasta 100 civiles. Con este software, el ejército israelí atacó sistemáticamente a las personas que iban a sus hogares, normalmente por la noche, mientras sus familias estaban presentes, en lugar de actuar durante el curso de la actividad militar. Según las fuentes, esto se debió a que esta inteligencia artificial consideraba más fácil ubicar a los individuos en sus casas particulares. Es decir, el sistema había sido construido para buscarlos en estas situaciones. Antonio Guterres, secretario general de la ONU, subrayaba en abril de 2025: “Ninguna parte de las decisiones de vida o muerte que impactan a familias enteras debe delegarse al frío cálculo del algoritmo”.

Entre 2008 y 2023 Israel ha recibido de los fondos de investigación europeos, es decir, del Programa Marco de Investigación en Seguridad 7, Horizonte 2020 y Horizonte Europa (2007-2023) casi 70 millones de euros

‘Una factoría de asesinato en masa’

Así es como describió un oficial de inteligencia israelí el funcionamiento del conjunto de sistemas de IA que el Ejército de Israel está empleando de forma integrada en la guerra de Gaza. Fue en un artículo del medio —formado por periodistas palestinos e israelíes— crítico con la ocupación +972 Magazine, publicado a finales de noviembre del año pasado generando un importante eco en medios internacionales, si bien quizás no tanto cómo se podría haber esperado. Un segundo artículo del mismo medio, publicado en abril, terminaría por completar la fotografía del siniestro entramado tecnocientífico que sostiene las operaciones israelíes en Gaza.

En síntesis, la investigación de +972 Magazine desveló cómo Israel hace un uso combinado de dos sistemas de IA para la generación de objetivos militares en Gaza. Por un lado, la IA Habsora (Evangelio en castellano) es capaz de identificar edificios que albergarían a miembros y operativos militares de Hamás y Yihad Islámica Palestina, los dos grupos armados principales que operan en Gaza. En paralelo, la IA Lavender hace un trabajo similar centrado en los individuos, buscando identificar a miembros de ambas organizaciones. Ambos sistemas funcionan mediante la búsqueda de patrones en base a una serie de elementos proporcionados en una fase previa de ‘entrenamiento’. El sistema es completado por una tercera IA denominada Where’s Daddy?, la cual permite realizar un seguimiento a los objetivos humanos una vez han sido localizados, priorizándose el bombardeo de estos en sus hogares, al considerarse mucho más alta la probabilidad de éxito en el ataque. La designación de objetivos militares es acompañada en todo momento de la estimación de víctimas civiles colaterales del ataque, estableciéndose un rango aceptable que va desde las 15 para un soldado raso de Hamás, hasta las 300 para un alto cargo.

El resultado de este sofisticado sistema es que en las primeras semanas de guerra Israel fue capaz de generar más de 37.000 objetivos militares, frente a los 50 anuales que los servicios de inteligencia eran capaces de generar previamente. Objetivos militares directamente vinculados a los ataques israelís y que contribuyen a explicar las apabullantes 15.000 víctimas mortales que se produjeron en las seis primeras semanas del conflicto.

El Ejército de Israel no ha negado la existencia de estos sistemas, si bien argumenta que no determinan sus objetivos militares, y que únicamente proporcionan información adicional a sus servicios de inteligencia a la hora de conducir sus operaciones. Sin embargo, numerosos testimonios han revelado cómo, debido a la enorme presión existente en las primeras fases de la guerra para atacar lo más duramente posible a Hamás, el tiempo medio de validación humana del objetivo propuesto por Lavender era de unos 20 segundos. En la práctica, esto llegó a suponer una validación casi automática, en la que únicamente se comprobaba si el objetivo era un hombre y una mujer, aceptándose de manera sistemática en el caso de que fuera masculino. El margen de acierto de Lavender es de un 90 %, lo cual demostraría una autorización sistemática de ataques a sabiendas de que el 10 % de los mismos recaerían sobre víctimas civiles inocentes.

La cuasi automatización en la selección de objetivos militares reduce al mínimo la toma de decisiones por parte del personal militar

Fuente elsaltodiario.com

Comments are closed.

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más información.