El ejército de Israel ha estado utilizando inteligencia artificial para ayudar a elegir sus objetivos de bombardeo en Gaza, sacrificando la precisión en favor de la velocidad y matando a miles de civiles en el proceso, según una investigación realizada por publicaciones con sede en Israel. +972 Revista y Llamada local.
El sistema, llamado Lavender, fue desarrollado después de los ataques de Hamás del 7 de octubre, afirma el informe. En su apogeo, Lavender marcó a 37.000 palestinos en Gaza como presuntos “militantes de Hamas” y autorizó sus asesinatos.
El ejército de Israel negó la existencia de tal lista de muerte en una declaración a +972 y Llamada local. Un portavoz le dijo a CNN que la IA no se estaba utilizando para identificar a presuntos terroristas, pero no cuestionó la existencia del sistema Lavender, que el portavoz describió como “simples herramientas para analistas en el proceso de identificación de objetivos”. Los analistas “deben realizar exámenes independientes, en los que verifican que los objetivos identificados cumplan con las definiciones pertinentes de acuerdo con el derecho internacional y las restricciones adicionales estipuladas en las directivas de las FDI”, dijo el portavoz a CNN. Las Fuerzas de Defensa de Israel no respondieron de inmediato a El bordeSolicitud de comentarios.
En entrevistas con +972 y Llamada localSin embargo, los oficiales de inteligencia israelíes dijeron que no estaban obligados a realizar exámenes independientes de los objetivos Lavender antes de bombardearlos, sino que servían efectivamente como “un ‘sello de goma’ para las decisiones de la máquina”. En algunos casos, el único papel de los agentes en el proceso era determinar si el objetivo era un hombre.
Elegir objetivos
Para construir el sistema Lavender, se introdujo en un conjunto de datos información sobre agentes conocidos de Hamás y la Jihad Islámica Palestina, pero, según una fuente que trabajó con el equipo de ciencia de datos que capacitó a Lavender, también se incluyeron datos sobre personas vagamente afiliadas a Hamás, como empleados del Ministerio de Seguridad Interna de Gaza. “Me molestó el hecho de que cuando Lavender fue entrenada, usaron el término ‘operativo de Hamas’ de manera vaga e incluyeron a personas que eran trabajadores de defensa civil en el conjunto de datos de capacitación”, dijo la fuente. +972.
Lavender fue entrenada para identificar “características” asociadas con los agentes de Hamás, incluido estar en un grupo de WhatsApp con un militante conocido, cambiar de teléfono celular cada pocos meses o cambiar de dirección con frecuencia. Luego, esos datos se utilizaron para clasificar a otros palestinos en Gaza en una escala del 1 al 100 en función de su similitud con los agentes conocidos de Hamás en el conjunto de datos inicial. Las personas que alcanzaban un determinado umbral eran marcadas como objetivos de huelga. Ese umbral siempre estaba cambiando “porque depende de dónde se establezca el listón de lo que es un operativo de Hamas”, dijo una fuente militar. +972.
El sistema tenía una tasa de precisión del 90 por ciento, dijeron las fuentes, lo que significa que alrededor del 10 por ciento de las personas identificadas como agentes de Hamás no eran miembros del ala militar de Hamás en absoluto. Algunas de las personas que Lavender señaló como objetivos tenían nombres o apodos idénticos a los de agentes conocidos de Hamás; otros eran familiares de agentes de Hamás o personas que utilizaban teléfonos que alguna vez pertenecieron a un militante de Hamás. “Los errores se trataron estadísticamente”, dijo una fuente que usó Lavender. +972. “Debido al alcance y la magnitud, el protocolo fue que incluso si no estás seguro de que la máquina está bien, sabes estadísticamente que está bien. Así que hazlo”.
Daños colaterales
A los oficiales de inteligencia se les dio amplia libertad en lo que respecta a las víctimas civiles, dijeron las fuentes. +972. Durante las primeras semanas de la guerra, a los oficiales se les permitió matar hasta 15 o 20 civiles por cada agente de Hamás de nivel inferior atacado por Lavender; Para los altos funcionarios de Hamás, el ejército autorizó “cientos” de víctimas civiles colaterales, afirma el informe.
Los presuntos agentes de Hamas también fueron atacados en sus hogares utilizando un sistema llamado “¿Dónde está papá?” los oficiales dijeron +972. Ese sistema puso a los objetivos generados por Lavender bajo vigilancia continua, rastreándolos hasta que llegaban a sus hogares, momento en el que serían bombardeados, a menudo junto con sus familias enteras, dijeron los oficiales. En ocasiones, sin embargo, los agentes bombardeaban casas sin verificar que los objetivos estuvieran dentro, aniquilando a decenas de civiles en el proceso. “Me pasó muchas veces que atacamos una casa, pero la persona ni siquiera estaba en casa”, dijo una fuente. +972. “El resultado es que mataste a una familia sin ningún motivo”.
Guerra impulsada por la IA
Mona Shtaya, miembro no residente del Instituto Tahrir para la Política de Oriente Medio, dijo El borde que el sistema Lavender es una extensión del uso que hace Israel de tecnologías de vigilancia sobre los palestinos tanto en la Franja de Gaza como en Cisjordania.
Shtaya, que reside en Cisjordania, dijo El borde que estas herramientas son particularmente preocupantes a la luz de los informes de que las nuevas empresas de defensa israelíes esperan exportar al extranjero su tecnología probada en batalla.
Desde que comenzó la ofensiva terrestre de Israel en Gaza, el ejército israelí ha confiado y desarrollado una serie de tecnologías para identificar y atacar a presuntos agentes de Hamás. En marzo, El New York Times reportado que Israel desplegó un programa masivo de reconocimiento facial en la Franja de Gaza -creando una base de datos de palestinos sin su conocimiento o consentimiento- que luego el ejército utilizó para identificar a presuntos agentes de Hamás. En un caso, la herramienta de reconocimiento facial identificó al poeta palestino Mosab Abu Toha como un presunto agente de Hamás. Abu Toha estuvo detenido durante dos días en una prisión israelí, donde fue golpeado e interrogado antes de ser devuelto a Gaza.
Otro sistema de inteligencia artificial, llamado “El Evangelio”, se utilizó para marcar edificios o estructuras desde donde se cree que opera Hamás. De acuerdo a un +972 y Llamada local informe A partir de noviembre, El Evangelio también contribuyó a un gran número de víctimas civiles. “Cuando una niña de 3 años es asesinada en una casa en Gaza, es porque alguien en el ejército decidió que no era gran cosa que la mataran, que era un precio que valía la pena pagar para poder atacar. [another] objetivo”, dijo una fuente militar a las publicaciones en ese momento.
“Necesitamos ver esto como una continuación de las políticas de castigo colectivo que se han utilizado como armas contra los palestinos durante décadas”, dijo Shtaya. “Necesitamos asegurarnos de que los tiempos de guerra no se utilicen para justificar la vigilancia masiva y el asesinato masivo de personas, especialmente civiles, en lugares como Gaza”.