El clima en Neuquén

icon
Temp
71% Hum
La Mañana Israel

Polémica por la inteligencia artificial que usa Israel contra objetivos militares

“The Gospel” y “Lavender” le permitió eliminar numerosos blancos de Hamás y Hezbollah. Uno define edificaciones y el otro, objetivos humanos.

Las Fuerzas de Defensa de Israel están empleando dos sofisticados programas de Inteligencia Artificial (AI) para definir objetivos militares en la Franja de Gaza y en el sur del Líbano. Si bien para las autoridades israelíes resultan exitosos, a nivel internacional generan polémica porque a veces no son tan precisos y provocan importantes daños colaterales.

Los jefes militares israelíes están convencidos de que son dos buenas herramientas y citan como ejemplo que les permitió eliminar varios blancos terroristas del movimiento islamista Hamás en Gaza y de las milicias pro-iraní Hezbollah en Líbano y Siria.

Uno de los programas es “The Gospel”, que utiliza algoritmos para definir edificios o viviendas en las que se encuentran grupos terroristas. La otra es “Lavender”, que apunta a objetivos humanos.

Ambos son desarrollos que tienen ya varios años, pero se están utilizando con mucha más intensidad desde el ataque de Hamás del 7 de octubre del año pasado, que dejó 1.200 muertos en Israel y terminó con el secuestro de más de 300 personas, algo que provocó una conmoción en el país.

En diálogo con el diario británico The Guardian, un oficial de inteligencia que usa Lavender sostuvo que confía más “en un mecanismo estadístico que en un soldado preocupado”. “Esto no tiene paralelo, en mi memoria. Todos los presentes, incluido yo, perdimos personas el 7 de octubre. La máquina define con frialdad los blancos, y eso lo hizo más fácil”, agregó.

Embed

Cómo funciona Lavender

El programa fue diseñado por un grupo especial de Inteligencia y tecnología del Ejército israelí conocido como “Unidad 8200”.

Su función es seleccionar mediante algoritmos los objetivos humanos que después, tras la confirmación de un comando operativo, atacarán las fuerzas militares. Tiene una tasa de error de menos de un 10%.

Los algoritmos están basados en una infinidad de datos cargados previamente. Desde el comienzo de las operaciones terrestres sobre la Franja de Gaza los equipos de inteligencia israelíes suministraron a Lavender una lista de objetivos humanos y materiales (bases militares, arsenales, misiles).

El programa fue revelado por “+972 Magazine” y “Local Call”. Expertos le contaron a la revista que Lavender rastrea comunicaciones mediante sistemas automatizados, lo que les permite detectar a los supuestos terroristas.

El video muestra el ataque de Israel contra un comandante de Hezbollah en el sur del Líbano.

El video muestra el ataque de Israel contra un comandante de Hezbollah en el sur del Líbano.

Lavender se maneja con una base de datos obtenida a través de un sistema de vigilancia masiva en Gaza, que recopila información de los 2,3 millones de residentes.

El programa “aprende a identificar las características de los agentes conocidos de Hamás y la Yihad Islámica Palestina, cuya información fue introducida en la máquina como datos de entrenamiento, y luego localiza esas mismas características –también llamadas rasgos– entre la población general”, señala la revista.

Una persona que tenga varias características incriminatorias diferentes alcanzará una calificación alta y, por lo tanto, automáticamente, se convertirá en un posible objetivo de asesinato.

Antes del ataque hay una confirmación de un jefe militar, pero suele ser también muy rápida. Uno de los métodos, explican, es saber si el objetivo es un hombre o una mujer. Si es mujer, el programa falló porque Hamás no utiliza mujeres para el combate.

Los militares que trabajan con el sistema sostienen que acorta enormemente los tiempos de decisión en el campo de batalla y les permite eliminar blancos eficientemente.

Los organismos de derechos humanos, en cambio, señalan que a causa de los “márgenes de error” del programa murieron numerosos niños y mujeres en Gaza.

Soldados israelíes operando en Gaza.
Soldados israelíes operando en Gaza.

Soldados israelíes operando en Gaza.

Cómo actúa The Gospel

Esta herramienta de Inteligencia Artificial se especializa en destruir edificios y viviendas donde se esconden terroristas o donde se almacenan armamento y municiones.

Los militares explican que “a través de la extracción rápida y automática de inteligencia”, The Gospel produce recomendaciones de objetivos para su eliminación. Luego se utilizan bombas inteligentes para destruir el lugar.

Aviv Kochavi, quien fue jefe de las Fuerzas de Defensa de Israel, sostuvo que este programa “produce grandes cantidades de datos con mayor eficacia que cualquier ser humano y los traduce en objetivos de ataque”.

“Para poner esto en perspectiva, en el pasado producíamos 50 objetivos en Gaza por año. Ahora, esta máquina produce 100 objetivos en un solo día, y el 50% de ellos son atacados”, admitió.

Ataque israelí sobre Gaza.
Ataque israelí sobre un edificio en Gaza, marcado por la IA.

Ataque israelí sobre un edificio en Gaza, marcado por la IA.

Un tema polémico, con miles de muertos

Las fuerzas israelíes utilizan ambos programas en su guerra contra Hamás y la Yihad Islámica en Gaza, lo que ya provocó la muerte de más de 35.000 palestinos y la destrucción masiva de la infraestructura local.

Hay un fuerte cambio de actitud del Ejército israelí tras la conmoción del ataque del 7 de octubre, según los analistas y organismos de derechos humanos. Esto impulsó el uso indiscriminado de Lavender y The Gospel.

Antes, solo los altos mandos militares israelíes tenían la capacidad de apuntar y ejecutar a los líderes de los grupos terroristas islámicos con el fin de minimizar los “daños colaterales” y ajustar los ataques al Derecho Internacional. Ahora son proclives a dejar todo en manos de la inteligencia artificial.

Te puede interesar...

Lo más leído

Leé más

Noticias relacionadas

Dejá tu comentario