Lavender: la máquina de inteligencia artificial que dirige el bombardeo de Israel en Gaza - Periódico Alternativo

Titulares

Home Top Ad

Contra la propaganda de las multinacionales Mediáticas

Post Top Ad

09 abril 2024

Lavender: la máquina de inteligencia artificial que dirige el bombardeo de Israel en Gaza



El ejército comandado por Benjamin Netanyahu ha marcado a decenas de miles de palestinos como potenciales objetivos, con la utilización de un sistema informático con poca supervisión humana y una política permisiva de víctimas colaterales, según revelan los medios ‘+972 Magazine’ y ‘Local Call’El 2021, se publicó en inglés un libro titulado El equipo humano-máquina: como crear una sinergia entre la inteligencia humana y artificial que revolucionará nuestro mundo bajo el pseudónimo de Brigadier General Y.S. El autor, un hombre que confirmamos que es el comandante actual de la unidad de élite de inteligencia israelí 8200, defiende el diseño de una máquina especial que pueda procesar rápidamente cantidades masivas de datos para generar miles de ”objetivos” potenciales para los ataques militares en plena guerra. Esta tecnología –escribía–, resolvería lo que describió como un “cuello de botella humano tanto para localizar los nuevos objetivos como para tomar decisiones para aprobar los objetivos”.

Resulta que una máquina como esta existe realmente en la actualidad. Una nueva investigación de los medios +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como Lavender, que damos a conocer públicamente por primera vez. Según seis oficiales de inteligencia israelíes, que han servido al ejército durante la actual guerra a la Franja de Gaza y que han participado de primera mano en el uso de la inteligencia artificial (IA) para generar objetivos para el asesinato, Lavender ha tenido un papel central en el bombardeo sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra. De hecho, según las fuentes, su influencia en las operaciones del ejército fue tal que los mandos trataron las decisiones de la máquina de IA “como si fuera una decisión humana”.

Formalmente, el sistema Lavender está diseñado para marcar a todos los presuntos agentes de las alas militares de Hamás y la Yihad Islámica Palestina, incluidos los de bajo rango, como posibles objetivos de bombardeo. Las fuentes consultadas detallan que, durante las primeras semanas de guerra, el ejército confió casi completamente en Lavender, que registró hasta 37.000 palestinos como presuntos militantes -y sus casas- para posibles ataques aéreos.

Durante las primeras etapas de la guerra, el ejército dio una gran aprobación a los oficiales para adoptar las listas de la muerte de Lavender, sin ningún requisito de comprobar a fondo por qué la máquina había hecho las selecciones

Durante las primeras etapas de la guerra, el ejército dio una gran aprobación a los oficiales para adoptar las listas de la muerte de Lavender, sin ningún requisito de comprobar a fondo por qué la máquina había hecho las selecciones ni de examinar los datos de inteligencia en bruto en que se basaban. Una de las fuentes afirma que el personal humano a menudo solo servía como “sello de goma” para las decisiones de la máquina, y añade que, normalmente, dedican personalmente solo unos “20 segundos” a cada objetivo antes de autorizar un bombardeo, solo para asegurarse de que el objetivo marcado es masculino. Esto a pesar de saber que el sistema comete lo que se consideran “errores” en aproximadamente el 10 % de los casos, y se sabe que ocasionalmente marca personas que solo tienen una conexión débil con grupos militantes, o no tienen conexión alguna.

Además, el ejército israelí ha atacado sistemáticamente a los individuos objetivo mientras estaban en su casa, normalmente por la noche, con sus familias presentes, más que durante la actividad militar. Según las fuentes, esto fue porque, desde el punto de vista de inteligencia, era más fácil localizar a los individuos en sus casas particulares. Sistemas automatizados adicionales de inteligencia artificial, incluido uno llamado “Dónde está el padre?” también revelados en esta investigación por primera vez, se utilizaron específicamente para rastrear los individuos objetivo y para llevar a cabo bombardeos cuando habían entrado en las residencias de su familia.

El resultado, según el testimonio de las fuentes, es que miles de palestinos —la mayoría mujeres y niños o personas que no estaban implicadas en los combates— fueron exterminados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, como consecuencia de la aplicación de los resultados del programa Lavender.

“No nos interesaba matar agentes [Hamás] solo cuando estaban en un edificio militar o se dedicaban a una actividad militar”, asegura A., un oficial de inteligencia consultado. “Al contrario, las IDF (Fuerzas de Defensa de Israel) los bombardearon en las casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está creado para buscarlos en estas situaciones”.

La máquina Lavender se une a otro sistema de IA, “The Gospel”, sobre el cual se reveló información en una investigación previa de +972 Magazine y Local Call en noviembre de 2023, así como en las publicaciones del ejército israelí. Una diferencia fundamental entre los dos sistemas es en la definición del objetivo: mientras que The Gospel marca edificios y estructuras desde los cuales el ejército afirma que los militantes operan, Lavender marca a las personas y las pone a una lista de muertes.Además, según las fuentes, a la hora de atacar a presuntos militantes jóvenes marcados por Lavender, el ejército prefirió utilizar solo misiles no guiados, comúnmente conocidos como bombas “mudas” (en contraste con las bombas de precisión “inteligentes”), que pueden destruir edificios enteros con sus ocupantes y causan numerosas víctimas. “No quieren malgastar bombas caras con personas sin importancia; es muy caro para el país y hay escasez [de estas bombas]”, asegura C., uno de los oficiales de inteligencia. Otra fuente confirma que se ha autorizado personalmente el bombardeo de “centenares” de casas particulares de presuntos agentes menores de edad marcados por Lavender. Muchos de estos ataques provocaron la muerte de civiles y de familias enteras como “daños colaterales”.

En un movimiento sin precedentes, según dos de las fuentes, el ejército también decidió durante las primeras semanas de la guerra que, por cada agente menor de Hamás que Lavender marcó, era permisible matar hasta 15 o 20 civiles; en el pasado, los militares no autorizaron ningún “daño colateral” durante los asesinatos de militantes de bajo rango. Las fuentes añadieron que, en el supuesto de que el objetivo fuera un alto funcionario de Hamás con el rango de comandante de batallón o de brigada, el ejército autorizó en varias ocasiones la muerte de más de 100 civiles en el asesinato de un solo comandante.

La investigación periodística (que se puede leer completa en este enlace) se organiza según las seis etapas cronológicas de la producción de objetivos altamente automatizada del ejército israelí en las primeras semanas de la guerra de Gaza. En primer lugar, explica la misma máquina Lavender, que marcó decenas de miles de palestinos utilizando IA. En segundo lugar, revela el sistema “Donde está el padre?”, que rastrea estos objetivos y hace señales al ejército cuando entran en las casas familiares. En tercer lugar, describe como se eligieron bombas “mudas” para golpear estas casas. En cuarto lugar, explica cómo el ejército ha sido más permisivo en el número de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, observamos como el software automatizado calcula de manera incorrecta la cantidad de no combatientes en cada hogar. Y en sexto, mostramos como en varias ocasiones, cuando se golpea una casa, generalmente por la noche, el objetivo individual a veces no se encuentra en el lugar del ataque, porque los oficiales militares no verifican la información en tiempo real.

Investigación publicada originalmente y completa a +972 Magazine

https://kaosenlared.net/lavender-la-maquina-de-inteligencia-artificial-que-dirige-el-bombardeo-de-israel-en-gaza/

Periódico Alternativo publicó esta noticia siguiendo la regla de creative commons. Si usted no desea que su artículo aparezca en este blog escríbame para retirarlo de Inmediato

No hay comentarios.: