The AI machine directing Israel’s bombing spree in Gaza

/lavender-ai-israeli-army-gaza

  • Rappel : l’intelligence artificielle israélienne qui détermine les cibles des bombardements est spécifiquement conçue pour faire le plus de « victimes collatérales ».

    ‘Lavender’ : The AI machine directing Israel’s bombing spree in Gaza [April 3, 204]
    https://www.972mag.com/lavender-ai-israeli-army-gaza

    Moreover, the Israeli army systematically attacked the targeted individuals while they were in their homes — usually at night while their whole families were present — rather than during the course of military activity. According to the sources, this was because, from what they regarded as an intelligence standpoint, it was easier to locate the individuals in their private houses. Additional automated systems, including one called “Where’s Daddy?” also revealed here for the first time, were used specifically to track the targeted individuals and carry out bombings when they had entered their family’s residences.

    The result, as the sources testified, is that thousands of Palestinians — most of them women and children or people who were not involved in the fighting — were wiped out by Israeli airstrikes, especially during the first weeks of the war, because of the AI program’s decisions.

    “We were not interested in killing [Hamas] operatives only when they were in a military building or engaged in a military activity,” A., an intelligence officer, told +972 and Local Call. “On the contrary, the IDF bombed them in homes without hesitation, as a first option. It’s much easier to bomb a family’s home. The system is built to look for them in these situations.”

    The Lavender machine joins another AI system, “The Gospel,” about which information was revealed in a previous investigation by +972 and Local Call in November 2023, as well as in the Israeli military’s own publications. A fundamental difference between the two systems is in the definition of the target: whereas The Gospel marks buildings and structures that the army claims militants operate from, Lavender marks people — and puts them on a kill list.

    En français :
    https://agencemediapalestine.fr/blog/2024/04/04/lavander-la-machine-dintelligence-artificielle-qui-dirige-les-b

    En outre, l’armée israélienne a systématiquement attaqué les personnes ciblées alors qu’elles se trouvaient chez elles – généralement la nuit en présence de toute leur famille – plutôt qu’au cours d’une activité militaire. Selon les sources, cela s’explique par le fait que, du point de vue du renseignement, il est plus facile de localiser les individus dans leurs maisons privées. D’autres systèmes automatisés, dont celui appelé « Where’s Daddy ? », également révélé ici pour la première fois, ont été utilisés spécifiquement pour suivre les individus ciblés et commettre des attentats à la bombe lorsqu’ils étaient entrés dans les résidences de leur famille.

    Le résultat, comme en témoignent les sources, est que des milliers de Palestiniens – pour la plupart des femmes et des enfants ou des personnes qui n’étaient pas impliquées dans les combats – ont été éliminés par les frappes aériennes israéliennes, en particulier au cours des premières semaines de la guerre, en raison des décisions du programme d’intelligence artificielle.

    « Nous ne voulions pas tuer les agents [du Hamas] uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou participaient à une activité militaire », a déclaré A., un officier de renseignement, à +972 et à Local Call. « Au contraire, les FDI les ont bombardés dans leurs maisons sans hésitation, comme première option. Il est beaucoup plus facile de bombarder la maison d’une famille. Le système est conçu pour les rechercher dans ces situations. »

    La machine Lavender rejoint un autre système d’IA, « The Gospel« , au sujet duquel des informations ont été révélées lors d’une précédente enquête menée par +972 et Local Call en novembre 2023, ainsi que dans les propres publications de l’armée israélienne. La différence fondamentale entre les deux systèmes réside dans la définition de la cible : alors que The Gospel marque les bâtiments et les structures à partir desquels, selon l’armée, les militants opèrent, Lavender marque les personnes – et les inscrit sur une liste de personnes à abattre.

  • Signalé par @RnaudBertrand (Twitter), cet article de 972 magazine est le plus extraordinaire que j’ai vu sur le conflit en Palestine depuis... toujours.

    Je pense qu’il a dû contribuer à la décision des Etats-Unis du Chaos de commencer enfin à restreindre leur Etat-client dans la région. (We must be thankful for small mercies).

    J’espère qu’il y aura bientôt une traduction en français.

    https://www.972mag.com/lavender-ai-israeli-army-gaza

  • Les renseignements israéliens ont désigné leurs cibles à Gaza via l’IA : “La machine l’a fait froidement, et c’est plus facile” | Guerre Israël-Hamas | 7sur7.be
    https://www.7sur7.be/monde/les-renseignements-israeliens-ont-designe-leurs-cibles-a-gaza-via-lia-la-machi

    Source (et non pas le Guardian qui s’est contenté d’exploiter les éléments de 972Mag) :
    ‘Lavender’ : The AI machine directing Israel’s bombing spree in Gaza
    https://www.972mag.com/lavender-ai-israeli-army-gaza

    • Moreover, the Israeli army systematically attacked the targeted individuals while they were in their homes — usually at night while their whole families were present — rather than during the course of military activity. According to the sources, this was because, from what they regarded as an intelligence standpoint, it was easier to locate the individuals in their private houses. Additional automated systems, including one called “Where’s Daddy?” also revealed here for the first time, were used specifically to track the targeted individuals and carry out bombings when they had entered their family’s residences.

      The result, as the sources testified, is that thousands of Palestinians — most of them women and children or people who were not involved in the fighting — were wiped out by Israeli airstrikes, especially during the first weeks of the war, because of the AI program’s decisions.

      “We were not interested in killing [Hamas] operatives only when they were in a military building or engaged in a military activity,” A., an intelligence officer, told +972 and Local Call. “On the contrary, the IDF bombed them in homes without hesitation, as a first option. It’s much easier to bomb a family’s home. The system is built to look for them in these situations.”

      The Lavender machine joins another AI system, “The Gospel,” about which information was revealed in a previous investigation by +972 and Local Call in November 2023, as well as in the Israeli military’s own publications. A fundamental difference between the two systems is in the definition of the target: whereas The Gospel marks buildings and structures that the army claims militants operate from, Lavender marks people — and puts them on a kill list.

      In addition, according to the sources, when it came to targeting alleged junior militants marked by Lavender, the army preferred to only use unguided missiles, commonly known as “dumb” bombs (in contrast to “smart” precision bombs), which can destroy entire buildings on top of their occupants and cause significant casualties. “You don’t want to waste expensive bombs on unimportant people — it’s very expensive for the country and there’s a shortage [of those bombs],” said C., one of the intelligence officers. Another source said that they had personally authorized the bombing of “hundreds” of private homes of alleged junior operatives marked by Lavender, with many of these attacks killing civilians and entire families as “collateral damage.”

    • Additional automated systems, including one called “ Where’s Daddy?” also revealed here for the first time, were used specifically to track the targeted individuals and carry out bombings when they had entered their family’s residences.

    • « Lavander » : la machine d’intelligence artificielle qui dirige les bombardements israéliens à Gaza…
      https://seenthis.net/messages/1048587

      Selon deux de ces sources, l’armée a également décidé, au cours des premières semaines de la guerre, que pour chaque agent subalterne du Hamas marqué par Lavender, il était permis de tuer jusqu’à 15 ou 20 civils ; par le passé, l’armée n’autorisait aucun « dommage collatéral » lors de l’assassinat de militants de bas rang. Les sources ont ajouté que, dans le cas où la cible était un haut responsable du Hamas ayant le rang de commandant de bataillon ou de brigade, l’armée a autorisé à plusieurs reprises le meurtre de plus de 100 civils lors de l’assassinat d’un seul commandant.

      #civils #victimes_civiles