L’armée israélienne a marqué des dizaines de milliers de Gazaouis comme suspects d’assassinat, en utilisant un système de ciblage par intelligence artificielle (IA) avec peu de surveillance humaine et une politique permissive pour les victimes, nous révèlent le site d’information en hébreu Local Call (ou Sikha Mekomit) et +972 Magazine. Voici donc l’article écrit par Yuval Abraham (יובל אברהם), publié le 3 avril 2024.
En 2021, un livre intitulé « The Human-Machine Team: How to Create Synergy Between Human & Artificial Intelligence That Will Revolutionize Our World » (L’équipe homme-machine : comment créer une synergie entre l’intelligence humaine et artificielle qui révolutionnera notre monde) a été publié en anglais sous le pseudonyme de « Brigadier General YS ». Dans ce document, l’auteur – un homme qui nous avons confirmé être l’actuel commandant de l’unité d’élite des renseignements israéliens 8200 – plaide en faveur de la conception d’une machine spéciale capable de traiter rapidement d’énormes quantités de données afin de générer des milliers de « cibles » potentielles pour des frappes militaires dans le feu de la guerre. Une telle technologie, écrit-il, résoudrait ce qu’il décrit comme « un goulot d’étranglement humain pour la localisation des nouvelles cibles et la prise de décision pour approuver les cibles ».
Il s’avère qu’une telle machine existe réellement. Une nouvelle enquête menée par +972 Magazine et Local Call révèle que l’armée israélienne a développé un programme basé sur l’intelligence artificielle connu sous le nom de « Lavande », dévoilé ici pour la première fois. Selon six officiers des renseignements israéliens, qui ont tous servi dans l’armée pendant la guerre actuelle dans la bande de Gaza et ont été directement impliqués dans l’utilisation de l’IA pour générer des cibles d’assassinat, Lavande a joué un rôle central dans le bombardement sans précédent de Palestiniens, surtout au début de la guerre. En fait, selon les sources, son influence sur les opérations militaires était telle qu’elles traitaient essentiellement les résultats de la machine IA « comme s’il s’agissait d’une décision humaine ».
Formellement, le système Lavender est conçu pour marquer tous les membres présumés des branches militaires du Hamas et du Jihad islamique palestinien (JIP), y compris ceux de bas rang, comme cibles potentielles de bombardement. Les sources ont déclaré à +972 et Local Call que, pendant les premières semaines de la guerre, l’armée s’est presque entièrement appuyée sur Lavender, qui a surveillé jusqu’à 37 000 Palestiniens considérés comme des militants présumés – ainsi que leurs maisons – en vue d’éventuelles frappes aériennes.
Au début de la guerre, l’armée a largement autorisé les officiers à adopter les listes de victimes de Lavender, sans aucune obligation de vérifier minutieusement pourquoi la machine avait fait ces choix ou d’examiner les données brutes des renseignements sur lesquelles ils étaient basés. Une source a déclaré que le personnel humain ne servait souvent que de « tampon » pour les décisions de la machine, ajoutant que, normalement, ils ne consacraient personnellement qu’environ « 20 secondes » à chaque cible avant d’autoriser un bombardement – juste pour s’assurer que la la cible marquée par Lavender est un homme. Et ce, même si l’on sait que le système commet ce qui est considéré comme des « erreurs » dans environ 10 % des cas, et qu’il marque occasionnellement des individus qui n’ont qu’un faible lien avec des groupes militants, voire aucun lien du tout.
De plus, l’armée israélienne a systématiquement attaqué les individus ciblés alors qu’ils se trouvaient chez eux – généralement la nuit, alors que toute leur famille était présente – plutôt que pendant le déroulement d’une activité militaire. Selon les sources, cela s’explique par le fait que, du point de vue du renseignement, il était plus facile de localiser les individus dans leurs maisons privées. Des systèmes automatisés supplémentaires, dont un appelé « Where’s Daddy? » (Où est papa ?) également révélés ici pour la première fois, ont été utilisés spécifiquement pour traquer les individus visés et commettre des attentats à la bombe lorsqu’ils pénétraient dans les résidences de leurs familles.
Le résultat, comme en témoignent les sources, est que des milliers de Palestiniens — pour la plupart des femmes et des enfants ou des personnes qui n’étaient pas impliquées dans les combats — ont été anéantis par les frappes aériennes israéliennes, en particulier au cours des premières semaines de la guerre, en raison des décisions du programme d’IA.
« Nous n’avions pas envie de tuer des membres du Hamas uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou lorsqu’ils étaient engagés dans une activité militaire », a déclaré A., un officier des renseignements, à +972 et Local Call. « Au contraire, Tsahal les a bombardés dans les maisons sans hésitation, comme première option. Il est bien plus facile de bombarder une maison familiale. Le système est conçu pour les rechercher dans ces situations. »
La machine Lavender rejoint un autre système d’IA, « The Gospel », sur lequel des informations ont été révélées lors d’une précédente enquête menée par +972 et Local Call en novembre 2023, ainsi que dans les propres publications de l’armée israélienne. Une différence fondamentale entre les deux systèmes réside dans la définition de la cible : alors que The Gospel marque les bâtiments et les structures à partir desquels l’armée prétend que les militants opèrent, Lavender marque les gens – et les met sur une liste de victimes.
En outre, selon les sources, lorsqu’il s’agissait de cibler les militants juniors présumés marqués par Lavande, l’armée préférait utiliser uniquement des missiles non guidés, communément appelés bombes « stupides » (par opposition aux bombes de précision « intelligentes »), capables de détruire des bâtiments entiers au-dessus de leurs occupants et causent d’importantes pertes. « Vous ne voulez pas gaspiller des bombes coûteuses sur des personnes sans importance – cela coûte très cher au pays et il y a une pénurie [de ces bombes] », a déclaré C., l’un des officiers du renseignement. Une autre source a déclaré qu’ils avaient personnellement autorisé le bombardement de « centaines » de maisons privées de jeunes agents présumés marqués par Lavande, nombre de ces attaques tuant des civils et des familles entières comme « dommages collatéraux ».
Dans une démarche sans précédent, selon deux des sources, l’armée a également décidé au cours des premières semaines de la guerre que, pour chaque jeune agent du Hamas marqué par Lavender, il était permis de tuer jusqu’à 15 ou 20 civils ; Dans le passé, l’armée n’autorisait aucun « dommage collatéral » lors des assassinats de militants de bas rang. Les sources ont ajouté que, dans le cas où la cible était un haut responsable du Hamas ayant le rang de commandant de bataillon ou de brigade, l’armée a autorisé à plusieurs reprises le meurtre de plus de 100 civils lors de l’assassinat d’un seul commandant.
L’enquête qui suit est organisée selon les six étapes chronologiques de la production hautement automatisée de cibles par l’armée israélienne au cours des premières semaines de la guerre de Gaza. Tout d’abord, nous expliquons la machine Lavender elle-même, qui a marqué des dizaines de milliers de Palestiniens grâce à l’IA. Deuxièmement, nous révélons le message du système « Where’s Daddy? » (Où est papa ?), qui suivait ces cibles et signalait à l’armée lorsqu’elles entraient dans leurs maisons familiales. Troisièmement, nous décrivons comment des bombes « stupides » ont été choisies pour frapper ces maisons.
Quatrièmement, nous expliquons comment l’armée a assoupli le nombre autorisé de civils pouvant être tués lors du bombardement d’une cible. Cinquièmement, nous notons à quel point les logiciels automatisés ont calculé de manière inexacte le nombre de non-combattants dans chaque foyer. Et sixièmement, nous montrons comment, à plusieurs reprises, lorsqu’une maison était frappée, généralement la nuit, la cible individuelle n’était parfois pas du tout à l’intérieur, parce que les militaires ne vérifiaient pas l’information en temps réel.




Lisez la suite de cet article à partir de 2,00 $CA seulement !
Abonnez-vous à ma lettre d’information
Et recevez un code de réduction de 40 % pour l’adhésion à mon Club VIP.

En tant qu’auteur et chroniqueur indépendant, Guy Boulianne est membre du réseau d’auteurs et d’éditeurs AuthorsDen et de la Nonfiction Authors Association (NFAA) aux États-Unis. Il adhère à la Charte d’éthique mondiale des journalistes de la Fédération internationale des journalistes (FJI).




