Le programme Lavande, basé sur l’intelligence artificielle, a joué un rôle central en dirigeant les bombardements contre les Palestiniens

😁 Si vous appréciez cet article, n’hésitez pas à faire un don à votre guise. Merci.

L’armée israélienne a marqué des dizaines de milliers de Gazaouis comme suspects d’assassinat, en utilisant un système de ciblage par intelligence artificielle (IA) avec peu de surveillance humaine et une politique permissive pour les victimes, nous révèlent le site d’information en hébreu Local Call (ou Sikha Mekomit) et +972 Magazine. Voici donc l’article écrit par Yuval Abraham (יובל אברהם), publié le 3 avril 2024.


En 2021, un livre intitulé “The Human-Machine Team: How to Create Synergy Between Human & Artificial Intelligence That Will Revolutionize Our World” (L’équipe homme-machine : comment créer une synergie entre l’intelligence humaine et artificielle qui révolutionnera notre monde) a été publié en anglais sous le pseudonyme de « Brigadier General YS ». Dans ce document, l’auteur – un homme qui nous avons confirmé être l’actuel commandant de l’unité d’élite des renseignements israéliens 8200 – plaide en faveur de la conception d’une machine spéciale capable de traiter rapidement d’énormes quantités de données afin de générer des milliers de « cibles » potentielles pour des frappes militaires dans le feu de la guerre. Une telle technologie, écrit-il, résoudrait ce qu’il décrit comme « un goulot d’étranglement humain pour la localisation des nouvelles cibles et la prise de décision pour approuver les cibles ».

Il s’avère qu’une telle machine existe réellement. Une nouvelle enquête menée par +972 Magazine et Local Call révèle que l’armée israélienne a développé un programme basé sur l’intelligence artificielle connu sous le nom de « Lavande », dévoilé ici pour la première fois. Selon six officiers des renseignements israéliens, qui ont tous servi dans l’armée pendant la guerre actuelle dans la bande de Gaza et ont été directement impliqués dans l’utilisation de l’IA pour générer des cibles d’assassinat, Lavande a joué un rôle central dans le bombardement sans précédent de Palestiniens, surtout au début de la guerre. En fait, selon les sources, son influence sur les opérations militaires était telle qu’elles traitaient essentiellement les résultats de la machine IA « comme s’il s’agissait d’une décision humaine ».

Formellement, le système Lavender est conçu pour marquer tous les membres présumés des branches militaires du Hamas et du Jihad islamique palestinien (JIP), y compris ceux de bas rang, comme cibles potentielles de bombardement. Les sources ont déclaré à +972 et Local Call que, pendant les premières semaines de la guerre, l’armée s’est presque entièrement appuyée sur Lavender, qui a surveillé jusqu’à 37 000 Palestiniens considérés comme des militants présumés – ainsi que leurs maisons – en vue d’éventuelles frappes aériennes.

Au début de la guerre, l’armée a largement autorisé les officiers à adopter les listes de victimes de Lavender, sans aucune obligation de vérifier minutieusement pourquoi la machine avait fait ces choix ou d’examiner les données brutes des renseignements sur lesquelles ils étaient basés. Une source a déclaré que le personnel humain ne servait souvent que de « tampon » pour les décisions de la machine, ajoutant que, normalement, ils ne consacraient personnellement qu’environ « 20 secondes » à chaque cible avant d’autoriser un bombardement – ​​juste pour s’assurer que la la cible marquée par Lavender est un homme. Et ce, même si l’on sait que le système commet ce qui est considéré comme des « erreurs » dans environ 10 % des cas, et qu’il marque occasionnellement des individus qui n’ont qu’un faible lien avec des groupes militants, voire aucun lien du tout.

De plus, l’armée israélienne a systématiquement attaqué les individus ciblés alors qu’ils se trouvaient chez eux – généralement la nuit, alors que toute leur famille était présente – plutôt que pendant le déroulement d’une activité militaire. Selon les sources, cela s’explique par le fait que, du point de vue du renseignement, il était plus facile de localiser les individus dans leurs maisons privées. Des systèmes automatisés supplémentaires, dont un appelé « Where’s Daddy? » (Où est papa ?) également révélés ici pour la première fois, ont été utilisés spécifiquement pour traquer les individus visés et commettre des attentats à la bombe lorsqu’ils pénétraient dans les résidences de leurs familles.

Le résultat, comme en témoignent les sources, est que des milliers de Palestiniens — pour la plupart des femmes et des enfants ou des personnes qui n’étaient pas impliquées dans les combats — ont été anéantis par les frappes aériennes israéliennes, en particulier au cours des premières semaines de la guerre, en raison des décisions du programme d’IA.

« Nous n’avions pas envie de tuer des membres du Hamas uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou lorsqu’ils étaient engagés dans une activité militaire », a déclaré A., un officier des renseignements, à +972 et Local Call. « Au contraire, Tsahal les a bombardés dans les maisons sans hésitation, comme première option. Il est bien plus facile de bombarder une maison familiale. Le système est conçu pour les rechercher dans ces situations. »

La machine Lavender rejoint un autre système d’IA, « The Gospel », sur lequel des informations ont été révélées lors d’une précédente enquête menée par +972 et Local Call en novembre 2023, ainsi que dans les propres publications de l’armée israélienne. Une différence fondamentale entre les deux systèmes réside dans la définition de la cible : alors que The Gospel marque les bâtiments et les structures à partir desquels l’armée prétend que les militants opèrent, Lavender marque les gens – et les met sur une liste de victimes.

En outre, selon les sources, lorsqu’il s’agissait de cibler les militants juniors présumés marqués par Lavande, l’armée préférait utiliser uniquement des missiles non guidés, communément appelés bombes « stupides » (par opposition aux bombes de précision « intelligentes »), capables de détruire des bâtiments entiers au-dessus de leurs occupants et causent d’importantes pertes. « Vous ne voulez pas gaspiller des bombes coûteuses sur des personnes sans importance – cela coûte très cher au pays et il y a une pénurie [de ces bombes] », a déclaré C., l’un des officiers du renseignement. Une autre source a déclaré qu’ils avaient personnellement autorisé le bombardement de « centaines » de maisons privées de jeunes agents présumés marqués par Lavande, nombre de ces attaques tuant des civils et des familles entières comme « dommages collatéraux ».

Dans une démarche sans précédent, selon deux des sources, l’armée a également décidé au cours des premières semaines de la guerre que, pour chaque jeune agent du Hamas marqué par Lavender, il était permis de tuer jusqu’à 15 ou 20 civils ; Dans le passé, l’armée n’autorisait aucun « dommage collatéral » lors des assassinats de militants de bas rang. Les sources ont ajouté que, dans le cas où la cible était un haut responsable du Hamas ayant le rang de commandant de bataillon ou de brigade, l’armée a autorisé à plusieurs reprises le meurtre de plus de 100 civils lors de l’assassinat d’un seul commandant.

L’enquête qui suit est organisée selon les six étapes chronologiques de la production hautement automatisée de cibles par l’armée israélienne au cours des premières semaines de la guerre de Gaza. Tout d’abord, nous expliquons la machine Lavender elle-même, qui a marqué des dizaines de milliers de Palestiniens grâce à l’IA. Deuxièmement, nous révélons le message du système « Where’s Daddy? » (Où est papa ?), qui suivait ces cibles et signalait à l’armée lorsqu’elles entraient dans leurs maisons familiales. Troisièmement, nous décrivons comment des bombes « stupides » ont été choisies pour frapper ces maisons.

Quatrièmement, nous expliquons comment l’armée a assoupli le nombre autorisé de civils pouvant être tués lors du bombardement d’une cible. Cinquièmement, nous notons à quel point les logiciels automatisés ont calculé de manière inexacte le nombre de non-combattants dans chaque foyer. Et sixièmement, nous montrons comment, à plusieurs reprises, lorsqu’une maison était frappée, généralement la nuit, la cible individuelle n’était parfois pas du tout à l’intérieur, parce que les militaires ne vérifiaient pas l’information en temps réel.

ÉTAPE 1 : GÉNÉRER DES CIBLES

Dans l’armée israélienne, le terme “cible humaine” désignait autrefois un haut responsable militaire qui, selon les règles du département du droit international de l’armée, pouvait être tué à son domicile privé, même s’il y avait des civils autour de lui. Des sources de renseignement ont déclaré à +972 et à Local Call qu’au cours des précédentes guerres d’Israël, étant donné qu’il s’agissait d’une manière “particulièrement brutale” de tuer quelqu’un — souvent en tuant toute une famille à côté de la cible — ces cibles humaines étaient marquées très soigneusement et seuls les commandants militaires de haut rang étaient bombardés à leur domicile, afin de maintenir le principe de proportionnalité en vertu du droit international.

Mais après le 7 octobre – lorsque des militants dirigés par le Hamas ont lancé une attaque meurtrière contre les communautés du sud d’Israël, tuant environ 1 200 personnes et en enlevant 240 – l’armée, selon les sources, a adopté une approche radicalement différente. Dans le cadre de l’opération « Épées de fer », l’armée a décidé de désigner tous les membres de la branche militaire du Hamas comme cibles humaines, quel que soit leur rang ou leur importance militaire. Et ça a tout changé.

La nouvelle politique a également posé un problème technique aux services de renseignement israéliens. Dans les guerres précédentes, pour autoriser l’assassinat d’une seule cible humaine, un officier devait passer par un processus d’« incrimination » complexe et long : vérifier par recoupement les preuves que la personne était bien un haut responsable de la branche militaire du Hamas, trouver savoir où il habitait, ses coordonnées, et enfin savoir quand il était chez lui en temps réel. Lorsque la liste des cibles ne comptait que quelques dizaines d’agents de haut rang, le personnel du renseignement pouvait individuellement se charger du travail nécessaire pour les incriminer et les localiser.

Cependant, une fois que la liste a été élargie pour inclure des dizaines de milliers d’agents de rang inférieur, l’armée israélienne a compris qu’elle devait s’appuyer sur des logiciels automatisés et l’intelligence artificielle. Le résultat, selon les sources, a été que le rôle du personnel humain dans l’incrimination des Palestiniens en tant qu’agents militaires a été mis de côté, et que l’IA a fait l’essentiel du travail à sa place. Selon quatre des sources qui ont parlé à +972 et Local Call, Lavender – qui a été développé pour créer des cibles humaines dans la guerre actuelle – a marqué quelque 37 000 Palestiniens comme étant des « militants du Hamas », pour la plupart juniors, pour assassinat (le porte-parole de Tsahal a nié l’existence d’une telle liste de personnes à tuer dans une déclaration au +972 et à Local Call).

« Nous ne savions pas qui étaient les agents subalternes, parce qu’Israël ne les suivait pas régulièrement [avant la guerre] », a expliqué l’officier supérieur B. à +972 et Local Call, mettant en lumière la raison derrière le développement de cette machine cible particulière pour la guerre actuelle. « Ils voulaient nous permettre d’attaquer automatiquement [les agents juniors]. C’est le Saint Graal. Une fois que vous passez automatiquement, la génération de cibles devient folle. »

Les sources ont indiqué que l’approbation d’adopter automatiquement les listes de victimes de Lavender, qui n’étaient auparavant utilisées que comme outil auxiliaire, a été accordée environ deux semaines après le début de la guerre, après que les services de renseignement ont vérifié « manuellement » l’exactitude d’un échantillon aléatoire de plusieurs centaines de cibles. sélectionné par le système IA. Lorsque cet échantillon a révélé que les résultats de Lavender avaient atteint une précision de 90 pour cent dans l’identification de l’affiliation d’un individu au Hamas, l’armée a autorisé l’utilisation massive du système. À partir de ce moment, des sources ont déclaré que si Lavender décidait qu’un individu était un militant du Hamas, il leur était essentiellement demandé de traiter cela comme un ordre, sans aucune obligation de vérifier de manière indépendante pourquoi la machine avait fait ce choix ou d’examiner les données brutes des renseignements sur lesquelles c’est basé.

« À 5 heures du matin, [l’armée de l’air] venait bombarder toutes les maisons que nous avions marquées », a expliqué B.. « Nous avons éliminé des milliers de personnes. Nous ne les avons pas examinés un par un, nous avons tout mis dans des systèmes automatisés et dès que l’un des [individus marqués] était chez lui, il devenait immédiatement une cible. Nous l’avons bombardé, lui et sa maison. »

« C’était très surprenant pour moi qu’on nous demande de bombarder une maison pour tuer un soldat au sol, dont l’importance dans les combats était si faible », a déclaré une source à propos de l’utilisation de l’IA pour repérer des militants présumés de bas rang. « J’ai surnommé ces cibles des « cibles poubelles ». Pourtant, je les ai trouvés plus éthiques que les cibles que nous bombardions juste à des fins de « dissuasion » – des gratte-ciel qui sont évacués et renversés juste pour provoquer la destruction. »

Les conséquences meurtrières de cet assouplissement des restrictions au début de la guerre furent stupéfiantes. Selon les données du ministère palestinien de la Santé à Gaza, sur lequel l’armée israélienne s’appuie presque exclusivement depuis le début de la guerre, Israël a tué quelque 15 000 Palestiniens – soit près de la moitié du nombre de morts jusqu’à présent – ​​au cours des six premières semaines de la guerre, jusqu’à ce qu’un cessez-le-feu d’une semaine soit convenu le 24 novembre.

Le logiciel Lavender analyse les informations recueillies sur la plupart des 2,3 millions d’habitants de la bande de Gaza grâce à un système de surveillance de masse, puis évalue et classe la probabilité que chaque personne soit active dans la branche militaire du Hamas ou du JIP. Selon des sources, la machine attribue à presque chaque personne à Gaza une note de 1 à 100, exprimant la probabilité qu’elle soit un militant.

Lavender apprend à identifier les caractéristiques des agents connus du Hamas et du JIP, dont les informations ont été transmises à la machine sous forme de données de formation, puis à localiser ces mêmes caractéristiques – également appelées « caractéristiques » – parmi la population générale, ont expliqué les sources. Un individu présentant plusieurs caractéristiques incriminantes différentes atteindra une note élevée et deviendra ainsi automatiquement une cible potentielle d’assassinat.

Dans « The Human-Machine Team », le livre référencé au début de cet article, le commandant actuel de l’unité 8200 plaide en faveur d’un tel système sans faire référence à Lavender par son nom. (Le commandant lui-même n’est pas non plus nommé, mais cinq sources dans 8200 ont confirmé que le commandant en est l’auteur, comme le rapporte également Haaretz.) Décrivant le personnel humain comme un « goulot d’étranglement » qui limite la capacité de l’armée lors d’une opération militaire, le commandant déplore : « Nous [les humains] ne pouvons pas traiter autant d’informations. Peu importe le nombre de personnes que vous avez chargées de produire des cibles pendant la guerre : vous ne parvenez toujours pas à produire suffisamment de cibles par jour. »

La solution à ce problème, dit-il, est l’intelligence artificielle. Le livre propose un petit guide pour construire une « machine cible », de description similaire à Lavender, basée sur l’IA et des algorithmes d’apprentissage automatique. Ce guide contient plusieurs exemples des « centaines et milliers » de fonctionnalités qui peuvent augmenter la note d’un individu, comme faire partie d’un groupe Whatsapp avec un militant connu, changer de téléphone portable tous les quelques mois et changer d’adresse fréquemment. « Plus il y a d’informations, et plus elles sont variées, mieux c’est », écrit le commandant. « Informations visuelles, informations cellulaires, connexions aux médias sociaux, informations sur le champ de bataille, contacts téléphoniques, photos ». Si les humains sélectionnent d’abord ces caractéristiques, poursuit le commandant, au fil du temps, la machine en viendra à les identifier d’elle-même. Selon lui, cela peut permettre aux armées de créer « des dizaines de milliers de cibles », la décision de les attaquer ou non restant du ressort de l’homme.

Ce livre n’est pas la seule fois où un haut commandant israélien fait allusion à l’existence de machines-cibles humaines comme Lavender. +972 et Local Call ont obtenu des images d’une conférence privée donnée par le commandant du centre secret de science des données et d’IA de l’unité 8200, « Col. Yoav », lors de la semaine de l’IA de l’Université de Tel Aviv en 2023, dont les médias israéliens ont fait état à l’époque. Dans la conférence, le commandant parle d’une nouvelle machine cible sophistiquée utilisée par l’armée israélienne qui détecte les « personnes dangereuses » en fonction de leur ressemblance avec les listes existantes de militants connus sur lesquelles elle a été formée. « Grâce au système, nous avons réussi à identifier les commandants des équipes de missiles du Hamas », a déclaré le colonel « Yoav » lors de la conférence, faisant référence à l’opération militaire israélienne de mai 2021 à Gaza, lorsque la machine a été utilisée pour la première fois.

Les diapositives de présentation de la conférence, également obtenues par +972 et Local Call, contiennent des illustrations du fonctionnement de la machine : elle reçoit des données sur les agents du Hamas existants, elle apprend à remarquer leurs caractéristiques, puis elle évalue les autres Palestiniens en fonction de leurs similitudes. aux militants. « Nous classons les résultats et déterminons le seuil [à partir duquel il convient d’attaquer une cible] », a déclaré le colonel Yoav lors de la conférence, soulignant qu’« en fin de compte, ce sont des personnes en chair et en os qui prennent les décisions ». Dans le domaine de la défense, d’un point de vue éthique, nous insistons beaucoup sur ce point. Ces outils sont destinés à aider [les officiers de renseignement] à briser leurs barrières. »

Dans la pratique, cependant, les sources qui ont utilisé Lavender ces derniers mois affirment que l’action et la précision humaines ont été remplacées par la création massive de cibles et la létalité.

B., un officier supérieur qui utilisait Lavender, a répété à +972 et Local Call que dans la guerre actuelle, les officiers n’étaient pas tenus d’examiner de manière indépendante les évaluations du système d’IA, afin de gagner du temps et de permettre la production en masse de cibles humaines sans entraves.

« Tout était statistique, tout était soigné, c’était très sec », a déclaré B.. Il a noté que ce manque de supervision était permis malgré des contrôles internes montrant que les calculs de Lavender n’étaient considérés comme exacts que 90 pour cent du temps ; en d’autres termes, on savait à l’avance que 10 pour cent des cibles humaines destinées à être assassinées n’étaient pas du tout membres de la branche militaire du Hamas.

Par exemple, des sources ont expliqué que la machine Lavender signalait parfois par erreur des personnes dont les habitudes de communication étaient similaires à celles d’agents connus du Hamas ou du PIJ, notamment des policiers et des membres de la défense civile, des parents de militants, des habitants dont le nom et le surnom étaient identiques à ceux d’un agent, et des habitants de Gaza qui utilisaient un appareil ayant appartenu à un agent du Hamas.

« À quel point une personne doit-elle être proche du Hamas pour être [considérée par une machine d’IA comme étant] affiliée à l’organisation ? » a déclaré une source critiquant l’inexactitude de Lavender. « C’est une frontière vague. Est-ce qu’une personne qui ne reçoit pas de salaire du Hamas, mais qui l’aide dans toutes sortes de choses, est un membre du Hamas ? Quelqu’un qui a fait partie du Hamas dans le passé, mais qui n’y est plus aujourd’hui, est-il un membre du Hamas ? Chacune de ces caractéristiques – caractéristiques qu’une machine signalerait comme suspectes – est inexacte. »

Des problèmes similaires existent avec la capacité des machines cibles à évaluer le téléphone utilisé par un individu destiné à être assassiné. « En temps de guerre, les Palestiniens changent tout le temps de téléphone », a expliqué la source. « Les gens perdent le contact avec leur famille, donnent leur téléphone à un ami ou à leur femme, voire le perdent. Il n’y a aucun moyen de s’appuyer à 100 pour cent sur le mécanisme automatique qui détermine quel numéro [de téléphone] appartient à qui. »

Selon les sources, l’armée savait que le minimum de surveillance humaine en place ne permettrait pas de découvrir ces failles. « Il n’y avait pas de politique du « zéro erreur ». Les erreurs ont été traitées statistiquement », a déclaré une source qui a utilisé Lavender. « En raison de la portée et de l’ampleur du projet, le protocole était le suivant : même si vous n’êtes pas sûr que la machine fonctionne correctement, vous savez que statistiquement, tout va bien. Alors foncez. »

« Cela a fait ses preuves », a déclaré B., la source principale. « Il y a quelque chose dans l’approche statistique qui vous impose une certaine norme et un certain standard. Il y a eu un nombre illogique de [attentats à la bombe] dans cette opération. C’est sans précédent, dans ma mémoire. Et j’ai bien plus confiance dans un mécanisme statistique qu’un soldat qui a perdu un ami il y a deux jours. Tout le monde là-bas, moi y compris, a perdu des gens le 7 octobre. La machine l’a fait froidement. Et cela a rendu les choses plus faciles. »

Une autre source de renseignement, qui a défendu le recours aux listes de suspects palestiniens tués générées par Lavender, a fait valoir qu’il valait la peine d’investir le temps d’un officier du renseignement uniquement pour vérifier les informations si la cible était un haut commandant du Hamas. « Mais lorsqu’il s’agit d’un militant junior, vous ne voulez pas y investir de main d’œuvre ni de temps », a-t-il déclaré. « En temps de guerre, on n’a pas le temps d’incriminer toutes les cibles. Vous êtes donc prêt à prendre la marge d’erreur liée à l’utilisation de l’intelligence artificielle, au risque de dommages collatéraux et à la mort de civils, ainsi qu’au risque d’attaque par erreur, et à vivre avec. » B. a déclaré que la raison de cette automatisation était une volonté constante de générer davantage de cibles d’assassinat. « Dans une journée sans cibles [dont les caractéristiques étaient suffisantes pour autoriser une frappe], nous avons attaqué à un seuil inférieur. Nous subissions constamment des pressions : « Amenez-nous plus d’objectifs. » Ils nous ont vraiment crié dessus. Nous avons fini par tuer nos cibles très rapidement. »

Il a expliqué qu’en abaissant le seuil de notation de Lavande, davantage de personnes seraient désignées comme cibles de frappes. « À son apogée, le système a réussi à générer 37 000 personnes comme cibles humaines potentielles », a déclaré B. « Mais les chiffres changeaient tout le temps, car cela dépend de la définition de ce qu’est un agent du Hamas. Il y a eu des moments où un agent du Hamas était défini de manière plus large, puis la machine a commencé à nous amener toutes sortes de personnels de la protection civile, des policiers, sur lesquels il serait dommage de gaspiller des bombes. Ils aident le gouvernement du Hamas, mais ils ne mettent pas vraiment les soldats en danger. »

Une source qui a travaillé avec l’équipe militaire de science des données qui a formé Lavender a déclaré que les données collectées auprès des employés du ministère de la Sécurité intérieure dirigé par le Hamas, qu’il ne considère pas comme des militants, ont également été introduites dans la machine. « J’ai été gêné par le fait que lorsque Lavender a été formé, ils ont utilisé le terme « agent du Hamas » de manière vague et ont inclus des personnes qui étaient des agents de la défense civile dans l’ensemble de données de formation », a-t-il déclaré.

La source a ajouté que même si l’on pensait que ces personnes méritaient d’être tuées, la formation du système en fonction de leurs profils de communication rendait Lavender plus susceptible de sélectionner des civils par erreur lorsque ses algorithmes étaient appliqués à la population générale. « Comme il s’agit d’un système automatique qui n’est pas actionné manuellement par des humains, le sens de cette décision est dramatique : cela signifie que vous incluez de nombreuses personnes ayant un profil de communication civil comme cibles potentielles. »

L’armée israélienne rejette catégoriquement ces affirmations. Dans une déclaration au +972 et Local Call, le porte-parole de Tsahal a nié avoir utilisé l’intelligence artificielle pour incriminer des cibles, affirmant qu’il s’agissait simplement d’« outils auxiliaires qui aident les officiers dans le processus d’incrimination ». Le communiqué poursuit : « Dans tous les cas, un examen indépendant par un analyste [du renseignement] est requis, qui vérifie que les cibles identifiées sont des cibles légitimes d’attaque, conformément aux conditions énoncées dans les directives de Tsahal et le droit international. »

Cependant, des sources ont déclaré que le seul protocole de surveillance humaine en place avant de bombarder les maisons de militants « juniors » présumés marqués par Lavande consistait à effectuer une seule vérification : s’assurer que la cible sélectionnée par l’IA est un homme plutôt qu’une femme. L’hypothèse au sein de l’armée était que si la cible était une femme, la machine avait probablement commis une erreur, car il n’y a aucune femme dans les rangs des ailes militaires du Hamas et du JIP.

« Un être humain devait [vérifier la cible] pendant quelques secondes seulement », a déclaré B., expliquant que c’est devenu le protocole après avoir réalisé que le système Lavender « faisait les choses correctement » la plupart du temps. « Au début, nous avons vérifié que la machine ne soit pas confondue. Mais à un moment donné, nous nous sommes appuyés sur le système automatique et nous avons seulement vérifié que [la cible] était un homme – cela suffisait. Il ne faut pas longtemps pour savoir si quelqu’un a une voix masculine ou féminine. »

Pour effectuer le contrôle homme/femme, B. a affirmé que dans la guerre actuelle, « j’investirais 20 secondes pour chaque cible à ce stade, et j’en ferais des dizaines chaque jour. Je n’avais aucune valeur ajoutée en tant qu’humain, à part être un sceau d’approbation. Cela a permis de gagner beaucoup de temps. Si [l’agent] apparaissait dans le mécanisme automatisé et que je vérifiais qu’il s’agissait d’un homme, il y aurait l’autorisation de le bombarder, sous réserve d’un examen des dommages collatéraux. »

Dans la pratique, des sources ont déclaré que cela signifiait que pour les hommes civils marqués par erreur par Lavender, aucun mécanisme de surveillance n’était en place pour détecter l’erreur. Selon B., une erreur courante se produisait « si la cible [du Hamas] donnait [son téléphone] à son fils, à son frère aîné ou simplement à un homme au hasard. Cette personne sera bombardée dans sa maison avec sa famille. Cela arrivait souvent. Ce sont la plupart des erreurs causées par Lavande », a déclaré B.

ÉTAPE 2 : RELIER LES CIBLES AUX MAISONS FAMILIALES

La prochaine étape de la procédure d’assassinat de l’armée israélienne consiste à identifier où attaquer les cibles générées par Lavande.

Dans une déclaration à +972 et Local Call, le porte-parole de l’IDF a affirmé en réponse à cet article que « le Hamas place ses agents et ses moyens militaires au cœur de la population civile, utilise systématiquement la population civile comme bouclier humain et mène des combats à l’intérieur de structures civiles, y compris des sites sensibles tels que des hôpitaux, des mosquées, des écoles et des installations de l’ONU. Les FDI sont liées par le droit international et agissent conformément à celui-ci, en dirigeant leurs attaques uniquement contre des cibles militaires et des agents militaires ».

Les six sources avec lesquelles nous avons parlé ont fait écho dans une certaine mesure à cette idée, affirmant que le vaste système de tunnels du Hamas passe délibérément sous les hôpitaux et les écoles ; que les militants du Hamas utilisent des ambulances pour se déplacer ; et que d’innombrables moyens militaires ont été situés à proximité de bâtiments civils. Les sources ont fait valoir que de nombreuses frappes israéliennes tuent des civils en raison de ces tactiques du Hamas – une caractérisation qui, selon les groupes de défense des droits de l’homme, échappe à la responsabilité d’Israël d’infliger les victimes. Cependant, contrairement aux déclarations officielles de l’armée israélienne, les sources ont expliqué que l’une des principales raisons du bilan sans précédent des bombardements israéliens actuels est le fait que l’armée a systématiquement attaqué des cibles dans leurs maisons privées, aux côtés de leurs familles — en partie parce qu’elle Il était plus facile, du point de vue du renseignement, de marquer les maisons familiales à l’aide de systèmes automatisés.

En effet, plusieurs sources ont souligné que, contrairement aux nombreux cas d’agents du Hamas engagés dans des activités militaires depuis des zones civiles, dans le cas des frappes d’assassinat systématiques, l’armée a régulièrement fait le choix actif de bombarder des militants présumés lorsqu’ils se trouvaient à l’intérieur de maisons civiles où aucune activité militaire n’avait lieu. Ce choix, ont-ils dit, est le reflet de la façon dont le système israélien de surveillance de masse à Gaza est conçu.

Les sources ont déclaré à +972 et Local Call que puisque tout le monde à Gaza avait une maison privée à laquelle il pouvait être associé, les systèmes de surveillance de l’armée pouvaient facilement et automatiquement « relier » les individus aux maisons familiales. Afin d’identifier en temps réel le moment où les agents entrent dans leur maison, divers logiciels automatiques supplémentaires ont été développés. Ces programmes suivent simultanément des milliers d’individus, identifient leur présence chez eux et envoient une alerte automatique à l’agent qui les cible, qui marque ensuite la maison en vue d’un bombardement. L’un de ces logiciels de suivi, dévoilé ici pour la première fois, s’appelle « Where’s Daddy? » (Où est papa ?).

« Vous mettez des centaines [de cibles] dans le système et attendez de voir qui vous pouvez tuer », a déclaré une source connaissant le système. « C’est ce qu’on appelle une chasse large : vous copiez-collez à partir des listes produites par le système cible. »

Les preuves de cette politique ressortent également clairement des données : au cours du premier mois de la guerre, plus de la moitié des victimes – 6 120 personnes – appartenaient à 1 340 familles, dont beaucoup ont été complètement anéanties alors qu’elles étaient à l’intérieur de leurs maisons, selon les chiffres de l’ONU. La proportion de familles entières bombardées dans leurs maisons lors de la guerre actuelle est beaucoup plus élevée que lors de l’opération israélienne à Gaza de 2014 (qui était auparavant la guerre la plus meurtrière d’Israël dans la bande de Gaza), ce qui suggère encore davantage l’importance de cette politique.

Une autre source a déclaré que chaque fois que le rythme des assassinats diminuait, davantage de cibles étaient ajoutées aux systèmes comme « Where’s Daddy? » pour localiser les individus qui entraient chez eux et pouvaient donc être bombardés. Il a déclaré que la décision de savoir qui intégrer les systèmes de suivi pourrait être prise par des officiers de rang relativement bas dans la hiérarchie militaire.

« Un jour, de mon propre chef, j’ai ajouté environ 1 200 nouvelles cibles au système [de suivi], car le nombre d’attaques [que nous menions] diminuait », a expliqué la source. « Cela me paraissait logique. Rétrospectivement, cela semble être une décision sérieuse que j’ai prise. Et de telles décisions n’ont pas été prises à des niveaux élevés. »

Les sources ont indiqué qu’au cours des deux premières semaines de la guerre, « plusieurs milliers » de cibles ont été initialement saisies dans des programmes de localisation comme « Where’s Daddy? » (Où est papa ?). Il s’agissait notamment de tous les membres de l’unité d’élite des forces spéciales du Hamas, Nukhba, de tous les agents antichar du Hamas et de tous ceux qui sont entrés en Israël le 7 octobre. Mais peu de temps après, la liste des victimes s’est considérablement élargie.

« En fin de compte, c’était tout le monde [marqué par Lavender] », a expliqué une source. « Des dizaines de milliers. Cela s’est produit quelques semaines plus tard, lorsque les brigades [israéliennes] sont entrées dans Gaza, et il y avait déjà moins de personnes non impliquées [c’est-à-dire des civils] dans les zones du nord. » Selon cette source, même certains mineurs ont été marqués par Lavande comme cibles de bombardements. « Normalement, les agents ont plus de 17 ans, mais ce n’était pas une condition. »

Lavande et des systèmes comme « Where’s Daddy? » se sont ainsi combinées avec un effet meurtrier, tuant des familles entières, selon des sources. En ajoutant un nom issu des listes générées par Lavender à la liste « Where’s Daddy? ». Grâce au système de localisation du domicile, a expliqué A., la personne marquée serait placée sous surveillance permanente et pourrait être attaquée dès qu’elle mettrait les pieds dans sa maison, effondrant la maison sur tout le monde à l’intérieur.

« Disons que vous calculez [qu’il y a un agent] Hamas plus 10 [civils dans la maison] », a déclaré A.. « Habituellement, ces 10 civils seront des femmes et des enfants. Il s’avère donc absurde que la plupart des personnes que vous avez tuées étaient des femmes et des enfants. »

ÉTAPE 3 : CHOISIR UNE ARME

Une fois que Lavender a marqué une cible pour l’assassinat, que le personnel de l’armée a vérifié qu’il s’agit d’un homme et qu’un logiciel de suivi a localisé la cible dans leur maison, l’étape suivante consiste à choisir la munition avec laquelle la bombarder.

En décembre 2023, CNN a rapporté que, selon les estimations des services de renseignement américains, environ 45 % des munitions utilisées par l’armée de l’air israélienne à Gaza étaient des bombes « stupides », connues pour causer plus de dommages collatéraux que les bombes guidées. En réponse au reportage de CNN, un porte-parole de l’armée cité dans l’article a déclaré : « En tant qu’armée attachée au droit international et à un code de conduite moral, nous consacrons de vastes ressources à minimiser les dommages causés aux civils que le Hamas a forcés à jouer le rôle de boucliers humains. Notre guerre est contre le Hamas, pas contre la population de Gaza. »

Cependant, trois sources de renseignement ont déclaré à +972 et Local Call que les agents subalternes marqués par Lavender avaient été assassinés uniquement avec des bombes stupides, dans l’intérêt d’économiser des armements plus coûteux. L’implication, a expliqué une source, était que l’armée ne frapperait pas une cible junior si celle-ci vivait dans un immeuble de grande hauteur, parce que l’armée ne voulait pas dépenser une « bombe au sol » plus précise et plus coûteuse (avec un effet collatéral plus limité) pour la tuer. Mais si une cible junior vivait dans un immeuble de quelques étages seulement, l’armée était autorisée à la tuer ainsi que toutes les personnes présentes dans le bâtiment avec une bombe muette.

« C’était comme ça avec toutes les cibles juniors », a témoigné C., qui a utilisé divers programmes automatisés pendant la guerre actuelle. « La seule question était : est-il possible d’attaquer le bâtiment en termes de dommages collatéraux ? Parce que nous menions généralement les attaques avec des bombes stupides, ce qui signifiait littéralement détruire toute la maison, en plus de ses occupants. Mais même si une attaque est évitée, vous ne vous en souciez pas : vous passez immédiatement à la cible suivante. Grâce au système, les objectifs ne finissent jamais. Vous en avez 36 000 autres en attente. »

ÉTAPE 4 : AUTORISER LES PERTES CIVILES

Une source a déclaré que lors de l’attaque d’agents subalternes, y compris ceux marqués par des systèmes d’IA comme Lavender, le nombre de civils qu’ils étaient autorisés à tuer à côté de chaque cible était fixé, au cours des premières semaines de la guerre, à 20 au maximum. Selon une autre source, ce nombre aurait été fixé à 15. Ces « degrés de dommages collatéraux », comme les militaires les appellent, ont été appliqués de manière générale à tous les militants juniors présumés, selon les sources, indépendamment de leur rang, de leur importance militaire et de leur âge, et sans examen spécifique au cas par cas pour évaluer l’avantage militaire de les assassiner par rapport aux dommages attendus pour les civils.

Selon A., qui était officier dans une salle d’opérations ciblées pendant la guerre actuelle, le département du droit international de l’armée n’a jamais donné auparavant une « approbation aussi complète » pour un degré de dommages collatéraux aussi élevé. « Il ne s’agit pas simplement de pouvoir tuer n’importe quelle personne qui est un soldat du Hamas, ce qui est clairement autorisé et légitime au regard du droit international », a déclaré A.. « Mais ils vous disent directement : ‘Vous avez le droit de les tuer ainsi que de nombreux civils.’ »

« Toute personne portant un uniforme du Hamas au cours des deux dernières années pourrait être bombardée, provoquant 20 [civils tués] comme dommages collatéraux, même sans autorisation spéciale », a poursuivi A.. « En pratique, le principe de proportionnalité n’existait pas. »

Selon A., c’était la politique qu’il avait suivie pendant la majeure partie de son mandat. Ce n’est que plus tard que l’armée a réduit le degré des dommages collatéraux. « Dans ce calcul, cela pourrait aussi être 20 enfants pour un opérateur junior… Ce n’était vraiment pas comme ça dans le passé », a expliqué A.. Interrogé sur la justification sécuritaire de cette politique, A. a répondu : « Létalité ».

Le degré de dommage collatéral prédéterminé et fixe a contribué à accélérer la création massive de cibles à l’aide de la machine Lavender, selon des sources, car il a permis de gagner du temps. B. a affirmé que le nombre de civils qu’ils étaient autorisés à tuer au cours de la première semaine de la guerre par militant junior présumé marqué par AI était de quinze, mais que ce nombre « augmentait et diminuait » au fil du temps.

« Au début, nous avons attaqué presque sans tenir compte des dommages collatéraux », a déclaré B. à propos de la première semaine après le 7 octobre. « En pratique, on ne comptait pas vraiment les gens [dans chaque maison bombardée], parce qu’on ne pouvait pas vraiment dire. s’ils sont à la maison ou pas. Au bout d’une semaine, des restrictions sur les dommages collatéraux ont commencé. Le nombre est tombé [de 15] à cinq, ce qui a rendu notre attaque très difficile, car si toute la famille était à la maison, nous ne pouvions pas la bombarder. Puis ils ont encore augmenté le nombre. »

Des sources ont déclaré à +972 et Local Call que désormais, en partie à cause de la pression américaine, l’armée israélienne ne génère plus en masse de jeunes cibles humaines pour bombarder des maisons civiles. Le fait que la plupart des maisons dans la bande de Gaza aient déjà été détruites ou endommagées, et que la quasi-totalité de la population ait été déplacée, a également compromis la capacité de l’armée à s’appuyer sur les bases de données des renseignements et sur les programmes automatisés de localisation des maisons.

E. a affirmé que le bombardement massif de jeunes militants n’avait eu lieu qu’au cours de la première ou des deux premières semaines de la guerre, puis avait été arrêté principalement pour ne pas gaspiller de bombes. « Il existe une économie de munitions », a déclaré E.. « Ils ont toujours eu peur qu’il y ait [une guerre] dans le nord [avec le Hezbollah au Liban]. Ils n’attaquent plus du tout ce genre de personnes [juniors]. » Cependant, les frappes aériennes contre les hauts commandants du Hamas se poursuivent, et des sources ont déclaré que pour ces attaques, l’armée autorise le meurtre de « centaines » de civils par cible – une politique officielle pour laquelle il n’y a pas de précédent historique en Israël, ni même lors des récentes opérations militaires américaines.

« Lors de l’attentat à la bombe contre le commandant du bataillon Shuja’iya, nous savions que nous allions tuer plus de 100 civils », a rappelé B. à propos d’un attentat à la bombe du 2 décembre qui, selon le porte-parole de Tsahal, visait à assassiner Wisam Farhat. « Pour moi, psychologiquement, c’était inhabituel. Plus de 100 civils – cela franchit une ligne rouge. »

Amjad Al-Sheikh, un jeune Palestinien de Gaza, a déclaré que de nombreux membres de sa famille avaient été tués dans cet attentat. Habitant de Shuja’iya, à l’est de la ville de Gaza, il se trouvait ce jour-là dans un supermarché local lorsqu’il a entendu cinq explosions qui ont brisé les vitres.

« J’ai couru vers la maison de ma famille, mais il n’y avait plus de bâtiments là-bas », a déclaré Al-Sheikh au +972 et à Local Call. « La rue était remplie de cris et de fumée. Des blocs résidentiels entiers se sont transformés en montagnes de décombres et en fosses profondes. Les gens ont commencé à fouiller le ciment avec leurs mains, et moi aussi, à la recherche de traces de la maison de ma famille. »

L’épouse et la petite fille d’Al-Sheikh ont survécu – protégées des décombres par un placard tombé sur elles – mais il a retrouvé 11 autres membres de sa famille, parmi lesquels ses sœurs, ses frères et leurs jeunes enfants, morts sous les décombres. Selon l’association de défense des droits humains B’Tselem, les bombardements de ce jour-là ont détruit des dizaines de bâtiments, tué des dizaines de personnes et enseveli des centaines de personnes sous les ruines de leurs maisons.

Des sources du renseignement ont déclaré à +972 et Local Call qu’ils avaient participé à des frappes encore plus meurtrières. Afin d’assassiner Ayman Nofal, le commandant de la Brigade centrale de Gaza du Hamas, une source a déclaré que l’armée avait autorisé le meurtre d’environ 300 civils, détruisant plusieurs bâtiments lors de frappes aériennes sur le camp de réfugiés d’Al-Bureij le 17 octobre, sur la base d’une localisation imprécise de Nofal. Des images satellite et des vidéos de la scène montrent la destruction de plusieurs grands immeubles d’habitation à plusieurs étages.

« Entre 16 et 18 maisons ont été détruites lors de l’attaque », a déclaré Amro Al-Khatib, un habitant du camp, au +972 et à Local Call. « Nous ne pouvions pas distinguer un appartement de l’autre. Ils étaient tous mélangés dans les décombres et nous avons trouvé des parties de corps humains partout. » Dans la foulée, Al-Khatib a rappelé qu’une cinquantaine de cadavres avaient été retirés des décombres et qu’environ 200 personnes avaient été blessées, dont beaucoup grièvement. Mais ce n’était que le premier jour. Les habitants du camp ont passé cinq jours à évacuer les morts et les blessés, a-t-il expliqué.

Nael Al-Bahisi, un secouriste, a été l’un des premiers sur les lieux. Il a dénombré entre 50 et 70 victimes ce premier jour. « À un certain moment, nous avons compris que la cible de la frappe était le commandant du Hamas Ayman Nofal », a-t-il déclaré à +972 et Local Call. « Ils l’ont tué, ainsi que de nombreuses personnes qui ne savaient pas qu’il était là. Des familles entières avec enfants ont été tuées. »

Une autre source de renseignement a déclaré à +972 et Local Call que l’armée avait détruit un immeuble de grande hauteur à Rafah à la mi-décembre, tuant « des dizaines de civils », afin de tenter de tuer Mohammed Shabaneh, le commandant de la brigade de Rafah du Hamas (il on ne sait pas clairement s’il a été tué ou non lors de l’attaque). Souvent, a indiqué la source, les hauts commandants se cachent dans des tunnels qui passent sous les bâtiments civils, et donc le choix de les assassiner par une frappe aérienne tue nécessairement des civils. « La plupart des blessés étaient des enfants », a déclaré Wael Al-Sir, 55 ans, qui a été témoin de la frappe à grande échelle considérée par certains Gazaouis comme une tentative d’assassinat. Il a déclaré à +972 et Local Call que l’attentat du 20 décembre avait détruit « un bloc résidentiel entier » et tué au moins 10 enfants. « Il y avait une politique totalement permissive concernant les victimes des opérations [de bombardement] – si permissive qu’à mon avis il y avait un élément de vengeance », a affirmé D., une source du renseignement. « L’essentiel de cette affaire concernait les assassinats de hauts responsables [des commandants du Hamas et du JIP] pour lesquels ils étaient prêts à tuer des centaines de civils. Nous avions fait un calcul : combien pour un commandant de brigade, combien pour un commandant de bataillon, et ainsi de suite. »

« Il y avait des réglementations, mais elles étaient tout simplement très clémentes », a expliqué E., une autre source de renseignement. « Nous avons tué des gens avec des dommages collatéraux à deux chiffres, voire à trois chiffres. Ce sont des choses qui ne se sont jamais produites auparavant. » Un taux aussi élevé de « dommages collatéraux » est exceptionnel, non seulement par rapport à ce que l’armée israélienne considérait auparavant comme acceptable, mais aussi par rapport aux guerres menées par les États-Unis en Irak, en Syrie et en Afghanistan.

Le général Peter Gersten, commandant adjoint des opérations et du renseignement de l’opération de lutte contre l’EI en Irak et en Syrie, a déclaré en 2021 à un magazine américain de défense qu’une attaque avec des dommages collatéraux de 15 civils avait dévié de la procédure ; pour le réaliser, il a dû obtenir une autorisation spéciale du chef du commandement central américain, le général Lloyd Austin, aujourd’hui secrétaire à la Défense. « Avec Oussama Ben Laden, vous auriez une NCV [Non-combattant Casualty Value] de 30, mais si vous aviez un commandant de bas niveau, sa NCV était généralement nulle », a déclaré Gersten. « Nous avons couru à zéro pendant très longtemps. »

Toutes les sources interrogées dans le cadre de cette enquête ont affirmé que les massacres du Hamas du 7 octobre et les enlèvements d’otages ont grandement influencé la politique de tir de l’armée et l’ampleur des dommages collatéraux. « Au début, l’atmosphère était douloureuse et vindicative », a déclaré B., qui a été enrôlé dans l’armée immédiatement après le 7 octobre et a servi dans une salle d’opérations ciblées. « Les règles étaient très clémentes. Ils ont démoli quatre bâtiments alors qu’ils savaient que la cible se trouvait dans l’un d’entre eux. C’était fou. »

« Il y avait une dissonance : d’un côté, les gens ici étaient frustrés que nous n’attaquions pas assez », a poursuivi B.. « D’un autre côté, on constate en fin de compte qu’un millier de Gazaouis sont morts, pour la plupart des civils. »

« Il y avait de l’hystérie dans les rangs professionnels », a déclaré D., qui a également été recruté immédiatement après le 7 octobre. « Ils ne savaient absolument pas comment réagir. La seule chose qu’ils savaient faire était de commencer à bombarder comme des fous pour tenter de démanteler les capacités du Hamas. » D. a souligné qu’on ne leur avait pas explicitement dit que l’objectif de l’armée était la « vengeance », mais a déclaré que « dès que chaque cible liée au Hamas deviendra légitime, et que presque tous les dommages collatéraux seront approuvés, il sera clair pour vous que des milliers de des gens vont être tués. Même si officiellement toutes les cibles sont liées au Hamas, lorsque la politique est si permissive, elle perd tout son sens. »

A. a également utilisé le mot « vengeance » pour décrire l’atmosphère qui régnait au sein de l’armée après le 7 octobre. « Personne n’a pensé à quoi faire après, quand la guerre sera finie, ni comment il sera possible de vivre à Gaza et ce qu’ils feront avec ça », a déclaré A.. « On nous a dit : maintenant nous devons foutre en l’air le Hamas, quel qu’en soit le prix. Tout ce que vous pouvez, vous bombardez. »

B., la source principale des renseignements, a déclaré que, rétrospectivement, il pensait que cette politique « disproportionnée » consistant à tuer des Palestiniens à Gaza mettait également en danger les Israéliens, et que c’était l’une des raisons pour lesquelles il avait décidé d’être interviewé.

« À court terme, nous sommes plus en sécurité, car nous nuisons au Hamas. Mais je pense que nous sommes moins en sécurité à long terme. Je vois comment toutes les familles endeuillées à Gaza – c’est-à-dire presque tout le monde – vont accroître la motivation [des gens à rejoindre] le Hamas dans 10 ans. Et il sera beaucoup plus facile pour [le Hamas] de les recruter. » Dans une déclaration à +972 et à Local Call, l’armée israélienne a démenti une grande partie de ce que les sources nous ont dit, affirmant que « chaque cible est examinée individuellement, tandis qu’une évaluation individuelle est faite de l’avantage militaire et des dommages collatéraux attendus de l’attaque … L’IDF ne mène pas d’attaques lorsque les dommages collatéraux attendus de l’attaque sont excessifs par rapport à l’avantage militaire ».

ÉTAPE 5 : CALCUL DES DOMMAGES COLLATÉRAUX

Selon les sources du renseignement, le calcul par l’armée israélienne du nombre de civils susceptibles d’être tués dans chaque maison à côté d’une cible – une procédure examinée lors d’une précédente enquête par +972 et Local Call – a été effectué à l’aide d’outils automatiques et imprécis. Dans les guerres précédentes, les services de renseignement passaient beaucoup de temps à vérifier combien de personnes se trouvaient dans une maison qui allait être bombardée, le nombre de civils susceptibles d’être tués étant répertorié dans un « fichier de cibles ». Mais après le 7 octobre, cette vérification approfondie a été largement abandonnée au profit de l’automatisation.

En octobre, le New York Times a fait état d’un système exploité à partir d’une base spéciale dans le sud d’Israël, qui recueille des informations à partir de téléphones portables dans la bande de Gaza et fournit à l’armée une estimation en temps réel du nombre de Palestiniens qui ont fui le nord de la bande de Gaza pour se diriger vers le sud. Le général de brigade Udi Ben Muha a déclaré au Times : « Ce n’est pas un système parfait à 100 %, mais il vous donne les informations dont vous avez besoin pour prendre une décision ». Le système fonctionne par couleurs : le rouge indique les zones où il y a beaucoup de monde, tandis que le vert et le jaune indiquent les zones qui ont été relativement débarrassées de leurs habitants. Les sources qui ont parlé à +972 et Local Call ont décrit un système similaire pour calculer les dommages collatéraux, qui a été utilisé pour décider de bombarder ou non un bâtiment à Gaza. Ils ont déclaré que le logiciel calculait le nombre de civils résidant dans chaque maison avant la guerre – en évaluant la taille du bâtiment et en examinant la liste de ses résidents – et réduisait ensuite ces chiffres de la proportion de résidents qui étaient censés avoir évacué le quartier.

À titre d’exemple, si l’armée estimait que la moitié des habitants d’un quartier avaient quitté le quartier, le programme compterait une maison qui comptait habituellement 10 habitants comme une maison contenant cinq personnes. Pour gagner du temps, ont indiqué les sources, l’armée n’a pas inspecté les maisons pour vérifier combien de personnes y vivaient réellement, comme elle l’avait fait lors d’opérations précédentes, afin de déterminer si l’estimation du programme était effectivement exacte.

« Ce modèle n’était pas connecté à la réalité », a affirmé une source. « Il n’y avait aucun lien entre ceux qui vivaient dans la maison maintenant, pendant la guerre, et ceux qui y vivaient avant la guerre. [À une occasion], nous avons bombardé une maison sans savoir qu’il y avait plusieurs familles à l’intérieur, cachées ensemble. » La source a indiqué que même si l’armée savait que de telles erreurs pouvaient se produire, ce modèle imprécis a néanmoins été adopté, car il était plus rapide. En tant que tel, a déclaré la source, « le calcul des dommages collatéraux était complètement automatique et statistique » – produisant même des chiffres qui n’étaient pas des nombres entiers.

ÉTAPE 6 : BOMBARDER UNE MAISON FAMILIALE

Les sources qui ont parlé à +972 et Local Call ont expliqué qu’il y avait parfois un écart important entre le moment où des systèmes de suivi comme « Where’s Daddy? » ont alerté un officier qu’une cible était entrée dans leur maison, et le bombardement lui-même a entraîné la mort de familles entières, même sans atteindre la cible de l’armée. « Il m’est arrivé plusieurs fois d’attaquer une maison, mais la personne n’était même pas chez elle », a déclaré une source. « Le résultat est que vous avez tué une famille sans raison. » Trois sources de renseignement ont déclaré à +972 et Local Call qu’elles avaient été témoins d’un incident au cours duquel l’armée israélienne a bombardé la maison privée d’une famille, et il s’est avéré plus tard que la cible de l’assassinat n’était même pas à l’intérieur de la maison, puisqu’aucune autre vérification n’a été effectuée en temps réel.

« Parfois, [la cible] était chez elle plus tôt, puis la nuit, il allait dormir ailleurs, par exemple sous terre, et vous n’en étiez pas au courant », a déclaré l’une des sources. « Il y a des moments où vous revérifiez l’emplacement, et il y a des moments où vous dites simplement : ‘D’accord, il était dans la maison ces dernières heures, vous pouvez donc simplement bombarder. »

Une autre source a décrit un incident similaire qui l’a affecté et lui a donné envie d’être interrogé pour cette enquête. « Nous avons compris que la cible était dans la maison à 20 heures. Finalement, l’armée de l’air a bombardé la maison à 3 heures du matin. Ensuite, nous avons découvert [pendant ce laps de temps] qu’il avait réussi à déménager dans une autre maison avec sa famille. Il y avait deux autres familles avec enfants dans le bâtiment que nous avons bombardé. »

Lors des guerres précédentes à Gaza, après l’assassinat de cibles humaines, les renseignements israéliens effectuaient des procédures d’évaluation des dégâts causés par les bombes (BDA) – un contrôle de routine après la frappe pour voir si le commandant supérieur avait été tué et combien de civils avaient été tués avec lui. Comme l’a révélé une précédente enquête +972 et Local Call, cela impliquait d’écouter les appels téléphoniques de proches qui avaient perdu un être cher. Cependant, dans la guerre actuelle, au moins en ce qui concerne les jeunes militants marqués à l’aide de l’IA, cette procédure a été supprimée pour gagner du temps. Les sources ont déclaré qu’elles ne savaient pas combien de civils avaient été réellement tués lors de chaque frappe, et pour les membres présumés du Hamas et du JIP identifiés par l’IA, elles ne savaient même pas si la cible elle-même avait été tuée.

« Vous ne savez pas exactement combien de personnes vous avez tuées, ni qui vous avez tué », a déclaré une source du renseignement à Local Call pour une précédente enquête publiée en janvier. « Ce n’est que lorsqu’il s’agit de hauts responsables du Hamas que vous suivez la procédure du BDA. Dans le reste des cas, vous ne vous en souciez pas. Vous recevez un rapport de l’armée de l’air indiquant si le bâtiment a explosé, et c’est tout. Vous n’avez aucune idée de l’ampleur des dommages collatéraux ; vous passez immédiatement à la cible suivante. L’accent était mis sur la création d’autant de cibles que possible, le plus rapidement possible. » Mais même si l’armée israélienne peut passer à autre chose après chaque frappe sans s’attarder sur le nombre de victimes, Amjad Al-Sheikh, un habitant de Shuja’iya qui a perdu 11 membres de sa famille lors du bombardement du 2 décembre, a déclaré que lui et ses voisins étaient toujours à la recherche de cadavres. « Jusqu’à présent, il y a des corps sous les décombres », a-t-il déclaré. « Quatorze immeubles résidentiels ont été bombardés avec leurs habitants à l’intérieur. Certains de mes proches et voisins sont encore enterrés. »

➡ Les soldats israéliens montrent des écussons symbolisant le Mont du Temple. Pour construire le Troisième Temple (בית המקדש השלישי) ou Temple d’Ézéchiel, ils doivent détruire la mosquée Al-Aqsa et le dôme du Rocher. [Israel365News]

Abonnez-vous à ma lettre d'information
Ne ratez rien de ce site ! Soyez alerté(e) dès la publication d’un nouvel article.
* Ajoutez news@guyboulianne.info à votre carnet d'adresse.
icon

Jean Tardy
5

« Bonjour M. Boulianne. Un mot pour vous dire que vos blogs sont très intéressants. Vous devez travaillez très fort dans ce grand combat et je vous en suis très reconnaissant. »

💛 😁 Vous avez apprécié cet article ? Je vous remercie de m’offrir un café. 😃 💛
VEUILLEZ NOTER : Les commentaires des lecteurs et lectrices peuvent être approuvés ou non, à ma seule discrétion et sans préavis. Merci de votre compréhension. — Guy Boulianne
1089280cookie-checkLe programme Lavande, basé sur l’intelligence artificielle, a joué un rôle central en dirigeant les bombardements contre les Palestiniens
Website | + posts

Guy Boulianne, auteur, éditeur et journaliste indépendant, membre de la General News Service Network Association (GNS Press) et de l'International Association of Press Photographers (IAPP) Il est aussi membre de la Society of Professional Journalists (SPJ). Il est le fondateur et l'éditeur en chef des Éditions Dédicaces LLC : http://www.dedicaces.ca.

Partager cet article sur les réseaux sociaux :
S’abonner
Notification pour
guest

0 Commentaires
Commentaires en ligne
Afficher tous les commentaires
Traduire/Translate
Ce contenu est protégé ! Merci.
0
J'aimerais bien avoir votre avis concernant cet article. Veuillez laisser un commentaire.x