Divergences Revue libertaire en ligne
Slogan du site
Descriptif du site
Lavander, la machine à tuer
Yuval Abraham

Origine +972mag

« Lavande » : L’intelligence artificielle qui dirige les bombardements israéliens à Gaza
L’armée israélienne a désigné des dizaines de milliers de Gazaouis comme suspects à assassiner, en utilisant un système de ciblage par IA avec peu de supervision humaine et une politique permissive en matière de pertes humaines, révèlent +972 et Local Call.

En 2021, un livre intitulé « L’équipe homme-machine : comment créer une synergie entre l’intelligence humaine et l’intelligence artificielle qui révolutionnera notre monde » a été publié en anglais sous le pseudonyme de « général de brigade YS ». L’auteur, que nous avons identifié comme étant l’actuel commandant de l’unité d’élite du renseignement israélien 8200, y défend la conception d’une machine spéciale capable de traiter rapidement d’énormes quantités de données afin de générer des milliers de « cibles » potentielles pour des frappes militaires en situation de conflit. Une telle technologie, écrit-il, permettrait de résoudre ce qu’il décrit comme un « goulot d’étranglement humain, tant pour la localisation des nouvelles cibles que pour la prise de décision concernant leur approbation ».

Il s’avère qu’une telle machine existe bel et bien. Une nouvelle enquête menée par +972 Magazine et Local Call révèle que l’armée israélienne a développé un programme d’intelligence artificielle baptisé « Lavender », dévoilé ici pour la première fois. Selon six officiers du renseignement israélien, ayant tous servi dans l’armée durant la guerre actuelle dans la bande de Gaza et ayant été directement impliqués dans l’utilisation de l’IA pour identifier des cibles à assassiner, Lavender a joué un rôle central dans les bombardements sans précédent de Palestiniens, notamment au début du conflit. En fait, d’après ces sources, son influence sur les opérations militaires était telle que les décisions du système d’IA étaient traitées « comme s’il s’agissait de décisions humaines ».

Officiellement, le système Lavande est conçu pour identifier tous les membres présumés des branches militaires du Hamas et du Jihad islamique palestinien (JIP), y compris les subalternes, comme cibles potentielles de bombardements. Selon des sources citées par +972 et Local Call, durant les premières semaines du conflit, l’armée s’est presque exclusivement appuyée sur Lavande, qui a recensé jusqu’à 37 000 Palestiniens soupçonnés d’appartenir aux groupes armés – ainsi que leurs domiciles – susceptibles d’être ciblés par des frappes aériennes.

Au début de la guerre, l’armée autorisa sans réserve les officiers à adopter les listes de cibles de Lavender, sans exiger de vérification approfondie des raisons qui avaient motivé ces choix ni d’examen des données brutes sur lesquelles ils se fondaient. Selon une source, le personnel humain se contentait souvent d’entériner les décisions de la machine, et ne consacrait généralement qu’une vingtaine de secondes à chaque cible avant d’autoriser un bombardement, juste pour s’assurer que la cible marquée par Lavender était un homme. Pourtant, on savait que le système commettait des erreurs dans environ 10 % des cas et qu’il lui arrivait de marquer des individus n’ayant qu’un lien ténu avec des groupes militants, voire aucun lien du tout.

De plus, l’armée israélienne ciblait systématiquement les personnes visées à leur domicile, généralement la nuit en présence de toute leur famille, plutôt que lors d’opérations militaires. Selon les sources, cette stratégie s’expliquait par le fait que, d’un point de vue purement informatif, il était plus facile de localiser ces personnes chez elles. Des systèmes automatisés supplémentaires, dont un baptisé « Où est papa ? », également révélé ici pour la première fois, étaient utilisés spécifiquement pour suivre les cibles et procéder à des bombardements dès leur entrée dans leur domicile.

Le résultat, comme l’ont attesté les sources, est que des milliers de Palestiniens — pour la plupart des femmes et des enfants ou des personnes qui n’étaient pas impliquées dans les combats — ont été anéantis par les frappes aériennes israéliennes, en particulier pendant les premières semaines de la guerre, à cause des décisions du programme d’IA.

« Notre objectif n’était pas de tuer les membres du Hamas uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou qu’ils menaient une opération militaire », a déclaré A., un officier du renseignement, à +972 et Local Call. « Au contraire, l’armée israélienne les bombardait sans hésiter dans leurs maisons, en priorité. Il est beaucoup plus facile de bombarder le domicile d’une famille. Le système est conçu pour les repérer dans ce genre de situations. »

Le système Lavender rejoint un autre système d’IA, « The Gospel », dont des informations ont été révélées lors d’une enquête menée par +972 et Local Call en novembre 2023, ainsi que dans des publications de l’armée israélienne . Une différence fondamentale entre les deux systèmes réside dans la définition de la cible : tandis que The Gospel repère les bâtiments et les structures d’où, selon l’armée, opèrent les militants, Lavender repère les personnes et les inscrit sur une liste de personnes à éliminer.

De plus, selon les sources, lorsqu’il s’agissait de cibler les jeunes militants présumés marqués par Lavender, l’armée privilégiait l’utilisation de missiles non guidés, communément appelés bombes « brutes » (par opposition aux bombes de précision « intelligentes »), capables de détruire des bâtiments entiers et de causer de lourdes pertes humaines. « On ne peut pas se permettre de gaspiller des bombes coûteuses sur des cibles sans importance ; c’est très onéreux pour le pays et il y a une pénurie de ces bombes », a déclaré C., un officier du renseignement. Une autre source a affirmé avoir personnellement autorisé le bombardement de centaines de domiciles privés de jeunes agents présumés marqués par Lavender, nombre de ces attaques ayant causé la mort de civils et de familles entières, victimes collatérales.

D’après deux sources, et de manière inédite, l’armée a décidé, dès les premières semaines du conflit, que pour chaque agent subalterne du Hamas marqué par Lavender, il était permis de tuer jusqu’à 15 ou 20 civils. Auparavant, l’armée n’autorisait aucun « dommage collatéral » lors des assassinats de militants de bas rang. Les sources ajoutent que, lorsqu’une cible était un haut responsable du Hamas, commandant de bataillon ou de brigade, l’armée a autorisé à plusieurs reprises la mort de plus de 100 civils pour l’assassinat d’un seul commandant.

L’enquête qui suit est organisée selon les six étapes chronologiques de la production de cibles hautement automatisée par l’armée israélienne durant les premières semaines de la guerre de Gaza. Nous expliquons d’abord le fonctionnement du système Lavande, qui a marqué des dizaines de milliers de Palestiniens grâce à l’intelligence artificielle. Ensuite, nous présentons le système « Où est papa ? », qui suivait ces cibles et signalait à l’armée leur entrée dans les habitations familiales. Enfin, nous décrivons comment des bombes non guidées ont été sélectionnées pour frapper ces maisons.

Quatrièmement, nous expliquons comment l’armée a assoupli le nombre de civils autorisés à être tués lors du bombardement d’une cible. Cinquièmement, nous constatons comment un logiciel automatisé a calculé de manière inexacte le nombre de non-combattants dans chaque foyer. Et sixièmement, nous montrons comment, à plusieurs reprises, lorsqu’une maison était touchée, généralement la nuit, la personne visée était parfois absente, car les officiers militaires n’avaient pas vérifié l’information en temps réel.

ÉTAPE 1 : GÉNÉRATION DES CIBLES

« Dès qu’on passe en mode automatique, la génération de cibles devient complètement folle. »

Au sein de l’armée israélienne, l’expression « cible humaine » désignait autrefois un officier supérieur qui, selon le règlement du département du droit international militaire, pouvait être tué à son domicile, même en présence de civils. Des sources du renseignement ont indiqué à +972 et Local Call que, lors des précédents conflits israéliens, cette méthode d’élimination étant particulièrement brutale – souvent au prix du massacre d’une famille entière –, ces cibles humaines étaient identifiées avec la plus grande précision et seuls les officiers supérieurs étaient bombardés à leur domicile, afin de respecter le principe de proportionnalité du droit international.

Mais après le 7 octobre – date à laquelle des militants du Hamas ont lancé une attaque meurtrière contre des localités du sud d’Israël, faisant environ 1 200 morts et 240 enlèvements – l’armée, selon les sources, a adopté une approche radicalement différente. Dans le cadre de l’« Opération Épées de fer », elle a décidé de désigner tous les membres de la branche armée du Hamas comme des cibles humaines, sans distinction de grade ou d’importance militaire. Et cela a tout changé.

Cette nouvelle politique posait également un problème technique aux services de renseignement israéliens. Lors des conflits précédents, pour autoriser l’assassinat d’une cible, un officier devait suivre une procédure d’« incrimination » complexe et longue : vérifier que la personne était bien un haut responsable de la branche armée du Hamas, trouver son adresse, ses coordonnées et enfin connaître ses horaires de présence à son domicile en temps réel. Lorsque la liste des cibles ne comptait que quelques dizaines de hauts gradés, les agents du renseignement pouvaient gérer individuellement le travail d’incrimination et de localisation.

Cependant, une fois la liste élargie à des dizaines de milliers d’agents subalternes, l’armée israélienne a estimé devoir recourir à des logiciels automatisés et à l’intelligence artificielle. De ce fait, selon les témoignages recueillis, le rôle du personnel humain dans l’identification des Palestiniens comme agents militaires a été relégué au second plan, l’IA prenant alors en charge l’essentiel du travail. D’après quatre sources ayant parlé à +972 et Local Call, Lavender – développé pour identifier des cibles humaines dans le conflit actuel – a marqué quelque 37 000 Palestiniens comme « militants du Hamas » présumés, pour la plupart subalternes, en vue de leur assassinat (le porte-parole de Tsahal a nié l’existence d’une telle liste dans une déclaration à +972 et Local Call).

« Nous ignorions l’identité des agents subalternes, car Israël ne les surveillait pas systématiquement [avant la guerre] », a expliqué l’officier supérieur B. à +972 et Local Call, éclairant ainsi la raison du développement de ce système de ciblage spécifique pour le conflit actuel. « Ils voulaient nous permettre de les attaquer [les agents subalternes] automatiquement. C’est le Graal. Une fois automatisé, le ciblage devient frénétique. »

Selon des sources, l’autorisation d’adopter automatiquement les listes de cibles de Lavender, jusque-là utilisées comme outil auxiliaire, a été accordée environ deux semaines après le début du conflit, suite à une vérification « manuelle » par les services de renseignement de l’exactitude d’un échantillon aléatoire de plusieurs centaines de cibles sélectionnées par le système d’IA. Cet échantillon ayant révélé que Lavender atteignait une précision de 90 % dans l’identification de l’affiliation d’un individu au Hamas, l’armée a autorisé l’utilisation généralisée du système. Dès lors, toujours selon ces sources, si Lavender désignait un individu comme militant du Hamas, il leur était demandé de considérer cette décision comme un ordre, sans obligation de vérifier indépendamment les raisons de ce choix ni d’examiner les données brutes sur lesquelles il s’appuyait.

« À 5 heures du matin, [l’armée de l’air] arrivait et bombardait toutes les maisons que nous avions repérées », a déclaré B. « Nous avons éliminé des milliers de personnes. Nous ne les avons pas ciblées une par une ; tout était intégré à des systèmes automatisés, et dès qu’une personne [marquée] était chez elle, elle devenait immédiatement une cible. Nous la bombardions, elle et sa maison. »

« J’ai été très surpris qu’on nous demande de bombarder une maison pour tuer un simple soldat au sol, dont le rôle dans les combats était si mineur », a déclaré une source à propos de l’utilisation de l’IA pour identifier les militants présumés de bas rang. « Je les ai surnommées “cibles poubelles”. Je les trouvais néanmoins plus éthiques que les cibles que nous bombardions à titre de simple “dissuasion” — des immeubles de grande hauteur évacués et détruits dans le seul but de semer la destruction. »

Les conséquences meurtrières de cet assouplissement des restrictions au début du conflit furent effroyables. Selon les données du ministère palestinien de la Santé à Gaza, sur lesquelles l’armée israélienne s’est appuyée presque exclusivement depuis le début de la guerre, Israël a tué quelque 15 000 Palestiniens – soit près de la moitié du nombre total de morts recensés à ce jour – au cours des six premières semaines de guerre, jusqu’à l’instauration d’un cessez-le-feu d’une semaine le 24 novembre.

« Plus il y a d’informations et de variété, mieux c’est. »

Le logiciel Lavender analyse les informations collectées sur la plupart des 2,3 millions d’habitants de la bande de Gaza grâce à un système de surveillance de masse, puis évalue et classe la probabilité que chaque personne soit active au sein de la branche armée du Hamas ou du Jihad islamique palestinien. Selon certaines sources, le logiciel attribue à presque chaque habitant de Gaza une note de 1 à 100, indiquant la probabilité qu’il soit un militant.

Lavender apprend à identifier les caractéristiques des membres connus du Hamas et du Jihad islamique palestinien (JIP), dont les informations ont servi de données d’entraînement à la machine, puis à repérer ces mêmes caractéristiques – également appelées « signatures » – au sein de la population générale, ont expliqué les sources. Un individu présentant plusieurs signatures compromettantes se verra attribuer un score élevé et deviendra ainsi automatiquement une cible potentielle d’assassinat.

Dans « L’Équipe Homme-Machine », l’ouvrage cité en introduction, le commandant actuel de l’Unité 8200 plaide en faveur d’un tel système sans mentionner Lavender nommément. (Le commandant lui-même n’est pas cité, mais cinq sources au sein de l’Unité 8200 ont confirmé qu’il en est l’auteur, comme l’a également rapporté Haaretz.) Décrivant le personnel humain comme un « goulot d’étranglement » limitant les capacités de l’armée lors d’une opération militaire, le commandant déplore : « Nous [les humains] ne pouvons pas traiter autant d’informations. Peu importe le nombre de personnes chargées de produire des cibles pendant la guerre : on ne peut jamais en produire suffisamment par jour. »

La solution à ce problème, selon lui, réside dans l’intelligence artificielle. L’ouvrage propose un guide succinct pour la création d’une « machine cible », semblable à Lavender, basée sur l’IA et les algorithmes d’apprentissage automatique. Ce guide inclut plusieurs exemples des « centaines et milliers » de caractéristiques susceptibles d’influencer la réputation d’un individu, comme l’appartenance à un groupe WhatsApp avec un militant notoire, le changement régulier de téléphone portable et de domicile.

« Plus les informations sont nombreuses et variées, mieux c’est », écrit le commandant. « Informations visuelles, données cellulaires, connexions aux réseaux sociaux, informations sur le champ de bataille, contacts téléphoniques, photos. » Si, dans un premier temps, ces caractéristiques sont sélectionnées par des humains, poursuit le commandant, la machine finira par les identifier d’elle-même. Ceci, explique-t-il, permettra aux forces armées de créer des dizaines de milliers de cibles, la décision finale d’attaquer ou non restant du ressort de l’humain.

Ce livre n’est pas le seul ouvrage où un haut gradé israélien a fait allusion à l’existence de machines à cibler les humains comme Lavender. +972 et Local Call ont obtenu l’enregistrement d’une conférence privée donnée par le commandant du centre secret de science des données et d’IA de l’unité 8200, le « colonel Yoav », lors de la semaine de l’IA de l’université de Tel Aviv en 2023, qui avait été relayée par les médias israéliens à l’époque.

Dans sa conférence, le commandant évoque un nouveau système de ciblage sophistiqué utilisé par l’armée israélienne, capable de détecter les individus dangereux en les comparant à des listes de militants connus sur lesquelles il a été entraîné. « Grâce à ce système, nous avons pu identifier des commandants d’escadrons de missiles du Hamas », a déclaré le colonel Yoav, faisant référence à l’opération militaire israélienne de mai 2021 à Gaza, lors de laquelle le système a été utilisé pour la première fois.

Les diapositives de la présentation de la conférence, également obtenues par +972 et Local Call, contiennent des illustrations du fonctionnement de la machine : elle est alimentée en données sur les agents existants du Hamas, elle apprend à remarquer leurs caractéristiques, puis elle évalue les autres Palestiniens en fonction de leur ressemblance avec les militants.

« Nous classons les résultats et déterminons le seuil [à partir duquel une cible doit être attaquée] », a déclaré le colonel Yoav lors de sa conférence, soulignant qu’« en fin de compte, ce sont des personnes réelles qui prennent les décisions. Dans le domaine de la défense, d’un point de vue éthique, nous y accordons une grande importance. Ces outils sont conçus pour aider [les agents de renseignement] à surmonter leurs blocages. »

En pratique, cependant, des sources ayant utilisé Lavender ces derniers mois affirment que l’intervention humaine et la précision ont été remplacées par la création massive de cibles et la létalité.

« Il n’y avait pas de politique de « zéro erreur ». »

B., un officier supérieur qui utilisait Lavender, a fait écho à +972 et à l’appel local que dans la guerre actuelle, les officiers n’étaient pas tenus d’examiner indépendamment les évaluations du système d’IA, afin de gagner du temps et de permettre la production en masse de cibles humaines sans entraves.

« Tout était statistique, tout était bien ordonné — c’était très aride », a déclaré B. Il a souligné que ce manque de supervision était toléré malgré des contrôles internes montrant que les calculs de Lavender n’étaient considérés comme exacts que dans 90 % des cas ; autrement dit, on savait d’avance que 10 % des cibles humaines destinées à être assassinées n’étaient pas du tout membres de la branche militaire du Hamas.

Par exemple, des sources ont expliqué que la machine Lavender signalait parfois par erreur des individus dont les schémas de communication étaient similaires à ceux d’agents connus du Hamas ou du PIJ — notamment des policiers et des employés de la protection civile, des proches de militants, des résidents qui se trouvaient avoir un nom et un surnom identiques à ceux d’un agent, et des Gazaouis qui utilisaient un appareil ayant appartenu à un agent du Hamas.

« À quel point une personne doit-elle être proche du Hamas pour être considérée comme affiliée à l’organisation par une IA ? » s’interroge une source critique quant à la fiabilité de Lavender. « La frontière est floue. Une personne qui ne reçoit pas de salaire du Hamas, mais qui l’aide de diverses manières, est-elle un agent du Hamas ? Une personne ayant appartenu au Hamas par le passé, mais qui n’en fait plus partie aujourd’hui, est-elle un agent du Hamas ? Chacune de ces caractéristiques – qu’une machine signalerait comme suspectes – est inexacte. »

Des problèmes similaires se posent quant à la capacité des systèmes de ciblage à identifier le téléphone utilisé par une personne visée par une assassinat. « En temps de guerre, les Palestiniens changent constamment de téléphone », a déclaré la source. « Ils perdent le contact avec leur famille, prêtent leur téléphone à un ami ou à leur conjoint, ou le perdent. Il est impossible de se fier entièrement au mécanisme automatique qui détermine à qui appartient un numéro de téléphone. »

D’après nos sources, l’armée savait que la supervision humaine minimale en place ne permettrait pas de détecter ces défauts. « Il n’y avait pas de politique du "zéro erreur". Les erreurs étaient traitées statistiquement », a déclaré une source utilisant Lavender. « Compte tenu de l’ampleur du problème, le protocole était le suivant : même si l’on n’est pas certain du bon fonctionnement de la machine, on sait que statistiquement, elle est fiable. Alors on fonce. »

« Ça a fait ses preuves », a déclaré B., la source principale. « L’approche statistique a un effet déterminant : elle établit une norme, un standard. Il y a eu un nombre aberrant de bombardements lors de cette opération. C’est du jamais vu, de mémoire d’homme. Et j’ai bien plus confiance en un mécanisme statistique qu’en un soldat qui a perdu un camarade il y a deux jours. Là-bas, nous avons tous perdu des proches, moi y compris, le 7 octobre. La machine a fait son travail froidement. Et c’est ce qui a rendu la chose plus facile. »

Une autre source du renseignement, défendant le recours aux listes de personnes à abattre établies par Lavender concernant des suspects palestiniens, a fait valoir qu’il était justifié de mobiliser un officier de renseignement pour vérifier l’information uniquement si la cible était un haut commandant du Hamas. « Mais lorsqu’il s’agit d’un simple militant, il est inutile d’y investir des ressources humaines et temporelles », a-t-elle déclaré. « En temps de guerre, on n’a pas le temps d’incriminer chaque cible. Il faut donc accepter la marge d’erreur liée à l’utilisation de l’intelligence artificielle, avec le risque de dommages collatéraux, de pertes civiles et d’attaques par erreur, et assumer les conséquences. »

B. a expliqué que cette automatisation était motivée par la nécessité constante de générer davantage de cibles à assassiner. « Les jours où nous ne trouvions aucune cible [dont le profil justifiait une frappe], nous attaquions à un seuil plus bas. La pression était incessante : “Apportez-nous d’autres cibles !” Ils nous criaient dessus. Nous avons éliminé nos cibles très rapidement. »

Il a expliqué qu’abaisser le seuil de classification de Lavande permettrait de désigner davantage de personnes comme cibles potentielles de frappes. « À son apogée, le système a réussi à identifier 37 000 personnes comme cibles humaines potentielles », a déclaré B. « Mais ces chiffres fluctuaient constamment, car ils dépendent de la définition que l’on donne à un membre du Hamas. À certaines périodes, cette définition était plus large, et le système nous signalait alors toutes sortes de personnels de la protection civile, des policiers, sur lesquels il aurait été absurde de gaspiller des bombes. Ils aident le gouvernement du Hamas, mais ils ne représentent pas une menace réelle pour les soldats. »

Palestiniens sur le site d’un bâtiment détruit par une frappe aérienne israélienne à Rafah, dans le sud de la bande de Gaza, le 18 mars 2024. (Abed Rahim Khatib/Flash90)
Palestiniens sur le site d’un bâtiment détruit par une frappe aérienne israélienne à Rafah, dans le sud de la bande de Gaza, le 18 mars 2024. (Abed Rahim Khatib/Flash90

One source who worked with the military data science team that trained Lavender said that data collected from employees of the Hamas-run Internal Security Ministry, whom he does not consider to be militants, was also fed into the machine. “I was bothered by the fact that when Lavender was trained, they used the term ‘Hamas operative’ loosely, and included people who were civil defense workers in the training dataset,” he said.

The source added that even if one believes these people deserve to be killed, training the system based on their communication profiles made Lavender more likely to select civilians by mistake when its algorithms were applied to the general population. “Since it’s an automatic system that isn’t operated manually by humans, the meaning of this decision is dramatic : it means you’re including many people with a civilian communication profile as potential targets.”

‘We only checked that the target was a man’

The Israeli military flatly rejects these claims. In a statement to +972 and Local Call, the IDF Spokesperson denied using artificial intelligence to incriminate targets, saying these are merely “auxiliary tools that assist officers in the process of incrimination.” The statement went on : “In any case, an independent examination by an [intelligence] analyst is required, which verifies that the identified targets are legitimate targets for attack, in accordance with the conditions set forth in IDF directives and international law.”

However, sources said that the only human supervision protocol in place before bombing the houses of suspected “junior” militants marked by Lavender was to conduct a single check : ensuring that the AI-selected target is male rather than female. The assumption in the army was that if the target was a woman, the machine had likely made a mistake, because there are no women among the ranks of the military wings of Hamas and PIJ.

“A human being had to [verify the target] for just a few seconds,” B. said, explaining that this became the protocol after realizing the Lavender system was “getting it right” most of the time. “At first, we did checks to ensure that the machine didn’t get confused. But at some point we relied on the automatic system, and we only checked that [the target] was a man — that was enough. It doesn’t take a long time to tell if someone has a male or a female voice.”

To conduct the male/female check, B. claimed that in the current war, “I would invest 20 seconds for each target at this stage, and do dozens of them every day. I had zero added value as a human, apart from being a stamp of approval. It saved a lot of time. If [the operative] came up in the automated mechanism, and I checked that he was a man, there would be permission to bomb him, subject to an examination of collateral damage.”

En pratique, selon des sources, cela signifiait que pour les civils ciblés par erreur par Lavender, aucun mécanisme de surveillance n’était en place pour détecter l’erreur. D’après B., une erreur fréquente se produisait « si la cible [du Hamas] donnait [son téléphone] à son fils, à son frère aîné ou à un inconnu. Cette personne se retrouvait alors piégée chez elle, avec sa famille. C’était un cas courant. C’étaient là la plupart des erreurs commises par Lavender », a déclaré B.

ÉTAPE 2 : LIER LES CIBLES AUX FOYERS FAMILIAUX
« La plupart des personnes que vous avez tuées étaient des femmes et des enfants. »
La prochaine étape de la procédure d’assassinat de l’armée israélienne consiste à identifier les cibles générées par Lavender et à les attaquer.

Dans une déclaration transmise à +972 et à Local Call, le porte-parole de Tsahal a affirmé, en réponse à cet article : « Le Hamas déploie ses combattants et ses ressources militaires au cœur des zones civiles, utilise systématiquement la population civile comme bouclier humain et mène des combats depuis l’intérieur même des infrastructures civiles, y compris des sites sensibles tels que les hôpitaux, les mosquées, les écoles et les installations des Nations Unies. Tsahal est tenue de respecter le droit international et agit conformément à celui-ci, ne dirigeant ses attaques que contre des cibles et des combattants militaires. »

Les six sources que nous avons interrogées ont confirmé ces faits, affirmant que le vaste réseau de tunnels du Hamas passe délibérément sous des hôpitaux et des écoles ; que les militants du Hamas utilisent des ambulances pour se déplacer ; et que de nombreux équipements militaires sont déployés à proximité de bâtiments civils. Ces sources ont soutenu que de nombreuses frappes israéliennes tuent des civils en raison de ces tactiques du Hamas – une affirmation que les organisations de défense des droits humains jugent comme une façon d’éluder la responsabilité d’Israël dans ces pertes.

Cependant, contrairement aux déclarations officielles de l’armée israélienne, les sources ont expliqué que l’une des principales raisons du nombre sans précédent de morts causé par les bombardements israéliens actuels est le fait que l’armée a systématiquement attaqué des cibles dans leurs maisons privées, aux côtés de leurs familles — en partie parce qu’il était plus facile, du point de vue du renseignement, de marquer les maisons familiales à l’aide de systèmes automatisés.

En effet, plusieurs sources ont souligné que, contrairement aux nombreux cas d’activités militaires menées par des membres du Hamas depuis des zones civiles, dans le cadre d’assassinats ciblés, l’armée choisissait systématiquement de bombarder les militants présumés alors qu’ils se trouvaient à l’intérieur de domiciles civils d’où aucune activité militaire n’était menée. Ce choix, ont-elles affirmé, reflétait la conception du système de surveillance de masse israélien à Gaza.

Des Palestiniens se précipitent pour amener les blessés, dont de nombreux enfants, à l’hôpital Al-Shifa de la ville de Gaza, tandis que les forces israéliennes continuent de bombarder la bande de Gaza, le 11 octobre 2023. (Mohammed Zaanoun/Activestills)
Des Palestiniens se précipitent pour amener les blessés, dont de nombreux enfants, à l’hôpital Al-Shifa de la ville de Gaza, tandis que les forces israéliennes continuent de bombarder la bande de Gaza, le 11 octobre 2023. (Mohammed Zaanoun/Activestills)
Selon des sources proches du dossier, citées par +972 et Local Call, chaque habitant de Gaza possédant une maison individuelle à laquelle il était possible de l’associer, les systèmes de surveillance de l’armée pouvaient facilement et automatiquement relier les individus à leur domicile. Afin de détecter en temps réel l’entrée des agents dans les maisons, divers logiciels automatisés supplémentaires ont été développés. Ces programmes suivent simultanément des milliers de personnes, repèrent leur présence à domicile et envoient une alerte automatique à l’officier chargé du ciblage, qui marque alors la maison en vue d’un bombardement. L’un de ces logiciels de suivi, révélé ici pour la première fois, s’appelle « Où est papa ? »

« On intègre des centaines de cibles dans le système et on attend de voir qui on peut éliminer », a déclaré une source connaissant bien le système. « C’est ce qu’on appelle le ciblage à grande échelle : on copie-colle les listes générées par le système. »

Les données confirment également l’efficacité de cette politique : durant le premier mois de la guerre, plus de la moitié des victimes – soit 6 120 personnes – appartenaient à 1 340 familles, dont beaucoup ont été entièrement décimées dans leurs maisons, selon les chiffres de l’ONU . La proportion de familles entières bombardées dans leurs habitations lors du conflit actuel est bien plus élevée que lors de l’opération israélienne de 2014 à Gaza (qui restait jusqu’alors la guerre la plus meurtrière menée par Israël dans la bande de Gaza), ce qui souligne l’importance de cette politique.

Une autre source a indiqué qu’à chaque ralentissement du rythme des assassinats, de nouvelles cibles étaient ajoutées aux systèmes de surveillance comme « Où est papa ? » afin de localiser les individus rentrant chez eux et susceptibles d’être ainsi victimes d’attentats à la bombe. Selon cette source, la décision d’intégrer les personnes à ces systèmes de suivi pouvait être prise par des officiers de rang relativement bas dans la hiérarchie militaire.

« Un jour, de ma propre initiative, j’ai ajouté environ 1 200 nouvelles cibles au système [de suivi], car le nombre d’attaques [que nous menions] avait diminué », a déclaré la source. « Cela me semblait logique. Avec le recul, c’était une décision importante. Et ce genre de décisions n’était pas prise au plus haut niveau. »

Selon ces sources, durant les deux premières semaines du conflit, « plusieurs milliers » de cibles ont été initialement intégrées aux programmes de localisation comme Where’s Daddy ?. Parmi elles figuraient tous les membres de la Nukhba, unité d’élite des forces spéciales du Hamas, tous les opérateurs antichars du Hamas et toute personne entrée en Israël le 7 octobre. Mais très vite, la liste des personnes à abattre s’est considérablement allongée.

« Au final, tout le monde était visé par Lavender », a expliqué une source. « Des dizaines de milliers de personnes. Cela s’est produit quelques semaines plus tard, lorsque les brigades israéliennes sont entrées à Gaza, et qu’il y avait déjà moins de civils dans les zones nord. » Selon cette source, même des mineurs ont été ciblés par Lavender. « Normalement, les agents ont plus de 17 ans, mais ce n’était pas une condition requise. »

Des Palestiniens blessés sont soignés à même le sol en raison de la surpopulation à l’hôpital Al-Shifa, dans la ville de Gaza, au centre de la bande de Gaza, le 18 octobre 2023. (Mohammed Zaanoun/Activestills)
Des Palestiniens blessés sont soignés à même le sol en raison de la surpopulation à l’hôpital Al-Shifa, dans la ville de Gaza, au centre de la bande de Gaza, le 18 octobre 2023. (Mohammed Zaanoun/Activestills)
Lavender et des systèmes comme « Où est papa ? » ont ainsi été combinés avec des conséquences mortelles, décimant des familles entières, selon des sources. En ajoutant un nom figurant sur les listes générées par Lavender au système de géolocalisation « Où est papa ? », explique A., la personne ciblée serait placée sous surveillance constante et pourrait être attaquée dès son arrivée à domicile, provoquant l’effondrement de la maison sur tous ses occupants.

« Imaginons que vous ayez calculé qu’il y avait un membre du Hamas et dix civils dans la maison », a déclaré A. « Généralement, ces dix personnes sont des femmes et des enfants. De façon absurde, il s’avère donc que la plupart des personnes tuées étaient des femmes et des enfants. »

ÉTAPE 3 : CHOIX D’UNE ARME
« Nous menions généralement les attaques avec des “bombes non guidées” »
Une fois que Lavender a désigné une cible à assassiner, que les militaires ont vérifié qu’il s’agissait d’un homme et que le logiciel de suivi a localisé la cible à son domicile, l’étape suivante consiste à choisir les munitions avec lesquelles la bombarder.

En décembre 2023, CNN a rapporté que, selon les estimations des services de renseignement américains, environ 45 % des munitions utilisées par l’armée de l’air israélienne à Gaza étaient des bombes non guidées, connues pour causer davantage de dommages collatéraux que les bombes guidées. En réponse à ce reportage, un porte-parole de l’armée, cité dans l’article, a déclaré : « En tant qu’armée attachée au droit international et à un code de conduite moral, nous consacrons d’importantes ressources à minimiser les dommages causés aux civils que le Hamas a contraints à servir de boucliers humains. Notre guerre est contre le Hamas, et non contre la population de Gaza. »

Trois sources du renseignement ont cependant indiqué à +972 et Local Call que les agents subalternes marqués par Lavender étaient éliminés uniquement à l’aide de bombes non guidées, afin d’économiser des armements plus coûteux. L’une de ces sources a expliqué que, de ce fait, l’armée n’aurait pas ciblé un agent subalterne vivant dans un immeuble de grande hauteur, car elle ne souhaitait pas utiliser une bombe à fragmentation plus précise et plus onéreuse (avec des effets collatéraux plus limités) pour le tuer. En revanche, si l’agent subalterne vivait dans un immeuble de quelques étages seulement, l’armée était autorisée à l’éliminer, ainsi que tous les occupants, à l’aide d’une bombe non guidée.

Palestiniens sur le site d’un bâtiment détruit par une frappe aérienne israélienne à Rafah, dans le sud de la bande de Gaza, le 18 mars 2024. (Abed Rahim Khatib/Flash90)
Palestiniens sur le site d’un bâtiment détruit par une frappe aérienne israélienne à Rafah, dans le sud de la bande de Gaza, le 18 mars 2024. (Abed Rahim Khatib/Flash90)
« C’était pareil pour toutes les cibles secondaires », a témoigné C., qui a utilisé divers programmes automatisés pendant le conflit. « La seule question était de savoir s’il était possible d’attaquer le bâtiment en limitant les dommages collatéraux. Car généralement, nous menions les attaques avec des bombes non guidées, ce qui signifiait littéralement détruire toute la maison, avec ses occupants. Mais même si une attaque était déjouée, on s’en fichait : on passait immédiatement à la cible suivante. À cause du système, les cibles sont innombrables. Il y en a toujours 36 000 qui attendent. »

ÉTAPE 4 : AUTORISATION DES VICTIMES CIVILES
« Nous avons attaqué quasiment sans tenir compte des dommages collatéraux. »
Selon une source, lors des attaques contre des agents subalternes, notamment ceux marqués par des systèmes d’IA comme Lavender, le nombre de civils qu’il était permis de tuer avec chaque cible était fixé à 20 maximum durant les premières semaines du conflit. Une autre source affirme que ce nombre était limité à 15. Ces « degrés de dommages collatéraux », comme les appelle l’armée, étaient appliqués de manière systématique à tous les militants subalternes présumés, sans distinction de grade, d’importance militaire ou d’âge, et sans analyse au cas par cas permettant de comparer l’avantage militaire d’un assassinat aux dommages escomptés pour les civils.

Selon A., ancien officier affecté à une salle d’opérations ciblées durant le conflit actuel, le département du droit international de l’armée n’avait jamais auparavant accordé une « autorisation aussi générale » pour un niveau de dommages collatéraux aussi élevé. « Il ne s’agit pas simplement de pouvoir tuer n’importe quel soldat du Hamas, ce qui est clairement permis et légitime au regard du droit international », a déclaré A. « Mais on vous dit explicitement : “Vous êtes autorisé à les tuer, ainsi que de nombreux civils.” »

« Toute personne ayant porté un uniforme du Hamas au cours des deux dernières années pouvait être la cible d’un attentat à la bombe, avec 20 victimes civiles collatérales, même sans autorisation spéciale », a poursuivi A. « En pratique, le principe de proportionnalité n’était pas respecté. »

Selon A., cette politique a prévalu pendant la majeure partie de son service. Ce n’est que plus tard que l’armée a revu à la baisse le seuil de dommages collatéraux. « Dans ce calcul, cela pourrait aussi représenter 20 enfants pour un agent subalterne… Ce n’était vraiment pas le cas auparavant », a expliqué A. Interrogé sur la justification sécuritaire de cette politique, A. a répondu : « La létalité. »

Des Palestiniens attendent de recevoir les corps de leurs proches tués lors de frappes aériennes israéliennes, à l’hôpital Al-Najjar de Rafah, dans le sud de la bande de Gaza, le 7 novembre 2023. (Abed Rahim Khatib/Flash90)
Des Palestiniens attendent de recevoir les corps de leurs proches tués lors de frappes aériennes israéliennes, à l’hôpital Al-Najjar de Rafah, dans le sud de la bande de Gaza, le 7 novembre 2023. (Abed Rahim Khatib/Flash90)
Le niveau prédéterminé et fixe des dommages collatéraux a permis d’accélérer la création massive de cibles à l’aide de la machine Lavender, selon des sources, car cela a permis un gain de temps. B. a affirmé que le nombre de civils qu’ils étaient autorisés à tuer durant la première semaine de la guerre par jeune militant présumé marqué par l’IA était de quinze, mais que ce nombre a fluctué au fil du temps.

« Au début, nous attaquions presque sans tenir compte des dommages collatéraux », a déclaré B. à propos de la première semaine suivant le 7 octobre. « En pratique, on ne comptait pas vraiment les personnes [dans chaque maison bombardée], car on ne pouvait pas savoir si elles étaient chez elles ou non. Au bout d’une semaine, des restrictions concernant les dommages collatéraux ont été mises en place. Le seuil est passé de 15 à 5, ce qui a considérablement compliqué nos attaques, car si toute la famille était à la maison, nous ne pouvions pas la bombarder. Puis, ce seuil a de nouveau été relevé. »

« Nous savions que nous allions tuer plus de 100 civils. »
Des sources ont indiqué à +972 et Local Call que, sous la pression américaine notamment, l’armée israélienne ne produit plus en masse de cibles humaines de faible importance pour bombarder des habitations civiles. Le fait que la plupart des maisons de la bande de Gaza aient déjà été détruites ou endommagées, et que la quasi-totalité de la population ait été déplacée, a également réduit la capacité de l’armée à s’appuyer sur des bases de données de renseignement et des programmes automatisés de localisation des habitations.

E. a affirmé que les bombardements massifs contre les jeunes militants n’avaient eu lieu que durant les deux premières semaines de la guerre, puis avaient cessé principalement pour éviter le gaspillage de munitions. « Il y a une gestion des munitions », a déclaré E. « Ils craignaient toujours un conflit au nord [avec le Hezbollah au Liban]. Ils n’attaquent plus du tout ce genre de groupes [de jeunes militants]. »

Cependant, les frappes aériennes contre les hauts commandants du Hamas se poursuivent, et des sources indiquent que pour ces attaques, l’armée autorise le meurtre de « centaines » de civils par cible – une politique officielle sans précédent historique en Israël, ni même dans les récentes opérations militaires américaines.

« Lors de l’attentat contre le commandant du bataillon Shuja’iya, nous savions que nous allions tuer plus de 100 civils », se souvient B., évoquant le bombardement du 2 décembre, que le porte-parole de Tsahal a présenté comme visant à assassiner Wisam Farhat. « Psychologiquement, c’était insupportable. Plus de 100 civils : on franchit une limite inacceptable. »

Une boule de feu et de fumée s’élève lors de frappes aériennes israéliennes dans la bande de Gaza, le 9 octobre 2023. (Atia Mohammed/Flash90)
Une boule de feu et de fumée s’élève lors de frappes aériennes israéliennes dans la bande de Gaza, le 9 octobre 2023. (Atia Mohammed/Flash90)
Amjad Al-Sheikh, un jeune Palestinien de Gaza, a déclaré que plusieurs membres de sa famille avaient été tués dans cet attentat. Habitant de Shuja’iya, à l’est de la ville de Gaza, il se trouvait ce jour-là dans un supermarché local lorsqu’il a entendu cinq explosions qui ont brisé les vitrines.

« J’ai couru jusqu’à la maison de ma famille, mais il n’y avait plus rien », a raconté Al-Sheikh à +972 et à Local Call. « La rue résonnait de cris et était remplie de fumée. Des pâtés de maisons entiers n’étaient plus que des amas de décombres et de profonds cratères. Les gens se sont mis à fouiller le béton à mains nues, et moi aussi, à la recherche de la maison de ma famille. »

L’épouse et la petite fille d’Al-Sheikh ont survécu, protégées des décombres par une armoire qui s’est effondrée sur elles. Mais il a retrouvé onze autres membres de sa famille, dont ses sœurs, ses frères et leurs jeunes enfants, morts sous les décombres. Selon l’organisation de défense des droits humains B’Tselem, le bombardement de ce jour-là a détruit des dizaines de bâtiments, tué des dizaines de personnes et enseveli des centaines d’autres sous les ruines de leurs maisons.

« Des familles entières ont été tuées »
Des sources du renseignement ont indiqué à +972 et Local Call que l’armée avait participé à des frappes encore plus meurtrières. Afin d’assassiner Ayman Nofal, commandant de la Brigade centrale de Gaza du Hamas, l’armée aurait autorisé, selon une source, le meurtre d’environ 300 civils et la destruction de plusieurs bâtiments lors de frappes aériennes sur le camp de réfugiés d’Al-Bureij le 17 octobre, sur la base d’une localisation imprécise de Nofal. Des images satellites et des vidéos prises sur place montrent la destruction de plusieurs grands immeubles d’habitation.

« Entre 16 et 18 maisons ont été détruites lors de l’attaque », a déclaré Amro Al-Khatib, un habitant du camp, à +972 et Local Call. « On ne pouvait plus distinguer un appartement d’un autre : ils étaient tous mélangés sous les décombres, et on a trouvé des restes humains partout. »

Au lendemain de la catastrophe, Al-Khatib se souvient d’une cinquantaine de corps extraits des décombres et d’environ 200 blessés, dont beaucoup grièvement. Mais ce n’était que le premier jour. Les habitants du camp ont passé cinq jours à dégager les morts et les blessés, a-t-il précisé.

Des Palestiniens, fouillant à mains nues, découvrent un corps sans vie dans les décombres après une frappe aérienne israélienne qui a tué des dizaines de Palestiniens au cœur du camp de réfugiés d’Al-Maghazi, dans la bande de Gaza centrale, le 5 novembre 2023. (Mohammed Zaanoun/Activestills)
Des Palestiniens, fouillant à mains nues, découvrent un corps sans vie dans les décombres après une frappe aérienne israélienne qui a tué des dizaines de Palestiniens au cœur du camp de réfugiés d’Al-Maghazi, dans la bande de Gaza centrale, le 5 novembre 2023. (Mohammed Zaanoun/Activestills)
Nael Al-Bahisi, ambulancier, fut parmi les premiers sur les lieux. Il a dénombré entre 50 et 70 victimes ce premier jour. « À un moment donné, nous avons compris que la cible de la frappe était le commandant du Hamas, Ayman Nofal », a-t-il déclaré à +972 et à Local Call. « Ils l’ont tué, ainsi que de nombreuses personnes qui ignoraient sa présence. Des familles entières, avec enfants, ont été décimées. »

Une autre source du renseignement a indiqué à +972 et Local Call que l’armée avait détruit un immeuble de grande hauteur à Rafah à la mi-décembre, tuant des dizaines de civils, afin de tenter d’éliminer Mohammed Shabaneh, commandant de la brigade Rafah du Hamas (on ignore s’il a été tué lors de l’attaque). Selon cette source, les hauts commandants se cachent souvent dans des tunnels passant sous les bâtiments civils ; par conséquent, le choix de les assassiner par une frappe aérienne entraîne inévitablement des victimes civiles.

« La plupart des blessés étaient des enfants », a déclaré Wael Al-Sir, 55 ans, témoin de la frappe de grande ampleur que certains Gazaouis considèrent comme une tentative d’assassinat. Il a indiqué à +972 et à Local Call que le bombardement du 20 décembre avait détruit un immeuble résidentiel entier et tué au moins dix enfants.

« La politique en matière de pertes humaines lors des opérations de bombardement était totalement permissive, à tel point qu’elle comportait, à mon avis, un aspect vengeur », a affirmé D., une source du renseignement. « Le cœur du problème résidait dans l’assassinat de hauts commandants du Hamas et du Jihad islamique palestinien, pour lesquels ils étaient prêts à tuer des centaines de civils. Nous avions un calcul précis : combien pour un commandant de brigade, combien pour un commandant de bataillon, etc. »

« Il y avait des réglementations, mais elles étaient très laxistes », a déclaré E., une autre source du renseignement. « Nous avons tué des gens et causé des dommages collatéraux qui se chiffrent en dizaines, voire en centaines. Ce sont des choses qui ne s’étaient jamais produites auparavant. »

Des Palestiniens inspectent leurs maisons et tentent de secourir leurs proches ensevelis sous les décombres après un raid aérien israélien dans la ville de Rafah, au sud de la bande de Gaza, le 22 octobre 2023. (Abed Rahim Khatib/Flash90)
Des Palestiniens inspectent leurs maisons et tentent de secourir leurs proches ensevelis sous les décombres après un raid aérien israélien dans la ville de Rafah, au sud de la bande de Gaza, le 22 octobre 2023. (Abed Rahim Khatib/Flash90)
Un taux aussi élevé de « dommages collatéraux » est exceptionnel, non seulement par rapport à ce que l’armée israélienne jugeait acceptable auparavant, mais aussi par rapport aux guerres menées par les États-Unis en Irak, en Syrie et en Afghanistan.

Le général Peter Gersten, commandant adjoint des opérations et du renseignement dans l’opération de lutte contre l’EI en Irak et en Syrie, a déclaré à un magazine de défense américain en 2021 qu’une attaque ayant causé des dommages collatéraux à 15 civils s’était écartée de la procédure ; pour la mener à bien, il avait dû obtenir une autorisation spéciale du chef du commandement central américain, le général Lloyd Austin, qui est maintenant secrétaire à la Défense.

« Avec Oussama Ben Laden, on avait un NCV [Valeur des pertes non combattantes] de 30, mais pour un commandant subalterne, son NCV était généralement nul », a déclaré Gersten. « On a eu un NCV nul pendant très longtemps. »

« On nous a dit : “Tout ce que vous pouvez, bombardez !” »
Toutes les sources interrogées dans le cadre de cette enquête ont déclaré que les massacres perpétrés par le Hamas le 7 octobre et les enlèvements d’otages ont fortement influencé la politique de tirs de l’armée et l’évaluation des dommages collatéraux. « Au début, l’atmosphère était pesante et empreinte de vengeance », a déclaré B., qui a été enrôlé dans l’armée immédiatement après le 7 octobre et a servi dans une salle d’opérations de ciblage. « Les règles étaient très laxistes. Ils ont détruit quatre bâtiments alors qu’ils savaient que la cible se trouvait dans l’un d’eux. C’était de la folie. »

« Il y avait une dissonance : d’un côté, les gens ici étaient frustrés que nous n’attaquions pas suffisamment », a poursuivi B. « De l’autre côté, on constate en fin de journée que des milliers de Gazaouis supplémentaires sont morts, la plupart des civils. »

« C’était l’hystérie chez les professionnels », a déclaré D., qui a lui aussi été mobilisé immédiatement après le 7 octobre. « Ils ne savaient absolument pas comment réagir. La seule chose qu’ils savaient faire, c’était de bombarder comme des fous pour essayer de démanteler les capacités du Hamas. »

Le ministre de la Défense, Yoav Gallant, s’entretient avec des soldats israéliens dans une zone de rassemblement non loin de la barrière de Gaza, le 19 octobre 2023. (Chaim Goldberg/Flash90)
Le ministre de la Défense, Yoav Gallant, s’entretient avec des soldats israéliens dans une zone de rassemblement non loin de la barrière de Gaza, le 19 octobre 2023. (Chaim Goldberg/Flash90)
D. a souligné qu’on ne leur avait pas explicitement dit que l’objectif de l’armée était la « vengeance », mais a déclaré : « Dès lors que chaque cible liée au Hamas est considérée comme légitime, et que presque tous les dommages collatéraux sont tolérés, il est clair que des milliers de personnes vont être tuées. Même si officiellement chaque cible est liée au Hamas, une politique aussi permissive la vide de tout son sens. »

A. a également employé le terme « vengeance » pour décrire l’atmosphère qui régnait au sein de l’armée après le 7 octobre. « Personne ne pensait à l’après, à la fin de la guerre, ni à la possibilité de vivre à Gaza et à ce qu’on en ferait », a déclaré A. « On nous a dit : maintenant, il faut anéantir le Hamas, à n’importe quel prix. Bombardez tout ce que vous pouvez. »

B., la source de renseignement de haut rang, a déclaré qu’avec le recul, il estime que cette politique « disproportionnée » consistant à tuer des Palestiniens à Gaza met également en danger les Israéliens, et que c’est l’une des raisons pour lesquelles il a décidé d’être interviewé.

« À court terme, nous sommes plus en sécurité car nous avons affaibli le Hamas. Mais je pense que nous le sommes moins à long terme. Je vois bien comment toutes les familles endeuillées à Gaza — c’est-à-dire presque toute la population — vont renforcer la motivation [des gens à rejoindre] le Hamas dans 10 ans. Et il sera beaucoup plus facile pour [le Hamas] de les recruter. »

Dans une déclaration à +972 et Local Call, l’armée israélienne a nié une grande partie de ce que les sources nous ont dit, affirmant que « chaque cible est examinée individuellement, tandis qu’une évaluation individuelle est faite de l’avantage militaire et des dommages collatéraux attendus de l’attaque… L’IDF ne mène pas d’attaques lorsque les dommages collatéraux attendus de l’attaque sont excessifs par rapport à l’avantage militaire. »

ÉTAPE 5 : CALCUL DES DOMMAGES COLLATÉRAUX
« Le modèle n’était pas en phase avec la réalité. »
D’après les services de renseignement, le calcul par l’armée israélienne du nombre de civils susceptibles d’être tués dans chaque maison ciblée – une procédure examinée lors d’une précédente enquête menée par +972 et Local Call – a été effectué à l’aide d’outils automatiques et imprécis. Lors des conflits précédents, les services de renseignement consacraient un temps considérable à vérifier le nombre de personnes présentes dans une maison destinée à être bombardée, le nombre de civils susceptibles d’être tués étant consigné dans un « fichier de cibles ». Après le 7 octobre, cependant, cette vérification approfondie a été largement abandonnée au profit de l’automatisation.

En octobre, le New York Times a publié un article sur un système opéré depuis une base spéciale dans le sud d’Israël. Ce système collecte des informations provenant de téléphones portables dans la bande de Gaza et fournit à l’armée une estimation en temps réel du nombre de Palestiniens ayant fui le nord de la bande de Gaza vers le sud. Le général de brigade Udi Ben Muha a déclaré au Times : « Ce n’est pas un système parfait, mais il fournit les informations nécessaires à la prise de décision. » Le système utilise un code couleur : le rouge indique les zones densément peuplées, tandis que le vert et le jaune signalent les zones relativement désertées.

Des Palestiniens marchent sur une route principale après avoir fui leurs maisons dans la ville de Gaza vers le sud de Gaza, le 10 novembre 2023. (Atia Mohammed/Flash90)
Des Palestiniens marchent sur une route principale après avoir fui leurs maisons dans la ville de Gaza vers le sud de Gaza, le 10 novembre 2023. (Atia Mohammed/Flash90)
Les sources qui se sont confiées à +972 et Local Call ont décrit un système similaire de calcul des dommages collatéraux, utilisé pour décider de bombarder ou non un bâtiment à Gaza. Selon elles, le logiciel calculait le nombre de civils résidant dans chaque logement avant la guerre – en évaluant la taille du bâtiment et en consultant la liste de ses occupants – puis réduisait ces chiffres en fonction de la proportion d’habitants ayant supposément évacué le quartier.

Pour illustrer ce propos, si l’armée estimait que la moitié des habitants d’un quartier avaient quitté les lieux, le programme comptabiliserait une maison habituellement habitée par dix personnes comme une maison abritant cinq personnes. Par souci de gain de temps, selon les sources, l’armée n’a pas effectué de rondes dans les habitations pour vérifier le nombre réel de personnes qui y vivaient, contrairement aux opérations précédentes, afin de confirmer l’exactitude des estimations du programme.

« Ce modèle était déconnecté de la réalité », a affirmé une source. « Il n’y avait aucun lien entre les personnes qui se trouvaient dans la maison pendant la guerre et celles qui y étaient recensées avant le conflit. [À une occasion], nous avons bombardé une maison sans savoir que plusieurs familles s’y cachaient. »

Selon cette source, bien que l’armée fût consciente du risque d’erreurs, ce modèle imprécis fut néanmoins adopté, car plus rapide. De ce fait, toujours selon cette source, « le calcul des dommages collatéraux était entièrement automatisé et statistique », produisant même des chiffres qui n’étaient pas des nombres entiers.

ÉTAPE 6 : BOMBARDER UNE MAISON FAMILIALE
« Vous avez tué une famille sans raison. »
Les sources qui se sont confiées à +972 et Local Call ont expliqué qu’il existait parfois un décalage important entre le moment où les systèmes de géolocalisation comme « Où est papa ? » alertaient un officier de la présence d’une cible dans une maison et le bombardement lui-même. Ce décalage pouvait entraîner la mort de familles entières, même sans que la cible de l’armée n’ait été atteinte. « Il m’est arrivé à maintes reprises d’attaquer une maison alors que la personne était absente », a déclaré une source. « Au final, on tue une famille pour rien. »

Trois sources du renseignement ont déclaré à +972 et Local Call avoir été témoins d’un incident au cours duquel l’armée israélienne a bombardé la maison privée d’une famille, et il s’est avéré par la suite que la cible visée par l’assassinat ne se trouvait même pas à l’intérieur de la maison, puisqu’aucune vérification supplémentaire n’a été effectuée en temps réel.

Des Palestiniens reçoivent les corps de leurs proches tués lors de frappes aériennes israéliennes, à l’hôpital Al-Najjar, dans le sud de la bande de Gaza, le 6 novembre 2023. (Abed Rahim Khatib/Flash90)
Des Palestiniens reçoivent les corps de leurs proches tués lors de frappes aériennes israéliennes, à l’hôpital Al-Najjar, dans le sud de la bande de Gaza, le 6 novembre 2023. (Abed Rahim Khatib/Flash90)
« Parfois, [la cible] était chez elle plus tôt, puis la nuit, elle allait dormir ailleurs, par exemple dans un sous-sol, et vous n’étiez pas au courant », a déclaré l’une des sources. « Il y a des moments où vous vérifiez l’emplacement, et d’autres où vous vous dites simplement : "D’accord, il était dans la maison ces dernières heures, donc vous pouvez bombarder." »

Another source described a similar incident that affected him and made him want to be interviewed for this investigation. “We understood that the target was home at 8 p.m. In the end, the air force bombed the house at 3 a.m. Then we found out [in that span of time] he had managed to move himself to another house with his family. There were two other families with children in the building we bombed.”

In previous wars in Gaza, after the assassination of human targets, Israeli intelligence would carry out bomb damage assessment (BDA) procedures — a routine post-strike check to see if the senior commander was killed and how many civilians were killed along with him. As revealed in a previous +972 and Local Call investigation, this involved listening in to phone calls of relatives who lost their loved ones. In the current war, however, at least in relation to junior militants marked using AI, sources say this procedure was abolished in order to save time. The sources said they did not know how many civilians were actually killed in each strike, and for the low-ranking suspected Hamas and PIJ operatives marked by AI, they did not even know whether the target himself was killed.