Menu
Libération
CheckNews
Vos questions, nos réponses
CheckNews

Comment l’armée israélienne utilise l’intelligence artificielle pour bombarder Gaza

La guerre entre le Hamas et Israëldossier
Dossiers liés
Suggestions de cibles, plans d’attaque automatisés : des outils algorithmiques, développés par Tsahal ou des entreprises privées, servent à mener une guerre «totale» à Gaza. D’anciens officiers du renseignement parlent d’une «usine d’assassinat de masse».
par Florian Gouthière et Alexandre Horn
publié le 2 décembre 2023 à 7h47

L’intelligence artificielle mise au service du bombardement sur la bande de Gaza, l’un des plus destructeurs et meurtriers du XXIe siècle. L’idée, qui appartenait il y a peu à la science-fiction, est désormais une réalité. L’armée israélienne le revendique officiellement dans sa communication.

Le sujet, qui avait déjà intéressé plusieurs titres de la presse israélienne et internationale ces dernières années, a été remis sur le devant de la scène, ces derniers jours, par une longue enquête du média israélo-palestinien de gauche +972, publiée le 30 novembre. En s’appuyant sur des témoignages de militaires et d’ex-militaires, l’article détaille les rouages de la campagne aérienne sans précédent menée par Tsahal sur Gaza depuis le 7 octobre. Et l’usage, fait par l’armée dans ce contexte, d’outils d’intelligence artificielle.

Tsahal revendique une «guerre par IA»

L’utilisation de ce type de technologies dans un cadre militaire par les forces israéliennes a été documentée à plusieurs reprises. En 2021, après la campagne de bombardements menée pendant onze jours sur Gaza, le Jerusalem Post rapportait que Tsahal revendiquait avoir mené cette année-là la première «guerre par IA», mentionnant plusieurs outils algorithmiques destinés à optimiser l’action sur le terrain. Le quotidien israélien nommait alors trois algorithmes, nommés «Alchemist», «Gospel», et «Depth of Wisdom». Un autre système, «Fire Factory», a été décrit en juillet 2023 par le média Bloomberg.

Dans un contexte militaire, l’IA est utilisée pour analyser un très grand nombre de données issues du renseignement (ou de la logistique dans certains cas), et estimer rapidement les effets des différents choix stratégiques possibles. Deux outils, en particulier, seraient utilisés par Tsahal dans le cadre des attaques menées depuis le 7 octobre. Le premier, «Gospel» (ou «Habsora»), vise à suggérer les cibles les plus pertinentes pour une attaque, dans un périmètre donné. Le second, «Fire Factory», sert à optimiser, en temps réel, les plans d’attaques des avions et des drones, en fonction de la nature des cibles choisies. L’algorithme se chargerait de calculer la quantité de munitions nécessaires, d’attribuer les cibles aux différents avions et drones, ou de déterminer l’ordre le plus pertinent pour les attaques.

Une capture d’écran de «Fire Factory», publiée en juillet par Bloomberg à titre d’illustration, montre une carte avec plusieurs cibles entourées, ainsi qu’une frise chronologique sur laquelle se succèdent différentes frappes. A noter que la séquence d’attaque présentée est fictive ou que, tout du moins, un certain nombre d’éléments à l’image ont été altérés avant publication, les noms des cibles en hébreu étant ici fantaisistes (des restaurants de Tel Aviv, par exemple).

Toujours d’après Bloomberg, les systèmes d’intelligence artificielle de l’armée israélienne seraient développés par l’armée elle-même, mais aussi par des acteurs privés, comme l’entreprise du secteur de la défense Rafael, qui fournirait «Fire Factory». A propos d’un outil du même genre (mais d’un autre nom), l’entreprise vante sur son site «un changement de paradigme révolutionnaire dans l’analyse de la situation et le circuit entre le capteur et le tireur, permettant une efficacité, une vitesse et une précision sans précédent».

De 50 cibles par an à 100 cibles par jour

Dans les deux cas, les systèmes sont supervisés (d’après les déclarations de Tsahal cet été à Bloomberg) par des opérateurs humains qui, derrière l’écran, doivent vérifier et approuver tant les cibles que les plans de raids. Dit autrement, ces systèmes ne prendraient pas directement la décision de tirer, bien qu’une partie du processus soit automatisé. Selon des représentants des forces armées israéliennes interrogées par Bloomberg, ces solutions informatiques avaient été élaborées dans l’hypothèse de la conduire d’une «guerre totale» («all-out war»).

D’après le média +972, l’utilisation de ces solutions technologiques explique comment l’armée israélienne a pu bombarder la bande de Gaza à un rythme aussi effréné (15 000 cibles durant les seuls 35 premiers jours de bombardement, selon les chiffres mêmes de Tsahal). De fait, dans un communiqué publié début novembre, les forces armées israéliennes reconnaissaient elles-mêmes que «Gospel» (cité nommément) leur permettait de générer, de manière automatique, «des cibles à un rythme rapide».

Dans un article paru fin juin sur le média israélien YNet, l’ancien chef d’état-major de l’armée israélienne Aviv Kochavi expliquait que, lors de la guerre de 2021, «Gospel» générait 100 cibles par jour, ajoutant : «Pour mettre cela en perspective, dans le passé, nous produisions 50 cibles à Gaza par an.» Et de préciser que, lors de ces opérations militaires, la moitié des cibles suggérées par le logiciel avaient été attaquées. Au regard du rythme auquel l’algorithme propose de nouvelles cibles à bombarder, d’anciens officiers de renseignement critiques du procédé, interrogés par +972, assimilent le processus à une «usine d’assassinat de masse».

«Rien n’arrive par hasard»

Les pertes civiles font partie des éléments dont «Gospel» tient compte pour identifier de nouvelles cibles. En effet, selon l’enquête de +972, l’armée israélienne dispose d’informations sur la majorité des cibles potentielles à Gaza, permettant notamment d’estimer le nombre de personnes civiles susceptibles d’être tuées en cas de frappes. Or, selon une autre source interrogée par le média israélien, depuis le 7 octobre, le nombre de morts civils jugé acceptable par le commandement militaire israélien dans l’objectif d’atteindre un dirigeant du Hamas serait passé de «dizaines» à «des centaines».

Nous ne sommes pas le Hamas. Ce ne sont pas des missiles aléatoires. Tout est intentionnel.

—  Une source anonyme au média israélien «+972»

«Rien n’arrive par hasard, déclare une autre source aux journalistes de +972. Lorsqu’une fillette de 3 ans est tuée dans une maison à Gaza, c’est parce que quelqu’un, dans l’armée, a décidé que ce n’était pas grave qu’elle soit tuée – que c’était un prix qui valait la peine d’être payé pour frapper [une autre] cible. Nous ne sommes pas le Hamas. Ce ne sont pas des missiles aléatoires. Tout est intentionnel. Nous savons exactement combien de dommages collatéraux il y a dans chaque maison.»

Des milliers d’arbitrages invisibles

Outre l’intensification des frappes permise par ces outils, se pose également la question de la qualité des données de renseignement sur lesquelles reposent les analyses. En 2020, une enquête du quotidien britannique The Independent, citant des militaires israéliens, pointait déjà des failles dans le cibles visées par les bombardements de l’armée de l’air israélienne, y compris sur des cibles obsolètes, pour remplir des quotas.

Si ces données sont imprécises, périmées ou erronées, les suggestions logicielles n’auront aucune valeur stratégique. Or, si d’après un militaire interrogé par Bloomberg, une partie du choix des IA est transmise aux militaires décisionnaires, ces derniers ignorent le détail des milliers d’arbitrages invisibles réalisés par l’IA, et ne peuvent pas interroger leur fiabilité ou leur pertinence. De façon plus générale, l’utilisation de ces algorithmes rend plus difficile, pour les militaires, de comprendre ou de justifier leurs décisions.

Pour aller plus loin :

Dans la même rubrique