Ces outils incluent Évangile, une IA qui examine automatiquement les données de surveillance à la recherche de bâtiments, d'équipements et de personnes soupçonnées d'appartenir à l'ennemi et, une fois trouvées, recommande des cibles de bombardement à un analyste humain qui peut alors décider de les transmettre ou non au terrain. Un autre exemple est Lavender, une « base de données alimentée par l'IA » qui répertorie des dizaines de milliers d'hommes palestiniens liés par l'IA au Hamas ou au Jihad islamique palestinien, et qui est également utilisée pour la recommandation de cibles.
Les critiques pointent l’utilisation de ces outils mettant la vie des civils en danger, brouille les responsabilités et entraîne une violence militairement disproportionnée en violation du droit international humanitaire.
Selon les experts de l'ONU, l'utilisation de l'IA entraînant la destruction systématique et généralisée des logements, des services et des infrastructures civiles constitue un crime contre l'humanité, des crimes de guerre et actes de génocide.
Évangile
L'armée de l'air israélienne utilise un système d'IA baptisé « Habsora » (« Évangile » en français), pour déterminer quelles cibles bombarder[1]. Il fournit automatiquement une recommandation de ciblage à un analyste humain[2],[3], qui décide de la transmettre ou non aux soldats sur le terrain[3]. Les recommandations peuvent aller de combattants individuels, de l'artillerie, de postes de commandement du Hamas[2], aux maisons privées de membres présumés du Hamas ou du Jihad islamique[4].
L’IA peut traiter les informations beaucoup plus rapidement que les humains[5],[6]. Selon le lieutenant général à la retraite Aviv Kokhavi (chef de Tsahal jusqu’en 2023), le système pourra générer 100 cibles à Gaza par jour, avec des recommandations en temps réel sur celles à attaquer, alors que les analystes humains peuvent en générer 50 par an[7]. Un conférencier interrogé par NPR estime ces chiffres à 50 à 100 cibles en 300 jours pour 20 agents du renseignement, et à 200 cibles en 10 à 12 jours pour Évangile[8].
Contexte technologique
Les intelligences artificielles, malgré leur nom, ne sont pas capables de pensée ou de conscience[9]. Il s’agit plutôt de machines développées pour automatiser les tâches que les humains accomplissent avec intelligence par d’autres moyens. Évangile utilise l'apprentissage automatique[10], où une IA est chargée d'identifier les points communs dans de grandes quantités de données (par exemple, des analyses de tissus cancéreux, des photos d'une expression faciale, la surveillance des membres du Hamas identifiés par des analystes humains), puis recherche ces points communs dans le nouveau système[11].
On ne sait pas quelles informations Évangile utilise, mais on pense que celui-ci[note 1] combine des données de surveillance provenant de diverses sources en quantités énormes[14].
Les recommandations sont basées sur la correspondance de modèles. Une personne présentant suffisamment de similitudes avec d’autres personnes qualifiées de combattants ennemis peut être elle-même qualifiée de combattant[10].
Concernant l'adéquation des IA à cette tâche, NPR cite Heidy Khlaaf, directrice de l'ingénierie de AI Assurance chez la société de sécurité technologique Trail of Bits, citant : « les algorithmes d'IA sont notoirement défectueux avec des taux d'erreur élevés observés dans les applications et nécessitent précision, exactitude et sécurité »[8]. Bianca Baggiarini, maître de conférences au Centre d'études stratégiques et de défense de l'Université nationale australienne, écrit que les IA sont « plus efficaces dans des environnements prévisibles où les concepts sont objectifs, raisonnablement stables et cohérents en interne ». Elle compare cela à la différence entre un combattant et un non-combattant, ce que même les humains ne peuvent souvent pas faire[15].
Khlaaf poursuit en soulignant que les décisions d'un tel système dépendent entièrement des données sur lesquelles il est formé[note 2], et ne sont pas basées sur un raisonnement, des preuves factuelles ou un lien de causalité, mais uniquement sur une probabilité statistique[16].
Opération
L’IAF a manqué de cibles[17] lors de la guerre de 2014 et de la crise de 2021[18]. Dans une interview sur France 24, le journaliste d'investigation Yuval Abraham du +972 Magazine déclare que pour maintenir la pression militaire, et en raison de la pression politique pour continuer la guerre, les militaires bombardaient deux fois les mêmes endroits[19]. Depuis, l’intégration des outils d’IA a considérablement accéléré la sélection des cibles[20]. Début novembre, selon l'armée israélienne, plus de 12 000 cibles à Gaza ont été identifiées par la division d'administration des cibles[21] utilisant l'outil Évangile[2]. Le nombre de cible attaquées par l'IA demeure inconnu écrit NPR le 14 décembre ; alors que l'armée israélienne déclare frapper actuellement jusqu'à 250 cibles par jour[8]. Les bombardements se sont également intensifiés à un rythme étonnant selon l’article du 14 décembre[22]: l’armée israélienne estime à l’époque avoir frappé plus de 22 000 cibles à l’intérieur de Gaza[22], soit un rythme quotidien ayant plus que doublé par rapport aux bombardements du conflit de 2021[23]. Plus de 3 500 cibles ont été générées depuis la fin de la trêve entre Israël et le Hamas le 1er décembre[22]. Au début de l'offensive, selon le chef de l'armée de l'air, ses forces ont frappé uniquement des cibles militaires[24].
Une fois qu'une recommandation est acceptée, une autre IA, Fire Factory, réduit la planification de l'attaque de quelques heures à quelques minutes[25] en calculant les charges de munitions, en hiérarchisant et en attribuant des cibles aux avions et aux drones, et en proposant un planning[26], selon un article de Bloomberg d’avant-guerre qui décrivait ces outils d’IA comme étant adaptés à une confrontation militaire et à une guerre par procuration avec l’Iran[25].
Un changement est noté par The Guardian : depuis la disparition des hauts dirigeants du Hamas dans les tunnels de combat au début de l'offensive israélienne, des systèmes tels qu'Évangile ont permis à Tsahal de localiser et d’attaquer un groupe beaucoup plus important de membres du Hamas plus jeunes. Il cite un responsable ayant travaillé sur les décisions de ciblage lors d'opérations précédentes à Gaza : « alors que les domiciles des nouveaux membres du Hamas étaient ignorées par les bombardements auparavant, les sites des membres présumés du Hamas sont désormais ciblées quel que soit leur rang »[17]. Cela permet de systématiser le largage d'une bombe de 2 000 livres dans une maison pour éliminer une cible et ceux l'entourant, action déjà faite pour un très petit groupe de hauts responsables du Hamas[27]. NPR cite un rapport du magazine d’information qui dénonce un système utilisé pour générer des cibles pour permettre aux forces militaires israéliennes de bombarder Gaza à un rythme effréné, punissant la population palestinienne en général. Le nombre de cibles générées par la seule IA demeure inconnu, mais face à l'augmentation substantielle des objectifs, le bilan civil s'avère extrêmement lourd[23].
En principe, la combinaison de la vitesse d'un ordinateur pour identifier les opportunités et du jugement humain pour les évaluer peut permettre des attaques plus précises et moins de victimes civiles[28]. L’armée et les médias israéliens soulignent la minimisation des dommages causés aux non-combattants[16],[29]. Richard Moyes, chercheur et responsable de l'ONG Article 36, pointe « l'aplatissement généralisé d'une zone urbaine avec des armes explosives lourdes » pour remettre en question ces affirmations[29], tandis que Lucy Suchman, professeur émérite à l'université de Lancaster, cette stratégie « vise à dévaster au maximum la bande de Gaza »[8].
Selon The Guardian, lorsqu'une frappe est autorisée sur les maisons privées de personnes identifiées (membres du Hamas ou du Jihad islamique par exemple), les chercheurs ciblés connaissent à l'avance le nombre attendu de civils tués, chaque cible dispose d'un dossier contenant un résultat de dommages collatéraux stipulant combien de civils sont susceptibles d'être tués dans une frappe[30], et selon une source militaire israélienne de haut rang, les agents utilisent une mesure « très précise » du taux de civils évacuant un bâtiment peu de temps avant une frappe. « Nous utilisons un algorithme pour évaluer le nombre de civils restants. Cela nous donne du vert, du jaune, du rouge, comme un feu de circulation »[29].
Utilisation en 2021
Selon Kohavi, depuis la mise en service d'Évangile depuis le conflit de mai 2021, l'IA génère 100 cibles par jour, dont la moitié fut attaquée, contre 50 cibles à Gaza par an auparavant[31]. Environ 200 cibles proviennent d'Évangile sur les 1 500 cibles qu'Israël a frappées à Gaza pendant la guerre[23], y compris des cibles fixes et mobiles selon l'armée[32].
Le rapport après action de l'Institut juif pour la sécurité nationale d'Amérique pointe un problème, déclarant [page 31] que le système dispose de données sur ce qui caractérise une cible, mais en manque sur ce qui ne la caractérise pas. Le système dépend entièrement des données d'entraînement[16] et les informations que les analystes humains ont examinées et considérées comme ne constituant pas une cible ont été rejetées, risquant ainsi un biais algorithmique. Le vice-président exprime l'espoir d'une correction de cette situation depuis[32].
Organisation
Évangile est utilisé par la division d'administration des cibles de l'armée (ou Direction des cibles[3] ou Direction du ciblage[33]), créée en 2019 au sein de la direction du renseignement de Tsahal[21] pour faire face au manque de cibles à bombarder par l'armée de l'air[17],[31]. En plus de son rôle en temps de guerre, l'IA a aidé l'armée israélienne dans la constitution d'une base de données de 30 000 à 40 000 combattants présumés ces dernières années, ces systèmes ayant joué un rôle essentiel dans la constitution de listes d'individus destinés à être éliminé[21].
The Guardian définit Lavender comme une base de données alimentée par l'IA, selon les témoignages de six agents du renseignement donnés au +972 Magazine / Local Call et partagés avec The Guardian. Selon ces hommes, Lavender a joué un rôle central dans la guerre, traitant rapidement les données pour identifier les combattants potentiels à cibler, énumérant à un moment donné jusqu'à 37 000 palestiniens liés au Hamas ou au JIP[35]. Les détails de l'opération de Lavender ou la manière dont elle parvient à ses conclusions ne sont pas inclus dans les comptes publiés par +972 / Local Call, mais d'après un échantillon, la liste aurait un taux d'exactitude de 90 %, l'armée israélienne approuvant alors l'utilisation massive de Lavender pour la recommandation de cibles. Selon les officiers, le système est utilisé parallèlement à Évangile, qui ciblait des bâtiments et structures plutôt que des individus[36].
Citant plusieurs sources, lors des guerres précédentes, l'identification d'une personne comme cible légitime était discutée puis approuvée par un conseiller juridique, et qu'après l'attaque du 7-Octobre, le processus s'est considérablement accéléré, des pressions ont été exercées pour obtenir davantage d'objectifs. Pour répondre à la demande, Tsahal en est venu à s’appuyer fortement sur Lavender pour constituer une base de données d’individus rassemblant les caractéristiques d’un combattant du JIP ou du Hamas[37].
Selon Tsahal, certaines des affirmations présentées sont sans fondement tandis que d'autres reflètent une mauvaise compréhension des directives de l'armée et du droit international, l'armée de l'État d'Israël n'utilise pas de système d'IA identifiant des terroristes présumés. Les systèmes d'information ne représentent qu'un outil parmi d'autres et permet aux analystes à rassembler et à analyser de manière optimale des renseignements provenant de diverses sources pour le processus d'identification de cibles militaires, et selon les directives de Tsahal, les analystes doivent mener des examens indépendants pour vérifier si les cibles répondent aux définitions pertinentes conformément au droit international et aux restrictions supplémentaires des directives de Tsahal[38].
Le communiqué poursuit en précisant que le « système » en question n'est pas un système, ni une liste d'agents militaires confirmés éligibles pour attaquer, mais seulement une base de données permettant de croiser les sources de renseignements afin de mettre à jour des informations sur les militaires des organisations terroristes[38].
Programme “Where’s Daddy?”
Le programme fonctionne en complément du programme Lavender. Il permet de suivre les cibles via un système de géolocalisation qui sont listées par le programme Lavender et informe les forces israéliennes de leur retour chez elles avec leurs familles. Le systèmes de ciblage, combinés à une politique de bombardement de l'armée israélienne, ont conduit à « l'extermination de familles palestiniennes entières à l'intérieur de leurs maisons et des bâtiments à proximité », explique Yuval Abraham, un journaliste israélien qui a dévoilé l'affaire[39],[40].
+972 et Local Call ont expliqué qu'il y avait parfois un laps de temps important entre le moment où des systèmes de suivi alerte un officier qu'une cible était entrée dans leur maison, et le bombardement lui-même. Ce qui a entraîné la mort de familles entières, même sans atteindre la cible de l'armée. « Il m'est arrivé plusieurs fois d'attaquer une maison, mais la personne n'était même pas chez elle », a déclaré une source de l'armée israélienne. « Le résultat est que vous avez tué une famille sans raison »[41],[42].
Ramifications éthiques et juridiques
Les experts en éthique, en IA et en droit international humanitaire critiquent l’utilisation de tels systèmes d’IA sur des bases éthiques et juridiques, arguant qu’ils violent les principes fondamentaux du droit international humanitaire, tels que la nécessité militaire, la proportionnalité et la distinction entre combattants et civils[43].
Allégations de bombardements de maisons
The Guardian cite les témoignages des agents du renseignement publiés par +972 et Local Call selon lesquels les hommes palestiniens liés à la branche militaire du Hamas sont considérés comme des cibles potentielles quel que soit leur rang ou leur importance[44]; les membres de bas rang du Hamas et du Jihad islamique palestinien seront préférentiellement ciblés chez eux, le système ayant été conçu pour ce type de situations, où il est beaucoup plus simple de mener une attaque[45]. Les attaques contre des combattants de bas rang sont généralement menées avec bombe non guidée, détruisant des maisons entières et tuant la totalité des habitants. Un gaspillage de bombes coûteuses et complexes contre des individus « sans importance » n'est pas une option viable, d'après le journal[46]. Selon des experts anonymes du conflit, l'utilisation de ce type de bombes non guidées pour raser les maisons de milliers de Palestiniens — potentiellement liés à des groupes combattants à Gaza d'après l'IA — peut expliquer le nombre de morts élevé de la guerre[47].
Tsahal répond à la publication des témoignages en comparant le Hamas : contrairement à l'organisation, « elle est attachée au droit international et ne frappe uniquement des cibles militaires et des agents militaires, le fait conformément à la proportionnalité et aux précautions, examine et enquête en profondeur sur les exceptions ou accidents[48]; un membre d'un groupe armé organisé ou un participant direct aux hostilités est une cible légale en vertu du droit international humanitaire et de la politique de tous les pays respectueux du droit[49]; l'armée déploie divers efforts pour réduire les dommages causés aux civils dans la mesure du possible dans les circonstances opérationnelles régnant au moment de la frappe ; les analystes choisissent la munition appropriée en fonction de considérations opérationnelles et humanitaires ; les munitions aériennes sans kit de guidage de précision intégré constituent l'armement standard des militaires développés ; les systèmes embarqués à bord des avions, utilisés par des pilotes qualifiés, garantissent une haute précision de ces armes ; et la nette majorité des munitions qu'elle utilise sont à guidage de précision »[50].
Allégations de limites programmés de pertes collatérales civiles
Selon les témoignages, Tsahal a imposé des limites programmés au nombre de pertes collatérales civiles pour un combattant du Hamas éliminé. Ce nombre serait supérieur à 100 civils tués pour les hauts responsables du Hamas ; cela est calculé en fonction du grade du combattant (commandant de brigade, commandant de bataillon, etc). Selon l'un des officiers, ce nombre atteint 15 civils pour les combattants subalternes, contre cinq aujourd'hui. Un autre dénonce jusqu'à 20 civils non impliqués pour une seule cible, quels que soient son grade, son importance militaire ou son âge[51]. Les experts en droit international humanitaire ont exprimé leur inquiétude[52].
La réponse de Tsahal indique que ses procédures nécessitent d'évaluer l'avantage militaire anticipé et les dommages collatéraux pour chaque cible, que ces évaluations sont faites individuellement, et non catégoriquement. L'armée ne mènerait pas de frappes lorsque les dommages collatéraux s'avèrent excessifs par rapport à l'avantage militaire[53], Tsahal rejetant catégoriquement toute affirmation concernant toute politique visant à tuer des dizaines de milliers d'habitants dans leurs maisons[54].
Limites de l'examen humain
The Guardian cite Moyes : « un commandant ayant remis une liste de cibles générée par ordinateur ne sait peut-être pas comment la liste a été générée ou n'est pas en mesure de remettre en question les recommandations de ciblage, et risque de perdre la capacité de prendre en compte de manière significative le risque de préjudice pour les civils »[43].
Selon la journaliste Élise Vincent du Monde, les armes automatisées sont divisées en systèmes entièrement automatisés (difficilement trouvable sur le marché) et en armes létales autonomes, permettant en principe un contrôle humain, cela permet à Israël de prétendre qu'Évangile représente le recours à la force le plus approprié. Elle cite Laure de Roucy-Rochegonde, chercheuse à l'Institut français des relations internationales, qui affirme que la guerre pourra rendre obsolètes ces catégories floues et revigorer une définition réglementaire plus stricte, un contrôle humain significatif, que les militants des droits de l'homme, y compris l'Article 36, ont tenté de préconiser. Le type d'algorithme utilisé par l'armée israélienne est inconnu, de même que les données agrégées, ce qui ne poserait pas de problème si cela ne conduisait pas à une décision de vie ou de mort[55].
Diligence
Selon le Dr Marta Bo, chercheuse à l'Institut international de recherche sur la paix de Stockholm, les humains impliqués dans la boucle risquent un « biais d'automatisation » : une dépendance excessive à l'égard des systèmes, donnant à ces systèmes trop d'influence sur les décisions qui doivent être prises par humains[43].
L'énorme volume de cibles exerce probablement une pression sur les évaluateurs humains. Suchman note : « face à ce type d'accélération, ces évaluations deviennent de plus en plus limitées en termes de type de jugement que les gens peuvent réellement exercer ». D'après Tal Mimran, professeur à l'université hébraïque de Jérusalem ayant déjà travaillé avec le gouvernement sur le ciblage, la pression rendra les analystes plus susceptibles d'accepter les recommandations de ciblage de l'IA, ceux-ci pourraient être tentés de se faciliter la vie en suivant les recommandations de la machine, entraînant possiblement un « nouveau type de problèmes inédits » si la machine identifie systématiquement mal les cibles[56].
Responsabilité
Khlaaf souligne la difficulté de recherche de responsabilité en cas d'implication des IA. Les humains conservent leur culpabilité, mais comment déterminer le responsable si le système de ciblage échoue, et est-il possible de relier cet échec à une erreur commise par une seule personne ? L'article de NPR poursuit : « Est-ce l'analyste qui a accepté la recommandation de l'IA ? Les programmeurs ayant créé le système ? Les agents du renseignement ayant rassemblé les données de formation ? »[56].
Condamnation de l’ONU
Les révélations choquantes sur l'utilisation de systèmes d'IA par l'armée israélienne, tels que «Gospel», «Lavender» et «Where's Daddy?», combinées à une moindre diligence humaine pour éviter ou minimiser les pertes civiles et les infrastructures, contribueraient à expliquer l’ampleur du nombre de morts et de destructions d’habitations à Gaza », ont déclaré les experts.
Plus de 15 000 morts, soit près de la moitié de tous les décès civils jusqu’à présent, ont eu lieu au cours des six premières semaines après le 7 octobre, lorsque les systèmes d’IA semblent avoir été largement utilisés pour la sélection des cibles.
Entre 60 et 70% de toutes les maisons à Gaza, et jusqu'à 84% des maisons dans le nord de Gaza, sont soit entièrement détruites, soit partiellement endommagées.
Selon les experts, le nombre de personnes tuées depuis s'élève à plus de 33 000 personnes tuées (dont 12.000 enfants et 8.000 femmes ) et à 70 000 blessées». avec 1,7 million (75% des habitants de Gaza) déplacées[57],[58],[59].
Réactions
Le secrétaire général des Nations Unies, António Guterres, se dit « profondément troublé » par les informations faisant état de l'utilisation de l'intelligence artificielle par Israël dans sa campagne militaire à Gaza ; pour lui, « cette pratique met les civils en danger et brouille les responsabilités »[60]. S'exprimant à propos du système Lavender, Marc Owen Jones, professeur à l'université Hamad ben Khalifa(en), déclare : « Soyons clairs : il s'agit d'un génocide assisté par l'IA, et à l'avenir, il faudra appeler à un moratoire sur l'utilisation de l'IA dans la guerre »[61]. Selon Ben Saul(en), rapporteur spécial des Nations Unies, si les informations sur l'utilisation de l'IA par Israël s'avèrent exactes, alors « de nombreuses frappes israéliennes à Gaza pourraient constituer des crimes de guerre consistant à lancer des attaques disproportionnées »[62]. Ramesh Srinivasan, professeur à l'UCLA, déclare : « Les grandes entreprises technologiques américaines sont en fait alignées sur de nombreuses actions de l'armée israélienne. L'utilisation de systèmes d'IA dans la guerre indique un manque de respect de la part de l'État israélien. Tout le monde sait que ces systèmes d’IA feront des erreurs »[63].
Notes et références
Notes
↑The Guardian, citant des experts anonymes, écrit : « les systèmes d'aide à la décision basés sur l'IA pour le ciblage analyseront généralement de larges ensembles d'informations provenant de diverses sources, telles que les images de drones, les communications interceptées, les données de surveillance et mouvements et modèles de comportement des individus et des grands groupes »[12]. NPR cite Blaise Misztal, du JINSA, affirmant que les données proviennent probablement d'une grande variété de sources, notamment des messages de téléphones portables, des images satellite, des images de drones et des capteurs sismiques[13]. Les données sont agrégées et classées par d’autres systèmes d’IA avant d’être intégrées à Évangile[2].
↑Il est bien connu dans le domaine qu'une IA imitant les décisions des humains peut imiter leurs erreurs et leurs préjugés, ce qui entraîne un biais algorithmique.
↑Gavin Lee, « Understanding how Israel uses 'Gospel' AI system in Gaza bombings », France24, (lire en ligne [archive du ], consulté le )
↑ abc et dGeoff Brumfiel, « Israel is using an AI system to find targets in Gaza. Experts say it's just the start », NPR, (lire en ligne [archive du ]) :
« The Gospel is actually one of several AI programs being used by Israeli intelligence, according to Tal Mimran, a lecturer at Hebrew University in Jerusalem who has worked for the Israeli government on targeting during previous military operations. Other AI systems aggregate vast quantities of intelligence data and classify it. The final system is the Gospel, which makes a targeting recommendation to a human analyst. Those targets could be anything from individual fighters, to equipment like rocket launchers, or facilities such as Hamas command posts. »
↑ ab et cGeoff Brumfiel, « Israel is using an AI system to find targets in Gaza. Experts say it's just the start », NPR, (lire en ligne [archive du ]) :
« A brief blog post by the Israeli military on November 2 lays out how the Gospel is being used in the current conflict. According to the post, the military's Directorate of Targets is using the Gospel to rapidly produce targets based on the latest intelligence. The system provides a targeting recommendation for a human analyst who then decides whether to pass it along to soldiers in the field.
"This isn't just an automatic system," Misztal emphasizes. "If it thinks it finds something that could be a potential target, that's flagged then for an intelligence analyst to review."
The post states that the targeting division is able to send these targets to the IAF and navy, and directly to ground forces via an app known as "Pillar of Fire," which commanders carry on military-issued smartphones and other devices. »
↑Harry Davies, Bethan, « 'The Gospel': how Israel uses AI to select bombing targets in Gaza », The Guardian, (lire en ligne [archive du ], consulté le ) :
« Multiple sources familiar with the IDF’s targeting processes confirmed the existence of the Gospel to +972/Local Call, saying it had been used to produce automated recommendations for attacking targets, such as the private homes of individuals suspected of being Hamas or Islamic Jihad operatives. »
↑Geoff Brumfiel, « Israel is using an AI system to find targets in Gaza. Experts say it's just the start », NPR, (lire en ligne [archive du ]) :
« Algorithms can sift through mounds of intelligence data far faster than human analysts, says Robert Ashley, a former head of the U.S. Defense Intelligence Agency. Using AI to assist with targeting has the potential to give commanders an enormous edge.
"You're going to make decisions faster than your opponent, that's really what it's about," he says. »
↑Bianca Baggiarini, « Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war? », The Conversation, (lire en ligne [archive du ], consulté le ) :
« Militaries and soldiers frame their decision-making through what is called the “OODA loop” (for observe, orient, decide, act). A faster OODA loop can help you outmanoeuvre your enemy. The goal is to avoid slowing down decisions through excessive deliberation, and instead to match the accelerating tempo of war. So the use of AI is potentially justified on the basis it can interpret and synthesise huge amounts of data, processing it and delivering outputs at rates that far surpass human cognition. »
↑Bianca Baggiarini, « Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war? », The Conversation, (lire en ligne [archive du ], consulté le )
↑ abc et dGeoff Brumfiel, « Israel is using an AI system to find targets in Gaza. Experts say it's just the start », NPR, (lire en ligne [archive du ])
↑John Paul Mueller et Luca Massaron, Machine Learning For Dummies®, John Wiley & Sons, (ISBN978-1-119-24551-3) :
« Machine learning relies on algorithms to analyze huge datasets. Currently, machine learning can’t provide the sort of AI that the movies present. Even the best algorithms can’t think, feel, present any form of self-awareness, or exercise free will. »
↑ a et bBianca Baggiarini, « Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war? », The Conversation, (lire en ligne [archive du ], consulté le ) :
« How does the system produce these targets? It does so through probabilistic reasoning offered by machine learning algorithms.
Machine learning algorithms learn through data. They learn by seeking patterns in huge piles of data, and their success is contingent on the data’s quality and quantity. They make recommendations based on probabilities.
The probabilities are based on pattern-matching. If a person has enough similarities to other people labelled as an enemy combatant, they too may be labelled a combatant themselves. »
↑John Paul Mueller et Luca Massaron, Machine Learning For Dummies®, John Wiley & Sons, (ISBN978-1-119-24551-3) :
« The secret to machine learning is generalization. The goal is to generalize the output function so that it works on data beyond the training set. For example, consider a spam filter. Your dictionary contains 100,000 words (actually a small dictionary). A limited training dataset of 4,000 or 5,000 word combinations must create a generalized function that can then find spam in the 2^100,000 combinations that the function will see when working with actual data. »
↑Harry Davies, Bethan McKernan et Dan Sabbagh, « 'The Gospel': how Israel uses AI to select bombing targets in Gaza », The Guardian, (lire en ligne [archive du ], consulté le ) :
« Precisely what forms of data are ingested into the Gospel is not known. But experts said AI-based decision support systems for targeting would typically analyse large sets of information from a range of sources, such as drone footage, intercepted communications, surveillance data and information drawn from monitoring the movements and behaviour patterns of individuals and large groups. »
↑Geoff Brumfiel, « Israel is using an AI system to find targets in Gaza. Experts say it's just the start », NPR, (lire en ligne [archive du ]) :
« Although it's not known exactly what data the Gospel uses to make its suggestions, it likely comes from a wide variety of different sources. The list includes things like cell phone messages, satellite imagery, drone footage and even seismic sensors, according to Blaise Misztal, vice president for policy at the Jewish Institute for National Security of America, a group that facilitates military cooperation between Israel and the United States. »
↑Steve Inskeep, « Israel is using an AI system to find targets in Gaza. Experts say it's just the start », NPR, (lire en ligne [archive du ]) :
« The system is called the Gospel. And basically, it takes an enormous quantity of surveillance data, crunches it all together and makes recommendations about where the military should strike. »
↑Bianca Baggiarini, « Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war? », The Conversation, (lire en ligne [archive du ], consulté le ) :
« Some claim machine learning enables greater precision in targeting, which makes it easier to avoid harming innocent people and using a proportional amount of force. However, the idea of more precise targeting of airstrikes has not been successful in the past, as the high toll of declared and undeclared civilian casualties from the global war on terror shows.
Moreover, the difference between a combatant and a civilian is rarely self-evident. Even humans frequently cannot tell who is and is not a combatant.
Technology does not change this fundamental truth. Often social categories and concepts are not objective, but are contested or specific to time and place. But computer vision together with algorithms are more effective in predictable environments where concepts are objective, reasonably stable, and internally consistent. »
↑ ab et cGeoff Brumfiel, « Israel is using an AI system to find targets in Gaza. Experts say it's just the start », NPR, (lire en ligne [archive du ]) :
« The Israeli military did not respond directly to NPR's inquiries about the Gospel. In the November 2 post, it said the system allows the military to "produce targets for precise attacks on infrastructures associated with Hamas, while causing great damage to the enemy and minimal harm to those not involved," according to an unnamed spokesperson.
But critics question whether the Gospel and other associated AI systems are in fact performing as the military claims. Khlaaf notes that artificial intelligence depends entirely on training data to make its decisions.
"The nature of AI systems is to provide outcomes based on statistical and probabilistic inferences and correlations from historical data, and not any type of reasoning, factual evidence, or 'causation,'" she says. »
↑ ab et cHarry Davies, Bethan, « 'The Gospel': how Israel uses AI to select bombing targets in Gaza », The Guardian, (lire en ligne [archive du ], consulté le ) :
« The target division was created to address a chronic problem for the IDF: in earlier operations in Gaza, the air force repeatedly ran out of targets to strike. Since senior Hamas officials disappeared into tunnels at the start of any new offensive, sources said, systems such as the Gospel allowed the IDF to locate and attack a much larger pool of more junior operatives.
One official, who worked on targeting decisions in previous Gaza operations, said the IDF had not previously targeted the homes of junior Hamas members for bombings. They said they believed that had changed for the present conflict, with the houses of suspected Hamas operatives now targeted regardless of rank. »
↑Gavin Lee, « Understanding how Israel uses 'Gospel' AI system in Gaza bombings », France24, (lire en ligne [archive du ], consulté le ) :
« Yuval Abraham: "Now, sources that I've spoken to that have operated the Gospel and have served in that center [...] they said the use of artificial intelligence is being incr- increasing trend in the military because in the past, the military ran out of targets in 2014 and 2021. »
↑Gavin Lee, « Understanding how Israel uses 'Gospel' AI system in Gaza bombings », France24, (lire en ligne [archive du ], consulté le ) :
« Yuval Abraham: I mean one source recalled how, for example, in 2021 and 2014, y'know, they ran out of targets. They had nothing left to bomb. There was nothing but quality to bomb. But there was political pressure to continue the war. There was a need to continue the pressure in Gaza. So one source recalled how in 2014, they would bomb the same places twice. When you have artificial intelligence, when you have automation, when you can create so many targets, often spending, y'know, less than a minute on a target that, at the end of the day, is killing families, y'know? So, so, so that allows you to continue wars, often even for political purposes, it could be, for much longer than you could in the past. »
↑Harry Davies, Bethan, « 'The Gospel': how Israel uses AI to select bombing targets in Gaza », The Guardian, (lire en ligne [archive du ], consulté le )
↑ ab et cHarry Davies, Bethan, « 'The Gospel': how Israel uses AI to select bombing targets in Gaza », The Guardian, (lire en ligne [archive du ], consulté le ) :
« In early November, the IDF said “more than 12,000” targets in Gaza had been identified by its target administration division.
The activities of the division, formed in 2019 in the IDF’s intelligence directorate, are classified.
However a short statement on the IDF website claimed it was using an AI-based system called Habsora (the Gospel, in English) in the war against Hamas to “produce targets at a fast pace”.
[...] In recent years, the target division has helped the IDF build a database of what sources said was between 30,000 and 40,000 suspected militants. Systems such as the Gospel, they said, had played a critical role in building lists of individuals authorised to be assassinated. »
↑ ab et cGeoff Brumfiel, « Israel is using an AI system to find targets in Gaza. Experts say it's just the start », NPR, (lire en ligne [archive du ]) :
« The pace is astonishing: In the wake of the brutal attacks by Hamas-led militants on October 7, Israeli forces have struck more than 22,000 targets inside Gaza, a small strip of land along the Mediterranean coast. Just since the temporary truce broke down on December 1, Israel's Air Force has hit more than 3,500 sites. »
↑ ab et cGeoff Brumfiel, « Israel is using an AI system to find targets in Gaza. Experts say it's just the start », NPR, (lire en ligne [archive du ]) :
« A report by the Israeli publication +972 Magazine and the Hebrew-language outlet Local Call asserts that the system is being used to manufacture targets so that Israeli military forces can continue to bombard Gaza at an enormous rate, punishing the general Palestinian population.
NPR has not independently verified those claims, and it's unclear how many targets are currently being generated by AI alone. But there has been a substantial increase in targeting, according to the Israeli military's own numbers. In the 2021 conflict, Israel said it struck 1,500 targets in Gaza, approximately 200 of which came from the Gospel. Since October 7, the military says it has struck more than 22,000 targets inside Gaza — a daily rate more than double that of the 2021 conflict.
The toll on Palestinian civilians has been enormous. »
↑Harry Davies, Bethan, « 'The Gospel': how Israel uses AI to select bombing targets in Gaza », The Guardian, (lire en ligne [archive du ], consulté le ) :
« Israel’s military has made no secret of the intensity of its bombardment of the Gaza Strip. In the early days of the offensive, the head of its air force spoke of relentless, “around the clock” airstrikes. His forces, he said, were only striking military targets, but he added: “We are not being surgical.” »
↑ a et bMarissa Newman, « Israel Quietly Embeds AI Systems in Deadly Military Operations », Bloomberg, (lire en ligne, consulté le ) :
« In recent months, Israel has been issuing near-daily warnings to Iran over its uranium enrichment, vowing it will not allow the country to obtain nuclear weapons under any circumstances. Should the two enter into a military confrontation, the IDF anticipates that Iranian proxies in Gaza, Syria and Lebanon would retaliate, setting the stage for the first serious multi-front conflict for Israel since a surprise attack by Egypt and Syria 50 years ago sparked the Yom Kippur War.
AI-based tools like Fire Factory are tailored for such a scenario, according to IDF officials. "What used to take hours now takes minutes, with a few more minutes for human review," said Col. Uri, who heads the army's digital transformation unit [...] "With the same amount of people, we do much more." »
↑Marissa Newman, « Israel Quietly Embeds AI Systems in Deadly Military Operations », Bloomberg, (lire en ligne, consulté le ) :
« Though the military won't comment on specific operations, officials say that it now uses an AI recommendation system that can crunch huge amounts of data to select targets for air strikes. Ensuing raids can then be rapidly assembled with another artificial intelligence model called Fire Factory, which uses data about military-approved targets to calculate munition loads, prioritize and assign thousands of targets to aircraft and drones, and propose a schedule. »
↑Gavin Lee, « Understanding how Israel uses 'Gospel' AI system in Gaza bombings », France24, (lire en ligne [archive du ], consulté le ) :
« Yuval Abraham: "What we're talking about is, a policy of dropping a bomb that weighs two thousand pounds, on a home, in order to assassinate one person, okay? Now, in the past, imagine before artificial intelligence and automation, you would do that, say, for a group of very small senior leaders of Hamas, killing them and knowingly killing everybody around them [...] when you automates that process, when you have a need to strike hundreds and thousands of targets, you can do so in a systematic way..." »
↑Bianca Baggiarini, « Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war? », The Conversation, (lire en ligne [archive du ], consulté le ) :
« In principle, machine learning systems may enable more precisely targeted attacks and fewer civilian casualties. »
↑ ab et cHarry Davies, Bethan, « 'The Gospel': how Israel uses AI to select bombing targets in Gaza », The Guardian, (lire en ligne [archive du ], consulté le ) :
« In the IDF’s brief statement about its target division, a senior official said the unit “produces precise attacks on infrastructure associated with Hamas while inflicting great damage to the enemy and minimal harm to non-combatants”.
The precision of strikes recommended by the “AI target bank” has been emphasised in multiple reports in Israeli media. The Yedioth Ahronoth daily newspaper reported that the unit “makes sure as far as possible there will be no harm to non-involved civilians”.
A former senior Israeli military source told the Guardian that operatives use a “very accurate” measurement of the rate of civilians evacuating a building shortly before a strike. “We use an algorithm to evaluate how many civilians are remaining. It gives us a green, yellow, red, like a traffic signal.”
[...] “Look at the physical landscape of Gaza,” said Richard Moyes, a researcher who heads Article 36, a group that campaigns to reduce harm from weapons. “We’re seeing the widespread flattening of an urban area with heavy explosive weapons, so to claim there’s precision and narrowness of force being exerted is not borne out by the facts.” »
↑Harry Davies, Bethan, « 'The Gospel': how Israel uses AI to select bombing targets in Gaza », The Guardian, (lire en ligne [archive du ], consulté le ) :
« Multiple sources told the Guardian and +972/Local Call that when a strike was authorised on the private homes of individuals identified as Hamas or Islamic Jihad operatives, target researchers knew in advance the number of civilians expected to be killed.
Each target, they said, had a file containing a collateral damage score that stipulated how many civilians were likely to be killed in a strike. »
↑ a et bHarry Davies, Bethan, « 'The Gospel': how Israel uses AI to select bombing targets in Gaza », The Guardian, (lire en ligne [archive du ], consulté le ) :
« Aviv Kochavi, who served as the head of the IDF until January, has said the target division is “powered by AI capabilities” and includes hundreds of officers and soldiers.
In an interview published before the war, he said it was “a machine that produces vast amounts of data more effectively than any human, and translates it into targets for attack”.
According to Kochavi, “once this machine was activated” in Israel’s 11-day war with Hamas in May 2021 it generated 100 targets a day. “To put that into perspective, in the past we would produce 50 targets in Gaza per year. Now, this machine produces 100 targets a single day, with 50% of them being attacked.” »
↑ a et bGeoff Brumfiel, « Israel is using an AI system to find targets in Gaza. Experts say it's just the start », NPR, (lire en ligne [archive du ]) :
« Misztal's group documented one of the first trials of the Gospel, during a 2021 conflict in Gaza between Israel and the militant groups Hamas and Islamic Jihad. According to press reports and statements from the military itself, Israel used the Gospel and other AI programs to identify likely targets such as rocket launchers. The system was used to identify static targets as well as moving targets as they appeared on the battlefield. According to press reports, it identified around 200 targets in the conflict.
But it was not without its problems. The after-action report by Misztal's group noted that, while the AI had plenty of training data for what constituted a target, it lacked data on things that human analysts had decided were not targets. The Israeli military hadn't collected the target data its analysts had discarded, and as a result the system's training had been biased.
"It's been two years since then, so it's something that, hopefully, they've been able to rectify," Misztal says. »
↑Ron Leshem, « IDF possesses Matrix-like capabilities, ex-Israeli army chief says », Ynetnews, (lire en ligne, consulté le ))
↑Geoff Brumfiel, « Israel is using an AI system to find targets in Gaza. Experts say it's just the start », NPR, (lire en ligne [archive du ]) :
« According to posts on the Israeli military's website, the Gospel was developed by Israel's signals intelligence branch, known as Unit 8200. The system is relatively new — one of the earliest mentions was a top innovation award that it won in 2020. »
↑Bethan McKernan, Harry, « 'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets », The Guardian, (lire en ligne, consulté le ) :
« The Israeli military’s bombing campaign in Gaza used a previously undisclosed AI-powered database that at one stage identified 37,000 potential targets based on their apparent links to Hamas, according to intelligence sources involved in the war.
The testimony from the six intelligence officers, all who have been involved in using AI systems to identify Hamas and Palestinian Islamic Jihad (PIJ) targets in the war, was given to the journalist Yuval Abraham for a report published by the Israeli-Palestinian publication +972 Magazine and the Hebrew-language outlet Local Call.
Their accounts were shared exclusively with the Guardian in advance of publication. All six said that Lavender had played a central role in the war, processing masses of data to rapidly identify potential “junior” operatives to target. Four of the sources said that, at one stage early in the war, Lavender listed as many as 37,000 Palestinian men who had been linked by the AI system to Hamas or PIL. »
↑Bethan McKernan, Harry, « 'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets », The Guardian, (lire en ligne, consulté le ) :
« Details about the specific kinds of data used to train Lavender’s algorithm, or how the programme reached its conclusions, are not included in the accounts published by +972 or Local Call. However, the sources said that during the first few weeks of the war, Unit 8200 refined Lavender’s algorithm and tweaked its search parameters.
After randomly sampling and cross-checking its predictions, the unit concluded Lavender had achieved a 90% accuracy rate, the sources said, leading the IDF to approve its sweeping use as a target recommendation tool.
Lavender created a database of tens of thousands of individuals who were marked as predominantly low-ranking members of Hamas’s military wing, they added. This was used alongside another AI-based decision support system, called the Gospel, which recommended buildings and structures as targets rather than individuals. »
↑Bethan McKernan, Harry, « 'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets », The Guardian, (lire en ligne, consulté le ) :
« In earlier military operations conducted by the IDF, producing human targets was often a more labour-intensive process. Multiple sources who described target development in previous wars to the Guardian, said the decision to “incriminate” an individual, or identify them as a legitimate target, would be discussed and then signed off by a legal adviser.
In the weeks and months after 7 October, this model for approving strikes on human targets was dramatically accelerated, according to the sources. As the IDF’s bombardment of Gaza intensified, they said, commanders demanded a continuous pipeline of targets.
“We were constantly being pressured: ‘Bring us more targets.’ They really shouted at us,” said one intelligence officer. “We were told: now we have to fuck up Hamas, no matter what the cost. Whatever you can, you bomb.”
To meet this demand, the IDF came to rely heavily on Lavender to generate a database of individuals judged to have the characteristics of a PIJ or Hamas militant. »
↑ a et b« Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza », The Guardian, (lire en ligne, consulté le ) :
« Some of the claims portrayed in your questions are baseless in fact, while others reflect a flawed understanding of IDF directives and international law. Following the murderous attack by the Hamas terror organization on October 7, the IDF has been operating to dismantle Hamas’ military capabilities.
[...]The process of identifying military targets in the IDF consists of various types of tools and methods, including information management tools, which are used in order to help the intelligence analysts to gather and optimally analyze the intelligence, obtained from a variety of sources. Contrary to claims, the IDF does not use an artificial intelligence system that identifies terrorist operatives or tries to predict whether a person is a terrorist. Information systems are merely tools for analysts in the target identification process. According to IDF directives, analysts must conduct independent examinations, in which they verify that the identified targets meet the relevant definitions in accordance with international law and additional restrictions stipulated in the IDF directives.
The “system” your questions refer to is not a system, but simply a database whose purpose is to cross-reference intelligence sources, in order to produce up-to-date layers of information on the military operatives of terrorist organizations. This is not a list of confirmed military operatives eligible to attack. »
↑ ab et cHarry Davies, Bethan, « 'The Gospel': how Israel uses AI to select bombing targets in Gaza », The Guardian, (lire en ligne [archive du ], consulté le ) :
« For some experts who research AI and international humanitarian law, an acceleration of this kind raises a number of concerns.
Dr Marta Bo, a researcher at the Stockholm International Peace Research Institute, said that even when “humans are in the loop” there is a risk they develop “automation bias” and “over-rely on systems which come to have too much influence over complex human decisions”.
Moyes, of Article 36, said that when relying on tools such as the Gospel, a commander “is handed a list of targets a computer has generated” and they “don’t necessarily know how the list has been created or have the ability to adequately interrogate and question the targeting recommendations”.
“There is a danger,” he added, “that as humans come to rely on these systems they become cogs in a mechanised process and lose the ability to consider the risk of civilian harm in a meaningful way.” »
↑Bethan McKernan, Harry, « 'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets », The Guardian, (lire en ligne, consulté le ) :
« In the weeks after the Hamas-led 7 October assault on southern Israel, in which Palestinian militants killed nearly 1,200 Israelis and kidnapped about 240 people, the sources said there was a decision to treat Palestinian men linked to Hamas’s military wing as potential targets, regardless of their rank or importance. »
↑Bethan McKernan, Harry, « 'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets », The Guardian, (lire en ligne, consulté le ) :
« The testimonies published by +972 and Local Call may explain how such a western military with such advanced capabilities, with weapons that can conduct highly surgical strikes, has conducted a war with such a vast human toll.
When it came to targeting low-ranking Hamas and PIJ suspects, they said, the preference was to attack when they were believed to be at home. “We were not interested in killing [Hamas] operatives only when they were in a military building or engaged in a military activity,” one said. “It’s much easier to bomb a family’s home. The system is built to look for them in these situations.” »
↑Bethan McKernan, Harry, « 'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets », The Guardian, (lire en ligne, consulté le ) :
« Two sources said that during the early weeks of the war they were permitted to kill 15 or 20 civilians during airstrikes on low-ranking militants. Attacks on such targets were typically carried out using unguided munitions known as “dumb bombs”, the sources said, destroying entire homes and killing all their occupants.
“You don’t want to waste expensive bombs on unimportant people – it’s very expensive for the country and there’s a shortage [of those bombs],” one intelligence officer said. Another said the principal question they were faced with was whether the “collateral damage” to civilians allowed for an attack.
“Because we usually carried out the attacks with dumb bombs, and that meant literally dropping the whole house on its occupants. But even if an attack is averted, you don’t care – you immediately move on to the next target. Because of the system, the targets never end. You have another 36,000 waiting.” »
↑Bethan McKernan, Harry, « 'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets », The Guardian, (lire en ligne, consulté le ) :
« According to conflict experts, if Israel has been using dumb bombs to flatten the homes of thousands of Palestinians who were linked, with the assistance of AI, to militant groups in Gaza, that could help explain the shockingly high death toll in the war. »
↑« Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza », The Guardian, (lire en ligne, consulté le ) :
« Contrary to Hamas, the IDF is committed to international law and acts accordingly. As such, the IDF directs its strikes only towards military targets and military operatives and carries out strikes in accordance with the rules of proportionality and precautions in attacks. Exceptional incidents undergo thorough examinations and investigations. »
↑« Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza », The Guardian, (lire en ligne, consulté le ) :
« According to international humanitarian law, a person who is identified as a member of an organized armed group (like the Hamas’ military wing), or a person who directly participates in hostilities, is considered a lawful target. This legal rule is reflected in the policy of all law-abiding countries, including the IDF’s legal practice and policy, which did not change during the course of the war. »
↑« Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza », The Guardian, (lire en ligne, consulté le ) :
« As for the manner of carrying out the strikes – the IDF makes various efforts to reduce harm to civilians to the extent feasible in the operational circumstances ruling at the time of the strike.
In this regard, the IDF reviews targets before strikes and chooses the proper munition in accordance with operational and humanitarian considerations, taking into account an assessment of the relevant structural and geographical features of the target, the target’s environment, possible effects on nearby civilians, critical infrastructure in the vicinity, and more. Aerial munitions without an integrated precision-guide kit are standard weaponry in developed militaries worldwide. The IDF uses such munitions while employing onboard aircraft systems to calculate a specific release point to ensure a high level of precision, used by trained pilots. In any event, the clear majority of munitions used in strikes are precision-guided munitions. »
↑« Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza », The Guardian, (lire en ligne, consulté le ) :
« Such a strategy risked higher numbers of civilian casualties, and the sources said the IDF imposed pre-authorised limits on the number of civilians it deemed acceptable to kill in a strike aimed at a single Hamas militant. The ratio was said to have changed over time, and varied according to the seniority of the target.
According to +972 and Local Call, the IDF judged it permissible to kill more than 100 civilians in attacks on a top-ranking Hamas officials. “We had a calculation for how many [civilians could be killed] for the brigade commander, how many [civilians] for a battalion commander, and so on,” one source said.
[...]One source said that the limit on permitted civilian casualties “went up and down” over time, and at one point was as low as five. During the first week of the conflict, the source said, permission was given to kill 15 non-combatants to take out junior militants in Gaza. However, they said estimates of civilian casualties were imprecise, as it was not possible to know definitively how many people were in a building.
Another intelligence officer said that more recently in the conflict, the rate of permitted collateral damage was brought down again. But at one stage earlier in the war they were authorised to kill up to “20 uninvolved civilians” for a single operative, regardless of their rank, military importance, or age. »
↑Bethan McKernan, Harry, « 'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets », The Guardian, (lire en ligne, consulté le ) :
« Experts in international humanitarian law who spoke to the Guardian expressed alarm at accounts of the IDF accepting and pre-authorising collateral damage ratios as high as 20 civilians, particularly for lower-ranking militants. They said militaries must assess proportionality for each individual strike. »
↑« Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza », The Guardian, (lire en ligne, consulté le ) :
« For each target, IDF procedures require conducting an individual assessment of the anticipated military advantage and collateral damage expected. Such assessments are not made categorically in relation to the approval of individual strikes. The assessment of the collateral damage expected from a strike is based on a variety of assessment methods and intelligence-gathering measures, in order to achieve the most accurate assessment possible, considering the relevant operational circumstances. The IDF does not carry out strikes when the expected collateral damage from the strike is excessive in relation to the military advantage. »
↑« Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza », The Guardian, (lire en ligne, consulté le ) :
« The IDF outright rejects the claim regarding any policy to kill tens of thousands of people in their homes. »
↑Vincent Elise, « Israel's use of AI in bombings raises questions over rules of war », Le Monde.fr, (lire en ligne [archive du ], consulté le ) :
« Automated weapons today fall into two main categories: Fully-automated lethal weapons systems, of which there are no real examples on the market, and lethal autonomous weapons (LAWs), which in principle allow humans to have control. The vast majority of Western military powers – and Israel, with Habsora – now claim to have opted for LAWs and can therefore claim to be on the more appropriate side of the use of force.
Laure de Roucy-Rochegonde, also a researcher at IFRI and the author of a thesis on the regulation of autonomous weapons systems, said the specifics of the war between Israel and Hamas could render these blurred categories obsolete and reinvigorate another regulatory concept, that of "significant human control." It's a stricter definition that some human rights activists, including the NGO Article 36, have been pushing for without much success. "The problem is that we don't know what kind of algorithm is being used [by the Israeli army], or how the data has been aggregated. It wouldn't be a problem if there wasn't a life-or-death decision at the end of it," said de Roucy-Rochegonde. »
↑ a et bGeoff Brumfiel, « Israel is using an AI system to find targets in Gaza. Experts say it's just the start », NPR, (lire en ligne [archive du ]) :
« The huge volume of targets is also likely putting pressure on the humans asked to review them, says Suchman. "In the face of this kind of acceleration, those reviews become more and more constrained in terms of what kind of judgment people can actually exercise," she says.
Mimran adds that, under pressure, analysts will be more likely to accept the AI's targeting recommendations, regardless of whether they are correct. Targeting officers may be tempted to think that "life will be much easier if we flow with the machine and accept its advice and recommendations," he says. But it could create a "whole new level of problems" if the machine is systematically misidentifying targets.
Finally, Khlaaf points out that the use of AI could make it more difficult to pursue accountability for those involved in the conflict. Although humans still retain the legal culpability for strikes, it's unclear who is responsible if the targeting system fails. Is it the analyst who accepted the AI recommendation? The programmers who made the system? The intelligence officers who gathered the training data? »