A Gaza, l’IA de l’armée israélienne au centre des critiques

A Gaza, l’IA de l’armée israélienne au centre des critiques

Le débat sur l’utilisation de l’intelligence artificielle fait irruption sur le théâtre de la guerre à Gaza. L’alerte est venue du secrétaire général de l’ONU qui s’est dit, vendredi 5 avril, “profondément perturbé” par des informations faisant état de l’utilisation par Israël de l’IA pour identifier des cibles à Gaza, refusant, dit-il, que des “décisions de vie ou de mort” soient déléguées à des algorithmes.

“Je suis profondément perturbé par les informations disant que la campagne de bombardements de l’armée israélienne inclut l’intelligence artificielle comme outil pour identifier des cibles, particulièrement dans des zones résidentielles densément peuplées, conduisant à un nombre élevé de victimes civiles”, a déclaré Antonio Guterres à la presse.

“Aucune portion de décisions de vie ou de mort qui ont un impact sur des familles entières ne devrait être déléguée au calcul froid d’algorithmes”, a-t-il insisté.

Un programme de l’armée israélienne

A quoi le patron de l’ONU fait-il référence ? Une enquête publiée par les médias +972 Magazine et Local Call, reprise par plusieurs médias américains cette semaine, décrit l’existence d’un programme de l’armée israélienne baptisé “Lavender” qui utilise l’intelligence artificielle pour identifier des cibles à Gaza, avec une certaine marge d’erreur.

“Ils ont collecté des informations sur quelques centaines de combattants avérés du Hamas et, à partir de leurs données, ils ont demandé à la machine d’identifier des Palestiniens présentant des données semblables, qui sont alors devenues des cibles potentielles d’assassinat”, rapporte Meron Rapoport, rédacteur en chef du site israélien Local Call, dont les propos ont été repris par Courrier International.

Ce sont ainsi 37 000 personnes qui auraient été désignées comme des “cibles” à Gaza. L’enquête indique également que la précision de ces cibles aurait été sacrifiée au profit de la vitesse. La partie “vérification humaine”, qui permet de s’assurer que la personne visée est bien la bonne, a été réduite au minimum, “pas plus de vingt secondes dans certains cas”, détaille le journaliste. “Par conséquent, de plus en plus de civils sont touchés et non plus uniquement des membres du Hamas”, assure Meron Rapoport qui estime que la marge d’erreur de l’armée se situe autour “de 10 %”.

Israël essaye de “réduire les dommages causés aux civils”

Du côté d’Israël, un porte-parole de l’armée a déclaré à CNN que l’IA n’était pas utilisée pour “identifier des terroristes présumés”, mais n’a pas contesté l’existence du système “Lavender” qu’il décrit comme “de simples outils destinés aux analystes dans le processus d’identification des cibles”. Les analystes “doivent mener des examens indépendants, au cours desquels ils vérifient que les cibles identifiées répondent aux définitions pertinentes conformément au droit international et aux restrictions supplémentaires stipulées dans les directives de Tsahal […] Israël essaie de réduire les dommages causés aux civils dans la mesure du possible dans les circonstances opérationnelles en vigueur au moment de la frappe”, assure-t-il à la chaîne américaine.

Des explications qui ont du mal à convaincre le patron de l’ONU. “Je mets en garde depuis des années contre les dangers de transformer en armes l’intelligence artificielle et de réduire le rôle essentiel de l’intervention humaine”, a souligné Antonio Guterres. “L’IA devrait être utilisée comme une force du bien, au bénéfice du monde, et non pas contribuer à la guerre à un niveau industriel, brouillant la responsabilité”, affirme le secrétaire général des Nations unies.

En plein drame humanitaire à Gaza, la mort lundi dans des frappes israéliennes de sept travailleurs de l’ONG World Central Kitchen (WCK) et ses révélations sur l’utilisation de l’IA ne sont pas de nature à éteindre le mécontentement international.

Leave a Reply

Your email address will not be published. Required fields are marked *