Alimentée par l’intelligence artificielle, la folie meurtrière d’Israël à Gaza laisse présager un avenir sombre

Des Palestiniennes visitent les tombes des personnes tuées dans le conflit entre Israël et le Hamas à Rafah. (Reuters)
Des Palestiniennes visitent les tombes des personnes tuées dans le conflit entre Israël et le Hamas à Rafah. (Reuters)
Short Url
Publié le Vendredi 12 avril 2024

Alimentée par l’intelligence artificielle, la folie meurtrière d’Israël à Gaza laisse présager un avenir sombre

Alimentée par l’intelligence artificielle, la folie meurtrière d’Israël à Gaza laisse présager un avenir sombre
  • Israël utilise l’intelligence artificielle et la technologie d’apprentissage automatique dans sa guerre contre le Hamas
  • Israël a admis, la semaine dernière, qu’une série d’erreurs et de violations de ses règles avaient entraîné la mort de 7 travailleurs humanitaires à Gaza

Pour les infrastructures, c’est «Gospel». Pour les ressources humaines, c’est «Lavender». Deux mots, inoffensifs à première vue, pourraient expliquer le nombre élevé de morts et de victimes au cours des six premiers mois de la guerre menée par Israël contre le Hamas à Gaza, ainsi que la destruction quasi totale d’une grande partie des infrastructures et des habitations de la bande de Gaza.

Israël utilise l’intelligence artificielle (IA) et la technologie d’apprentissage automatique dans sa guerre contre le Hamas, avec un recours pionnier à cette technologie mortelle, que beaucoup présentent comme la prochaine génération de guerre, ce qui signifie que nous sommes désormais en territoire inconnu. Les conclusions et témoignages révélés dans un nouveau rapport soulèvent des questions juridiques et morales cruciales qui pourraient modifier à jamais la relation entre l’armée, la machine et l’État de droit. Il n’y a aujourd’hui aucune responsabilité ni transparence, malgré ce nouvel outil mortel qui présente de nombreuses limites susceptibles d’accroître les risques pour les civils innocents de tous bords. Le meurtre, la semaine dernière, de 7 travailleurs humanitaires du World Central Kitchen en est peut-être un bon exemple.

L’évolution vers un paysage sécuritaire et militaire plus autonome et davantage axé sur la technologie, afin d’exécuter les tâches à moindre coût et plus efficacement, s’est accentuée dans les pays avancés du monde entier. Cette situation a produit des solutions basées sur des machines avec une intervention et une surveillance humaines minimales et, par défaut, moins de transparence et de responsabilité. Les lacunes, les flux et les biais des algorithmes utilisés dans la surveillance et la collecte de renseignements se traduisent dans les cibles identifiées, tandis que la vérification humaine, jugée lente et dépassée, est limitée.

Selon un rapport publié la semaine dernière par le magazine israélien indépendant +972, Israël a utilisé l’IA pour identifier des cibles à Gaza, dans certains cas avec seulement vingt secondes de supervision humaine, donnant à de nombreuses personnes impliquées dans des opérations militaires l’impression que le résultat obtenu par la machine équivaut à une décision humaine. Le rapport de +972, qui comprend des entretiens avec 6 officiers des renseignements israéliens, affirme que «l’armée israélienne a désigné des dizaines de milliers de Gazaouis comme suspects d’assassinat, en utilisant un système de ciblage par IA avec peu de surveillance humaine et une politique permissive en matière de pertes humaines».

L’utilisation de la technologie de l’IA dans la guerre est devenue une réalité au cours des deux dernières décennies, ce qui a incité de nombreuses personnes à mettre en garde contre la militarisation de ces outils, qui aurait de graves conséquences sur la sécurité mondiale et sur l’avenir de la guerre. Antonio Guterres, le secrétaire général de l’ONU, a exprimé sa profonde préoccupation face aux conclusions du rapport. Il se dit «profondément troublé par les informations selon lesquelles la campagne de bombardement de l’armée israélienne utilise l’IA comme outil d’identification des cibles, en particulier dans les zones résidentielles densément peuplées, ce qui entraîne un nombre élevé de victimes civiles». M. Guterres a ajouté qu’«aucune partie des décisions de vie ou de mort qui affectent des familles entières ne devrait être déléguée au calcul froid des algorithmes».

Plus de six mois se sont désormais écoulés depuis le 7 octobre, date à laquelle le Hamas a mené son attaque sans précédent contre Israël, entraînant la mort de quelque 1 200 Israéliens et étrangers, pour la plupart des civils, selon un décompte de l’Agence France-Presse recensant des chiffres israéliens. Les militants ont également pris plus de 250 otages, dont 130 sont toujours à Gaza aujourd’hui. La campagne de représailles d’Israël qui a suivi le 7 octobre a tué plus de 34 000 personnes, pour la plupart des femmes et des enfants.

«Le besoin d’une gouvernance efficace pour gérer l’utilisation de l’IA dans la guerre et en atténuer les dangers se fait de plus en plus pressant.»

- Mohamed Chebaro

Le système baptisé «Lavender» a joué un rôle central dans les premiers stades de la guerre, identifiant plus de 37 000 individus potentiels liés au Hamas à ajouter à la base de données des renseignements israéliens. Les dirigeants israéliens ont autorisé les dommages collatéraux qui variaient entre 5 et 20 victimes civiles palestiniennes potentielles chaque fois que l’armée éliminait un membre du Hamas de rang inférieur ou intermédiaire. Pour un combattant de haut rang, le système a prévu un nombre de victimes civiles à 2, voire à 3 chiffres.

L’utilisation par Israël du ciblage basé sur l’IA a été révélée pour la première fois après le conflit qui a duré onze jours à Gaza en mai 2021, que les commandants ont qualifié de «première guerre de l’IA au monde». Il a été révélé que le système d’IA d’Israël identifiait «100 nouvelles cibles chaque jour», au lieu des 50 par an précédemment fournies par les actifs humains, en utilisant un système hybride de collecte de données technologiques et humaines. Quelques semaines après le début de la dernière guerre à Gaza, un article publié sur un site Internet militaire israélien indiquait que sa direction de ciblage renforcée par l’IA avait identifié plus de 12 000 cibles en seulement vingt-sept jours.

De même, un système d’IA du nom de «Gospel» avait produit des cibles «pour des attaques précises contre des infrastructures associées au Hamas». Un ancien officier des renseignements israéliens, préférant garder l’anonymat, a décrit Gospel comme un outil ayant généré une «usine d’assassinats de masse».

Dans une confession rarissime d’actes répréhensibles, Israël a admis, la semaine dernière, qu’une série d’erreurs et de violations de ses règles avaient entraîné la mort de 7 travailleurs humanitaires à Gaza, ce qui a conduit de nombreux experts à estimer que le système alimenté par l'IA avait dû croire, à tort, qu’il visait des membres armés du Hamas.

À mesure que l’IA continue d’évoluer et que la prolifération d'armes autonomes opérationnelles augmente, le besoin de mettre en place des mécanismes de gouvernance efficaces pour gérer son utilisation et en atténuer les dangers augmente. Mais dans un monde de plus en plus fragmenté et dans le contexte d’une nouvelle course à la suprématie entre des superpuissances qui manquent de plus en plus de principes moraux communs, l’avenir s’annonce sombre.

La technologie a révolutionné tous les aspects de la vie humaine et de la société moderne. Cependant, une approche laxiste de la responsabilité – déployer de nouveaux outils maintenant et réglementer plus tard – a par défaut placé l’humanité à la merci d’une machine mortelle dotée de faibles garde-fous moraux et éthiques. Cette transition sans précédent, telle que décrite par un officier des renseignements israéliens qui a utilisé Lavender, a poussé les soldats à faire davantage confiance à un «mécanisme statistique» qu’à un collègue en deuil. Il déclare: «Tout le monde là-bas – y compris moi – a perdu des gens le 7 octobre. La machine a tué froidement. Et cela a rendu les choses plus faciles.»

Mohamed Chebaro est un journaliste anglo-libanais, consultant en médias et formateur. Il a plus de vingt-cinq ans d’expérience dans la couverture de la guerre, du terrorisme, de la défense, de l’actualité et de la diplomatie.

NDLR: L’opinion exprimée dans cette page est propre à l’auteur et ne reflète pas nécessairement celle d’Arab News en français.

Ce texte est la traduction d’un article paru sur Arabnews.com