Quand l’intelligence artificielle redessine l’art de la guerre

La guerre n’est plus seulement un affrontement de corps d’armée, elle devient un champ d’expérimentation pour les systèmes pilotés par l’intelligence artificielle. La maîtrise du conflit se cristallise désormais dans l’analyse de données massives et la rapidité des actions, au détriment parfois d’une approche humaine et différenciée.

L’automatisation des frappes

Les chaînes de frappe sont désormais alimentées par des algorithmes capables de générer des cibles à un rythme et à une échelle inédite. En Ukraine, des essaims de drones pilotés par IA (« drone swarms ») sont utilisés quotidiennement. Le logiciel ukrainien Swarmer, développé localement, coordonne jusqu’à 100 drones, capables de se répartir les cibles en mission ; une avancée tactique majeure qui rend la guerre moins dépendante du facteur humain

Aux États-Unis, l’armée a accordé un contrat de 98,9 millions de dollars à la startup TurbineOne, dont l’IA embarquée aide les militaires à analyser instantanément des données, infra-rouge, radio, pour identifier menaces, drones ou positions ennemies, en zones sans cloud, en temps réel. Parallèlement, Auterion fournira à l’Ukraine 33 000 « drone strike kits » basés sur IA pour transformer des drones classiques en systèmes autonomes capables de suivre des cibles mouvantes jusqu’à 1 km.

Israël, laboratoire d’une guerre algorithmique à grande échelle

Dans la bande de Gaza, Israël a déployé plusieurs systèmes d’IA pour cibler en masse :

  • Lavender, conçu par l’unité 8200, génère une base de données de 37 000 personnes potentiellement liées à des groupes armés, avec un taux d’erreur estimé à environ 10 %. Des critères comme appartenir à un groupe WhatsApp ou changer fréquemment de numéro ou d’adresse peuvent suffire à être fiché en tant que militant supposé.
  • The Gospel (ou Habsora) suggère des objectifs à frapper : bâtiments, postes de commandement, voire domiciles de suspects. Il peut générer jusqu’à 100 cibles par jour, contre 50 par an par les analystes humains auparavant.

Des témoignages font état d’un rôle humain limité à un tampon de 20 secondes — un simple clic pour valider la recommandation de l’algorithme. Un officier raconte : « The machine did it coldly », marquant un désengagement émotionnel face à la mort de civils.

Conséquences humaines et éthique en crise

  • Marges d’erreur acceptées : pour un « militant » de bas rang identifié par Lavender, les autorités auraient toléré la mort de 15 à 20 civils, jusqu’à plusieurs centaines pour des cadres supérieurs du Hamas.
  • Surveillance intrusive : le système “Where’s Daddy?” traque les cibles jusque dans leurs foyers — au moment où les familles sont présentes. Des frappes frappent des maisons sans vérifier la présence de la cible, causant de lourdes pertes civiles.
  • Responsabilité diluée : l’analyse, la programmation et la décision sont éclatées entre l’opérateur, le développeur et le logiciel ; la responsabilité individuelle devient floue.
  • Violation possible du droit humanitaire : des ONG estiment que ces méthodes relèvent potentiellement des crimes de guerre ou de génocide, du fait des frappes massives et des effets disproportionnés

Vers une guerre automatisée : réalité ou dystopie ?

L’intégration de l’IA dans la guerre est déjà bien engagée — plus qu’un fantasme, elle devient un fait d’armes :

  • Conquête du temps : la vitesse et l’échelle de ciblage dépassent les capacités humaines, donnant un avantage tactique considérable à ceux qui les maîtrisent.
  • Course technologique mondiale : les États-Unis, la Chine, Israël — tous investissent massivement pour doter leurs forces de systèmes autonomes. Le système JADC2 américain, par exemple, vise à interconnecter tous les capteurs militaires via l’IA pour des décisions instantanées.
  • Éthique en retard : face à cette montée, le droit international peine à suivre. L’ONU débat depuis des années sur les armes létales autonomes, tandis que plusieurs pays — dont les États-Unis — ont signé des engagements pour garantir qu’un humain reste décisionnaire.

Un avenir imparfait, mais réel

Que l’on le veuille ou non, l’automatisation de la guerre est déjà là. Elle soulève des dilemmes cruciaux : efficacité stratégique contre coûts humains, rapidité contre discernement, innovation contre cadres moraux.

Le défi contemporain n’est plus de savoir si nous allons automatiser la guerre, mais comment nous encadrerons ce compromis entre efficacité et humanité.

BRES-OCTAGONE

Sources

The Wall Street Journal

Financial Times

Tech Policy.Press

Le Monde.fr

The Vergetrtworld.com.

Wikipédia

Access Now

opbTech Policy Press

The Conversation

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *