top of page

LES ENJEUX DE L’AUTONOMIE DES SYSTÈMES D'ARMES LÉTAUX

Marianne Perez

Au cours des six semaines qui ont suivi le 7 octobre 2023, plus de 15 000 morts ont été recensés dans la bande de Gaza occupée, soit environ un tiers des civils tués depuis le début du conflit. Ce bilan élevé serait attribuable à l’utilisation par l’armée israélienne de systèmes de ciblage assistés par l’intelligence artificielle (IA), tels que le programme « Lavender », conçu pour marquer tous les membres présumés des branches militaires du Hamas et du Jihad islamique palestinien (JIP) comme cibles potentielles de bombardement. 


Avec l’accélération exceptionnelle du développement technologique au XXIe siècle, on observe dans les conflits armés un recours croissant à des systèmes de soutien à la décision et de recommandation de cibles basés sur l'IA, ainsi qu’à des systèmes d'armement à fonctions autonomes – une tendance particulièrement notable à Gaza et en Ukraine. Ces conflits servent de banc d'essai pour des technologies aux niveaux d'autonomie grandissants. Parmi elles, les systèmes d’armes létaux autonomes (SALA), aussi appelés « robots tueurs », dont le développement suscite de vives inquiétudes d’ordre juridique et éthique. 


Image générée par l'IA représentant une machine autonome.

Il n’existe pas actuellement de définition commune des SALA. Selon le Comité international de la Croix-Rouge (CICR), il s’agirait d’« armes qui sélectionnent des cibles et exercent la force contre elles sans intervention humaine. Une personne active l'arme, mais sans connaître ses cibles spécifiques – personnes ou biens –, ni le moment et/ou le lieu précis où elle frappera. En effet, une arme autonome est déclenchée par un logiciel, lorsque celui-ci établit une correspondance entre des informations collectées dans l'environnement par des capteurs et un « profil de cible » ». La distinction entre les SALA et les armes automatisées, ou télécommandées – telles que les drones armés qui sont pilotés à distance ou peuvent suivre indépendamment des itinéraires de vol préprogrammés ou encore suivre automatiquement une cible – réside dans l'absence d'intervention humaine dans la sélection des cibles et l'exercice de la force, rendant leurs effets difficiles à contrôler.


Une révolution technologique

Bien que les SALA à proprement parler n’existent pas encore, certains systèmes d’armes s’approchent déjà du seuil d’autonomie totale, comme les drones kamikazes capables de détruire des véhicules blindés utilisés dans le conflit ukrainien ou les SARMO (« Sense and react to military objects »), armes à déclenchement automatique que l’on trouve notamment à la frontière entre les deux Corées. Cependant, la durée de l’opération, la portée géographique et l’environnement dans lequel ces systèmes sont utilisés restent pour l’instant limités, et ils sont généralement employés sous l’étroite supervision d’un individu capable de les désactiver. Certains experts considèrent que les SALA représentent la troisième révolution de la guerre, après l’invention de la poudre à canon et celle de l’arme atomique. Ils promettent en effet une rapidité de décision, une réduction des pertes humaines parmi les combattants, et une précision accrue. Cependant, ces avantages sont contrebalancés par des risques juridiques et éthiques majeurs.


« Le choix de recourir à la force et à la violence ne peut être délégué à des machines » Kathleen Lawand, ancienne cheffe de l'Unité armes du CICR


Des préoccupations juridiques et éthiques

La compatibilité des SALA avec le droit international humanitaire (DIH) soulève des interrogations, en particulier concernant l’obligation pour les combattants de juger de la nécessité et de la proportionnalité d’une attaque, et de faire la distinction entre civils et cibles militaires légitimes. Ces évaluations impliquent une appréciation du contexte de chaque attaque, à la charge de celui qui agit. Or, le fonctionnement même des armes autonomes implique que leur utilisateur ne choisit ni la cible ni le moment de l’attaque. Il peut donc difficilement être raisonnablement certain que, à l’instant précis de l’attaque, les dégâts engendrés ne sont pas excessifs par rapport à l’avantage militaire attendu ou que les cibles sont bien licites.


L’attribution de la responsabilité juridique en cas de défaillance d’un système autonome pose également question. Qui peut être tenu responsable lorsqu’une arme bombarde de façon autonome un bâtiment civil ?  Est-ce le concepteur du système ? Le commandant militaire qui l’a déployé ? L’État utilisateur ? Il n’est pas certain que dans de telles situations, le régime juridique actuel soit à même de retenir la responsabilité d’un auteur présumé de crime de guerre, ce qui engendre un risque d’impunité. 


Sur le plan éthique, le contrôle des armes automatiques par l’IA, et surtout l’apprentissage automatique, comporte des risques de discrimination fondée sur le sexe et la race, en raison de biais algorithmiques. De plus, certains observateurs craignent qu’en confiant les décisions de vie ou de mort à des programmes incapables de comprendre la valeur de la vie humaine, nous nous dirigions vers une déshumanisation des conflits. Le secrétaire général des Nations unies, António Guterres, a ainsi déclaré que « les machines ayant le pouvoir et la discrétion de prendre des vies sans intervention humaine sont politiquement inacceptables, moralement répugnantes et devraient être interdites par le droit international ».


La nécessité d'un cadre juridique international adapté

Depuis 2013, une coalition d’ONG réunies au sein de la Campagne pour arrêter les robots tueurs cherche à faire interdire le développement des SALA. Toutefois, certains Etats s’opposent à une interdiction préventive et estiment que le DIH actuel est suffisant pour réglementer ce domaine. Ainsi, les Etats-Unis, la Chine, la Russie, Israël, la Turquie, ou encore le Royaume-Uni et l’Australie investissent aujourd'hui dans le développement de systèmes d’armes autonomes. L'absence d'un cadre juridique international spécifique persiste, en dépit des discussions engagées depuis 2014 dans le cadre de la Convention sur certaines armes classiques (CCAC). Ce blocage est notamment dû aux désaccords quant au niveau de contrôle humain devant être exercé sur la force. Selon le CICR, la majorité des Etats « reconnaissent la nécessité de maintenir un niveau suffisant de contrôle et de jugement humains sur l'usage de la force », mais ils se heurtent à l’opposition des États-Unis, de la Russie et d’Israël qui favorisent le concept plus vague de « niveaux appropriés de jugement humain ».


Pour l’instant, le Groupe d’experts gouvernementaux (GEG) de la CCAC, mandaté notamment pour examiner et développer les éléments du cadre normatif concernant les SALA, a adopté en 2019 « 11 principes directeurs sur les SALA » pour encadrer leur développement et leur usage ; ces principes ne sont toutefois pas contraignants.


Dernières initiatives internationales concernant les SALA

Dans un rapport publié en août 2024, le secrétaire général des Nations unies a de nouveau appelé les Etats à conclure d’ici 2026 un nouveau traité international « interdisant des systèmes d’armes qui fonctionnent sans contrôle ou supervision humaine et dont l’utilisation est incompatible avec le droit international humanitaire ». En novembre 2024, la première commission de l’Assemblée générale des Nations unies a adopté une résolution sur les systèmes d’armes autonomes pour la deuxième année consécutive, dans laquelle elle décide d’organiser en 2025 des consultations informelles ouvertes, pour favoriser le mandat du GEG. Selon l’Autriche, qui présentait le projet, son adoption à une majorité écrasante montre qu’il existe déjà un large consensus sur la nécessité de se prononcer d’urgence au sujet des systèmes d’armes létaux automatiques. 


Marianne Perez


Image © - Adobe Stock

 
 
 

1 Comment


isa mp
isa mp
Feb 19

Bjr, article très intéressant, qui permet de comprendre rapidement et clairement les enjeux de ces nouvelles armes.

Like
532-5321918_scratch-texture-png-monochrome-transparent-png.png
532-5321918_scratch-texture-png-monochrome-transparent-png.png
532-5321918_scratch-texture-png-monochrome-transparent-png.png
Abonnez-vous à notre newsletter !

Merci de vous être abonné !

bottom of page