Faut-il interdire les robots militaires capables de tuer?

Publié le : 01 octobre 201821 mins de lecture

NEWS NEWS NEWS Depuis 2012, les Armes Létales Autonomes (SALA en français), capables de faire feu et tuer d’elles-mêmes, sans intervention d’un commandement humain, sont régulièrement dénoncées par une coalition de 51 organisations non gouvernementales (ONG) coordonnée par Human Rights Watch, dans le ­cadre de la campagne internationale «  Stop Killer Robots  » («  Arrêtez les robots tueurs  »). Le mouvement de protestation a été relancé à grand bruit cet été grâce à une lettre ouverte signée par près de 3  000 personnalités, dont des chercheurs en robotique et en intelligence artificielle, des scientifiques comme le physicien Stephen Hawking et des figures de l’industrie high-tech, tels Elon Musk, PDG de Tesla Motors, ou Steve Wozniak, cofondateur d’Apple. Si danger de voir des robots militarisés remplacer les hommes sur le champs de bataille inquiète les chercheurs et les roboticiens, les militaires y voient une opportunité pour éviter les pertes humaines. Enquête (publiée dans Le Monde Culture&Idées, sept 1015)

On l’appelle SGR-A1. De jour comme de nuit, sur un rayon de 4 kilomètres, ce robot militaire décèle, grâce à son logiciel de «  tracking  », les mouvements d’un intrus. Mis en marche à distance, cet automate pour poste-frontière tire de lui-même, de façon indépendante, sur toute personne ou véhicule qui s’approche. Conçu par Samsung, il est équipé d’une mitrailleuse, d’un lance-grenades, de capteurs de chaleur, de caméras de détection infrarouge et d’une intelligence électronique. En septembre 2014, la Corée du Sud a installé plusieurs de ces engins le long de la zone démilitarisée qui la sépare de la Corée du Nord, afin d’éviter d’envoyer des soldats dans des endroits isolés.

C’est peu dire qu’une telle arme, «  intelligente  » et autonome, inquiète. Depuis 2012, elle est ­régulièrement dénoncée par une coalition de 51 organisations non gouvernementales (ONG) coordonnée par Human Rights Watch, dans le ­cadre de la campagne internationale «  Stop Killer Robots  » («  Arrêtez les robots tueurs  »). Le mouvement de protestation a été relancé à grand bruit, le 28 juillet, grâce à une lettre ouverte signée par près de 3  000 personnalités, dont des chercheurs en robotique, des scientifiques comme le physicien Stephen Hawking et des figures de l’industrie high-tech, comme Elon Musk, PDG de Tesla Motors, ou Steve Wozniak, cofondateur d’Apple. Pour eux, un tel robot militaire, et tous ceux qui risquent de suivre du fait des avancées rapides de l’intelligence artificielle, soulève de graves questions éthiques et juridiques qui remettent en cause le droit de la guerre.

Droit moral

La nouveauté la plus radicale est de donner à une machine autonome la possibilité de tuer. C’est un droit moral qui a toujours été réservé aux humains sur le champ de bataille. Comme le rappelle un responsable d’Human Rights Watch, «  il faut un homme pour décider d’arrêter le tir et faire des prisonniers, pour reconnaître un soldat portant un drapeau blanc, pour évaluer si la riposte est équilibrée  ».Or, le robot sentinelle SGR-A1 est incapable de faire ces choix  : il tire automatiquement sur tout ce qui bouge. Ce faisant, il risque à tout ­moment de violer deux principes du droit international humanitaire (DIH) qui régit les conflits armés depuis les conventions de Genève de 1949 et leurs protocoles additionnels  : d’une part, la règle cardinale de la «  distinction  » entre les civils et les militaires ; ensuite, la nécessité d’éviter des violences «  disproportionnées  » par rapport aux menaces, et donc de procéder à une évaluation.

À parcourir aussi : FAUT-IL INTERDIRE LES ROBOTS TUEURS (OU ARMES LETALES AUTONOMES) ?

-Reportage sur le SGR-A1-

L’autre problème soulevé par l’usage des robots tueurs est celui de la responsabilité pénale. Si l’un d’entre eux commettait un dommage collatéral ou abattait des civils, contre qui les victimes et leurs familles pourraient-elles se retourner ? ­Human Rights Watch pointe le «  vide juridique  » qui entoure ces armes nouvelles. Rien n’est prévu dans le droit international humanitaire.

Pour discuter des dangers de ces systèmes d’armes létaux autonomes (SALA, la traduction française de lethal autonomous weapons systems), une réunion multilatérale mobilisant des représentants de 87 pays, ainsi que des délégués de la coalition d’ONG Stop Killer Robots, s’est tenue en mai 2014 aux Nations unies, à Genève, dans le cadre de la convention sur les armes classiques. Les ONG espèrent arriver à un accord pour l’interdiction de telles armes, comme cela fut le cas, en 2008, pour les armes à sous-munitions. Car, à écouter les spécialistes de la robotique qui les dénoncent, les SALA ont de quoi faire peur.

« Aussi létaux que les armes nucléaires»

Le 27 mai, dans la revue Nature, une tribune de l’Américain Stuart Russell, spécialiste de l’intelligence artificielle (IA), professeur d’informatique à l’université de Californie, prévenait que ces armes allaient être améliorées et développées «  dans les années à venir  » – c’est-à-dire très vite. Contacté par Le Monde, ce chercheur décrit l’extrême sophistication atteinte par «  la combinaison des composants robotiques et de l’IA  ». Equipé d’outils de navigation, de logiciels de «  prise de ­décision tactique  » et de «  planification à long terme  », mais également doté d’un programme d’apprentissage, un véhicule inhabité trouve aujourd’hui seul son chemin dans un ­environnement difficile. Une fois militarisé, il pourra mener «  des missions urbaines de recherche et d’élimination de cibles  ». Stuart Russell assure qu’aux Etats-Unis, deux programmes de la Defense Advanced Research Projects Agency (Darpa), qui dépend du ministère de la défense, portent sur des hélicoptères miniatures capables de s’orienter seuls dans des immeubles où toute information est brouillée. Selon lui, l’armement de ces robots, qui pourraient diminuer jusqu’à n’être pas plus gros que des insectes – ce qui rappelle les agents arachnoïdes du film ­Minority Report(2002), de Steven Spielberg –, est déjà expérimenté en secret.

Dans un rapport présenté à l’ONU en avril, M. Russell soutient qu’il faut s’attendre à voir apparaître d’ici vingt ans des essaims de giravions miniatures, équipés de cerveaux décisionnels et dotés de munitions capables de perforer les yeux ou de projeter des ondes ­hypersoniques mortelles. Ces armes pourraient posséder, dit-il, «  une létalité comparable à celle des armes nucléaires  » face à laquelle les humains «  seront sans défense  ». Dans leur lettre ouverte de juillet, les scientifiques avancent que le saut technologique, mais aussi éthique, franchi par l’usage présent et futur de SALA peut être comparé à l’invention de la « poudre à canon  » et à celle des «  armes nucléaires  », et parlent d’une grave «  perte d’humanité ». Ils soulignent que de telles armes, «  intelligentes  » mais sans aucune disposition morale, «  sont idéales pour des tâches telles qu’assassiner, déstabiliser les nations, soumettre les populations et tuer un groupe ethnique particulier  ». Ils ­redoutent que «  des dictateurs  » les utilisent comme forces de l’ordre, ou que des «  seigneurs de guerre  » s’en servent pour «  perpétrer un nettoyage ethnique  ».

Marché noir

Ils expliquent enfin que ces robots ne sont pas coûteux à fabriquer, ne nécessitent aucune matière première rare, et qu’ils risquent ­d’apparaître rapidement «  sur le marché noir  ». Passant «  aux mains de terroristes  », ils deviendraient les «  kalachnikovs de demain  ». Autant de fortes raisons pour demander un moratoire international sur leur construction, en vue d’établir, comme le dit l’Américain Peter Asaro, philosophe s’intéressant à l’éthique des machines, «  une norme interdisant toute délégation de tuer à une machine  » et conservant «  le choix de cibler et de tirer sous contrôle humain  ».

La campagne «  Stop Killer Robots  » est très critiquée, tant aux Etats-Unis qu’en Europe, par de nombreux spécialistes militaires, des ingénieurs de l’armement et des théoriciens de l’éthique des armes. En février 2013, le juriste américain Michael Schmitt, professeur de droit international à l’US Naval War College, a tenu à répondre sur le fond à Human Rights Watch dans le National Security Journal, de la faculté de droit de Harvard. Il estime que les opposants aux SALA jouent sur les mots en s’en prenant à l’«  autonomie  » des machines, alors que de nombreuses armes opération­nelles utilisent déjà des technologies intelli­gentes  : certains missiles sol-air, surnommés «  Fire-and-Forget  » («  tire et oublie  »), vont chercher seuls un objectif désigné, conduits par des outils de détection. Le canon antimissiles-antinavires Phalanx tire directement sur ses cibles grâce à un calculateur de position. Quant au système antiroquettes automatisé d’Israël, Iron Dome, utilisé en juillet 2014 durant l’opération Bordure protectrice, il est équipé d’un ordinateur de gestion de bataille.

Si ces armes, explique Michael Schmitt, peuvent tirer de façon «  automatique  » sur une ­cible, elles n’en sont pas pour autant «  auto­nomes  ». L’homme «  reste toujours dans la boucle de commandement  »,même s’il est très éloigné du terrain, et peut toujours décider d’arrêter à distance la mitrailleuse automatique, de reprogrammer le missile en vol ou le drone – autrement dit, il conserve l’acte moral de suspendre la décision de tuer. A ce jour, souligne Michael Schmitt, il n’existe pas encore de robots totalement indépendants. Il préfère s’en tenir à la définition avancée par le Defense Science Board américain (une instance de ­conseil du ministère de la défense), qui considère «  les armes autonomes comme faisant partie d’un système homme-machine  ».

Nécessité stratégique

En France, la spécialiste de l’éthique des machines Catherine Tessier, maître de conférences à l’Office national d’études et de recherches aérospatiales, avance dans l’ouvrage collectif Drones et «  killer robots  ». Faut-il les interdire  ? (Presses universitaires de Rennes, 268 pages, 18 euros) que les anti-SALAconfondent les «  automatismes embarqués  »,comme le pilotage et le guidage, avec l’autonomie. Pour elle, il ne faut pas oublier ce pour quoi a été « programmé  » le robot, comment l’homme «  partage les décisions  » de la machine, interprète les évaluations de ses logiciels et peut l’arrêter. De son côté, la capitaine Océane Zubeldia, de l’Institut de recherche stratégique de l’Ecole militaire, rappelle que la robotisation, qui s’est ­accélérée avec l’essor extraordinaire des technologies de l’information et de la communication et des réseaux satellitaires, répond à une nécessité stratégique pour les armées. Depuis la première guerre du Golfe, en 1991, la guerre moderne est devenue, nous dit-elle, une «  guerre cybernétique  », une «  guerre de l’information  » utilisant des «  systèmes d’armes intégrés  » et des «  véhicules inhabités  » comme les drones.

A cet aspect stratégique s’ajoute un ­objectif humanitaire et éthique  : il faut«  diminuer les risques de perdre les équipages  » et «  les éloigner de la zone des conflits  »«  Le prix de la vie humaine, souligne-t-elle, n’a cessé de prendre de l’importance, et si la prise de risques reste une valeur essentielle du militaire, le “gaspillage” des vies n’est plus toléré, ni par la société ni par les autorités.  »

Epargner les soldats

Une grande partie des arguments en faveur de la robotisation des armes découle de cet impératif humain  : elle permet d’épargner les soldats – enfin, les soldats amis. Il est vrai qu’un robot ne peut être tué, blessé ou pris en otage. Il ne souffre pas des intempéries, ignore la fatigue et la peur, effectue sans état d’âme des missions-suicides. Il peut être envoyé dans des zones contaminées, minées, ou dans des sanctuaires ennemis et terroristes. Ce robot-soldat n’est pas affecté par la ­colère, la vengeance. Il ne viole pas, ne torture pas. Souvent, son tir est plus précis que celui d’un soldat. Océane Zubeldia pense qu’il peut jouer un rôle dissuasif, à la manière d’un ­golem contemporain.

Lire aussi : Au cinéma, les robots ont déjà pris le contrôle

Sur la question de la responsabilité en cas de crime de guerre, Didier Danet, du Centre de recherche des écoles de Saint-Cyr Coëtquidan (ministère de la défense), observe qu’un robot ne saurait être considéré comme une «  personne morale  » au sens de l’article 1134 du code civil  : un sujet doué de volonté, se donnant à lui-même ses propres objectifs, compatibles avec le respect des lois existantes. Selon lui, aucun robot militaire ne répond à ces critères – et aucun sans doute n’y répondra jamais. La machine, nous dit-il, se contente d’une « autonomie fonctionnelle  » limitée  : son activité, l’«  autorisation  » de son action dépendent des opérateurs humains. Elle reste un objet de droit, non un sujet. D’ailleurs, écrit-il dans l’introduction deDrones et «  killer robots  », en termes juridiques le soldat reste responsable de l’usage qu’il fait de son arme. Si un robot commet un dommage collatéral, le commandement devra en répondre  : c’est sur lui que le droit international humanitaire continue de s’exercer.

Voilà pourquoi, analyse Didier Danet, il vaudrait mieux que l’ONU n’interdise pas les ­armes létales autonomes. Cela risquerait de compliquer encore le droit de la guerre, mais aussi de paralyser la recherche en robotique permettant d’éloigner les soldats des zones de conflit.

Luttes éthiques

De toute façon, l’histoire des armements et de leurs usages montre que les luttes éthiques pour interdire des armes jugées irrecevables aboutissent rarement, mais aussi que le jugement porté sur elles évolue. Alain Crémieux, ancien ingénieur général de l’armement, auteur de L’Ethique des armes (Aegeus, 2006), rappelle qu’en 1139 déjà, lors du IIe concile de Latran, l’usage de l’arbalète avait été interdit entre chrétiens. Il paraissait «  moralement inacceptable  » que les «  piétons  » des armées, des gens du peuple, puissent abattre des chevaliers à distance. Pourtant, l’arbalète a été conservée. Elle a été remplacée, au début du XVIe siècle, par l’arquebuse, elle aussi rejetée par les moralistes pour sa létalité, puis par le mousquet, l’ancêtre du fusil à silex, lui-même adopté en France sous le règne de Louis XIV. Or, fait remarquer Crémieux, depuis, rares sont ceux qui remettent en cause les armes à feu légères  : «  Elles ont même été tellement identifiées à la guerre nationale et à la guerre populaire qu’il paraît inutile de chercher à les décrier. Le pouvoir et la liberté elle-même ne peuvent-ils pas être “au bout du fusil” ?  »

L’historien François Cochet, spécialiste de la mémoire des guerres, met en lumière la contradiction permanente entre le «  sentiment d’horreur  » que soulèvent certaines armes et le «  cynisme  » politique et militaire qui l’accompagne. Il donne un exemple fameux  : en 1899, la conférence de la paix de La Haye, à laquelle participent 26 gouvernements, décide d’interdire «  de lancer des projectiles et des explosifs du haut des ballons ou par d’autres modes analogues  ». Une mort venue d’en haut, hors de portée, parfois hors de vue, semblait alors insupportable. «  Ces exigences,constate François ­Cochet, n’ont pas arrêté les bombardements ­aériens pour autant ! Les Etats ont signé les protocoles, sans toujours les ratifier, en se préparant cyniquement à l’étape suivante, l’aviation militaire, que les Européens ont testée dans leurs colonies.  » L’historien relève un autre exemple de cynisme  : «  Après 14-18, l’Allemagne a demandé l’interdiction des gaz asphyxiants, qu’elle avait beaucoup utilisés dans les tranchées, parce qu’elle savait que les autres pays en disposaient.  »

L’interdiction des armes effroyables, un combat perdu  ?

Alors, interdire une arme effroyable, un combat perdu d’avance  ? Les ONG et les scientifiques qui s’opposent aux robots tueurs refusent de céder au cynisme du laisser-faire. Ils rappellent que plusieurs batailles éthiques récentes ont mené à l’interdiction par l’ONU et par le droit international humanitaire des ­armes chimiques (1993), des armes à laser aveuglantes (1995) et des mines antipersonnel (1997). Bonnie Docherty, membre d’Human ­Rights Watch et enseignante à la Harvard Law School, a publié le 4 septembre un mémoire où elle répond aux arguments de ceux qui justifient les SALA en affirmant que les militaires resteront responsables – et devront rendre des comptes en cas de crime de guerre. Elle montre que, au contraire, ils pourront toujours se retrancher derrière une faute du robot, arguant que les communications avec lui ont été rompues, qu’il a agi trop vite, que les spécialistes étaient absents ou qu’un logiciel a dysfonctionné. Les victimes, elles, auront le plus grand mal à ­demander réparation, car la responsabilité personnelle, base du droit, se trouvera diluée dans des dispositifs techniques.

Faudra-t-il alors, demande la juriste, se ­retourner contre les fabricants des armes  ? La Direction générale de l’armement ? Ou contre les politiques qui ont validé l’usage des SALA  ? Pour Human Rights Watch, de telles démarches juridiques rencontreront des obstacles ­insurmontables  : elles n’aboutiront pas. Cette impunité leur semble très grave. Elle rendra très difficile de «  dissuader  » les militaires et les forces de l’ordre d’utiliser des robots létaux. Nous entrerions alors dans une époque plus inhumaine.

Pourquoi acheter en ligne ?
Pourquoi choisir une assurance de voiture en ligne et immédiate ?

Plan du site