Accueil du site > Articles > Débat public > Encadrons l’usage des robots tueurs

Encadrons l’usage des robots tueurs

Le Monde, 18 août 2015, p. 12.


PDF

A défaut d’avoir fait des victimes, les « robots tueurs » ont au moins réussi à déclencher une panique médiatique. La lettre ouverte du 28 juillet appelant à leur interdiction préventive, signée notamment par Stephen Hawking et Noam Chomsky, a eu l’effet escompté. Cet appel n’est pas le premier : il s’inscrit dans une campagne commencée en 2009 puis popularisée à partir de 2012 par une coalition d’ONG. Une réunion annuelle a lieu à l’ONU depuis 2014.

La confusion

De quoi parle-t-on ? Des systèmes d’armes qui, une fois activés, peuvent sélectionner et traiter des cibles sans intervention humaine. « Robots tueurs » n’est pas une expression innocente. Comment ne pas être d’accord avec l’interdiction proposée lorsqu’elle est accompagnée d’images de Terminator ? Qui serait pour l’extermination des humains par les machines ? Parler de « robots tueurs » plutôt que de « systèmes d’armes létaux autonomes » (SALA), le terme utilisé dans les enceintes onusiennes, a deux avantages pour les opposants : c’est plus sensationnaliste, donc médiatique, mais aussi plus vague car « robot » n’implique pas nécessairement l’autonomie. Cela permet d’inclure les drones armés, et de faire des amalgames. Les drones sont victimes de la même campagne de désinformation lorsqu’on les appelle partout des « avions sans pilote » alors qu’ils sont pilotés à distance, souvent par des pilotes de chasse. Le fait que certaines phases de vol s’effectuent sans intervention humaine n’est pas très différent du pilotage automatique des avions de ligne. Il faut en outre distinguer la question de la navigation de celle du ciblage et du tir. C’est la seconde qui fait problème.

Lire aussi : Stephen Hawking et Elon Musk réclament l’interdiction des « robots tueurs »

Le débat

Les ONG et les rares Etats, essentiellement le Vatican et Cuba, qui demandent une interdiction préventive des SALA produisent deux types d’arguments. D’une part, une condamnation de principe : déléguer le choix du ciblage et de l’ouverture du feu à une machine « enfreindrait » la dignité humaine et les hommes auraient le « droit de ne pas être tués par une machine ». D’autre part, une inquiétude liée aux conséquences, notamment en termes de droit international humanitaire (DIH) : comment un robot pourrait-il respecter les principes de distinction (entre un civil et un combattant) et de proportionnalité (entre les dommages causés et l’avantage militaire attendu) ? Ce sont de réelles difficultés mais, puisque les humains eux-mêmes violent fréquemment le DIH, il n’est pas nécessaire que les robots le respectent parfaitement pour avoir une valeur ajoutée : il suffit que leur performance soit meilleure que celle des humains.

C’est ce qu’affirment leurs défenseurs : étant dénués d’instinct de conservation, ils ne seront pas incités à utiliser une force excessive pour se protéger et, dénués de stress et de sentiments comme la peur, la vengeance ou la haine, ils commettront moins de crimes. Ne craignant pas de poursuites judiciaires, ils n’auront pas non plus de raison de dissimuler des informations. Le SALA pourrait même, par sa présence dans une équipe humaine, pousser les soldats à mieux respecter le DIH : ses capteurs enregistrant leurs actions, il jouera un rôle de surveillance. Des « robots sauveurs », en somme, plutôt que tueurs.

Quoiqu’on pense de ces espoirs, ils ne sont pas moins légitimes que les craintes que ces machines suscitent. Au devoir de ne pas développer des technologies potentiellement dangereuses s’oppose en effet celui de le faire si celles-ci peuvent réduire l’impact des conflits armés sur ses propres forces et sur les civils. Le cas échéant, il ne serait pas seulement moral de les utiliser, mais immoral de ne pas le faire. C’est une raison de ne pas les interdire préventivement. Cette prudence impose aussi de réglementer leur usage.

Un code de conduite

On peut faire les recommandations suivantes.

- N’utiliser les SALA que contre certains objectifs militaires. La machine n’a pas besoin de savoir distinguer un civil d’un combattant si elle n’est programmée que pour identifier et détruire un tank ou une batterie antiaérienne.

- Ne l’utiliser que dans certains contextes. Particulièrement adaptés aux univers sous-marin, marin, aérien et spatial, où le risque de toucher accidentellement des civils est faible, ces systèmes ont très peu d’intérêt opérationnel en milieu urbain. Dire que les SALA devraient être interdits parce qu’ils seront incapables de distinguer un civil d’un combattant, s’ils ne sont pas déployés dans des contextes où ils auront à le faire, est sophistique. Comme ajouter qu’ils pourraient être utilisés par des personnes mal intentionnées : c’est le cas de n’importe quelle arme et même des avions de ligne, qu’on ne cesse pas de produire parce qu’ils risquent d’être détournés.

- Programmer le bénéfice du doute. Face à un imprévu, le SALA pourrait s’arrêter et consulter sa hiérarchie – application de la règle « en cas de doute, ne tire pas ».

- Conserver la possibilité de désactiver à distance la fonction tir, pour annuler ou suspendre une attaque.

- Poser un principe de subsidiarité : n’utiliser le SALA que dans les situations où l’humain ne peut pas prendre lui-même la décision, soit parce qu’il n’a pas le temps, soit parce que la communication est rompue, etc.

L’idée générale est de maintenir l’homme au cœur de la décision, ce sur quoi tout le monde s’entend puisqu’il n’est dans l’intérêt de personne de créer des machines incontrôlables.

Cet article est mis à la disposition du lecteur mais il ne correspond pas à la mise en page de la version définitive et publiée à laquelle il convient de se référer pour toute citation.