Accueil du site > Articles > Relations internationales / droit international > Les risques de la robotisation militaire

Les risques de la robotisation militaire

Le Devoir, 27 décembre 2012, p. A7.


PDF

Ceux qui pensent pouvoir rendre les robots « éthiques » en comptant précisément sur leur absence d’émotions confondent la moralité et l’application de règles. Or, le DIH n’étant pas un ensemble de règles univoques, il n’a de sens que dans le cadre du « particularisme moral » selon lequel nos jugements s’effectuent au cas par cas - ce que les robots ne peuvent pas faire.

Le 19 novembre, l’ONG Human Rights Watch et le programme des droits de la personne de Harvard Law School publiaient un rapport alarmiste intitulé Losing Humanity : The Case Against Killer Robots. Les robots en question ne sont pas les drones existants - lesquels suscitent déjà beaucoup d’interrogations éthiques et juridiques en particulier parce qu’ils sont l’instrument d’une politique d’assassinats ciblés -, mais ceux de la génération suivante, qui font davantage preuve d’autonomie et qu’on appelle donc des robots létaux autonomes (RLA).

Les drones actuels ont une certaine dose d’autonomie - pour leur navigation -, mais ils restent pilotés à distance. Ils ne choisissent pas leur cible et ne tirent que sous commandement humain (human-in-the-loop weapons). Les machines actuellement en développement choisissent leur cible et tirent automatiquement, mais sous la supervision d’un humain (on the loop) ou n’impliquent même aucune intervention humaine (out of the loop).

Plusieurs États sont engagés dans cette course à la robotisation militaire, à travers la compétition que se livrent leurs industries de défense. Ce développement est inéluctable, car les robots présentent un certain nombre d’avantages par rapport aux soldats humains.

Les avantages

D’abord, ils les remplacent pour accomplir des tâches risquées et permettent alors de sauver des vies dans les rangs de la puissance utilisatrice. Par rapport à l’époque où les soldats n’étaient considérés que comme de la chair à canon, c’est un progrès important. C’est une autre manifestation de l’intolérance dont fait preuve l’opinion occidentale à l’égard des pertes humaines depuis le Vietnam ; intolérance caricaturée par l’expression « guerre zéro mort ». Cet état d’esprit traduit un véritable bouleversement puisque l’acceptation de la mort était pendant des siècles au fondement de la guerre et des vertus de l’ethos militaire, comme le courage et l’esprit de sacrifice.

Ensuite, les robots présentent aussi un avantage économique : le Department of Defense américain ne cache pas que ce qui l’incite à défendre l’autonomisation croissante des armements sont surtout les économies de personnel et les réductions de coût qu’elles entraînent - et qui sont d’ailleurs plus minces qu’il n’y paraît lorsque l’on prend en compte, dans le cas des drones, par exemple, le nombre d’heures de vol, l’infrastructure, l’équipe au sol, la maintenance et le taux d’écrasement.

Les robots ont aussi des sens plus développés que les hommes : leurs différents capteurs leur permettent de voir plus loin, à travers les murs, la nuit, etc., et ils ont une capacité de calcul plus élevée. Contrairement aux humains, ils ne sont soumis ni aux émotions qui peuvent altérer leur jugement comme la peur, la frustration ou la vengeance, ni au stress causant des réactions psychologiques problématiques, comme la dissonance cognitive - ces deux faiblesses étant responsables d’un grand nombre de crimes de guerre.

D’où le pari de certains roboticiens selon lesquels les RLA seraient de parfaits soldats ; même « plus éthiques » que les hommes dans le sens où, bien programmés, ils respecteraient à la lettre le droit international humanitaire (DIH). Un certain nombre de recherches - dont celles financées par l’Army Research Office américain - sont donc actuellement menées pour développer des algorithmes capables d’« apprendre » le DIH aux robots.

L’illusion du robot « éthique »

Il s’agit à mon avis d’un positivisme naïf. On ne peut pas convertir le jugement moral ou le « bon sens » en algorithmes. Ces roboticiens présument que le DIH est un ensemble de règles univoques, ce qui n’est évidemment pas le cas. Ses principes généraux qu’il faudrait programmer, tels que la distinction, la proportionnalité, la nécessité militaire ou l’interdiction de causer des maux superflus, font l’objet d’interprétations divergentes et d’abondantes controverses doctrinales.

Le principe de distinction entre civils et combattants, par exemple, ne peut se traduire par un code commandant à la machine de tirer sur le combattant et pas sur le civil. D’une part parce que les civils deviennent des combattants (illégaux) aussitôt qu’ils « participent directement aux hostilités » - une notion tellement complexe que le CICR a dû rédiger un Guide interprétatif d’une centaine de pages pour tenter de la clarifier - et, d’autre part, parce qu’il n’est pas toujours pertinent de tirer sur un combattant : on peut avoir des raisons stratégiques ou tactiques de ne pas le faire.

Quant à l’absence d’émotions, elle est au moins autant un inconvénient qu’un avantage, puisque si les émotions jouent effectivement un rôle dans le fait de commettre certains crimes de guerre, elles sous-tendent aussi des actes moraux. Des études montrent que des humains incapables de ressentir des émotions - un peu comme les robots - à cause d’un dommage cérébral sont « excessivement utilitaristes » et incapables de produire de bons jugements éthiques.

Ceux qui pensent pouvoir rendre les robots « éthiques » en comptant précisément sur leur absence d’émotions confondent la moralité et l’application de règles. Or, le DIH n’étant pas un ensemble de règles univoques, il n’a de sens que dans le cadre du « particularisme moral » selon lequel nos jugements s’effectuent au cas par cas - ce que les robots ne peuvent pas faire.

Autrement dit, les RLA sont incapables de respecter le DIH, qui nécessite des qualités interprétatives proprement humaines. Ayant par ailleurs d’autres faiblesses, dont une vulnérabilité au piratage, on peut conclure qu’une machine pleinement autonome poserait un risque considérable non seulement aux civils, mais aussi aux combattants de l’État utilisateur. Sans compter la question cruciale de la responsabilité - à qui incombe celle du tir d’un robot autonome ? - à laquelle il n’y a pas pour l’instant de réponse satisfaisante.

On peut donc vouloir en interdire le développement, la production et l’usage. Reste à savoir comment et ce n’est pas le moindre des défis des prochaines années.

Cet article est mis à la disposition du lecteur mais il ne correspond pas à la mise en page de la version définitive et publiée à laquelle il convient de se référer pour toute citation.