Points de vue alternatifs

Analyse et veille des médias internationaux : géopolitique, économie, numérique...


Éléments sur les robots létaux autonomes et la tendance à l'automatisation des drones

Publié par Kiergaard sur 9 Octobre 2013, 12:20pm

Catégories : #Géopolitique-International, #Droit-Justice

"Le terme RLA (robots létaux autonomes) désigne des systèmes d’armes robotiques qui, une fois activés, peuvent sélectionner et attaquer des cibles sans intervention complémentaire d’un opérateur humain." Rapport de l'ONU susvisé.

Deux "évènements" récents permettent de faire le point sur certaines tendances et de remettre au goût du jour un rapport de l'ONU datant du printemps.
 

  1. La tenue d'un "Séminaire sur les systèmes d’armes entièrement autonomes" le 3 septembre 2013 à Genève dont certains papiers ont été publiés hier (cf lien ci dessus) et dont voici la présentation :
    "Les développements technologiques rapides dans le domaine de la robotique et leurs conséquences éventuelles sur les systèmes d’armes ont donné lieu à des débats récents, qui se penchent sur les questions que pourraient soulever de telles armes au regard du droit international humanitaire et des conflits armés à l’avenir. En novembre 2012 Human Rights Watch et the International Human Rights Clinic de l’Ecole de Droit d’Harvard ont publié un rapport intitulé «Perdre l’Homme : le dossier contre les robots tueurs ». En mai, cette année, le Rapporteur Spécial du Conseil des Droits de l’Homme sur les exécutions extrajudiciaires, sommaires et arbitraires, M. Christof Heynes, a présenté un rapport sur « les robots létaux autonomes ».

    Le but du séminaire est d’examiner de manière plus approfondie les problèmes soulevés par ces questions et en particulier : Que sont les systèmes d’armes entièrement autonomes ? Que signifie exactement le terme « autonome » ? Quels sont les enjeux posés par de telles armes vis-à-vis du droit international humanitaire ? Quelles actions les Etats peuvent-ils prendre en réponse aux développements dans ce domaine ?"

    - Présentation de l'intervention de Mme Kathleen LAWAND, Chef de l’unité « Armes » du Comité International de la Croix Rouge.
    - Présentation de l'intervention du Dr Nils MELZER, Senior Programme Advisor et Senior Fellow, programme « Enjeux émergents et de sécurité », Centre de Politique de Sécurité, Genève. (cf notamment la terminologie).

  2. La publication dans la revue Politique Étrangère d'un article de Jean-Baptiste Jeangène Vilmer intitulé : "Légalité et Légitimité des drones armés" dont voici le résumé :
    "Les drones armés passent pour illégaux au regard du droit international
    humanitaire. Ils ne sont, en réalité, que les instruments nouveaux de
    guerres qui s’opèrent de plus en plus à distance de l’adversaire ; et ils
    permettent même sans doute des frappes plus discriminées que des
    armes plus classiques. Leur automatisation croissante pose, par contre,
    nombre de questions que de nouvelles réglementations internationales
    se doivent de prendre en compte.
    "

  3. Ce document permet au rapport de l'ONU précité (intitulé plus précisément : "Rapport du Rapporteur spécial sur les exécutions extrajudiciaires, sommaires ou arbitraires, Christof Heyns" (effectivement consacré aux robots létaux autonomes (en français)) de prendre son sens en voici l'abstract :
    "Les robots létaux autonomes (RLA) sont des systèmes d’armes qui, une fois activés,
    peuvent sélectionner et attaquer des cibles sans intervention humaine. Ils suscitent de vives inquiétudes quant à la protection de la vie en temps de guerre comme en temps de paix. Ils amènent notamment à s’interroger sur la mesure dans laquelle ils peuvent être programmés pour que leur utilisation soit conforme aux dispositions du droit international humanitaire et aux normes du droit international des droits de l’homme relatives à la protection de la vie. Au-delà de cette question, on peut estimer que leur emploi est inacceptable parce qu’aucun système de responsabilité juridique adapté ne peut être conçu et que des robots ne doivent pas avoir un pouvoir de vie et de mort sur des êtres humains. Le Rapporteur spécial recommande aux États d’établir un moratoire national sur certaines activités liées aux RLA, et appelle à la mise en place d’un groupe d’étude de haut niveau sur ces armes, qui serait chargé d’élaborer une politique sur la question à l’intention de la communauté internationale.
    "
    Ce rapport permet réellement d'avoir une vision d'ensemble de la question.

 

Discussion :

- Il est indéniable que les utilisations récentes de drones (notamment) dans certains pays contribuent à crisper le débat sur la légitimité de l'utilisation de telles armes, néanmoins il est également important de signaler que la nature et les caractéristiques actuelle des drones (en tant que telle) ne contrevient actuellement pas au droit de la guerre et aux "lois" internationales : "Le droit international humanitaire (DIH) interdit les armes qui ne permettent pas de respecter ses principes généraux : nécessité, distinction, proportionnalité, précaution et interdiction de causer des maux superflus. C’est du fait de leur nature, c’est-à-dire de leurs caractéristiques, et non de leur utilisation, qu’elles sont illégales.[...] Qu’en est-il des drones armés ? Comme tels, ils ne violent aucun des principes du DIH. Les armes qu’ils emportent ne sont pas spécifiques, leurs missiles sont identiques ou similaires à ceux que tirent les avions habités. Leur persistance, la précision de leurs capteurs, la connaissance étendue qu’ils permettent, et la possibilité de prendre la décision du tir à froid, dans un environnement calme et en consultation avec des juristes, en font même des appareils potentiellement plus discriminants, plus susceptibles de respecter les principes de proportionnalité, de précaution et l’interdiction de causer des maux superflus." (Jean-Baptiste Jeangène Vilmer). Derrière cela, et indépendamment des positions de chacun et du caractère discutable ou non, ce qui est discuté par cet auteur c'est le syndrome Terminator fondé sur l'amalgame entre la fin et les moyens qui brouille quelque peu la réalité de la nature actuelle des programmes de drones (indépendamment des soucis de transparence etc... qui relève d'autres champs). Un autre amalgame est celui de la confusion dans le débat (nécessaire) entre les drones (actuels) et les robots létaux autonomes.

- Cet amalgame risque néanmoins de ne plus en être totalement un si le perfectionnement recherché par les ingénieurs et souhaités par certains membres des états-majors (pour pallier aux vulnérabilités des drones actuels ("hackables" assez aisément) abouti à une autonomisation très poussées des "robots". Celle ci est mesurée selon la gradation suivante : "Humans-in-the-Loop weapons" - "Humans-on-the-Loop weapons" et "Humans-out-of the-Loop weapons" selon la présence directe, de supervision ou l'absence de présence de l'humain dans le processus de déclenchement des tirs (offensifs). En effet comme le souligne l'article de Defense One : "The basic conceit behind a LAR is that it can outperform and outthink a human operator. "If a drone’s system is sophisticated enough, it could be less emotional, more selective and able to provide force in a way that achieves a tactical objective with the least harm," said Purdue University Professor Samuel Liles. "A lethal autonomous robot can aim better, target better, select better, and in general be a better asset with the linked ISR [intelligence, surveillance, and reconnaissance] packages it can run." (Defense One)

- C'est pourquoi les robots létaux autonomes posent de sérieux problèmes éthiques mais également juridiques. Ces problèmes se poseront également si les drones (notamment) accèdent à un certain niveau d'autonomie. (On peut également citer les problèmes purement opérationnels de programmation de ces robots pour agir de manière efficace dans des conflits qui sont de plus en plus asymétriques, et qui se déroulent dans des environnements instables). Ces seuls problèmes opérationnels (qui sont également évoqués dans la partie sur "Jusqu'où automatiser les drones" de l'article de Jeangène Vilmer) font douter certains et tendent également à remettre en cause l'idée d'une résolution de certaines crises par des robots : "Heather Roff says that because LARs are not sophisticated enough to meaningfully distinguish between civilians and militants in a complex, urban environment, they probably would not be effective at achieving a constructive military end-- if only because of how a civilian population would likely react to self-governing machines firing weapons at their city. “The idea that you could solve that crisis with a robotic weapon is naïve and dangerous,”" (Defense One)

- Au titre des problèmes éthiques et juridiques on peut citer : [""Les RLA semblent exacerber les composantes factuelles et juridiques des problèmes que posent déjà les drones et les attaques aériennes menées à haute altitude"]
1° La volonté de ne pas abandonner le contrôle du conflit pour les états-majors face aux répercussions sur l'opinion que des erreurs algorithmiques pourraient engendrer : "There’s something about human error that makes people more comfortable with collateral damage if a person does it" (La tolérance à l'erreur humaine est plus élevée que celle relative à l'erreur de la machine) (Defense One)
2° La crainte d'une utilisation débridées en raison d'un avantage net pris sur l'adversaire dans certaines situations : "L’expérience a montré par la suite que lorsqu’on dispose
d’une technologie qui offre un net avantage sur l’adversaire, les premières intentions sont

vite oubliées." (Rapport ONU)
3° "Le cas dans lequel un être humain en tue un autre est l’un des plus difficiles que les
codes juridiques, moraux et religieux de l’humanité aient eu à encadrer. La perspective d’un avenir où des robots totalement autonomes pourraient avoir un pouvoir de vie et de mort sur des êtres humains soulève de nombreuses inquiétudes nouv
elles" (rapport de l'ONU) // "Pour certains, les robots ne pourront jamais satisfaire aux exigences du droit
international humanitaire ou du droit international des droits de l’homme, et même s’ils le
pouvaient, il ne faut pas, pour des raisons de principe, accorder à des robots le pouvoir de décider de la vie ou de la mort d’un êtr
e humain" (rapport de l'ONU) - "Pour d’autres, une
telle avancée technologique, pour autant qu’elle soit correctement encadrée, constitue un
progrès militaire légitime, qui pourrait même, dans une certaine mesure, contribuer à rendre les conflits armés plus humains et permettre de sauver des vies dans les deux c
amps"
4° "Si les robots sont particulièrement aptes à traiter des questions d’ordre
quantitatif, ils n’ont guère les moyens de porter les appréciations qualitatives qui sont
souvent nécessaires lorsque des vies humaines sont en jeu.
" (rapport de l'ONU)
5° "L’éloignement physique et psychologique de l’usage effectif de la force que permettent les RLA est susceptible d’atténuer ces préventions, voire de les rendre imperceptibles par les agents de l’État qui déploie des RLA30. Aussi, les chefs militaires, par exemple,
hésiteraient-ils peut-être moins à avoir recours à des RLA qu’à déployer des soldats
en chair et en os
." (entrainant la volonté politique dans leurs choix en raison de la faible exposition des troupes). (Rapport de l'ONU)
6° Bien qu'on puisse soutenir que perfectionner les robots leur permette de se conformer plus efficacement aux règles du droit international humanitaire notamment : "Il est largement admis que le principe de proportionnalité fait éminemment appel au jugement humain. Les interprétations juridiques qui sont faites de ce principe se fondent explicitement sur les notions de «bon sens», de «bonne foi» et de «chef militaire raisonnable». Il reste à savoir dans quelle mesure ces notions peuvent ou pourront être
transcrites dans des programmes informatiques. En outre, l’évaluation de la proportionnalité fait intervenir des appréciations qualitatives plutôt que quantitatives
".
7° Les questions de responsabilité juridique sont aigües dans la mesure où elles reposent encore sur des appréciations qualitatives, tout un régime serait à (re)construire (responsabilité pénale des généraux ? responsabilité civile des ingénieurs ? établissement préalable de la responsabilité ? Construire des conditions d'engagement de la responsabilité pour les 2 premiers types de responsabilité...)
8° "Au niveau national, les États pourraient utiliser des RLA pour supprimer tout
ennemi national et terroriser l’ensemble de la population
, réprimer des manifestations et mener «combat» contre la drogue. D’aucuns ont fait observer que les robots ne remettaient pas en question ceux qui les commandent ni ne fomentaient de coups d’État
" - "L’utilisation d’une force excessive peut avoir des résultats contre-productifs, par
exemple dans le cadre de manifestations où, selon des psychologues, elle peut même
entraîner une escalade de la violence
" - "L’avantage que pourraient avoir les États dotés de RLA par rapport à d’autres n’est pas forcément durable. Il existe un vrai risque de prolifération de ces systèmes, et pas seulement dans les pays vers lesquels les premiers États utilisateurs transféreront et vendront probablement des robots."
9° "La plupart des codes juridiques, moraux et autres reposent sur le postulat que,
lorsqu’il s’agit d’ôter la vie de personnes ou de les soumettre à d’autres conséquences
graves, le pouvoir de décision doit être exercé par l’être humain
"
10° "Même en partant du postulat que les RLA, en particulier lorsqu’ils sont opérés par
des êtres humains, pourront satisfaire aux exigences du droit international humanitaire, et
qu’il peut être prouvé que dans l’ensemble, ces robots pourront sauver des vies, la question est de savoir s’il n’est pas intrinsèquement mauvais de laisser des machines décider elles-mêmes qui et quand tuer
"

11° Cf la partie "Autres sujets de préoccupation"

- Au titre des recommandations on lira avec attention la partie "Recommandations"  du rapport de l'ONU.

- Il ne faut pas oublier que pour l'instant de tels systèmes s'ils sont sans doute possible technologiquement, n'existent pas tout sur le champ de bataille. La dernière "doctrine du Pentagone" incite à s'en tenir au maximum à une supervision humaine à distance.

Archives

Nous sommes sociaux !

Articles récents