Quantcast
Channel: Lexing Avocats
Viewing all articles
Browse latest Browse all 3740

SALA : faut-il interdire les systèmes d’armes létaux autonomes ?

$
0
0

Systèmes d’armes létaux autonomes

Une proposition de résolution prône l’interdiction, à l’échelle internationale, des systèmes d’armes létales autonomes.

Cette proposition de résolution du Parlement européen du 5 septembre 2018 (1) exhorte les États membres et le Conseil à interdire, à l’échelle internationale, les systèmes d’armes autonomes dont les fonctions critiques du choix et de l’attaque des cibles échappent à un contrôle humain significatif. Pour pouvoir prendre une position sérieuse dans le débat, il faut en comprendre les enjeux. Avant la présentation de ces enjeux, examinons les arguments avancés par les auteurs de cette déclaration d’interdiction.

Les fondements de l’interdiction des systèmes d’armes autonomes

Les auteurs de la déclaration soulèvent trois arguments :

  • Les systèmes d’armes létales autonomes pourraient « modifier radicalement la façon de faire la guerre, accélérer la vitesse et fréquence des interactions militaires hostiles et déclencher une course aux armements » (i).
  • L’utilisation de systèmes d’armes létales autonomes poserait des « questions éthique et juridique quant au contrôle exercé par l’homme, en particulier au regard de fonctions critiques, telles que le choix et l’attaque de cibles » (ii).
  • Enfin, l’utilisation de systèmes d’armes létales autonomes poseraient des questions quant à « l’applicabilité du droit international en matière de droits de l’homme et de droit international humanitaire ainsi que des normes et valeurs européennes concernant les actions militaires futures » (iii).

La proposition de résolution du Parlement européen (PE) prend appui sur une première étude intitulée « Human rights implication of the usage of drones and unmanned robots in warfare » du 3 mai 2013. Cette étude donnait dès 2013 un aperçu de l’utilisation actuelle et probable de drones et de robots autonomes et examinait les implications juridiques pertinentes en vertu des droits de l’homme, du droit international humanitaire et de la Charte des Nations Unies.

L’étude concluait que l’incertitude – quant aux normes juridiques applicables, au développement et à la prolifération rapides des drones et de la technologie robotique, et au manque de transparence et de responsabilité des politiques actuelles – risquait de polariser la communauté internationale et de saper la règle de la loi et, en fin de compte, de déstabiliser l’environnement de sécurité international dans son ensemble.

L’étude proposait trois recommandations politiques pour la politique étrangère européenne :

  1. L’UE devrait faire de la promotion de l’état de droit en matière de développement, de prolifération et d’utilisation de systèmes d’armement sans pilote une priorité déclarée de la politique étrangère européenne ;
  2. L’étude invitait l’UE à lancer un dialogue politique intergouvernemental afin de parvenir à un consensus international :
    1. sur les normes juridiques régissant l’utilisation de systèmes d’armes sans pilote actuellement opérationnels, et
    2. sur les contraintes juridiques et / ou des réserves éthiques pouvant s’appliquer au développement, à la prolifération et à l’utilisation futurs de systèmes d’armes létaux autonomes.
  3. Sur la base du consensus international qui en résulterait, l’étude invitait l’UE à œuvrer en faveur de l’adoption d’un accord international contraignant ou d’un code de conduite non contraignant visant à restreindre le développement, la prolifération ou l’utilisation de certains systèmes d’armes sans pilote consensus obtenu.

Les débats devant le Groupe d’Experts Gouvernementaux (GEG) des États parties à la convention sur certaines armes classiques (CCW)

Depuis 2016, le débat est également engagé à l’ONU. Un groupe d’experts gouvernementaux (GEG [2]) à la convention sur certaines armes classiques a été créé en 2016 par la cinquième Conférence d’examen des parties contractantes à la Convention sur certaines armes classiques (CCW).

Le GEG s’est d’abord réuni en novembre 2017. Dans son rapport de session 2017, le GEG a conclu que :

  • la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination (CCW) offrait un cadre approprié pour traiter la question des nouvelles technologies dans le domaine des systèmes d’armes létaux autonomes ;
  • le droit international humanitaire continue de s’appliquer pleinement à tous les systèmes d’armes, y compris à la mise au point et à l’utilisation potentielles de systèmes d’armes létaux autonomes;
  • le déploiement de tout système d’armes quel qu’il soit dans le cadre d’un conflit armé continue de relever de la responsabilité des États ;
  • le GEG devrait consacrer la prochaine phase de ses discussions à la caractérisation des systèmes d’armes létaux autonomes en question afin de dégager une conception commune des notions et des caractéristiques pertinentes au regard des objectifs et des buts de la CCW ;
  • le GEG devrait examiner plus avant les aspects de l’interaction homme-machine dans la mise au point, le déploiement et l’emploi des technologies émergentes dans le domaine des systèmes d’armes létaux autonomes.

Les principaux problèmes sur les systèmes d’armes létaux autonomes ont été abordés lors des réunions de 2018 du GEG. Ils ont portés sur :

  • la caractérisation des systèmes envisagés afin de promouvoir une compréhension commune des concepts et des caractéristiques correspondant aux objectifs et aux buts de la Convention sur certaines armes classiques ;
  • l’examen approfondi de l’élément humain dans l’utilisation de la force létale ; les aspects de l’interaction homme-machine dans le développement, le déploiement et l’utilisation de technologies émergentes dans le domaine des systèmes d’armes létaux autonomes ;
  • l’examen des applications militaires potentielles de technologies connexes dans le contexte des travaux du Groupe.

Quels sont les principes dégagés par le GEG lors de la dernière réunion du 31.08.2018 ?

Le GEG s’est accordé sur dix principes lors de leur dernière réunion le 31 août 2018 :

  1. le droit international humanitaire continue de s’appliquer pleinement à tous les systèmes d’armement, y compris au développement potentiel et à l’utilisation de systèmes d’armes autonomes létaux ;
  2. la responsabilité humaine des décisions relatives à l’utilisation des systèmes d’armement doit être maintenue et la responsabilité ne peut être transférée aux machines. Cela devrait être considéré dans l’ensemble du cycle de vie du système d’arme autonome ;
  3. la responsabilité du développement, du déploiement et de l’utilisation de tout nouveau système d’armes dans le cadre de la Convention sur certaines armes classiques doit être assurée conformément au droit international applicable, notamment par le fonctionnement de tels systèmes au sein d’une chaîne humaine responsable de commandement et de contrôle ;
  4. conformément aux obligations des États en vertu du droit international, l’étude, le développement, l’acquisition ou l’adoption d’une nouvelle arme, de moyens ou de méthodes de guerre, (la détermination devant être préalable à son emploi), dans certaines ou dans toutes les circonstances, ne peut être interdit par une loi internationale ;
  5. lors du développement ou de l’acquisition de nouveaux systèmes d’armes basés sur des technologies émergentes dans le domaine des SALA, la sécurité physique, les garanties non physiques appropriées (y compris la cybersécurité contre le piratage informatique ou l’usurpation de données), le risque d’acquisition par des groupes terroristes et le risque de prolifération doivent être considérés ;
  6. les évaluations des risques et les mesures d’atténuation devraient faire partie du cycle de conception, de développement, de test et de déploiement des technologies émergentes dans tous les systèmes d’armes ;
  7. l’utilisation de technologies émergentes dans le domaine des systèmes d’armes autonomes meurtriers doit être envisagée avec pour objectif le respect du droit international humanitaire et les autres obligations juridiques internationales applicables ;
  8. lors de l’élaboration de mesures politiques potentielles, les technologies émergentes dans le domaine des systèmes d’armes létaux autonomes ne devraient pas être anthropomorphisées ;
  9. les discussions et les mesures politiques éventuelles prises dans le cadre de la Convention ne devraient pas entraver les progrès ou l’accès aux utilisations pacifiques des technologies autonomes intelligentes ;
  10. la Convention sur certaines armes classiques offre un cadre approprié pour traiter la question des technologies émergentes dans le domaine des systèmes d’armes autonomes meurtriers dans le contexte des objectifs et buts de la Convention, qui cherchent à établir un équilibre entre nécessité militaire et considérations humanitaires.

Tableau comparatif des positions sur les systèmes d’armes létaux autonomes

Principe Non conforme [1] Conforme
Distinction

Les drones futurs manqueront de fiabilité. Ils ne sauront distinguer les cibles légales des illégales (ex. : combattant en tenue de civil). Cette faculté dépend de la capacité à analyser les intentions humaines or, programmer le jugement humain ne semble pas atteignable.

 

« Les avancées positives des technologies ne doivent pas être évincées, y compris l’art de la guerre qui permettrait de réduire les risques encourus par la population civile, en rendant les frappes plus précises et contrôlées, qui plus est non sujettes aux défaillances humaines comme la peur, la panique, la vengeance et les limites de leur perception » [2].

Précaution

Impossibilité pour la technologie du futur de répondre aux défis juridiques que suppose le système d’arme autonome. Il ne s’agit pas uniquement de technologies mais également d’attribution des responsabilités, d’une course aux armements et d’objections morales.

Ces systèmes présentent donc per se une menace sérieuse et irréversible d’autant plus confirmée avec l’incertitude scientifique qui entoure le débat ; autant d’éléments nécessaires pour invoquer le principe de précaution.

Proportionnalité

L’analyse de l’avantage militaire est contextuelle. Le programmeur ne pourra pas développer un algorithme recensant la multitude de situations envisageables com­me inenvisageables auxquelles pourra être confronté le drone.

L’évaluation de la propor­tionnalité se fait au niveau du commandement [3].

Une procédure d’analyse des dommages collatéraux existe déjà (aux Etats-Unis) : le « Collateral Damage Estimate Methodology » [4] qui analyse la probabilité des civils présents dans des structures à proximité de la cible, les tactiques de l’attaque, les effets de souffle de l’arme. Ces estimations se basent sur des données objectives et des algorithmes scientifiques.

Quant à l’avantage militaire qui détermine le principe de proportionnalité, des algorithmes peuvent en théorie être développés à cet effet et comprendraient une marge de manœuvre minimum.

Nécessité

Dans sa décision de recourir à la force, le drone ne sera pas en mesure d’en analyser la nécessité (ex. lorsque le combattant se rend).

Le drone est capable de graduer ses forces [5].

A la conviction que le jugement humain est plus à-même à des sentiments d’humanité peut être opposée l’idée que certains sentiments humains sont subjectifs et peuvent à ce titre être sous l’emprise d’une faiblesse ou d’intérêts égoïstes.

De l’usage légal du SALA.

L’arme entièrement autonome n’est pas légale simplement parce qu’elle peut être légalement employée. Son usage normal ne légitime pas l’arme qui peut toujours être utilisée à des fins illégales.

L’utilisation d’un drone armé est susceptible de permettre un respect plus complet des règles d’engagement et du droit international humanitaire [6] « Les dangers d’abus des systèmes robotiques autonomes, (…), sont bien documentés en temps de guerre, ce qui intervient même lorsqu’un opérateur humain est directement en charge » [7].

[1] Ces arguments sont présentés par le Human Rights Watch dans son rapport «Making the case: the dangers of Killer Robots and the need for a preemptive Ban», 9 dec. 2016, Human Rights Watch.
[2] «Law and ethics for autonomous weapon systems: why a ban won’t work and how the laws of war can», K. Anderson & M.C.Waxman, nov. 2013, Hoover Institution, Stanford University.
[3] «Out of the loop: autonomous weapon systems and LOAC», Schmitt & Thurner, 2013, Harvard Journal.
[4] «Joint Targeting Cycle and Collateral Damage Estimation Methodology», Avocat Général, 10 nov. 2009, déclassifié, document de la ‘Defense Intelligence Agency’ et de la ‘Joint Chiefs of Staff’, publié par l’ACLU.
[5] «Legitimacy and drones: investigating the legality, morality and efficacy of UCAVs», Steven J. Barela, Emerging technologies, ethics and international affairs, Ed Routledge, 2015. 
[6] Rapport d’information «Drones d'observation et drones armés : un enjeu de souveraineté», Doc. Sénat n°559 du 23 mai 2017.
[7] «The case for ethical autonomy in Unmanned Systems», Ron C. Arkin.

Quelle est la position de l’Allemagne et de la France sur les systèmes d’armes létaux autonomes ?

Lors des réunions du GEG en novembre 2017, l’Allemagne et la France ont formulé dans un document de travail plusieurs propositions, notamment la définition du périmètre de travail des systèmes d’armes létaux autonomes (SALA).

L’Allemagne et la France proposent d’exclure de la définition de SALA :

Les systèmes pilotés à distance et automatisés, les systèmes porteurs de charges conventionnelles explosant avec une minuterie réglée, les systèmes téléopérés (par exemple des drones), les systèmes automatisés de défense antimissile, les torpilles, les systèmes de guidage et de navigation ainsi que les systèmes de surveillance et de détection.

L’Allemagne et la France considèrent en outre que la question de la définition même de « SALA » évoluera avec les progrès technologiques. La définition exacte qui pourra être adoptée à un stade ultérieur, dépendra également de la question de savoir quels types de mesures réglementaires sont recherchés et quel statut politique ou juridique devraient avoir ces SALA.

Dans leur déclaration politique commune, l’Allemagne et la France ont affirmé qu’elles partageaient la conviction que les humains devraient continuer à être en mesure de prendre les décisions finales concernant l’utilisation de la force létale et devrait continuer à exercer un contrôle suffisant. En outre, les États parties devraient rappeler que les règles du droit international, en particulier droit international humanitaire, s’appliquent pleinement au développement et à l’utilisation des SALA.

Quelles est la position des États-Unis sur les systèmes d’armes létaux autonomes ?

Contrairement à l’Allemagne et la France, les Etats-Unis estiment qu’il n’est pas nécessaire que le GEG adopte une définition de travail des SALA. Au lieu de cela, les Etats-Unis soutiennent la promotion d’une compréhension générale des caractéristiques des SALA. Pour les Etats-Unis, l’absence d’une définition de travail spécifique n’est pas une cause devant pénaliser les travaux du GEG dans la compréhension des problèmes potentiels posés par les SALA. Le droit de la guerre fournit un système de réglementation solide et cohérent pour les armes. Par conséquent, le GEG peut discuter des problèmes que posent potentiellement les « SALA » sous l’objectif de la Convention sur certaines armes classiques (CCW) sans devoir se mettre d’accord sur une définition de travail spécifique des SALA.

Les règles existantes d’application générale s’appliquent à l’utilisation de toutes les armes, y compris pour toute arme réputée être des « systèmes d’armes létaux autonomes ».

Les Etats-Unis ont également émis dans deux documents de travail distincts (WP.6 et WP.7) les positions suivantes :

  • le droit de la guerre n’exige pas qu’une arme, même une arme semi-autonome ou autonome, procède à des déterminations légales. Pour les USA, le droit de la guerre n’exige pas qu’une arme détermine si sa cible est un objectif militaire, mais plutôt que l’arme puisse être employée conformément au principe de distinction. De même, le droit de la guerre n’exige pas qu’une arme établisse des déterminations de proportionnalité, par exemple si l’on s’attend à ce qu’une attaque entraîne des dommages accidentels à des civils ou à des biens civils excessifs par rapport à l’avantage militaire concret et direct attendu ;
  • les machines ne sont pas des États ou des personnes en vertu de la loi. Les questions de responsabilité juridique sont des questions sur la manière dont les principes existants et bien établis en matière de responsabilité des États et des individus s’appliquent aux États et aux personnes qui utilisent des systèmes d’armes dotés de fonctions autonomes ;
  • les États sont responsables des actes des personnes faisant partie de leurs forces armées. Il s’ensuit que les États sont responsables de l’emploi d’armes à fonctions autonomes par des personnes faisant partie de leurs forces armées ainsi que d’autres actes de ce type pouvant être imputables à un État en vertu du droit de la responsabilité des États. Les États, en garantissant la responsabilité de tels comportements, peuvent recourir à divers mécanismes, notamment les enquêtes, la responsabilité pénale individuelle, la responsabilité civile et les mesures disciplinaires internes ;
  • comme pour toutes les décisions d’utiliser des systèmes d’armes, les personnes sont responsables de leurs décisions individuelles d’utiliser des armes avec des fonctions autonomes. Ainsi, les personnes qui utilisent des armes ayant des fonctions autonomes pour violer l’interdiction de cibler la population civile peuvent être tenues responsables de telles violations ;
  • les responsabilités de toute personne appartenant à un État ou à une partie au conflit peuvent dépendre du rôle de cette personne dans l’organisation ou des opérations militaires. De manière générale, les personnes chargées de mettre en œuvre une partie à un conflit ont l’obligation de prendre les décisions et jugements nécessaires requis par cette obligation internationale. A titre d’exemple, une partie à un conflit a l’obligation de prendre des précautions réalisables pour réduire les risques pour les civils, par exemple en émettant des avertissements avant les attaques. Le commandant compétent chargé de l’attaque déterminera s’il est possible de fournir un tel avertissement.

Quelle est la position de la Fédération de Russie sur les systèmes d’armes létaux autonomes ?

La Fédération de Russie a également fait part de sa position dans un document de travail (WP.8) dans lequel :

  • La Fédération de Russie estime que le GEG pourrait procéder à un examen approfondi des dispositions existantes du droit international, y compris le droit international humanitaire et les droits de l’homme,
  • qui pourrait éventuellement être appliqué à des lois et exprimer son opinion quant à l’adéquation de ces dispositions pour répondre aux préoccupations existantes.

La Fédération de Russie part du principe que l’examen de nouvelles questions au sein de la CCW devraient être réalisé, en tenant compte à la fois des préoccupations humanitaires et de la défense légitime des intérêts des États. Cela dit, la nécessité de répondre aux préoccupations humanitaires ne peut être utilisée comme seule et unique condition suffisante pour imposer des régimes restrictifs et prohibitifs de certaines armes.

Didier Gazagne
Alix Desies
Lexing Défense & SécuritéDrones

(1) Proposition de résolution sur les systèmes d’armes autonomes du Parlement européen du 05.09.2018.
(2) Groupe d’experts gouvernementaux, GEG en français ou GGE en anglais.

Partager


Viewing all articles
Browse latest Browse all 3740

Trending Articles