L’humain et le droit international humanitaire

C’est la question qui ressort de la lecture du dernier rapport de Human Rights Watch (HRW) intitulé « Losing Humanity »  dans lequel l’ONG conclut à l’incapacité des armes autonomes à se conformer aux standards du droit international humanitaire et à assurer la protection des civils en temps de guerre.
HRW s’inquiète du développement de robots autonomes qui seraient une réalité d’ici une vingtaine d’années. Les germes de cette évolution existent déjà avec les systèmes de défense automatique. Pour prendre un exemple d’actualité, on peut citer le système de défense antimissile israélien « Dôme de fer » chargé d’intercepter les roquettes lancées depuis la bande de Gaza. Ce type de système détecte la présence d’un missile ennemi et répond automatiquement afin de neutraliser la menace.
Ce type de système est, pour l’instant, automatique et réduit à des fonctions défensives. Cela peut être considéré comme un premier pas vers l’autonomie et des fonctions offensives. Le drone de la Navy X-47B dispose de la capacité de décoller, de voler et de se ravitailler tout seul. Ce changement de paradigme (l’humain est désormais cantonné à un rôle d’observation) laisse entrevoir la possibilité de procéder à des attaques de manière autonome (d’autant plus que ce drone dispose d’une capacité de charge de deux tonnes).
Or, l’avènement de systèmes autonomes risque de mettre en cause l’application du droit international humanitaire dont l’effectivité est indissociable de certaines facultés humaines. Le commentaire de l’article 36 du Protocole additionnel I est sans ambiguïté sur les dangers de la domination de la technique sur l’Homme. « L’usage d’armes à longue portée, télécommandées ou combinées à des senseurs placés sur le terrain, conduirait à une automatisation du champ de bataille, où le soldat jouerait un rôle de moins en moins important (…). Toutes les prévisions concourent pour confirmer que, si l’homme ne domine pas la technique et lui permet de devenir son maître, la technique détruira l’homme ».
Ainsi, les armes complètement autonomes n’auraient pas la capacité de distinguer entre les combattants et les civils, surtout sur les théâtres d’opération contemporains où cette différence est ténue, le belligérant étant un civil participant directement aux hostilités. En effet, l’arme autonome ne dispose pas des qualités humaines nécessaires, en l’occurrence la capacité à ressentir des émotions,  pour évaluer l’intention d’un individu qui est primordial pour opérer la distinction. Prenons l’exemple d’une mère effrayée courant après ses deux enfants jouant avec des armes factices devant un soldat et leur demandant d’arrêter. Un humain pourrait reconnaître la situation et les intentions pacifiques des protagonistes. Au contraire, un robot pourrait voir une personne courant après deux individus armés, déclenchant alors une attaque.
S’agissant du principe de proportionnalité, il est fort improbable qu’un robot puisse être préprogrammé pour traiter du nombre infini de scénarios possibles et interpréter ainsi une situation en temps réel. Cette incapacité à analyser une situation complexe est susceptible de conduire à des violations du droit. Le commentaire de l’article 57 PAI fait référence à la faculté de jugement humain dans l’analyse de la proportionnalité. « Ce système repose en partie sur une évaluation subjective » (…).  Pour les chefs militaires, l’interprétation sera avant tout une question de bon sens et de bonne foi ». Le Tribunal Pénal International pour l’ex-Yougoslavie renvoie au standard du commandant militaire responsable : il convient d’apprécier « si une personne ayant une connaissance suffisante de la situation dans laquelle se trouvait l’auteur, et exploitant judicieusement les informations à sa disposition, aurait pu prévoir que l’attaque causerait des pertes excessives dans la population civile ». Le test requiert plus que de faire la balance entre des données quantitatives. Un robot ne peut pas être programmé pour dupliquer le processus psychologique du jugement humain nécessaire pour évaluer la proportionnalité.
Il en est de même pour l’application de la nécessité militaire qui dépend du contexte et du jugement de valeur du commandant. Par exemple, identifier si un ennemi est hors-de-combat requiert une capacité de jugement apte à vérifier si le combattant à terre feint une blessure, s’il est légèrement blessé mais susceptible d’être détenu en agissant rapidement ou s’il est gravement blessé, ne posant donc plus une menace directe.
Lire le suite sur le site dommages civils.
Cet article, publié dans DIH, est tagué , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s