Recherche

Photo d'illustration Photo d'illustration 

Le Saint-Siège s’élève contre l’usage des armes automatiques

A Genève, la mission permanente du Saint-Siège a rappelé que ces armes ne répondaient en aucune façon aux principes d’humanité et de conscience.

«Depuis le début de la discussion sur les systèmes d'armes automatiques létales, le Saint-Siège n'a cessé de souligner que les défis posés par les technologies émergentes dans ce domaine ne se limitent pas au domaine du droit humanitaire international, mais soulèvent également des implications potentiellement graves pour la paix et la stabilité» : ce sont par ses mots que débute le communiqué de la mission vaticane à l’occasion de la réunion du Groupe 2021 d'experts gouvernementaux sur les systèmes d'armes létales automatiques de la Convention sur certaines armes classiques.

Toutefois, étant donné que, comme le Saint-Siège l'a précisé lui-même, l'ordre du jour de la discussion portait précisément sur l'aspect du droit international humanitaire, il a développé sa propre réflexion à ce sujet, fondée sur trois points principaux.

Discernement et interprétation des règles

«Les conventions et traités de droit international humanitaire sont pleins d'expressions soigneusement rédigées telles que “prévu”, “prévisible”, “dommage inutile”, “souffrance inutile” qui dénotent une référence fondamentale à l'interprétation, à la bonne foi et au jugement prudentiel. Ces aspects sont, en partie, informés et fondés sur le contexte évolutif des opérations, pour lequel la personne humaine est irremplaçable», a affirmé la mission. Considérons les actions qui nécessitent l'intervention de la raison humaine, par exemple, la distinction, la proportionnalité, la précaution, la nécessité et l'avantage militaire attendu: le respect et l'application de ces principes exigent l'interprétation et la compréhension opportune de contextes et de situations particulières difficiles à programmer».

«Il est bien connu que les décisions juridiques et éthiques nécessitent souvent une interprétation des règles afin de sauver l'esprit des règles elles-mêmes, a poursuivi la mission. À cet égard, les systèmes d'armes autonomes, dotés de capacités d'auto-apprentissage ou d'auto-programmation, «laissent nécessairement place à un certain niveau d'imprévisibilité, qui pourrait, par exemple, “dévier” vers des actions visant des non-combattants afin de maximiser l'efficacité, violant ainsi le principe de distinction».

Militarisation de l'Intelligence artificielle

La mission permanente évoque ensuite la possibilité d'utiliser des essaims de mini-drones “kamikazes”, c'est-à-dire des essaims de systèmes d'armes dotés de capacités autonomes: «L'utilisation d'essaims dans les zones urbaines pourrait entraîner des risques élevés pour les civils. Le concept d'un essaim d'armes autonomes aggrave encore ce risque, car la nature aléatoire de l'essaim pourrait entraîner des blessures excessives et des effets indiscriminés, en contradiction manifeste avec le droit humanitaire international».

Dans ce sens, une prise de conscience émerge également parmi d'éminents scientifiques, ingénieurs, chercheurs, militaires, éthiciens et la communauté de la société civile au sens large, a noté le Saint-Siège: «Il y a de plus en plus de cas d'employés et d'entrepreneurs qui s'opposent pour des raisons éthiques à certains projets impliquant la militarisation de l'intelligence artificielle», a-t-il encore souligné.

Cette prise de conscience constitue, bien entendu, un changement dans la perception du public, qui est également un moteur pour la mise en œuvre et le développement du droit international humanitaire: «Si les systèmes d'armes autonomes peuvent être considérés comme “normaux” au sens statistique du terme et donc jugés acceptables, même s'ils ne sont pas explicitement interdits, ils restent prohibés par les principes de la morale, des valeurs spirituelles, de l'expérience et des vertus militaires», conclut le communiqué.

Merci d'avoir lu cet article. Si vous souhaitez rester informé, inscrivez-vous à la lettre d’information en cliquant ici

06 août 2021, 13:34