Le tribunal des machines tueuses
Le drone est devenu l’arme moderne par excellence, y compris en Suisse. Mais des appareils 100% autonomes existent déjà et sont prêts à frapper. En cas d’erreur, faudra-t-il un jour les juger ?
« Accusé drone, levez-vous ! » Nous sommes en 2030, dans un tribunal, un vrai tribunal, ou une cour de justice virtuelle en ligne, comme cela existera peut-être un jour, puisque tout se dématérialise. Face aux magistrats, aux côtés de son avocat, point d’être humain, mais une machine. Un drone, accusé d’avoir pris la mauvaise décision au mauvais moment et d’avoir frappé, et tué, d’innocentes victimes au lieu d’un ennemi, militaire ou terroriste. Pure science-fiction ? Pas forcément. Si l’on avait expliqué aux lecteurs des années 80 que des machines seraient capables de frapper une cible sans aucune intervention humaine, ne nous auraient-ils pas pris pour des fous ?
Tueurs automatiques
La scène n’est pas extraite d’un film de Ridley Scott ou de Steven Spielberg, mais bien de la réalité. Selon un article de la revue New Scientist du 27 mai 2021, pour la première fois dans l’histoire des conflits, des robots de combat pourraient avoir attaqué des humains de manière totalement autonome. L’article scientifique s’appuie sur un rapport du Conseil de sécurité des Nations Unies qui décrit comment des drones militaires autonomes se sont rendus sur une zone de combat en Libye en 2020, ont sélectionné des cibles avant de les attaquer, sans l’intervention d’un opérateur humain. « Les systèmes d’armes létales autonomes avaient été programmés pour attaquer des cibles, sans qu’il soit besoin d’établir une connexion des données entre l’opérateur et la munition, et étaient donc réellement en mode d’autoguidage automatique », écrit le rapport. Le 13 décembre 2021, 125 États membres de la Convention sur certaines armes classiques (CCAC) se réunissaient à l’ONU à Genève pour tenter d’encadrer les actions de ces machines tueuses. Sans succès.
Armée suisse équipée
L’utilisation des drones n’a rien de nouveau. Depuis une vingtaine d’années, les armées ou des groupes armés (comme au Yémen) s’en sont équipés. En Suisse, de nouveaux appareils ont été acquis et devraient voler d’ici mi-2022, selon le chef de l’armement Martin Sonderegger cité dans la NZZ. En espérant qu’ils se montrent plus précis que ponctuels puisque le programme accuse trois années de retard. La faute, selon les autorités militaires suisses, au fournisseur israélien Elbit Systems qui a sous-estimé les efforts à fournir et prévu un calendrier initial impossible à tenir. Dans un premier temps, les drones seront accompagnés d’un avion d’escorte, la technologie Sense and Avoid, conçue pour détecter les obstacles dans l’espace aérien et prévenir les collisions, n’étant pas encore autorisée par la Confédération. Montant de la facture pour ces six appareils : 250 millions de francs. L’année passée, le Français Parrot, premier groupe européen de drones, a également été choisi pour équiper l’armée helvétique en microdrones. Les spécifications produits, quantités et montants de la facture n’ont pas été dévoilés.
Ces appareils ne seront pas autonomes, mais bien pilotés à distance. Tout comme ceux de l’US Air Force qui ont tué dix civils afghans dans une frappe à Kaboul à la fin de l’été 2021, au moment du retrait américain. Bilan : dix morts, dont sept enfants… Face au risque qu’ils représentent, Amnesty International et Human Rights Watch ont lancé une « campagne contre les robots tueurs, affirmant qu’il est douteux que les armes totalement autonomes soient capables de respecter les normes du droit international humanitaire, notamment les règles de distinction, de proportionnalité et de nécessité militaire. »
C’est justement l’un des arguments des prodrones autonomes. La machine, grâce à l’intelligence artificielle, serait plus performante que l’humain. Plus à même d’analyser depuis le ciel un terrain, une présence humaine dangereuse ou pas, la caractéristique d’un véhicule (pick-up armé jusqu’aux dents ou véhicule civil non armé)…
Droits du robot
Ancienne rapporteuse spéciale des Nations Unies sur les exécutions extrajudiciaires, sommaires ou arbitraires, et désormais secrétaire générale d’Amnesty International, Agnès Callamard n’est guère convaincue. « Des experts affirment effectivement que le drone en lui-même est plus précis que l’humain. Qu’il y aura moins de victimes collatérales, que les machines disposeront de meilleures capacités que les humains à enregistrer des données qui devraient justement empêcher de tirer à tort. C’est peut-être le cas, mais à mes yeux le problème n’est pas là. Premièrement, ces innovations vont permettre de tuer beaucoup plus de gens. C’est le principe même des drones : vous frappez sans prendre le moindre risque, sans envoyer aucun soldat sur place. Or les seules raisons pour lesquelles des États, ou plutôt des dirigeants politiques renoncent à faire la guerre, c’est la crainte de voir revenir des gamins de 20 ans dans des cercueils ou gravement blessés. Deuxièmement, la décision de tuer ne doit-elle pas demeurer humaine, même avec tous les problèmes que cela comporte ? »
Et la chercheuse et militante de poser la question qui fâche : si le drone 100% autonome se trompe et frappe des populations civiles, faudra-t-il le traduire en justice ? « J’en viens donc à me dire qu’il faudrait rédiger une déclaration des droits du robot, des droits humains et de la robotique, affirme-t-elle. Ceci n’a rien de fou : je ne vois pas comment nous pourrons y échapper. » Des droits et des devoirs, y compris le devoir de responsabilité. Ouvrant donc la possibilité de voir, un jour, une machine contrainte de répondre de ses actes devant ses juges. ■