Est-ce qu’un drone militaire autonome aurait attaqué des humains en Libye sans ordre direct ? C’est la question qui se pose depuis la publication d’un rapport du Conseil de sécurité de l’ONU.
Selon un rapport de l’ONU sur le conflit libyen publié en mars, plusieurs drones militaires utilisés par le gouvernement libyen auraient pris pour cible des humains de manière autonome, c’est-à-dire sans en avoir reçu l’ordre direct. Ces drones, qui fonctionnent avec un système d’intelligence artificielle nommé « quadricoptère Kargu-2 » (produit par la société turque STM), auraient ainsi attaqué des soldats et des convois de ravitaillement en retraite, fidèles au général libyen Khalifa Haftar.
Le rapport n’a pas précisé si cette attaque avait fait des victimes humaines, mais il soulève désormais des questions sur l’avenir de ce type d’arsenal militaire et les risques que cela pourrait entraîner pour les civils, en particulier lors de conflits futurs, a rapporté Le Parisien.
Plus précisément, le rapport des experts du Conseil de sécurité de l’ONU indique : « Les convois de logistique et les unités des forces affiliées à Haftar qui battaient en retraite ont été pourchassés et pris à partie à distance par des drones de combat ou des systèmes d’armes létaux autonomes tels que le Kargu-2 de STM et d’autres munitions rôdeuses. Les systèmes d’armes létaux autonomes avaient été programmés pour attaquer des cibles, sans qu’il ne soit besoin d’établir une connexion des données entre l’opérateur et la munition, et étaient donc réellement en mode d’autoguidage automatique. »
D’après la société turque STM : « Le modèle Kargu est un drone dit ‘flâneur’, qui utilise une classification des objets basée sur le ‘machine learning’ (apprentissage automatique), pour sélectionner et engager des cibles. » Ce système dispose également de « capacités d’essaimage pour permettre à 20 drones de travailler ensemble ». À noter qu’en 2020, le gouvernement d’entente nationale reconnu par l’ONU a repoussé les forces affiliées à Haftar (HAF) de la capitale libyenne Tripoli. Ce drone opérationnel sur le terrain n’est donc « pas étranger au retournement du conflit libyen », ont noté les experts dans leur rapport.
Par ailleurs, « l’introduction par la Turquie de technologie militaire avancée dans le conflit a été un élément décisif dans la guerre d’usure, souvent clandestine et certainement inégale, qui a entraîné la défaite des forces affiliées à Haftar dans l’Ouest libyen en 2020″, a souligné le rapport. « La technologie aérienne à distance, associée à une fusion efficace des données du renseignement et à des capacités de surveillance et de reconnaissance, a inversé le cours des événements en faveur des forces affiliées au gouvernement d’entente nationale, par rapport à ce qui constituait jusque-là un conflit de faible intensité et de faible technologie », ont ensuite conclu les experts.
Par le passé, de nombreux chercheurs en robotique et en intelligence artificielle, dont Stephen Hawking, Noam Chomsky ou Elon Musk, ont demandé l’interdiction des « armes autonomes offensives », en particulier celles qui ont le potentiel de rechercher et de tuer des personnes spécifiques en fonction de leur programmation, mais aussi celles qui fonctionnent de manière complètement autonome. Des ONG, comme Amnesty International ou Human Rights Watch, se sont également positionnées contre ce type d’armes.
Malheureusement, aujourd’hui, la réalité a désormais rattrapé ce qui était jusque-là de l’ordre de la science-fiction : un robot qui serait capable d’abattre des humains de manière indépendante. Selon Jean-Pierre Maulny, spécialiste des questions de défense et d’armement à l’Iris : « Un problème éthique va se poser inévitablement et plus vite qu’on ne le croit. »
En effet, les SALA (Système d’armes létales autonomes) sont au cœur des enjeux éthiques de la guerre moderne. « Comme toutes les armes, elles sont théoriquement soumises au droit de la guerre, qui interdit en premier lieu de s’en prendre aux populations civiles », a rappelé Jean-Pierre Maulny. Mais actuellement, il n’y a aucune réglementation sur ce type d’armes. Aussi, « il n’y a pas de certitude sur l’utilisation qui peut en être faite et encore moins sur les algorithmes qui les régissent », a déploré Jean-Pierre Maulny.
Selon lui : « À l’occasion de discussions de l’ONU à Vienne, un groupe d’experts travaillait sur un code de conduite international sur le sujet, car aucun traité n’existe actuellement. En gros, on considère que ça serait aller dans une mauvaise direction que de créer des Terminators. Et l’énorme difficulté est en réalité de déterminer le niveau de l’autonomisation. » D’ailleurs, c’est pour cela que la doctrine militaire française refuse toute autonomie aux robots ou autres drones dans la prise de décision de tir. Problème, rien ne dit que tous les gérants à travers le monde prendront la même décision. Et c’est ce que semble confirmer ce rapport.
De plus, selon des experts militaires cités par The Independent, l’ensemble des données utilisées pour entraîner ces robots tueurs à classer et identifier des objets tels que des camions, des bus, des voitures ou des civils « ne sont peut-être pas suffisamment complexes ou sécurisées ». Ainsi, le système d’intelligence artificielle (IA) peut en tirer « de mauvaises leçons et confondre des potentielles cibles militaires avec des enfants », par exemple. Ce qui serait d’autant plus dramatique.
Pour Amnesty International, qui souligne que ce type d’armements est incompatible avec les droits de l’homme et les lois internationales : « Le développement de ces armes autonomes soulève clairement des préoccupations éthiques et sociétales à la fois sérieuses et légitimes. »
Face à cette problématique grandissante, Amnesty International préconise la création d’une commission internationale de surveillance. « Le temps est compté pour mettre fin au développement et à la prolifération des armes totalement autonomes, mais nous devons nous presser. Les gouvernements doivent commencer de toute urgence à négocier un nouveau traité d’interdiction de ces armes terrifiantes », a rappelé l’association humanitaire.
« L’utilisation d’armements autonomes sans contrôle réel et efficace exercé par un être humain porterait atteinte au droit à la vie ainsi qu’à d’autres droits humains, et créerait un vide en matière de reddition de comptes, si ces armements peuvent eux-mêmes décider d’avoir recours à la force meurtrière », a conclu Amnesty International.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.