La corde raide de l’éthique : le défi des drones de combat pilotés par l’IA pour le Pentagone

Alors que les drones autonomes deviennent de plus en plus vitaux sur le champ de bataille, le Pentagone est confronté au défi d'équilibrer les contraintes éthiques avec les capacités de combat

Par Stephen Xia & Sean Tseng
16 octobre 2024 23:09 Mis à jour: 16 octobre 2024 23:09

Quand les États-Unis déploieront-ils des robots autonomes létaux aux côtés de leurs soldats ? Bien que le calendrier exact soit incertain, cette réalité pourrait se révéler plus proche qu’on ne le pense.

Les progrès technologiques ont rendu cette perspective de plus en plus réalisable, mais ils soulèvent également d’importants défis éthiques, notamment en ce qui concerne la disparition potentielle du rôle de l’homme dans la prise de décisions provocant la mort.

Depuis le début de la guerre entre la Russie et l’Ukraine en 2022, les drones de petite taille modifient les règles du jeu. Ces derniers mois, l’Ukraine a lancé des drones capables d’intercepter des avions russes ou de brûler des rangées d’arbres en larguant des engins incendiaires. L’Ukraine teste également des drones équipés de fusils automatiques et de lance-grenades. Ne se limitant plus au largage de petites bombes, les drones ukrainiens effectuent désormais des tâches allant de la pose de mines à la livraison de matériel, transformant ainsi le champ de bataille en guerre de drones.

Grâce aux progrès rapides de l’intelligence artificielle (IA), les derniers drones de combat et de reconnaissance peuvent accomplir des missions de plus en plus complexes avec une intervention humaine minimale, voire inexistante.

Le 10 octobre, l’entreprise américaine de technologie de défense Anduril Industries a dévoilé la série Bolt de drones autonomes portables à décollage et atterrissage verticaux (VTOL). Ces drones peuvent remplir diverses missions complexes sur le champ de bataille.

Le modèle Bolt de base est conçu pour les missions de renseignement, de surveillance, de reconnaissance (ISR), de recherche et de sauvetage. Il y a ensuite le « Bolt-M », une variante pour le combat qui fournit aux forces terrestres une puissance de feu de précision létale. Il peut suivre et frapper des cibles en toute autonomie, offrant aux opérateurs quatre modes de décision simples : où regarder, que suivre, comment s’engager et quand frapper.

Actuellement, les opérateurs comme les forces armées ukrainiennes ou le personnel de l’armée américaine doivent suivre une formation spécialisée avant d’utiliser des drones à vue subjective et sont confrontés à de nombreuses limitations opérationnelles, notamment le port d’un casque de réalité virtuelle ou de lunettes d’immersion spécialisées. Le Bolt-M, piloté par l’IA, élimine la nécessité d’une formation complexe et répond aux exigences du combat tout en fournissant plus d’informations et de fonctionnalités que les drones existants.

Le Bolt-M est conçu pour un déploiement rapide, en mettant l’accent sur la facilité d’utilisation et la portabilité. Il offre des options telles que la navigation autonome par points de cheminement, le suivi et l’engagement. Avec une autonomie de vol de plus de 40 minutes et un rayon d’action d’environ 12 miles (19 km), il soutient efficacement le combat au sol. Il peut transporter jusqu’à trois livres (1,36 kg) de munitions, ce qui lui permet de lancer de puissantes attaques sur des cibles terrestres statiques ou mobiles, comme des véhicules légers, des fantassins et des tranchées.

Anduril a obtenu un contrat avec la marine américaine pour développer un drone de combat autonome dans le cadre du programme « Organic Precision Fires-Light » (OPF-L) du corps des Marines. Le cœur de la technologie repose sur le logiciel d’intelligence artificielle fourni par la plateforme Lattice d’Anduril. Les opérateurs dessinent simplement une zone de délimitation sur un moniteur de champ de bataille, définissent quelques règles et le drone accomplit sa mission de manière autonome.

La plateforme Lattice intègre des informations provenant de divers capteurs et bases de données, ce qui lui permet d’être autonome tout au long de sa mission, tout en gardant les opérateurs informés.

Une fois que l’IA identifie une cible, l’opérateur peut assigner une zone cible au Bolt-M. Le système peut suivre et viser avec précision la cible, qu’elle soit hors de vue ou en mouvement. Des algorithmes intégrés de visualisation et de guidage garantissent l’efficacité des attaques, même si le drone perd la connexion avec l’opérateur.

Le Bolt-M aide également les opérateurs à comprendre le champ de bataille : suivre, surveiller et attaquer les cibles selon les instructions. Par exemple, un char d’assaut doté d’un camouflage supplémentaire peut ne pas être reconnu par l’ordinateur. Cependant, le système peut transmettre cette information à l’opérateur pour qu’il puisse prendre des décisions. Il est important de noter que ces drones de guerre peuvent garder le contrôle des cibles et exécuter de manière autonome les ordres précédemment donnés, même si le lien avec l’opérateur est rompu.

Ces capacités d’attaque autonomes repoussent les limites des principes du Pentagone en matière d’IA, qui stipulent que les armes robotisées doivent toujours impliquer un opérateur dans la prise de décision létale. Le Pentagone maintient les lignes directrices en matière d’éthique de l’IA, qui exigent des opérateurs qu’ils fassent preuve d’un « niveau approprié de jugement » lors de l’utilisation d’armes intelligentes. L’année dernière, le ministère de la Défense américain s’est efforcé de clarifier ce qui est autorisé, tout en laissant une certaine marge de manœuvre afin d’adapter les règles en fonction de l’évolution des situations. La nouvelle directive rend désormais explicite la nécessité de construire et de déployer des systèmes d’armes autonomes en toute sécurité et dans le respect des principes éthiques, mais pas sans une supervision significative par l’homme.

Marta fait voler un drone DJI à vue subjective (FPV) près de Kiev, en Ukraine, le 20 mai 2023. (Paula Bronstein/Getty Images)

Les drones gagnant en efficacité sur le champ de bataille, la demande de drones de combat autonomes augmente rapidement. Pour des entreprises comme Anduril, l’obtention d’une capacité d’attaque autonome n’est plus une question technique ; le véritable défi consiste à trouver un équilibre entre les contraintes éthiques et les opérations autonomes létales. Les acteurs de l’industrie cherchent à rendre leurs systèmes aussi puissants que possible dans le cadre des politiques gouvernementales, des règles d’engagement, des réglementations et des exigences des utilisateurs.

L’un des principaux enseignements tirés du champ de bataille ukrainien est que les conditions changent rapidement. Différents pays, qu’ils soient alliés ou ennemis, peuvent appliquer des normes éthiques différentes quant au développement et à l’utilisation d’armes autonomes létales. Tout dépend en grande partie de la tournure des événements sur le champ de bataille.

L’absence de consensus est grave car, alors que le Pentagone met l’accent sur l’éthique de l’IA et la nécessité de s’assurer qu’un homme est « dans la boucle » pour l’usage de la force létale, rien ne garantit que les adversaires accepteront des contraintes similaires. Cette situation entraîne des risques sans précédent pour le Pentagone et explique pourquoi l’armée, le gouvernement et l’industrie américains déploient tant d’efforts pour optimiser l’utilisation de l’IA, de l’autonomie et de l’apprentissage automatique dans les opérations et le développement des armes.

Récemment, l’armée américaine a lancé le programme d’évaluation des risques de l’IA « 100-Day » afin de renforcer et d’améliorer les systèmes d’IA soumis à des contraintes éthiques. Ces efforts soulignent l’importance des capacités humaines et des machines.

Le Pentagone exige non seulement le respect du principe de « l’homme dans la boucle » pour la force létale, mais les développeurs de technologies de l’armée américaine reconnaissent également que les méthodes informatiques d’IA avancées ne peuvent pas reproduire certains attributs fondamentaux de l’être humain comme la moralité, l’intuition, la conscience et les émotions. Bien que ces attributs ne représentent qu’une petite partie de la prise de décision, ils peuvent s’avérer cruciaux au combat.

La technologie pure, dépourvue de toute dimension humaine, peut entraîner des conséquences sur le plan éthique et s’avérer insuffisante pour faire face aux complexités du champ de bataille.

Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles d’Epoch Times.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.