Le développement et l’application de l’IA sont de plus en plus répandus, et une nouvelle génération d’armes intègre l’IA, ce qui a suscité des inquiétudes parmi les experts qui affirment que l’IA est dénuée de contraintes morales et qu’elle pourrait conduire l’humanité à un « Moment Oppenheimer ».
Lors d’une conférence de presse en ligne qui s’est tenue début mai, Paul Dean, fonctionnaire du département d’État américain chargé du contrôle des armements, a annoncé que les États-Unis, le Royaume-Uni et la France avaient pris un « engagement clair et fort » quant au contrôle total des armes nucléaires par les hommes, rejetant le recours à l’IA pour gérer ou prendre des décisions. Il a également encouragé la Chine et la Russie à prendre le même engagement.
L’ingénieur informaticien japonais Kiyohara Jin s’est entretenu avec Epoch Times le 7 mai. Il a déclaré : « L’IA fait appel à l’analyse de données et présente des différences significatives avec la prise de décision humaine. Les hommes sont soumis à des contraintes émotionnelles et morales, contrairement à l’IA. Permettre à [l’IA] de contrôler des bombes nucléaires est aussi terrifiant que la possession d’armes biologiques par des États autoritaires comme la Chine et l’Iran. »
Les États-Unis finalisent les essais d’un avion de combat à IA
Les applications militaires de l’IA sont déjà très répandues, avec des armes telles que des chars dotés de systèmes de ciblage IA, des drones capables d’attaquer automatiquement des cibles, et des chiens robots lance-flammes équipés d’IA. Il est à craindre que l’IA ne s’étende à des armes toujours plus puissantes.
Le 5 mai, la base aérienne d’Edwards, en Californie, a testé un avion de chasse F-16 contrôlé par l’IA. Le F-16 s’est engagé dans un combat aérien avec un autre F-16 piloté par un humain. Les deux avions ont manœuvré à moins de 300 mètres l’un de l’autre, en tentant de forcer l’adversaire à se mettre dans une position vulnérable.
Le pilote humain, le secrétaire de l’armée de l’air Frank Kendall, a déclaré à propos de l’IA : « C’est un risque pour la sécurité de ne pas l’avoir. Nous devons désormais l’utiliser ».
L’armée de l’air américaine déploie activement l’IA dans les avions de chasse. En février dernier, le ministère de la Défense a effectué 12 essais en vol au cours desquels l’IA a été utilisée pour piloter des avions et effectuer des manœuvres de combat avancées sur la base aérienne d’Edwards, en Californie. L’armée de l’air prévoit de disposer d’une flotte de plus de 1000 F-16 contrôlés par l’IA d’ici 2028.
Jeff Clune, professeur agrégé d’informatique à l’université de Colombie-Britannique, spécialisé dans l’IA et l’apprentissage automatique, fait partie d’un groupe de chercheurs influents qui s’opposent à un contrôle excessif des armes par l’IA, car ils craignent qu’un jour une IA extrêmement bien informée ne devienne malveillante et agisse sans contrôle humain. Des magnats de la technologie tels qu’Elon Musk et Sam Altman, PDG d’OpenAI, ont tous lancé des mises en garde contre ces risques et suggéré des restrictions plus sévères sur l’utilisation de l’IA dans les armes.
Le Comité international de la Croix-Rouge a également souligné que les gens étaient généralement inquiets à l’idée de confier des décisions de vie ou de mort à ces armes contrôlées par l’IA, appelant la communauté internationale à mieux prendre en compte ces questions.
Stephen Xia, commentateur militaire chinois, a déclaré à Epoch Times le 9 mai : « Les armes nucléaires contrôlées par l’IA sont l’un des problèmes de l’IA militarisée. Même si cela ne s’est pas encore produit, la probabilité est élevée compte tenu du développement actuel de l’IA. C’est pourquoi les États-Unis et l’Occident espèrent que le monde parviendra à un consensus sur la question du contrôle des armes nucléaires par l’IA. Les dommages causés par l’application militaire de l’IA pourraient être irréversibles ».
Le prochain « Moment Oppenheimer »
Fin avril, une conférence de deux jours s’est tenue à Vienne, en Autriche, appelant tous les pays à discuter ensemble sur la question de la militarisation de l’IA. Plus de 1000 participants de plus de 140 pays ont participé à la conférence, dont des dirigeants politiques, des experts et des membres de la société civile.
« C’est le Moment Oppenheimer de notre génération », a déclaré Alexander Schallenberg, ministre autrichien des Affaires étrangères, lors de la conférence sur les systèmes d’armes autonomes.
Cette affirmation fait référence à la participation du physicien américain Robert Oppenheimer à la mise au point de la bombe atomique, qui a apporté la victoire aux États-Unis et à leurs alliés lors de la Seconde Guerre mondiale, ce qui lui a valu le titre de « père de la bombe atomique ». Cependant, Oppenheimer a été témoin du désastre que la bombe atomique a causé au peuple japonais et des cicatrices indélébiles qu’elle a laissées dans le monde, l’amenant à se demander si sa décision de participer au développement de la bombe atomique était juste.
« Les systèmes d’armes autonomes envahiront bientôt les champs de bataille du monde entier. Nous le voyons déjà avec les drones à IA et la sélection des cibles reposant sur l’IA », a déclaré M. Schallenberg.
Il a expliqué qu’il était urgent d’établir des règles et des normes internationalement reconnues pour empêcher l’IA d’échapper au contrôle humain et de menacer l’humanité. Il faut veiller à ce que les armes soient contrôlées par des hommes et non par l’IA.
Le ministre des Affaires étrangères du Costa Rica, Arnoldo André Tinoco, a exprimé son inquiétude quant à l’utilisation de l’IA par des terroristes et des régimes autoritaires en temps de guerre.
« La facilité d’accès aux armes autonomes fait tomber les barrières qui assuraient qu’un petit nombre seulement de personnes pouvaient entrer dans la course aux armements », a-t-il fait remarquer lors de la conférence.
Avec Associated Press.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.