La Chine, les États-Unis, l’UE et une vingtaine de pays ont signé mercredi au Royaume-Uni la déclaration de Bletchley pour un développement « sûr » de l’intelligence artificielle (IA), lors du premier sommet international sur l’essor fulgurant de cette technologie.
« Cette déclaration historique marque le début d’un nouvel effort mondial visant à renforcer la confiance du public dans l’IA en veillant à ce qu’elle soit sûre », a salué le Premier ministre britannique Rishi Sunak sur X (ex-Twitter).
This landmark declaration marks the start of a new global effort to build public trust in AI by making sure it’s safe ? https://t.co/EHACt7kRId
— Rishi Sunak (@RishiSunak) November 1, 2023
L’Union européenne et les 28 pays réunis à Bletchley Park au nord de Londres se sont mis d’accord sur « le besoin urgent de comprendre et gérer collectivement les risques potentiels » de l’IA à travers « un nouvel effort mondial visant à garantir que l’IA est développée et déployée de manière sûre et responsable ».
« Tracer une voie à suivre »
Face au potentiel grandissant des modèles comme ChatGPT, la déclaration de Bletchley « montre que pour la première fois, le monde se réunit pour identifier le problème et mettre en avant ses opportunités » a souligné la ministre britannique de la Technologie Michelle Donelan à l’AFP.
Cette réunion « n’a pas pour objectif de poser les bases d’une législation mondiale, elle doit servir à tracer une voie à suivre », a-t-elle précisé. Deux sommets internationaux sur l’IA vont suivre, en Corée du Sud dans six mois puis en France dans un an, a-t-elle ajouté depuis l’emblématique centre de décryptage des codes de la Seconde guerre mondiale.
Pendant deux jours, dirigeants politiques, experts de l’IA et géants de la tech y sont réunis à l’initiative du Royaume-Uni, qui veut prendre la tête d’une coopération mondiale sur cette technologie. En parallèle, la vice-présidente américaine Kamala Harris doit annoncer dans un discours à Londres la création d’un institut sur la sécurité de l’intelligence artificielle à Washington.
Une telle structure – similaire à celle que le Royaume-Uni a aussi annoncé établir – rassemblerait des experts chargés d’établir « des lignes directrices » et d’évaluer les modèles d’IA les plus avancés pour « identifier et atténuer » les risques, selon la Maison Blanche.
Les IA génératives, capables de produire du texte, des sons ou des images sur simple requête en une poignée de secondes, ont fait des progrès exponentiels ces dernières années et les prochaines générations de ces modèles feront leur apparition d’ici l’été. Elles suscitent d’immenses espoirs pour la médecine ou l’éducation, mais pourraient aussi déstabiliser les sociétés, permettre de fabriquer des armes ou échapper au contrôle des humains, a averti le gouvernement britannique.
« Huis clos »
Après cette première journée consacrée aux dangers potentiels des IA les plus avancées, des représentants politiques de haut niveau sont attendus jeudi à Bletchley Park. Parmi eux, la présidente de la Commission européenne Ursula von der Leyen, le secrétaire général de l’ONU Antonio Guterres ou la Première ministre italienne Giorgia Meloni – seule cheffe d’État du G7 à faire le déplacement. Le Royaume-Uni espère les convaincre de créer un groupe d’experts sur l’IA sur le modèle du Giec pour le climat. Le milliardaire américain et entrepreneur star Elon Musk, déjà présent au sommet mercredi, échangera avec le Premier ministre britannique Rishi Sunak jeudi soir.
Dans une lettre ouverte publiée mardi, plusieurs des « pères fondateurs » de cette technologie comme Yoshua Bengio ou Geoffrey Hinton ont plaidé pour « l’élaboration et la ratification d’un traité international sur l’IA », afin de réduire les risques « potentiellement catastrophiques que les systèmes avancés font peser sur l’humanité ».
Tout l’enjeu est d’arriver à définir des garde-fous sans entraver l’innovation pour les laboratoires d’IA et géants de la tech. L’UE et les États-Unis, contrairement au Royaume-Uni, ont choisi la voie de la réglementation.
La semaine dernière, plusieurs entreprises comme OpenAI, Meta (Facebook) ou DeepMind (Google) ont accepté de rendre publiques certaines de leurs règles de sécurité sur l’IA à la demande du Royaume-Uni. Dans une lettre ouverte adressée à Rishi Sunak, une centaine d’organisations, experts et militants internationaux ont déploré que ce sommet se tienne à « huis clos », dominé par les géants de la tech et avec un accès limité pour la société civile.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.