Plus de 100 experts en IA et personnes concernées ont signé une lettre ouverte appelant le prochain gouvernement australien à créer un institut de sécurité de l’IA (AISI : AI safety institute) pour gérer les risques liés à l’IA « avant qu’il ne soit trop tard ».
La lettre a été envoyée aux partis politiques avant les élections fédérales de mai.
Des experts en IA ont exhorté les responsables politiques à respecter les engagements pris par le gouvernement australien lors du sommet de Séoul sur l’IA en mai 2024.
Dans le cadre de la déclaration de Séoul, les pays participants se sont engagés à « créer ou développer des instituts de sécurité de l’IA, des programmes de recherche et/ou d’autres institutions pertinentes, notamment des organes de surveillance ».
Toutefois, l’Australie est actuellement le seul signataire à ne pas avoir créé d’AISI.
« Il s’agit d’un précédent dangereux pour l’Australie qui s’est formellement engagée à prendre des mesures spécifiques sans pour autant les mettre en œuvre », a déclaré Greg Sadler, directeur général de Good Ancestors Policy et coordinateur d’Australians for AI Safety (Australiens pour la sécurité de l’IA).
Toby Ord, chercheur principal à l’Université d’Oxford et membre du conseil d’administration du Centre pour la gouvernance de l’IA, a déclaré que l’Australie risquait de se retrouver dans une position où elle n’aurait que peu d’influence sur les systèmes d’IA.
« Un institut australien de sécurité de l’IA permettrait à l’Australie de participer sur la scène mondiale à l’orientation de cette technologie critique qui nous concerne tous », a-t-il déclaré.
La lettre souligne également que si les organisations ont fait des investissements massifs pour accélérer les capacités de l’IA, un financement minimal a été consacré à la compréhension et à la prise en compte de ses risques.
M. Sadler a précédemment déclaré à Epoch Times que pour 250 dollars dépensés pour rendre l’IA plus performante, un dollar environ est utilisé pour rendre l’IA plus sûre.
« Nous avons besoin d’une expertise technique indépendante au sein du gouvernement pour rejoindre la recherche mondiale sur les risques inhérents à l’IA, et aider à garantir que la réglementation et la politique répondent aux besoins de l’Australie », peut-on lire dans la lettre.

Garde-fous obligatoires pour l’IA
Dans le même temps, la lettre appelait à l’adoption d’une « loi sur l’IA » qui obligerait les développeurs et les acteurs du déploiement d’IA dans le pays à mettre en place des garde-fous obligatoires dans leurs produits.
Alors que le gouvernement a consulté le secteur sur une IA responsable et sûre et qu’il a reçu des conseils sur l’imposition de garde-fous obligatoires sur les systèmes à haut risque, des experts estiment que le moment est venu pour le prochain Parlement de passer des débats à l’action.
Le professeur Paul Salmon, de l’Université de la Sunshine Coast, qui est également le fondateur du Centre des facteurs humains et des systèmes sociotechniques, a soutenu la mise en œuvre d’une loi sur l’IA, estimant qu’elle garantirait une gestion efficace des risques.
« Nous perdons rapidement l’occasion de garantir que toutes les technologies d’IA sont sûres, éthiques et bénéfiques pour l’humanité », a-t-il déclaré.
De son côté, Yanni Kyriacos, directeur de AI Safety Australia and New Zealand, a souligné que le pays ne disposait pas actuellement d’un cadre juridique garantissant aux Australiens que l’IA pouvait être adoptée en toute sécurité.
« Une assurance solide justifie la confiance. Nous sommes tous enthousiasmés par les possibilités qu’offre l’IA, mais les efforts déployés aujourd’hui pour répondre aux véritables préoccupations en matière de sécurité sont insuffisants », a-t-il souligné.
« Il est facile de comprendre pourquoi les Australiens hésitent à adopter l’IA tant que ces grandes questions restent en suspens. »
Selon une étude réalisée en 2024 par l’université du Queensland, la principale priorité identifiée par les personnes interrogées est que le gouvernement prenne des mesures pour prévenir les conséquences dangereuses et catastrophiques de l’IA, huit personnes sur dix estimant que la prévention de la disparition de l’humanité induite par l’IA devrait être une priorité mondiale.
Les principales préoccupations des personnes interrogées concernent les conflits entre l’IA et les intérêts humains (désalignement), l’utilisation abusive de l’IA par des personnes ou entités malveillantes et le chômage engendré par l’IA.
En outre, neuf répondants sur dix souhaitent que le gouvernement mette en place un nouvel organisme de réglementation de l’IA.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.