Le PDG de Twitter, Elon Musk, s’est joint à des dizaines d’experts en intelligence artificielle (IA) et de dirigeants de l’industrie pour signer une lettre ouverte appelant tous les laboratoires d’IA à « interrompre immédiatement » la conception de systèmes plus puissants que Chat GPT-4 pour une durée d’au moins six mois.
La lettre, publiée par l’organisation à but non lucratif Future of Life Institute (FLI – Institut pour l’avenir de la vie – une association de volontaires basée dans la région de Boston, cherchant à diminuer les risques existentiels menaçant l’humanité, en particulier ceux provenant de l’intelligence artificielle), a été signée par plus de 1100 personnes, dont Steve Wozniak, cofondateur d’Apple, Emad Mostaque, fondateur et PDG de Stability AI, et des ingénieurs de Meta et de Google, entre autres.
Ils soutiennent que les systèmes d’IA dotés d’une intelligence en mesure de rivaliser avec celle des humains peuvent présenter « des risques profonds pour la société et l’humanité » et changer « l’histoire de la vie sur Terre », citant des recherches approfondies sur la question et des conclusions de « laboratoires d’IA de premier plan. »
Les experts poursuivent en affirmant que la planification et la gestion des systèmes d’IA avancée sont actuellement limitées, bien que les entreprises aient été, ces derniers mois, « enfermées dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que jamais. Leurs créateurs, eux-mêmes, étant dans l’incapacité de comprendre, prédire ou contrôler de manière fiable ces IA. »
« Les systèmes d’IA actuels sont désormais capables de rivaliser avec les humains pour des tâches générales. Ainsi, nous devons nous poser la question : devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devons-nous automatiser tous les emplois, y compris les plus gratifiants ? Devons-nous développer des esprits non-humains qui pourraient un jour devenir plus nombreux, plus intelligents, nous rendre toujours plus obsolètes et finalement nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? De telles décisions ne doivent pas être déléguées à des leaders technologiques non élus », peut-on lire dans la lettre.
Des protocoles de sécurité nécessaires
« Les systèmes d’IA puissants ne devraient être développés qu’une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », ajoutent-ils.
La lettre appelle ensuite à une pause officielle et vérifiable d’au moins six mois sur la conception de systèmes d’IA plus puissants que GPT-4 ou à un moratoire décrété par le gouvernement sur cette recherche si la pause ne peut pas être promulguée rapidement.
Pendant cette pause, les laboratoires d’IA et les experts indépendants devraient mettre à profit ce temps pour créer et mettre en œuvre un ensemble de protocoles de sécurité partagés pour la conception et le développement de l’IA avancée, qui seraient « rigoureusement audités » et supervisés par des experts tiers indépendants, indique la lettre.
Ces protocoles devraient être conçus pour s’assurer que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable, précis, dignes de confiance et alignés, selon les experts.
En outre, la lettre appelle les décideurs politiques à développer rapidement des systèmes de gouvernance fiables de l’IA, tels que des autorités capables de surveiller et de suivre des systèmes d’IA hautement performants, de lever des fonds pour des recherches supplémentaires sur la sécurité de l’IA. Mais encore, de créer des institutions capables de faire face aux « perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA causera. »
« Cela ne signifie pas une pause dans le développement de l’IA en général, mais simplement une prise de recul par rapport à la course dangereuse vers des modèles de boîtes noires imprévisibles toujours plus imposants dotés de capacités émergentes », ont noté les experts dans leur lettre.
Cette lettre intervient deux semaines après qu’OpenAI, le créateur du système d’intelligence artificielle ChatGPT, a publié le 14 mars la mise à jour tant attendue de sa technologie d’IA, Chat GPT-4, le système d’IA le plus puissant jamais conçu.
Mise à jour de ChatGPT
Selon OpenAI, soutenu par Microsoft, le système mis à jour dispose d’une série de nouvelles fonctionnalités, telles que l’acceptation d’images en tant qu’entrées et la génération de légendes, de classifications et d’analyses, mais il est plus sûr et plus précis que son prédécesseur.
Dans une déclaration de février, OpenAI a reconnu qu’à un moment donné, il pourrait être important d’obtenir un « examen indépendant avant de commencer à concevoir de futurs systèmes, et pour les efforts les plus avancés de s’entendre pour limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles. »
« Nous pensons qu’il est important d’établir des normes publiques concernant le moment où un programme d’AGI doit arrêter un développement, décider qu’un modèle peut être diffusé en toute sécurité ou retirer un modèle de la production. Enfin, nous pensons qu’il est important que les principaux gouvernements du monde aient connaissance des développements dépassant une certaine échelle », a déclaré l’entreprise.
En début de semaine, Europol, l’agence de l’Union européenne chargée de l’application de la loi, a mis en garde contre les graves conséquences de l’utilisation de ChatGPT à des fins de cybercriminalité et d’autres activités malveillantes, notamment la diffusion de désinformation.
D’autres inquiétudes ont été soulevées concernant le logiciel, formé à l’aide de l’apprentissage par renforcement à partir du feedback humain (RLHF), en particulier concernant la manière dont il peut être utilisé pour aider les étudiants à tricher lors de leurs examens et de leurs devoirs.
Malgré ces inquiétudes, la popularité de ChatGPT a incité des entreprises concurrentes à lancer des produits similaires.
La semaine dernière, Google a annoncé qu’il avait lancé son application d’IA, connue sous le nom de « Bard », pour des tests au Royaume-Uni et aux États-Unis, bien que la société ait été beaucoup plus lente à lancer la technologie que son rival, invoquant la nécessité d’obtenir davantage de retours d’information sur l’application.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.