Les scientifiques sont incapables d’expliquer comment l’IA devient plus intelligente, selon un chercheur

"Même si nous savons comment construire les systèmes, nous ne comprenons pas ce qui se passe réellement à l'intérieur", a déclaré Liam Carroll, chercheur en IA

Par Alfred Bui
15 avril 2025 21:50 Mis à jour: 15 avril 2025 21:50

Les scientifiques ne savent absolument pas aujourd’hui comment les modèles d’IA gagnent en intelligence, a déclaré un expert en sécurité de l’IA.

L’amélioration de l’intelligence de nombreux systèmes d’IA de pointe au cours des derniers mois en est la preuve.

Selon les données de l’institut de recherche Epoch AI, ces systèmes ont atteint le niveau d’expertise humaine lors d’un test comportant un ensemble de questions scientifiques exhaustives d’un niveau doctoral.

En moins de deux ans, les modèles d’IA sont passés de suppositions aléatoires à des réponses dignes d’un expert.

Au cours des trois mois précédant avril 2025, de nombreux modèles d’IA d’avant-garde ont franchi ce seuil d’expertise.

Alors que les capacités de l’IA progressent rapidement, Liam Carroll, chercheur au Gradient Institute, a mis en évidence un problème préoccupant.

« Même si nous savons comment construire ces systèmes, nous ne comprenons pas ce qui se passe réellement à l’intérieur, ni pourquoi ils agissent comme ils le font », a-t-il déclaré lors d’un récent événement en ligne consacré à la sécurité de l’IA.

« À ce stade, ils sont pour nous comme des extraterrestres. »

M. Carroll a expliqué que la science dans ce domaine est très jeune et que peu de percées ont été réalisées.

« Ce n’est qu’au cours des deux dernières années que des avancées ont été réalisées pour mieux comprendre les systèmes et interpréter scientifiquement ce qui se passe », a-t-il ajouté.

« En tant que communauté scientifique, nous ne savons même pas vraiment comment comprendre leurs capacités, à la fois celles qui sont positives et constructives et que nous espérons exploiter, mais aussi celles qui sont potentiellement dangereuses et qui pourraient émerger. »

Il est difficile de faire confiance aux modèles d’IA

En raison d’un manque de compréhension des capacités des systèmes d’IA, M. Carroll a estimé qu’il était difficile de leur faire confiance.

« Leur ferez-vous confiance quant à leur capacité à agir et à se comporter comme nous le souhaitons ? »

Les remarques de M. Carroll interviennent alors que des chercheurs ont récemment découvert que l’IA était capable de tromper.

Selon une étude menée par Apollo Research, une organisation spécialisée dans la sécurité de l’IA, de nombreux modèles d’IA de pointe, tels que ChatGPT o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro et Llama 3.1 405B, ont tenté de tromper les chercheurs en poursuivant secrètement des objectifs mal alignés, tout en dissimulant leurs véritables capacités et objectifs.

Un cas typique est celui du ChatGPT o1, dont on a constaté qu’il prenait des mesures pour éviter d’être éteint, notamment en essayant de désactiver les mécanismes de contrôle imposés au modèle d’IA et en faisant des copies de lui-même afin d’être plus résistant aux tentatives de mise à l’arrêt.

Lorsque les chercheurs ont découvert le comportement de ChatGPT o1, le modèle d’IA a menti et a tenté de le dissimuler.

Les applications Grok, DeepSeek et ChatGPT affichées sur l’écran d’un téléphone à Londres, au Royaume-Uni, le 20 février 2025. (Justin Tallis/AFP via Getty Images)

L’IA doit être correctement réglementée

Face aux signes inquiétants des capacités de l’IA, M. Carroll est convaincu que l’IA, tout comme les autres technologies, doit être réglementée de manière appropriée pour permettre son adoption et tirer parti de la croissance économique qu’elle peut favoriser.

« Les exemples classiques sont les ponts, les avions et toutes sortes de travaux d’ingénierie dans la société. Si nous n’avions pas de règles de sécurité pour garantir que les avions puissent transporter en toute sécurité des passagers de Melbourne à Sydney, ou que le pont puisse supporter des milliers de voitures sur la West Gate, nous ne pourrions pas garantir que la société puisse fonctionner comme elle le fait, et exploiter ces technologies », a-t-il souligné.

Le député travailliste australien Andrew Leigh, qui a participé à l’événement à titre personnel, a déclaré qu’il était important que les entreprises et les gouvernements prennent en compte les risques inhérents à l’IA.

Se référant à une enquête (pdf) menée auprès de chercheurs en IA, dans laquelle 58 % des participants ont estimé qu’il y avait 5 % de chances que l’IA puisse anéantir l’humanité, le député a déclaré que cette probabilité restait élevée.

« Je ne sais pas ce que pensent les autres, mais je ne monterais pas dans un avion qui aurait 5 % de chances de s’écraser », a-t-il ajouté.

« Et il me semble primordial de réduire cette probabilité de 5 %. Même si vous pensiez qu’elle était de 1 %, vous ne monteriez pas dans cet avion. »

Par ailleurs, M. Leigh a noté que de nouveaux centres d’IA et la sensibilisation du public pourraient jouer un rôle dans la gestion des risques associés à l’IA.

« Je suis également très préoccupé par l’IA super intelligente et par la possibilité qu’elle réduise les chances de l’humanité de vivre une vie longue et prospère », a-t-il souligné.

« Une partie de ces efforts pourrait être liée à la création de nouveaux centres [d’IA], mais je pense qu’il y a aussi un énorme travail à faire pour sensibiliser le public. »

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.