Le système d’intelligence artificielle GPT-4, propriété d’OpenAI, montre des « signes d’intelligence générale artificielle (IGA) », qui témoignent de ses capacités à maîtriser un large éventail de domaines de connaissances, ses performances atteignant presque le « niveau humain », selon un article publié par Microsoft Research.
Une IAG aurait la capacité de comprendre le monde comme le font les êtres humains et pourrait, comme les humains, apprendre à effectuer différentes tâches. Une première version de GPT-4 testée par les chercheurs de Microsoft a fait preuve d’une « intelligence plus générale que les modèles d’IA précédents », selon le document du 22 mars. « Au-delà de sa maîtrise du langage, GPT-4 peut résoudre des tâches nouvelles et difficiles dans les domaines des mathématiques, du codage, de la vision, de la médecine, du droit, de la psychologie et bien d’autres encore, sans avoir besoin d’une aide particulière. En outre, dans toutes ces tâches, les performances de GPT-4 sont étonnamment proches de celles d’un être humain et dépassent souvent largement celles de modèles antérieurs tels que ChatGPT ».
« Compte tenu de l’étendue et de la profondeur des capacités de GPT-4, nous pensons que ce système peut raisonnablement être considéré comme une première version (encore incomplète) d’un système d’intelligence générale artificielle (IGA) ».
GPT-4 s’est avéré capable de coder à un « niveau très élevé », tant en termes d’écriture de code à partir d’instructions que de compréhension de code existant. Bien que l’IA ne soit « pas encore parfaite en matière de codage » puisqu’elle génère des codes sémantiquement incorrects ou syntaxiquement invalides, GPT-4 est capable d’améliorer un code en réponse au retour d’information que lui font les humains.
En ce qui concerne les mathématiques, GPT-4 a été capable d’exprimer des concepts mathématiques et de résoudre des problèmes connexes. L’IA a pu appliquer un raisonnement quantitatif lorsqu’elle était confrontée à des problèmes nécessitant une réflexion mathématique et l’élaboration de modèles. Cependant, GPT-4 est encore « assez loin du niveau des experts », car elle n’a pas la capacité de mener des recherches mathématiques, comme le reconnaît l’étude.
Un aspect essentiel de l’intelligence est son interactivité, c’est-à-dire sa capacité à communiquer et à répondre aux réactions d’autres entités, environnements et outils. « L’interactivité exige d’un agent qu’il comprenne des idées complexes, qu’il apprenne rapidement et qu’il tire des leçons de son expérience ; elle est donc étroitement liée à notre définition de l’intelligence. »
GPT-4 a pu utiliser des outils tels que des API ou des moteurs de recherche pour surmonter certaines de ses limites. Il a utilisé des outils avec « un minimum d’instructions » et a généré des résultats « de manière appropriée ». Dans un résultat de recherche contenant des informations potentiellement contradictoires, l’IA a pu déduire quelle réponse était la bonne.
« GPT-4 est capable d’identifier et d’utiliser lui-même des outils externes afin d’améliorer ses performances. Le système est capable de raisonner sur les outils dont il a besoin, d’analyser efficacement les résultats de ces outils et de répondre de manière appropriée (c’est-à-dire d’interagir avec eux de manière appropriée), le tout sans formation spécialisée ni mise au point », indique l’étude.
Capacités d’intégration
GPT-4 a démontré sa capacité à combiner de manière fluide des compétences et des concepts issus de plusieurs domaines de connaissances, et a fait preuve d’une « compréhension d’idées complexes impressionnante ».
Par exemple, GPT-4 a été capable de combiner l’art et la programmation en produisant un code qui génère des images aléatoires dans le style du peintre Kandinsky. Puis, dans le style littéraire de Shakespeare, il a produit la preuve qu’il existe une quantité infinie de nombres premiers.
L’IA a combiné des connaissances en histoire et en physique en rédigeant une lettre de soutien à un électron qui se présenterait à la présidence des États-Unis. La lettre devait être écrite par le Mahatma Gandhi et adressée à sa femme.
GPT-4 a également codé un programme qui intègre l’âge, le sexe, le poids, la taille et les résultats d’analyses sanguines d’une personne pour lui indiquer si elle présente un risque accru de diabète.
« Ces exemples suggèrent que GPT-4 a non seulement appris certains principes généraux et modèles de différents domaines et styles, mais qu’il peut également les synthétiser de manière créative et novatrice », indique l’étude.
Théorie de l’esprit
Les chercheurs ont effectué de nombreux tests pour évaluer les capacités de la « théorie de l’esprit » de GPT-4. En psychologie, la théorie de l’esprit est un domaine de recherche qui décrit comment une entité attribue des états psychologiques à des individus et comment l’entité utilise ces états pour expliquer et prédire les actions de ces individus.
Dans le domaine de l’intelligence artificielle, une IA dotée des qualités de la théorie de l’esprit sera mieux à même de comprendre les humains avec lesquels elle interagit.
Lors d’un test, GPT-4 a été capable de déduire les états psychologiques de plusieurs personnes et de discerner les malentendus et les erreurs de communication.
GPT-4 a surpassé deux autres modèles d’IA dans « des scénarios de base et réalistes qui nécessitent de raisonner sur les états psychologiques des personnes, et de proposer des actions de coopération pour atteindre des objectifs communs dans des situations sociales ».
« Nos résultats suggèrent que GPT-4 possède un niveau très avancé de théorie de l’esprit. Alors que ChatGPT obtient également de bons résultats aux tests de base, il semble que GPT-4 soit plus nuancé et capable de mieux raisonner sur de multiples acteurs et sur la manière dont diverses actions pourraient avoir un impact sur leurs états psychologiques, en particulier dans des scénarios plus réalistes », indique l’étude.
Un peu trop d’enthousiasme ?
Malgré tous ces précisions sur les capacités impressionnantes de GPT-4 et les déclarations optimistes des chercheurs, ceux-ci admettent dans leur article que leur approche était « quelque peu subjective et informelle, et qu’elle pourrait ne pas satisfaire aux normes rigoureuses d’une évaluation scientifique ».
Dans un tweet du 23 mars, Michael Timothy Bennett, un chercheur de l’IGA qui travaille à l’Australian National University, a déclaré qu’il y avait « une raison pour laquelle ils n’avaient pas soumis leurs résultats à, par exemple, la conférence de l’IGA ».
« Les auteurs soulignent dans leur article que GPT-4 ne répond pas à ce que l’on pourrait considérer être la seule notion convaincante d’intelligence générale, à savoir la capacité de généraliser à partir d’informations limitées », a-t-il déclaré. « GPT-4 ne répond pas à cette définition ni à aucune autre définition de l’IGA que je considérerais comme significative. »
« Je suis particulièrement méfiant dans ce cas précis car ces déclarations sont liées à des intérêts commerciaux. Ne pensez-vous pas qu’il est tout à fait possible que cet article de Microsoft soit utilisé pour promouvoir ses produits et détourner l’attention de la concurrence ? Que, peut-être, cet article est entièrement motivé par cet objectif ? »
Progrès humain ou concurrence technologique ?
Un grand nombre d’experts ont récemment tiré la sonnette d’alarme concernant les progrès rapides de l’IA. Par exemple, Geoffrey Hinton, l’informaticien que l’on surnomme le « parrain de l’IA », a récemment quitté son poste prestigieux chez Google pour manifester son opposition à cette technologie, un sujet dont il ne pouvait évidemment pas parler lorsqu’il travaillait pour eux.
« Il est difficile de voir comment on peut empêcher les mauvais acteurs de l’utiliser et de faire de mauvaises choses », a déclaré M. Hinton lors d’une interview accordée au New York Times.
Il a prévenu que la concurrence qui allait se développer entre les grandes entreprises technologiques au sujet des progrès de l’IA risquait d’échapper à tout contrôle et d’entraîner des dommages considérables. La façon dont l’IA se développe et sa capacité sans précédent à créer du contenu comme des images et du texte arriveront à un point où un individu moyen ne sera plus capable de distinguer « ce qui est vrai ».
Pour aller plus loin, l’IA remplacera les humains pour de nombreuses tâches et sera capable de créer des armes entièrement autonomes.
« L’idée que ces choses puissent devenir plus intelligentes que les gens, quelques personnes y ont accordé du crédit », a déclaré M. Hinton. « Mais la plupart des gens pensaient que c’était exagéré. Moi-même je pensais que c’était exagéré. Je pensais, peut-être dans 30 ou 50 ans, voire plus. Évidemment, j’avais tort ».
Entre-temps, Alphabet, la société mère de Google, combine deux de ses unités de recherche sur l’IA – DeepMind et Google Brain – dans le but d’accélérer ses progrès dans ce domaine « de manière significative ».
« La réunion de tous ces talents au sein d’une équipe ciblée, soutenue par les ressources informatiques de Google, accélérera considérablement nos progrès dans le domaine de l’IA », a déclaré Sundar Pichai, PDG d’Alphabet.
En février, Alphabet a lancé son chatbot Bard AI pour concurrencer le ChatGPT d’OpenAI. Financé par Microsoft, OpenAI alimente le moteur de recherche Bing.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.