Un innovateur de premier plan dans le domaine de l’intelligence artificielle (IA) tire la sonnette d’alarme sur les dangers de la technologie dont son travail a jeté les bases.
Geoffrey Hinton, informaticien britannique surnommé le « parrain de l’IA », a récemment quitté son poste de vice-président et d’ingénieur chez Google pour rejoindre les dizaines d’autres experts du domaine qui s’expriment sur les menaces et les risques de l’IA.
« Il est difficile de voir comment on peut empêcher de mauvais acteurs de l’utiliser pour faire de mauvaises choses », prévient Geoffrey Hinton, âgé de 75 ans, lors d’une interview accordée au New York Times.
À la suite du lancement de la dernière version du chatbot GPT d’OpenAI en mars, d’autres professionnels de l’IA ont signé une lettre ouverte, rédigée par l’organisation à but non lucratif Future of Life Institute, qui met en garde contre les « risques profonds pour la société et l’humanité » que pose cette technologie.
À l’instar des signataires de la lettre, Geoffrey Hinton juge « effrayantes » les récentes avancées en matière d’IA et s’inquiète de ce qu’elles pourraient signifier pour l’avenir, en particulier maintenant que Microsoft a intégré la technologie dans son moteur de recherche Bing.
Google s’étant empressé de faire de même, Geoffrey Hinton fait remarquer que la course entre les grandes entreprises technologiques pour développer une IA plus puissante pourrait facilement devenir incontrôlable.
Un aspect particulier de la technologie de l’IA qui préoccupe l’informaticien est sa capacité à créer de fausses images, de fausses photos et de faux textes, au point que l’individu moyen « ne sera plus capable de savoir ce qui est vrai ».
Il a également mis en garde contre le fait qu’à l’avenir, l’IA pourrait potentiellement remplacer les humains sur le lieu de travail et être utilisée pour créer des armes entièrement autonomes.
« L’idée que cette machine puisse devenir plus intelligente que les gens, quelques personnes y ont cru », estime Geoffrey Hinton. « Mais la plupart des gens pensaient que c’était une erreur. Et je pensais que c’était loin d’être le cas. Je pensais que c’était dans 30 à 50 ans, voire plus. Évidemment, je ne le pense plus. »
Le départ de Geoffrey Hinton
Geoffrey Hinton est principalement connu pour son rôle dans le développement de l’apprentissage profond, une forme d’apprentissage automatique qui entraîne les ordinateurs à traiter les données comme le fait le cerveau humain.
Ce travail a fait partie intégrante du développement de l’IA, mais rétrospectivement, Geoffrey Hinton avoue regretter le rôle qu’il a joué dans ce processus. « Je me console avec l’excuse habituelle : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait. »
Le mois dernier, Geoffrey Hinton a informé Google qu’il quittait l’entreprise après plus d’une décennie.
Le 1er mai, il précise que la raison de son départ est uniquement d’isoler l’entreprise de ses déclarations et n’a rien à voir avec l’approche de Google en matière d’IA.
« Je suis parti pour pouvoir parler des dangers de l’IA sans tenir compte de l’impact sur Google », écrit-il dans un tweet. « Google a agi de manière très responsable. »
Dans une déclaration fournie au New York Times, Jeff Dean, vice-président senior de Google chargé de la recherche et de l’IA, déclare : « Nous restons attachés à une approche responsable de l’IA. Nous apprenons continuellement à comprendre les risques émergents tout en innovant avec audace. »
Un Dieu numérique
Malgré les assurances de Google, d’autres ont critiqué les méthodes de l’entreprise.
Dans une récente interview accordée à Fox News, le PDG de Tesla, Elon Musk, qui a également cofondé OpenAI, admet qu’il avait l’impression que Larry Page, cofondateur de Google, ne prenait pas au sérieux les risques liés à l’IA.
« Il semblait vraiment vouloir une superintelligence numérique, en fait un Dieu numérique, le plus rapidement possible », confie Elon Musk, faisant référence aux conversations qu’il a eues avec Larry Page à ce sujet.
« Il a déclaré publiquement à plusieurs reprises au fil des ans que l’objectif de Google était ce que l’on appelle l’AGI, l’intelligence générale artificielle, ou la superintelligence artificielle », fait-il remarquer. « Je suis d’accord avec lui pour dire qu’il y a un grand potentiel pour le bien, mais qu’il y a aussi un potentiel pour le mal. »
Elon Musk, qui a signé la lettre du Future of Life Institute, ne cache ses inquiétudes quant à l’IA en général, estimant qu’elle représente un risque sérieux pour la civilisation humaine.
« L’IA est peut-être plus dangereuse que, par exemple, une maintenance ou une conception d’avion mal gérée, ou une mauvaise production automobile, dans le sens où elle a le potentiel — aussi faible que l’on puisse considérer cette probabilité, mais elle n’est pas triviale — de détruire la civilisation », soutient-il sur Fox News.
Une autre crainte révélée par Elon Musk est que l’IA soit formée au politiquement correct, ce qui, selon lui, n’est qu’une forme de tromperie et une façon de « dire des choses fausses ».
Malgré ces préoccupations — ou peut-être à cause d’elles — le milliardaire a exprimé également son intérêt pour le développement de sa propre IA, qui serait « à la recherche de la vérité », qui serait formatée à se soucier de l’humanité.
« Nous voulons être pro-humains », conclut-il. « Faire en sorte que l’avenir soit bon pour les humains. Parce que nous sommes des humains. »
Caden Pearson a contribué à cet article.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.