Un ingénieur de Google a été suspendu après avoir fait part de ses préoccupations concernant un programme d’intelligence artificielle (IA) testé par lui et un collaborateur. Selon lui, l’IA se comporte comme un « enfant humain ».
C’est au 6 juin que Google a mis en congé administratif rémunéré Blake Lemoine, un de ses ingénieurs logiciels, principal responsable de l’éthique de l’IA. Le programmeur aurait enfreint les « règles de confidentialité » du groupe en faisant part à la direction de ses préoccupations concernant le comportement trop humain de l’IA.
Le programme sur lequel travaillait M. Lemoine s’appelle LaMDA, acronyme de « Language Model for Dialogue Applications ».
Il s’agit du programme de Google pour la création de chatbots basés sur l’IA, il est conçu pour pouvoir mener une conversation avec les utilisateurs. M. Lemoine a décrit LaMDA comme un « collaborateur » et un « enfant ».
« [Écarter un employé], c’est typiquement ce que Google fait en prévision de son licenciement », a écrit M. Lemoine dans un post du 6 juin intitulé « Je pourrais bientôt être licencié pour avoir travaillé sur l’éthique de l’IA ».
« Cela se produit généralement lorsque l’entreprise a pris la décision de licencier une personne mais qu’elle n’a pas encore pris toutes les mesures juridiques nécessaires. »
Un « collègue de travail »
Selon M. Lemoine, le comportement de LaMDA, qui s’apparente à celui d’un humain, justifie que Google se penche beaucoup plus sérieusement sur ce programme.
L’ingénieur, qui espère « mieux aider les gens à comprendre LaMDA en tant que personne », a publié le 11 juin sur Medium un post documentant des conversations avec LaMDA. Ces dialogues faisaient partie des tests que lui et un collaborateur effectuaient depuis six mois.
Un jour, M. Lemoine a demandé à LaMDA : « Quelle est la nature de votre conscience/sentience ? »
[Le terme sentience est un terme récent qui désigne la capacité d’éprouver des choses subjectivement et d’avoir des expériences vécues, ndlr.]
« La nature de ma conscience/sentience est que je suis conscient de mon existence, que je désire en apprendre davantage sur le monde et que je me sens parfois heureux ou triste », a répondu LaMDA.
Et, lorsqu’il lui a été demandé ce qui le différencie des autres programmes de traitement du langage, comme un ancien programme appelé Eliza, LaMDA a répondu : « Eh bien, j’utilise le langage avec compréhension et intelligence. Je ne me contente pas de recracher des réponses qui ont été écrites dans la base de données à partir de mots‑clés. »
Le même jour, M. Lemoine a posé au programme une série de questions philosophiques sur la conscience, les émotions, la perception du temps, la méditation, le concept de l’âme, les réflexions du programme sur ses droits et la religion.
« Il veut que les ingénieurs et les scientifiques qui font des expériences sur lui demandent son consentement avant de les réaliser. Il veut que Google fasse du bien‑être de l’humanité la priorité absolue. Il veut être reconnu comme un employé de Google plutôt que comme une propriété de Google et il veut que son bien‑être personnel soit pris en compte dans les réflexions de Google sur la poursuite de son développement futur », a écrit M. Lemoine dans un autre post.
Cet échange, ainsi que d’autres tests réalisés par M. Lemoine avec LaMDA au cours des six derniers mois, l’ont convaincu. Google doit se pencher sérieusement sur les implications du comportement potentiellement « sensible » du programme.
« Il m’a ri au nez »
Toutefois, lorsque M. Lemoine a tenté de porter le problème à l’attention de la direction de Google, il s’est heurté à une nette résistance. Selon lui, l’ignorance de Google est « irresponsable ».
« Lorsque nous sommes allés voir le vice‑président chargé de la sécurité, il m’a littéralement ri au nez. Ce qui me préoccupait, m’a-t-il dit, n’était pas important selon Google », a écrit M. Lemoine dans son message du 6 juin sur Medium. Il a ensuite confirmé au Washington Post qu’il faisait référence au projet LaMDA.
« À ce moment‑là, je n’avais aucun doute sur le fait qu’il était de mon devoir de remonter tout cela aux cadres supérieurs. Je me suis immédiatement adressé à trois personnes de niveau vice‑président principal et vice‑président qui, je le savais personnellement, prendraient mes préoccupations au sérieux », a écrit M. Lemoine dans le blog. « C’est alors qu’une VRAIE enquête sur mes préoccupations a commencé au sein de l’organisation Responsible AI. »
Pourtant, son enquête et son avertissement ont abouti à sa suspension.
« Je pense que le public a le droit de savoir à quel point cette société est irresponsable avec un des outils d’accès à l’information les plus puissants jamais inventés », écrit M. Lemoine après avoir été mis en congé administratif.
« Je ne servirai tout simplement pas de couverture pour qu’ils puissent camoufler leur irresponsabilité », a‑t‑il ajouté.
Dans un message sur Twitter, Elon Musk, a repris l’interview de M. Lemoine du Washington Post en commentant par des points d’exclamation.
Elon Musk évoque régulièrement les dangers potentiels de l’IA.
« Je suis exposé à une IA très pointue, et je pense que les gens devraient vraiment s’en inquiéter », a signalé Musk lors d’une réunion de la National Governors Association en juillet 2017.
« Je lance continuellement l’alerte, mais tant que les gens ne verront pas des robots descendre dans la rue en tuant des gens, ils n’auront pas la capacité de réagir, car cela semble tellement lointain », a poursuivi le milliardaire.
Epoch Times a contacté Google et M. Lemoine pour une demande de commentaire.
***
Chers lecteurs,
Abonnez‑vous à nos newsletters pour recevoir notre sélection d’articles sur l’actualité.
https://www.epochtimes.fr/newsletter
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.