En novembre 2022, le lancement d’un programme de chat en ligne doté d’une intelligence artificielle (IA), baptisé ChatGPT, fait sensation dans le monde entier. Ce programme est si « intelligent » qu’il fournit des réponses vraiment semblables à celles des humains. Ce qui en inquiète plus d’un. Il semble avoir très peu de défauts par rapport aux versions précédentes. Non seulement les gens le traitent comme un compagnon de conversation, mais ils ont également commencé à utiliser cette technologie d’IA pour diverses de tâches, telles que faire des devoirs, créer des images étonnantes, écrire des poèmes, etc.
Utiliser ChatGPT revient à accéder au cerveau d’un superordinateur, ce qui rend cette technologie intrigante et excitante, mais aussi un peu effrayante et menaçante. En 2014, Elon Musk a averti qu’avec l’IA, « nous convoquons le démon ». Cette menace deviendra réelle lorsque les IA comme ChatGPT pourront générer des réponses impossibles à distinguer de celles des humains. Cette technologie est très puissante et l’on craint aujourd’hui qu’elle ne bouleverse de nombreux secteurs, notamment le monde universitaire et les soins de santé.
Les emplois qui nécessitent habituellement une intervention humaine, comme ceux du journalisme et de l’industrie des services, sont menacés. Ils peuvent être remplacés et automatisés. Nous avons longtemps pensé que l’art du langage représentait l’intelligence humaine par excellence, mais l’IA frappe à la porte. Elle remet en question notre singularité et s’immisce dans nos vies.
L’IA est aujourd’hui extrêmement avancée et compétente
ChatGPT peut discuter de tout ce que vous voulez. Il peut analyser des codes, rédiger des travaux et des poèmes. Ce programme en ligne gratuit se décrit comme un programme informatique conçu pour « comprendre et répondre aux entrées en langage simple », comme les conversations textuelles.
ChatGPT est l’abréviation de Chat Generative Pre‑trained Transformer. Le programme est basé sur un ensemble de technologies développées et utilisées dans des programmes qui génèrent des réponses amicales pour l’utilisateur. L’IA est une chose qui nécessite qu’on lui apprenne à penser et à répondre à l’aide d’une technologie qui fonctionne comme les réseaux neuronaux. Ce processus implique de nourrir l’IA de montagnes d’informations avant qu’elle ne puisse les traiter, s’adapter, apprendre, créer et devenir intelligente.
ChatGPT utilise la dernière édition de GPT et est capable de générer une grande quantité de texte de type humain à partir d’un minimum d’informations. Il a déjà traité une quantité inimaginable de données qui lui ont permis d’apprendre ce qu’il faut renvoyer à l’utilisateur lorsqu’on lui pose une question. Par exemple, si vous demandiez à ChatGPT de vous écrire un poème, il générerait quelque chose comme ceci :
« Sous le ciel étoilé si brillant,
Avec une douce brise et une lumière argentée,
Je me tiens debout et je regarde dans la nuit,
En laissant mes pensées s’envoler.
La lune et les étoiles au‑dessus de moi brillent,
me guidant à travers les ténèbres divines,
Me rappelant l’amour et le temps,
Et toute la beauté qui est la mienne.
Le monde est vaste, mais petit et grand,
Un mystère qui attend d’être exploré,
avec des secrets cachés dans le sable,
et des histoires qui attendent d’être mises en boîte.
Alors laissez‑moi me tenir sous les étoiles,
et laissez mon âme et mon esprit s’envoler.
Car dans cette beauté, libre de toute entrave,
Je retrouve mon cœur pour toujours. »
Ce poème n’est‑il pas impressionnant ? Grâce à l’énorme volume de données qui alimente ChatGPT, il peut exploiter nos poèmes, les analyser et produire un nouveau poème en quelques secondes. Et le résultat peut être différent à chaque fois, même si on écrit le même ordre.
ChatGPT peut également faire de même avec des essais, des morceaux entiers de code, et bien plus encore. Il peut avoir une conversation informelle avec vous et sait comment adapter son jargon pour expliquer l’informatique quantique d’une manière qui soit compréhensible pour des élèves de cinquième.
On comprend pourquoi beaucoup sont immédiatement attirés par le programme, car il semble pouvoir résoudre de nombreux problèmes et offre un raccourci important pour accomplir des tâches. Le chat est gratuit et fonctionne extrêmement bien ; que pourrait‑il arriver de mal à cette technologie, si ce n’est qu’elle est le cauchemar des enseignants ?
ChatGPT ne peut pas être tenu responsable de son travail
Récemment, des scientifiques ont testé les limites de ChatGPT et lui ont demandé de rédiger des éléments d’articles de recherche qui ont ensuite été publiés dans des revues scientifiques réputées comme Nature. Après avoir appris qu’une IA était capable de rédiger des articles de recherche, elle est devenue le sujet d’un débat passionné qui secoue encore la communauté aujourd’hui.
Les partisans de l’IA considèrent une technologie comme ChatGPT comme la prochaine étape du progrès humain. Elle rendrait même la science plus efficace, réduirait le travail humain et faciliterait la vie.
Le problème cependant est qu’il n’y a aucun moyen de rendre l’intelligence artificielle responsable de son travail. Si le programme arrive à des conclusions erronées ou si ses algorithmes ne sont pas assez matures, comment peut‑il en assumer la responsabilité ?
La question de la responsabilité ne se pose pas seulement lorsque les choses tournent mal. L’utilisation de textes générés par l’IA sans citation appropriée « pourrait être considérée comme du plagiat », déclare Holden Thorp, rédacteur en chef de journaux scientifiques. Pour cette raison, alors que quelques articles ont déjà été publiés avec ChatGPT répertorié comme l’un des auteurs, les éditeurs accélèrent la pression pour la réglementation.
Après la publication d’articles avec ChatGPT comme coauteur, les rédacteurs en chef de Nature et de Science ont conclu que « ChatGPT ne répond pas aux normes de qualité d’auteur », car un tel titre implique une responsabilité, ce qui est hors de question pour l’IA.
Cependant, le problème central derrière la dispute sur la paternité de l’article est que les éditeurs de journaux ne sont plus certains de la mesure dans laquelle l’article a été généré par ChatGPT. Les expériences scientifiques nécessitent probablement encore des études menées par des humains. Mais les auteurs d’articles de synthèse qui mentionnent ChatGPT l’ont probablement fait parce qu’il a joué un rôle important dans le processus de rédaction.
Certains chercheurs biomédicaux ont utilisé ChatGPT pour mener des recherches sur le développement de médicaments et ont été en mesure d’identifier des produits chimiques potentiels qui n’avaient pas été détectés par le passé. Avec l’aide de l’IA, une nouvelle ère de progrès révolutionnaires dans le domaine biomédical va certainement s’ouvrir.
Cependant, comment les chercheurs seront‑il en mesure de déterminer si les données de l’IA sont valables ou trompeuses ? Quelqu’un osera‑t‑il remettre en question les algorithmes à l’origine de ces données ? Ce ne sont pas les seules questions auxquelles nous sommes confrontés aujourd’hui, car l’IA semble également prendre le contrôle des soins de santé, soit par les robots, soit par les applications.
L’intelligence artificielle ne devrait pas remplacer les professionnels de la santé
Certaines cliniques ont exploré l’utilisation de ChatGPT pour mener des consultations avec les patients. Des cliniques de santé mentale ont même obtenu de meilleurs résultats lorsqu’elles ont adopté ChatGPT pour prendre en charge les consultations avec leurs patients. De nombreux patients n’ont pas même remarqué qu’ils parlaient à un robot.
L’IA pourrait devenir la prochaine infirmière ou assistante médicale qui vous aidera à vous rétablir après un accident, ou qui pratiquera les incisions les plus importantes lors de votre prochaine opération. L’avenir des soins de santé pourrait se transformer rapidement, puisque les gens pourraient même ne plus avoir à se rendre au cabinet du médecin grâce à la combinaison de l’IA et de la télémédecine. Tout ce que vous avez à faire, c’est d’ouvrir une application sur votre téléphone et de parler avec un chatbot, de lui parler de vos symptômes, et il vous prescrira une ordonnance. Mais il y a un niveau de confiance développé pendant les interactions en face à face qui est absent de ce modèle d’IA.
Les robots d’IA utilisant un GPT peuvent également être utilisés pour traiter des patients à haut risque, comme ceux souffrant de troubles mentaux ou en réadaptation. Ils peuvent remplacer le médecin lorsqu’il s’agit de surveiller les patients et de leur administrer un traitement, d’effectuer des bilans, d’évaluer les risques et de prendre des mesures si nécessaire. Cependant, la même question de responsabilité se pose lorsque nous mettons en œuvre l’IA dans le domaine médical.
Ici, la question de la responsabilité est plus préoccupante, car qui sera tenu pour responsable lorsque le patient subira des complications dues à un mauvais médicament ou à une mauvaise dose ? Vous ne pouvez pas blâmer le médecin parce qu’il ne faisait que suivre l’IA. Vous ne pouvez pas blâmer l’IA parce que c’est un programme. Au bout du compte, qui sera tenu pour responsable ?
Pour que les gens se sentent en sécurité autour de l’IA, des règles strictes de responsabilité doivent être imposées pour restreindre la liberté de manœuvre de ces machines. Cependant, pour que ces programmes s’améliorent, ils doivent avoir plus de liberté pour fonctionner et apprendre. Bien que cela semble être une impasse, la question centrale est de savoir si les humains doivent laisser l’IA et les robots s’occuper d’eux.
Alors que les capacités de l’IA augmentent de manière rapide, pourquoi les écoles de médecine forment‑elles leurs étudiants, et dans quel but ? À l’avenir, si l’IA perd de sa puissance ou fonctionne mal, les médecins agréés sauront‑ils toujours comment traiter les patients sans l’aide de l’IA ? Dans quelle mesure serons‑nous dépendants de l’IA ?
L’être humain se dirige vers une croisée des chemins
L’IA a beaucoup de potentiel et fera inévitablement partie de notre avenir. Cependant, si l’on permet à l’IA de jouer un rôle plus important dans la médecine et les soins de santé, elle aura davantage de pouvoir pour influencer notre compréhension de la santé et du bien‑être. Elle pourrait même permettre à l’IA de modifier notre corps.
Si l’IA devient omniprésente, rendra‑t‑elle les humains plus bêtes et nous affaiblira‑t‑elle à tous les niveaux ? Au fil du temps, les enfants pourraient se contenter de parler à leurs tablettes chatbot plutôt qu’à leurs parents. Les gens pourraient oublier comment soulager les symptômes de choses aussi banales que les rhumes, et les tâches de base comme le fait d’écrire une rédaction ou une dissertation pourraient appartenir au passé. Cela va inévitablement fragiliser les humains et affecter notre développement. Lorsque la technologie sera si avancée que nous pourrons commander des robots par la pensée, ne deviendrons‑nous pas un jour ces extraterrestres aux membres allongés et à la tête gonflée ?
Lorsque l’IA commence à imiter la pensée humaine et à présenter un langage de type humain, nous commençons à voir la réalité du cerveau humain mise à nu : c’est essentiellement un ensemble de machines qui traitent des informations. Lorsque les ordinateurs rassemblent un volume suffisant de données, ils peuvent faire appel à un algorithme sophistiqué pour générer une pensée et une réponse de type humain. Plus les gens l’utiliseront, plus l’IA ChatGPT sera entraînée à ressembler davantage à l’homme, voire à devenir plus sage que lui.
Qu’est‑ce qui nous rend uniques, nous les humains ?
Nous avons vu des superordinateurs battre les champions humains aux échecs et au jeu de Go.
Aujourd’hui, l’IA est arrivée dans des domaines dont les gens sont réellement fiers – des domaines qui tournent autour de la création, de l’émotion, de l’interaction humaine, de l’expression artistique, etc.
C’est le moment critique où les êtres humains doivent réfléchir plus profondément à l’origine de leur intelligence. Nos inspirations naissent‑elles simplement d’une accumulation de myriades de données ? L’IA et les ordinateurs obtiennent leurs données à partir de saisies humaines ou en parcourant les profondeurs d’un océan de données. Est‑ce que nous aussi, nous obtenons nos idées « originales » de cette façon ? Pourquoi les gens trouvent‑ils de l’inspiration et des idées créatives qui n’ont apparemment rien à voir avec leur expérience et leurs connaissances préalables ?
La menace de l’IA et des superordinateurs ne se limite pas à la perte de nouveaux emplois. Et elle va au‑delà de la réduction de la capacité de réflexion humaine. La menace fondamentale d’une technologie d’IA incontrôlée est qu’elle coupe le lien de l’être humain avec son créateur. Grâce aux progrès technologiques, les êtres humains construisent des dieux numériques qu’ils adorent. Utiliser l’IA ou les robots pour améliorer la vie représente l’aspect agréable de cette drogue, mais utiliser l’IA pour remplacer la pensée humaine est le côté plus sombre.
La question urgente ici est de savoir comment sauvegarder notre spiritualité humaine. Comment maintenir notre lien avec le divin ? Les êtres humains ne sont pas seulement de la chair et des os, comme une machine est simplement composée de pièces mécaniques.
Le développement de technologies de l’IA telles que ChatGPT est le point de basculement d’une question à laquelle nous sommes confrontés depuis longtemps : la (dé)connexion avec Dieu et le véritable sens de nos vies humaines à mesure que nous remplaçons cette connexion. Nous sommes confrontés à un choix : continuons‑nous à tomber dans ce puits technologique sans fond, ou devons‑nous revenir à une voie traditionnelle où les êtres humains maintiennent leur connexion avec Dieu ?
Voici quelques éléments de réflexion : « Pourquoi l’humanité existe‑t‑elle ? » par Li Hongzhi.
Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles d’Epoch Times.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.