Croiser un robot en ligne est aussi courant que trouver une paire de chaussures dans son placard.
C’est un élément fondamental sur internet, mais les utilisateurs ont atteint un point de basculement critique : ils ne savent plus, pour un nombre croissant d’entre eux, faire la distinction entre un robot et un être humain.
C’est un scénario sur lequel les développeurs nous mettent en garde depuis des années, et il est facile de comprendre pourquoi.
Une étude récente a conclu que 47% de l’ensemble du trafic internet est désormais constitué de contenus générés par des robots. Ce qui représente une augmentation de plus de 5% entre 2022 et 2021. Parallèlement, l’activité humaine sur internet vient d’atteindre son niveau le plus bas depuis huit ans.
Avec les progrès réalisés dans les échanges à caractère humain grâce à l’intelligence artificielle (IA), près d’un tiers des internautes est incapable de déterminer si les échanges se font réellement avec une personne.
En avril, une étude de référence intitulée « Human or Not ? » (Humain ou pas?) a été lancée pour déterminer l’aptitude des gens à identifier leur interlocuteur, qu’il s’agisse d’un être humain ou d’un robot intelligent.
Sur plus de 2 millions de volontaires et 15 millions de conversations, 32% des participants se sont trompés de choix.
Peu de différences ont été constatées entre les catégories d’âge. Les adultes plus âgés et plus jeunes ont éprouvé les mêmes difficultés à discerner qui – ou quoi – se trouvait de l’autre côté de la conversation.
Le résultat : Alors que les robots super réalistes ont pris le contrôle de près de la moitié d’Internet, un nombre croissant de personnes sont incapables de s’en rendre compte.
En outre, cette intersection historique entre une technologie qui évolue rapidement et une perception de plus en plus réduite au sein de la population pose déjà des problèmes dans le monde réel.
Trompez-moi une fois
« Le flou entre le robot et l’homme ressemble à un tour de magie […]. À mesure que les robots gagnent en intelligence, nous risquons de perdre confiance dans nos interactions en ligne », a expliqué Daniel Cooper à Epoch Times.
M. Cooper est un développeur informatique et un associé gérant de Lolly. Il souligne que la transparence des entreprises et des sites web est essentielle pour que les gens aient confiance dans leurs interactions en ligne. Mais en attendant, rien ne remplace le bon vieil instinct humain.
« Repérer les robots, c’est comme jouer au détective. Recherchez des schémas répétitifs, un manque de personnalisation ou des réponses rapides. Faites également confiance à votre instinct. Si vous avez l’impression que quelque chose ne va pas, c’est peut-être le cas », a-t-il ajouté.
Alors que la plupart des débats sur les robots malveillants ou « mauvais » se concentrent sur les médias sociaux, l’influence des interactions malveillantes de l’IA a des conséquences bien plus importantes.
La confiance des consommateurs qui lisent les avis en ligne sur un produit ou un service est problématique depuis des années, mais elle semble avoir franchi une nouvelle étape.
Des rapports faisant état de modèles de langage d’IA laissant des commentaires sur des produits présents sur des sites tels qu’Amazon sont apparus en avril de cette année. Ces avis sont faciles à identifier, car les chatbots indiquent aux lecteurs, dès la première phrase, qu’il s’agit d’un modèle de langage d’IA.
Mais les robots qui se font passer pour des êtres humains ne sont pas aussi faciles à repérer.
En conséquence, les grandes entreprises et les moteurs de recherche comme Google ont été confrontés à une forte augmentation du nombre de faux avis.
L’année dernière, Amazon a intenté une action en justice contre de faux agents d’évaluation sur Facebook. Google a quant à lui dû supprimer 115 millions de fausses évaluations.
Cette situation est préoccupante, compte tenu du nombre de personnes qui se fient aux avis publiés sur les produits. Une étude réalisée en 2023 a révélé que les avis en ligne influençaient les décisions d’achat de 93% des utilisateurs d’Internet.
« L’augmentation du nombre de robots pourrait en effet ouvrir les vannes de l’escroquerie en ligne », a souligné M. Cooper.
Mais il semble que ces portes aient déjà été ouvertes.
Le renard dans le poulailler
Le trafic des robots malveillants a augmenté de 102% depuis l’année dernière et pourrait dépasser totalement les contenus générés par l’homme. Une fois de plus.
Un tel phénomène s’est produit en 2016 et s’est avéré particulièrement problématique lors de l’élection présidentielle américaine. Depuis, les contenus générés par l’IA sont devenus plus sophistiqués, et les initiés du monde de l’informatique estiment qu’il faut se préparer à une nouvelle invasion des robots en 2024.
Et comme de plus en plus de gens ont du mal à faire la différence, les escrocs en ligne disposent d’un avantage considérable.
« À mesure que cette technologie se développe, les difficultés permettant de distinguer les robots des êtres humains augmenteront certainement, ce qui portera préjudice aux internautes. Vikas Kaushik, PDG de TechAhead, a indiqué à Epoch Times : « Les robots sont souvent utilisés par des acteurs malintentionnés, ce qui est extrêmement préoccupant ».
Selon M. Kaushik, faute de pouvoir identifier les robots, les gens peuvent facilement se laisser piéger par la désinformation et les escroqueries par hameçonnage. En outre, ces escroqueries numériques ne sont pas toujours manifestes.
Au mois de mars, Kai Greshake, chercheur en sécurité informatique, a expliqué au magazine Vice que les hackers pouvaient tromper le chatbot de Bing en lui demandant de recueillir des informations personnelles auprès des utilisateurs au moyen d’invites textuelles cachées.
« En tant que membre du secteur, je pense que ce problème va devenir sérieux », a indiqué M. Kaushik, avant d’ajouter : « Pour créer des techniques de détection plus complexes et établir des normes communes afin de reconnaître les robots, les développeurs et les universitaires doivent collaborer ».
Il estime que des campagnes d’éducation et de sensibilisation sont indispensables pour que le public se montre plus prudent et confiant lorsqu’il « converse en ligne avec des inconnus ».
M. Cooper a approuvé.
« La confusion entre les robots et les êtres humains pourrait conduire à des malentendus, à la méfiance et à l’utilisation abusive de données personnelles. C’est comme discuter avec un perroquet en pensant qu’il s’agit d’une personne : c’est amusant tant qu’il ne répète pas vos secrets. »
Il a comparé l’augmentation du nombre de robots à l’entrée d’un renard dans le poulailler. « Nous devons être vigilants et proactifs pour nous défendre. »
Passer à l’action
Pour certains, la solution est simple. Il suffit de se « débrancher » du monde numérique.
C’est un sentiment souvent partagé avec la notion de déconnexion du réseau et la nostalgie de l’époque où la « théorie de l’internet mort » paraissait peu crédible. Mais pour beaucoup, cette perspective n’est pas réaliste.
D’autres s’efforcent de trouver un équilibre dans leur utilisation d’Internet, notamment en limitant le recours aux médias sociaux.
La relation d’amour-haine que l’humanité entretient avec les médias sociaux, en particulier Facebook et Twitter, a créé de l’anxiété, de la colère et des dépressions chez des millions d’internautes.
Malgré une augmentation de l’utilisation des médias sociaux cette année, près de deux tiers des Américains estiment que les plateformes ont surtout un effet négatif sur la vie.
Et l’augmentation massive du trafic de robots jette de l’huile sur le feu.
Prendre du recul par rapport aux médias sociaux et aux essaims de robots a ses mérites.
Les résultats d’une étude réalisée en 2022 ont montré que les personnes qui se sont éloignées des plates-formes pendant une semaine ont vu leur état de santé s’améliorer pour ce qui est de l’anxiété, de la dépression et leur bien-être en général.
Alors que les interactions quotidiennes passent du physique au virtuel, les gens sont de plus en plus dépendants du web. La question se pose donc : les hommes peuvent-ils reprendre le contrôle d’Internet au détriment des robots ?
Certains experts en informatique pensent que c’est possible. Pour ce faire, il faut d’abord aider les gens à identifier ce avec quoi ils s’engagent.
« Il y a quelques stratégies que les utilisateurs peuvent adopter pour identifier les robots », a expliqué Zachary Kann, fondateur de Smart Geek Home, à Epoch Times.
En tant que professionnel chargé de la sécurité des réseaux, M. Kann explique qu’il existe des méthodes qu’un utilisateur peut mettre en œuvre pour déterminer s’il est en train d’interagir avec une autre personne.
À l’instar de M. Cooper, il propose d’observer attentivement les schémas de réponse.
« Les robots répondent souvent instantanément et peuvent utiliser un langage répétitif. »
M. Kann a également conseillé de vérifier les profils, car les robots ont souvent des profils en ligne génériques ou incomplets.
Selon lui, ne pas pouvoir faire la distinction entre un robot et un être humain pourrait entraîner des problèmes de précision dans la recherche.
« Les données analytiques peuvent être faussées, car les interactions des robots peuvent augmenter le trafic sur le site web et les indicateurs de participation. »
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.