Europol, l’agence européenne de police spécialisée dans la répression de la criminalité sous toutes ses formes, a mis en garde lundi contre les graves conséquences de l’utilisation du générateur de contenu d’intelligence artificielle (IA) ChatGPT à des fins de cybercriminalité et d’autres activités malveillantes.
Europol estime que le logiciel d’IA soutenu par Microsoft pourrait être utilisé pour la cybercriminalité, notamment pour des attaques minutieuses d’usurpation d’identité ou d’hameçonnage et pour la diffusion de désinformation.
On peut demander au logiciel de produire un texte sur de nombreux sujets possibles et il le fait en puisant dans une vaste gamme de connaissances auxquelles il a été « formé » au cours de son développement. Le résultat peut être un article d’apparence authentique utilisant des connaissances détaillées qui n’étaient auparavant détenues que par des experts dans le domaine.
Les logiciels d’IA peuvent également rédiger des essais, des poèmes ou des codes informatiques lorsqu’on le leur demande, et on les considère comme l’avancée technologique la plus importante depuis l’arrivée de l’iPhone il y a plus de 15 ans.
Cet avertissement intervient alors que de nombreuses questions juridiques et éthiques ont été soulevées à propos de l’utilisation des logiciels d’IA.
« Alors que les capacités des LLM (grands modèles de langage) tels que ChatGPT sont activement améliorées, l’exploitation potentielle de ces types de systèmes d’IA par des criminels offre de sombres perspectives », a assuré Europol lors de la présentation de son premier rapport sur la technologie, en commençant par le chatbot.
Le rapport souligne l’utilisation préjudiciable du ChatGPT dans trois domaines de la criminalité.
« La capacité de ChatGPT à rédiger des textes très réalistes en fait un outil utile pour l’hameçonnage (ou phishing). » Grâce à sa capacité à reproduire des modèles de langage qui imitent le style de discours d’individus ou de groupes spécifiques, le chatbot pouvait être utilisé par des criminels pour cibler des victimes.
Il peut également être utilisé comme un outil idéal pour produire de la désinformation. « Il permet aux utilisateurs de générer et de diffuser des messages reflétant un discours spécifique avec relativement peu d’efforts. Les criminels ayant peu de connaissances techniques pourraient également se tourner vers ChatGPT pour produire des codes malveillants », selon Europol.
Par ailleurs, Google a lancé le rival de ChatGPT, « Bard », à des fins de test au Royaume-Uni et aux États-Unis. Il a annoncé le développement de Bard le mois dernier, deux semaines seulement après l’annonce par Microsoft d’un nouvel investissement de plusieurs milliards de dollars dans OpenAI, le fabricant de ChatGPT et d’autres outils d’intelligence artificielle.
Microsoft investit des milliards dans OpenAI depuis 2019.
Elon Musk, propriétaire de Twitter, a qualifié l’intelligence artificielle d’un des « plus grands risques » auxquels la civilisation humaine est confrontée.
« Je pense que nous devons réglementer la sécurité de l’IA, très franchement. Pensez à toute technologie qui présente un risque potentiel pour les personnes, comme les avions, les voitures ou les médicaments. Nous avons des organismes de réglementation qui supervisent la sécurité publique des voitures et des avions et de la médecine. »
« Je pense que nous devrions probablement mettre en place une sorte de surveillance réglementaire similaire pour l’intelligence artificielle, car je pense qu’elle représente un risque plus important pour la société que les voitures, les avions ou la médecine.
« Ce qui me préoccupe, c’est qu’avec l’IA, si quelque chose tourne mal, la réaction pourrait être trop lente en termes de réglementation », a conclu Elon Musk.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.