L’Italie mène-t-elle la fronde contre l’intelligence artificielle ? Le pays a annoncé vendredi, bloquer le robot conversationnel ChatGPT pour des craintes liées à l’utilisation des données, deux mois après avoir banni Replika, un autre programme commercialisé comme un « ami virtuel ».
Dans un communiqué, l’autorité italienne de protection des données personnelles prévient que sa décision a un « effet immédiat » et accuse ChatGPT de ne pas respecter la réglementation européenne et de ne pas avoir de système pour vérifier l’âge des usagers mineurs.
Cette décision aura pour conséquence « la limitation provisoire du traitement des données des utilisateurs italiens vis-à-vis d’OpenAI », l’entreprise à l’origine de l’application, ajoute-t-elle.
« Absence d’une base juridique »
ChatGPT est apparu en novembre et a rapidement été pris d’assaut par des utilisateurs impressionnés par sa capacité à répondre clairement à des questions difficiles, à écrire des sonnets ou du code informatique. Financé par le géant informatique Microsoft qui l’a ajouté à plusieurs de ses services, il est parfois présenté comme un potentiel concurrent au moteur de recherche Google.
L’autorité italienne souligne dans son communiqué que ChatGPT « a subi le 20 mars une perte de données concernant les conversations des utilisateurs et les informations relatives au paiement des abonnés au service payant ». Elle lui reproche aussi « l’absence d’une note d’information aux utilisateurs, dont les données sont récoltées par OpenAI, mais surtout l’absence d’une base juridique justifiant le recueil et la conservation en masse des données personnelles, dans le but d’ « entraîner les algorithmes faisant fonctionner la plateforme ».
« Absence de contrôle pour les mineurs »
Alors que le robot est destiné aux personnes ayant plus de 13 ans, l’ « autorité met l’accent sur le fait que l’absence de tout filtre pour vérifier l’âge des utilisateurs expose les mineurs à des réponses absolument non-conformes par rapport à leur niveau de développement ». La même institution avait bloqué début février l’application Replika, qui propose de bavarder avec un avatar sur mesure. Certains utilisateurs s’étaient plaint de recevoir des messages et images trop osés, proches du harcèlement sexuel.
Cette fois, l’autorité demande à OpenAI de « communiquer d’ici 20 jours les mesures entreprises » pour remédier à cette situation, « sous peine d’une sanction allant jusqu’à 20 millions d’euros ou jusqu’à 4% du chiffre d’affaires mondial annuel », le maximum prévu par le Règlement européen sur les données personnelles (RGPD).
Les inquiétudes de l’agence de police européenne, Europol
Cette affaire montre que le RGPD, qui a déjà entraîné pour les géants de la tech des milliards de dollars d’amendes, pourrait devenir également l’ennemi des nouvelles IA génératrices de contenus. L’Union européenne prépare en outre un projet de loi pour réguler l’intelligence artificielle, qui pourrait être finalisé fin 2023 ou début 2024, pour une application encore quelques années plus tard.
Car l’IA nourrit des craintes bien plus profondes que la seule exploitation des données personnelles. L’agence de police européenne Europol a averti lundi que les criminels étaient prêts à tirer parti de l’intelligence artificielle comme le robot conversationnel ChatGPT pour commettre des fraudes et d’autres cybercrimes.
Une utilisation qui pourrait être détournée à des fins malveillantes
Du hameçonnage (phishing) à la désinformation ou aux logiciels malveillants, les capacités en constante évolution des robots de conversation « chatbots« , sont susceptibles d’être rapidement exploitées par des personnes mal intentionnées, a estimé Europol dans un rapport.
Ils peuvent également être utilisés pour tricher lors d’examens et ChatGPT avait été bloqué peu après sa sortie dans plusieurs écoles ou universités dans le monde. De grandes sociétés ont aussi déconseillé à leurs employés d’utiliser l’application, par crainte de fuite de données sensibles.
Enfin, le milliardaire Elon Musk, l’un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration, et des centaines d’experts mondiaux ont signé mercredi un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que GPT-4, la dernière version du logiciel sur lequel repose ChatGPT lancée mi-mars, en évoquant « des risques majeurs pour l’humanité ».
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.