L’amélioration de la technologie permet aux prédateurs de manipuler et de diffuser plus facilement des contenus en ligne, a déclaré la commissaire australienne à l’eSafety (sécurité en ligne), à une commission parlementaire chargée d’enquêter sur les dangers associés à la technologie de l’intelligence artificielle (IA) générative.
Cette déclaration fait suite à la publication par la commissaire d’un rapport intitulé « Trends Position Statement Generative AI » (Tendances de prise de position de l’IA générative) (pdf), qui souligne que les contenus générés par l’IA peuvent potentiellement influencer les perceptions et les valeurs du public, y compris les idéologies extrémistes.
« Nous examinons le risque d’actes d’IA générative qui pourraient potentiellement conduire à la création de contenus de classe 1, tels que des contenus relatifs à des abus sexuels sur des enfants ou des contenus pro-terroristes », a expliqué Morag Bond lors d’une audition le 23 août.
« C’est une question très importante pour nous. »
L’IA générative capte l’imagination
L’IA générative peut produire du contenu en puisant dans d’énormes ensembles de données inspirés par la structure du cerveau humain – elle peut imiter, générer des textes, composer de la musique et écrire des histoires, mais ce n’est que la partie émergée de l’iceberg.
Le rapport souligne que les chatbots et les modèles multimodaux ont le potentiel de générer des contenus hautement personnalisés, émotionnels et invasifs qui peuvent sembler faire autorité et qui, intentionnellement ou par accident, peuvent être préjudiciables.
Le rapport donne un exemple de la façon dont une jeune de 13 ans a été conseillée par le chatbot IA de Snapchat sur la façon dont elle pourrait mentir à ses parents pour rencontrer un homme de 31 ans.
Il peut également être utilisé à d’autres fins, par exemple pour générer des photos et des vidéos et utiliser le contenu pour faire chanter ou menacer des individus. Le rapport renvoie à une annonce publique du FBI (Federal Bureau of Investigation) qui, depuis avril, a constaté une augmentation du nombre de victimes de « sextorsion » signalant l’utilisation de fausses images ou vidéos créées à partir de contenus publiés sur leurs sites de médias sociaux, de messages sur le web ou capturés lors de chats vidéo.
La sophistication de la technologie crée des possibilités infinies
L’IA peut également imiter des conversations, ce qui favorise le développement de la fraude et à d’autres formes de cybercriminalité. Les délinquants ont la capacité de produire des images graphiques réalistes générées par l’IA, ce qui rend l’authentification presque impossible, et cela pourrait avoir un impact sur la manière dont le crimes peut être résolu.
Pour atténuer les dommages et les risques, il est important de déterminer qui est responsable, indique le rapport.
Il appelle l’industrie en ligne à jouer un rôle de premier plan en adoptant une approche de la sécurité dès la conception, fondée sur trois principes : responsabilité du fournisseur de services, responsabilisation et autonomie de l’utilisateur, transparence et obligation de rendre compte.
Tout n’est pas catastrophique. L’IA générative peut être rentable et est utilisée pour automatiser des tâches répétitives et fastidieuses. Elle peut contribuer à améliorer les services d’assistance en ligne en permettant de diriger les questions de service à la clientèle vers la bonne personne. C’est également un outil utile de suivi et de modération, ce qui s’avère utile pour certaines entreprises.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.