La diffusion en ligne de la vidéo de l’attaque d’une synagogue mercredi à Halle en Allemagne a montré une nouvelle fois la difficulté à empêcher les tueurs de se mettre en valeur en ligne, malgré les efforts entrepris après l’attentat de Christchurch.
Le tireur, dont l’attaque en plein Yom Kippour a fait deux morts et deux blessés graves dans cette ville d’Allemagne de l’est, a réussi à poster les images de son attaque sur la plateforme de streaming en direct Twitch, un lieu où se retrouvent normalement les fans de jeux vidéos et d’esport.
Combien de temps les images sont-elles restées en ligne ? Combien de personnes ont-elles vu les images ? Twitch affirme ne pas encore connaître la réponse et poursuivre son enquête.
-Le contenu de la vidéo retiré rapidement-
« Nous avons fait au plus vite pour retirer ce contenu, et nous suspendrons tous les comptes qui posteront ou reposteront des images de cet acte abominable », a indiqué une porte-parole de Twitch interrogée par l’AFP.
Si le bilan est moins lourd, le modus operandi à Halle a fait immédiatement penser à celui de l’auteur de l’attentat contre deux mosquées de Christchurch en Nouvelle-Zélande en mars.
Un Australien d’extrême droite avait tué 51 personnes avant d’être arrêté mais avait réussi à diffuser son attaque en direct pendant quelque 17 minutes sur Facebook, avant que la retransmission ne soit stoppée.
Ce très long délai avait valu à Facebook de très virulentes critiques et fait se lever des voix de toute part, exigeant une action immédiate. Facebook a recruté des forces de police de part et d’autre de l’Atlantique pour éduquer ses outils d’intelligence artificielle pour tenter d’éviter la répétition d’un tel désastre.
-Le cerveau artificiel entre réel et fiction-
La difficulté vient du fait que le « cerveau artificiel » doit pouvoir faire la différence entre une vraie attaque et une scène de film ou de jeu vidéo.
« Les algorithmes de filtrage n’ont jusqu’à présent pas été très bons pour détecter de la violence en streaming en direct. A l’avenir, on verra peut-être les réseaux sociaux tenus responsables de leur rôle dans la diffusion de contenus violents et haineux », souligne Jillian Pterson, professeur de criminologie à la Hamline University de Saint Paul.
Pour mieux éduquer la machine, Facebook a associé la police londonienne à son initiative en utilisant les images filmées par les caméras portées par les unités de la « Met » lors de leurs entraînements au tir.
Les outils d’intelligence artificielle ont besoin de quantités énormes de données, ici des images de fusillades, pour pouvoir apprendre à les identifier correctement, les trier et in fine les supprimer.
Cette initiative, annoncée mi-septembre, s’inscrit dans le cadre plus large des mesures prises pour nettoyer les contenus « haineux et extrémistes » et les mouvements ou individus prônant le suprémacisme blanc. L’entreprise a aussi multiplié les restrictions pour l’accès à Facebook Live.
Facebook et ses partenaires ont aussi annoncé la création d’une nouvelle organisation en marge de l’Assemblée générale des Nations unies fin septembre à New York.
Elle doit regrouper Facebook, Microsoft, Twitter et Google (via YouTube) ainsi que Amazon ou encore les plateformes LinkedIn (appartenant à Microsoft) et WhatsApp (Facebook).
-Déjouer les tentatives des terroristes-
La nouvelle structure aura pour vocation de « déjouer les tentatives de plus en plus sophistiquées des terroristes et des extrémistes violents pour se servir des plateformes numériques ».
Après l’attentat de Christchurch, Facebook avait supprimé 1,5 million de vues potentielles de la vidéo, dont 1,2 million avant qu’elles n’aient été visionnées par qui que ce soit.
« Ce fossé entre 1,2 million et 1,5 million, c’est là que nous reconnaissons que nous devons faire mieux », a reconnu la numéro deux du réseau, Sheryl Sandberg.
La structure bénéficiera d’un personnel indépendant.
Des acteurs non-gouvernementaux dirigeront quant à eux un comité consultatif et les gouvernements des Etats-Unis, de la France, du Royaume-Uni, du Canada, de la Nouvelle-Zélande et du Japon auront également un rôle de consultation, tout comme des experts de l’ONU et de l’Union européenne.
Mais pour Hans-Jakob Schindler, qui dirige le Counter Extremism Project, tout cela ne suffit pas. « Cet incident tragique démontre une nouvelle fois que l’auto-régulation n’est pas assez efficace et souligne malheureusement le besoin d’une régulation plus forte du secteur technologique », écrit-il.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.