« Wikipédia n’est pas une source fiable » selon les éditeurs de l’encyclopédie en ligne

Wikipedia, la fiabilité et la bonne foi

Par La Rédaction
2 mars 2021 13:21 Mis à jour: 27 octobre 2024 16:51

« Wikipedia n’est pas une source fiable. Wikipédia peut être modifiée par n’importe qui à tout moment. Cela signifie que toute information qu’il contient à un moment donné peut être le résultat de vandalisme, d’un travail en cours, ou tout simplement être erronée. Les biographies de personnes vivantes, les sujets qui se trouvent être dans l’actualité, et les sujets politiquement ou culturellement controversés sont particulièrement vulnérables à ces problèmes. » Ces mots ne sont pas écrits par des « wikisceptiques » mais par les éditeurs de Wikipedia eux-mêmes, sur la page anglaise intitulée : « Wikipedia is not a reliable source. »

Avec cet article, l’encyclopédie en ligne rappelle les éléments constitutifs de son fonctionnement : encyclopédie participative, elle est gérée en grande partie par des contributeurs bénévoles en s’alimentant principalement d’informations en ligne, raison pour laquelle, explique Wikipedia « de nombreuses erreurs passent inaperçues pendant des jours, des semaines, des mois, des années, voire une décennie. »

Le pari de la bonne foi et de l’amélioration continue

Wikipedia est « l’encyclopédie que tout le monde peut éditer », une œuvre collective dont l’idée fondatrice est très proche de celle portée par les créateurs d’Internet : constituer d’immenses communautés distantes fondées sur le partage, pour permettre l’émergence d’une « sagesse des masses » et la diffusion de la connaissance. Selon les règles de base de Wikipédia, les articles doivent refléter un « point de vue neutre », étayé par des sources « vérifiables » et « fiables », c’est-à-dire validées par une autorité considérée comme indiscutable – bien souvent des articles des grands médias.

Les contributeurs de Wikipedia sont hiérarchisés, l’opinion de ceux dont la présence et l’activité sur le réseau sont plus anciennes primant sur celle des arrivants récents. Ce mécanisme a été prévu pour bloquer les tentatives de manipulation d’informations par de nouveaux entrants, avec différents échelons de contrôle et de débat, ultimement arbitrés par l’existence de sources externes de confirmation. Ce système, reprochent cependant des contributeurs déçus, ne règle pas la question de la formation et des biais de ces « anciens. » Car sur des sujets débattus, ceux-ci peuvent trancher et même expulser des contributeurs sans avoir à se justifier.

Globalement cependant, Wikipédia réussit à fonctionner par consensus et à atteindre un respectable niveau de fiabilité. En 2005, le chercheur J. Giles a comparé dans la revue Nature un gros échantillon d’articles scientifiques de Wikipédia (en anglais) à ceux d’encyclopédies de référence comme Britannica. Il est arrivé à la conclusion que leur taux d’exactitude était très proche. De nombreuses autres études depuis ont confirmé le très bon taux d’exactitude de Wikipédia et sa fiabilité statistique … l’adjectif « statistique » est ici important puisque ce taux d’exactitude est très élevé sur des sujets peu sensibles mais reste améliorable sur tous ceux pour lesquels des opinions se combattent encore. C’est le cas par exemple pour les données les plus récentes du monde scientifique, et plus que tout sur les sujets culturels, cultuels ou d’actualité.

Les erreurs d’un monde pressé

En début d’année, l’animateur de la très sérieuse matinale de Radio Classique provoquait l’hilarité de son invitée politique en lui demandant d’expliquer pourquoi elle souhaitait la suppression du Conseil d’État. Elle avait en réalité seulement proposé l’évolution d’une de ses prérogatives. Déstabilisé et tentant d’expliquer son erreur, le journaliste a fini par lâcher : «Vous devriez faire modifier votre page Wikipédia, c’est ce qui est écrit dessus. »

Avec la pression du temps, vérifier la véracité d’une information, en analyser le contexte pour ensuite la transmettre sans distordre la vérité, est devenu un luxe presque impossible pour tous les transmetteurs d’informations. Ceci vaut pour les journalistes comme pour les autres acteurs médiatiques : devant la prolifération de nouvelles et de sujets à traiter, quand un « tweet » est une base de laquelle tout un monde s’enflamme et tente de, vite, écrire et obtenir de l’audience, l’exigence de rigueur et le devoir de vérification se sont globalement abaissés pour une grande partie de la profession.

Dans un récent article scientifique de la revue Journal of Media Practice, des scientifiques finlandais concluent que le monde journalistique est victime « de la croyance sans sens critique en la véracité des sources officielles et de la ré-utilisation cynique du contenu publié par d’autres médias. »

Ce résultat ne prend même pas en compte le fort biais cognitif qui conduit chacun, devant des faits complexes, à en modeler l’interprétation pour les rendre compatibles avec sa propre vision du monde, modèle heuristique rarement remis en cause.

Cette pratique de reprise parcellaire et biaisée des informations est largement reprise et amplifiée par médias secondaires, les blogs, les différents réseaux sociaux. Involontairement, Wikipédia alimente donc un système de transmission d’informations erronées, marquées d’un sceau de véracité puisque utilisées dans de grands médias, et cristallisées comme faits établis dans le corpus des connaissances de la galaxie Wiki – sans que plus personne ne sache au final qui a, au départ, vérifié leur authenticité.

Ceci est amplifié par le fait que la version anglophone Wikipédia, avec ses 9 milliards de pages vues par mois dans le monde, est gérée par seulement 500 administrateurs actifs, dont la véritable identité reste souvent inconnue, rappelle un rapport du Swiss Policy Research. En 2017, l’Université Purdue, aux États-Unis, a aussi rapporté qu’1% des éditeurs de Wikipédia avait réalisé près de 80% des modifications dans ses articles.

Le « business » de la manipulation des contenus
« Une opération d’intox réussie se compose de 90% d’informations valables pour un petit dixième de désinformation » rappelle l’Observatoire du Journalisme dans un article dédié à l’encyclopédie participative.

Le journal PharmaExec rapportait par exemple qu’en 2007, des éditeurs liés au géant pharmaceutique AstraZeneca ont été pris en train de poster des éléments négatifs sur les pages de leurs concurrents et d’ajouter du matériel promotionnel sur les leurs. De la même manière, Wikiscanner a surpris le laboratoire Abbott en train de retirer de son entrée Wikipédia des informations sur les effets secondaires possibles de deux de ses médicaments les plus populaires. En 2018, la page de Purdue Pharmaceuticals a subi plusieurs cycles d’édition au cours desquels des informations sur le potentiel de dépendance de l’opiacé Oxycontin, ont été ajoutées, puis supprimées, puis ajoutées à nouveau. Les éditeurs menant les suppressions ont disparu de Wikipédia après que Purdue a accepté de verser à l’État du Kentucky 24 millions de dollars de dommages et intérêts en raison de l’abus généralisé d’Oxycontin dans cet État.

Dans un article édifiant publié par le JDN, Nicolas Arpagian, de l’Institut Diderot, dissèque le fonctionnement d’iSTRAT, une société parisienne spécialiste en manipulation d’information : celle-ci, avec seulement une dizaine d’employés, a créé des centaines de profils d’éditeurs sur Wikipédia ainsi que des dizaines d’identités fictives d’experts. Ces faux experts, dotés de leurs comptes Linkedin et Twitter, créent progressivement une image jusqu’à ce que celle-ci leur permette de publier des tribunes dans de grands médias. Leur collègues actifs sur Wikipédia peuvent alors reprendre ces informations comme des « références indépendantes » et modifier à leur gré les articles Wikipédia visés par leur client.

Aux États-Unis, rapporte Vice News, juste une semaine avant les primaires de l’État de Californie, les résultats de recherche de Google ont indiqué « nazisme » comme idéologie du Parti républicain de Californie. Google n’a pas tardé à déporter la faute sur Wikipédia, expliquant que la « boîte de connaissances » de Google s’alimente des textes de l’encyclopédie. Cette information est restée pendant six jours avant d’être corrigée, caché dans un « lien en tuyau » où le texte du lien et le « texte alt » se lisaient différemment, ce qui laisse penser que celle-ci était délibérément cachée pour n’apparaître que dans les résultats de recherche Google – et bien sûr influencer l’opinion.

Sur de nombreux sujets pour lesquels la bataille de l’opinion est importante, Wikipédia est donc de manière évidente devenu une arène pour les tentatives de désinformation, menées aussi bien par des entreprises que par des nations comme la Russie et la Chine. Des professionnels rodés aux pratiques de contrôle de Wikipédia ont développé les moyens de les contourner en créant un système de « références cycliques » qui pour les plus puissants manipulateurs peut impliquer de réussir à s’infiltrer dans les grands médias, pour ensuite modifier de façon durable l’information de Wikipédia. L’encyclopédie reste un excellent outil de savoir sur de nombreux sujets, mais comme elle le rappelle elle-même : « Wikipédia est un bon tremplin pour lancer vos propres recherches, mais … attention, lectorat ».

Personne ne peut donc plus faire l’économie d’une analyse critique sur tous les sujets, ce qui vaut aussi bien pour ceux que les puissances étatiques pourraient vouloir manipuler que pour ceux diffusés à grand bruit dans les petits réseaux prétendant avoir « percé le voile » d’une grande manipulation mondiale. La vérité est exigeante et se cherche sur la base de faits, sans se laisser influencer par le grand vacarme des hurleurs d’opinions.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.