Décodex est une boîte à outils proposée en accès gratuit depuis le 1er février 2017 par Les Décodeurs, rubrique du site lemonde.fr. Elle vise à permettre aux internautes de distinguer les sites d’information fiables de ceux qui ne le sont pas, à l’aide d’une classification selon plusieurs critères (voir plus bas).
Sont concernés les sites, blogs, sites de presses mais aussi les comptes Youtube ou Twitter. Les internautes sont mis à contribution pour répertorier les sites avec la possibilité d’envoyer une requête aux Décodeurs, ce qui place le projet dans une « démarche citoyenne » mais aussi d’éducation aux médias pour tous et dans les écoles. A noter que ce projet est financé par le Fonds pour l’innovation numérique de la presse (« Fonds Google »).
Sont ainsi proposés :
- un moteur de recherche « Verificator » qui permet de faire une recherche par l’adresse d’une page web ou par le nom d’un site
- un logiciel de discussion sur Messenger de Facebook qui donne des réponses automatiques sur les sites à vérifier et des conseils sur la manière de vérifier l’information,
- un plugin (extension) pour les navigateurs Chrome et Firefox qui installe un petit logo « D » dans la barre de navigation qui change de couleur et en explicite les raisons avec description du site,
- des articles pédagogiques sous forme de kit à destination des enseignants avec une compilation de conseils, dessins, cas pratiques et exercices.
Au moment du lancement, ce sont déjà près de 600 sites qui ont pu être classés, parmi lesquels des sites « majoritairement français mais aussi anglais et américains et quelques allemands, avec cinq niveaux de fiabilité, repérés par cinq couleurs ».
- Les sites « plutôt fiables » qui se montrent « mesurés » et « transparents » sont en vert.
- Les sites « militants » ou « insuffisamment précis », et qui « ne vérifient pas » ou « ne précisent pas » leurs sources se voient attribuer la couleur orange.
- Les sites « participatifs » pour lesquels la « fiabilité [est jugée] trop variable » (Wikipédia ou les comptes des réseaux sociaux par exemple) sont de couleur grise.
- Les sites « satiriques ou parodiques », « à lire au second degré » sont repérés par la couleur bleu.
- Enfin, en rouge, ce sont les sites qui « diffusent régulièrement de fausses informations » ou « des articles trompeurs ».
Parmi les critères retenus on trouve :
- le respect des règles journalistiques (croisement des sources, vérification, etc.)
- la présence ou le manque de sources,
- la référence à une seule étude scientifique,
- la rectification des erreurs lorsqu’elles sont identifiées,
- la distinction entre un éditorial/ tribune aux analyses subjectives, et des articles purement factuels,
- le signalement des positions partisanes affirmées sur certains sujets qui ont déjà conduit à des erreurs.
Quelques éléments de débats avec cette carte des articles parus autour de la mise en ligne de Décodex
Nul ne contestera que les enjeux de l’évaluation de l’information sont de plus en plus importants et que l’outil peut avoir un réel intérêt pédagogique en contribuant à développer chez les internautes une attitude critique et une culture de l’information.
Pour autant, il semble essentiel de ne pas s’en tenir au seul jugement des Décodeurs (juge et partie parmi les sites de presse) et de développer une réflexion sur le principe même d’une labellisation des sites. L’éducation à l’information ne peut pas être accaparée par un seul journal, aussi légitime soit-il, alors que de nombreux acteurs (bibliothécaires, journalistes, professeurs documentalistes, enseignants, modérateurs, etc.) détiennent des compétences en la matière et pourraient mettre en commun cette culture informationnelle. À l’instar du Monde, on peut aisément imaginer que d’autres proposeront leur propre système d’évaluation – servant leurs propres intérêts –, qu’il s’agisse de plates-formes privées comme Facebook, des conspirationnistes eux-mêmes ou de l’État, qui trouverait là un moyen de restaurer une régulation par en haut de l’Internet.
Plus fondamentalement, c’est méconnaître les mécanismes mêmes de l’information que de prétendre automatiser et uniformiser son évaluation. Les indicateurs sont utiles à condition qu’ils puissent être contextualisés, discutés… et contournés. L’information doit toujours être rapportée à un régime d’autorité particulier, à des connaissances, des croyances ou des consensus localement ou socialement situés, et c’est cet environnement que l’intelligence collective peut mettre en évidence, contre l’illusion d’une fiabilité immanente. Le fait d’établir un critère global de fiabilité au niveau des sites est par ailleurs discutable, car cela peut dépendre des articles et de la qualité de chaque contribution.
Pour parer les risques évidents de censure ou de conflits d’intérêt, il serait préférable de penser en termes de convergence pour favoriser l’émergence d’une communauté citoyenne de vigilance. La qualité de l’information constitue un Commun, qui nécessite en tant que telle une gouvernance par les communautés qui la construisent et l’entretiennent. Le collectif SavoirsCom1 invite donc à considérer la question sous l’angle des Communs de la connaissance.
L’exemple de Wikipédia montre qu’un espace de publication qui s’est organisé comme un Commun résiste mieux aux fausses informations (voir ici et là).
À l’inverse, le phénomène des fake news correspond en ce sens à une forme de tragédie des communs, qui ressemble à celle que peuvent subir la haute mer ou l’atmosphère. Certains acteurs ont intérêt à faire du « dégazage sauvage », en répandant des pollutions informationnelles. Comme l’explique Evgeny Morozov, ce phénomène est amplifié par le fonctionnement même des grandes plateformes, et notamment par le modèle publicitaire sur lequel elle repose. Obéissant aux principes de l’économie de l’attention, le capitalisme cognitif n’a objectivement aucun intérêt à participer à l’amélioration de la qualité de l’information.
Mais il ne suffit pas de faire communauté sur Internet pour garantir que les pratiques collectives contribueront à la qualité de l’information. Sur Wikipédia, ce sont les règles mises en place (notamment le principe de neutralité de point de vue, ainsi que les procédures de discussion et de résolution des litiges, qui donnent à la communauté sa résilience particulière aux fake news. Là où d’autres espaces de sociabilité en ligne, organisés selon des principes différents, contribuent au contraire à l’amplification du phénomène.
En vue de favoriser l’émergence d’une telle communauté de vigilance informationnelle autour du Décodex, le collectif SavoirsCom1 préconise donc :
- que les outils de vérification soient toujours eux-mêmes vérifiables (pas de boîte noire),
- que les règles de contribution et de régulation soient clairement énoncées et toujours susceptibles d’être mises en discussion,
- que les sites évalués puissent faire appel de leur évaluation en démontrant leur mode d’élaboration ou de transmission de l’information,
- que les acteurs tirant profit de la diffusion de l’information (organes de presse ou prestataires de services informationnels) contribuent d’une manière ou d’une autre au développement d’une politique publique d’éducation aux médias et à l’information de tous les citoyens.
La problématique que je souhaite aborder est celle d’un tiers de confiance en matière d’informations. Cela n’existe pas encore, et son architecture est à inventer. La culture de l’information est un autre problème.
Vos préconisations prennent la précaution de se situer à un niveau « méta », sans préfigurer les outils mais ce qui doit présider à leur élaboration.
Vous semblez implicitement admettre qu’on évalue des sites et non des informations atomiques. Cela ne va pas forcément de soi, ce n’est pas une contrainte, mais un raccourci.
Vous ne relevez pas le fait que le Decodex tire une particularité forte du fait d’être conçu comme une extension du navigateur et altère ainsi sa neutralité.
Je vous suggère une piste de réflexion concernant une base de données collaborative et infalsifiable : la blockchain (cf le Bitcoin). Le but est de se passer de toute autorité centralisée.
Je n’ai pour l’instant qu’une intuition, quelque expérience, et un sentiment d’urgence suite à ce lamentable Decodex.
Il me semble que les pièges relevés contre le Decodex pourraient être évités si la chasse aux fausses informations étaient conduites information par information et non pour un site donné. Ce serait bien plus utile de faire ces critiques par information sans donc préjuger de l’orientation générale d’un site. C’est au lecteur de se rendre compte du nombre d’informations fausses pointées pour tel ou tel site et d’en tirer les conséquences. La signalétique prévue pour le Decodex me paraît au fond infantilisante. Que chacun contribue au pointage des erreurs serait à la fois responsable et formateur. Un système Wiki qui rassemblerait par thèmes/date/site ces infos considérées comme fausses serait bien plus utile à mon avis.
« Un système Wiki qui rassemblerait par thèmes/date/site ces infos considérées comme fausses serait bien plus utile à mon avis. »
Sans être des systèmes wiki, ce ne sont pas les sites de fact-checking qui manquent, hoaxbuster en tête. Le problème, c’est qui pense à aller voir ces sites à chaque information étrange rencontrée?
Quand on voit des médias classiques reprendre les informations de sites ouvertement parodiques (cf le mur de Mme LePen payé par l’Algérie du Gorafi), il y a de quoi s’interroger sur la culture informationnelle des journalistes eux-même. Alors les internautes lambda…
Petit florilège de fact-checking :
Internet :
– Hoaxbuster
– Hoaxkiller (moteur de recherche)
– Debunkers des rumeurs
– Arrêt sur images (en partie gratuit)
Radio :
– Le vrai du faux – Gérald Roux, France Info
– Le vrai du faux numérique – Antoine Krempf, France Info
– Le Lab politique, Europe 1
– Le secret des Sources – Jean-Marc Four, France Culture
Presse écrite :
– Détecteur de mensonges, Le JDD
– Les décodeurs, Le Monde
– Désintox, la parole des politiques soumise à contre-enquête, Libération
Etc
Je ne met pas de liens dans mon commentaire pour ne pas passer pour un spammer, mais Google (ou DuckDuckGo) est votre ami.
Je ne comprends pas pour quelle raison votre point de vue reste en gros favorable à au principe du « fact-checking » (ou « vigilance informationnelle »). Je veux bien qu’on enseigne à l’école et au lycée à déceler le point de vue partisan derrière le pseudo-fait, tout en rappelant qu’aucun discours — tout factuel se prétende-t-il — n’est absolument dépourvu d’idéologie. Mais au delà, c’est mépriser le capacité de jugement du citoyen lambda, en plus de naturaliser la légitimité de certains à énoncer des faits tout crus.
Imaginez un instant que quelqu’un ait la folle idée de faire un Décodex pour les productions scientifiques en sciences humaines et sociales. Les cognitivistes, les marxistes, les post-marxistes, les postructuralistes, ne pourraient jamais se mettre d’accord sur ce qu’est un « fait ». Vous devriez faire un Décodex par courant, sinon un par théorie. Que les journalistes y croient dur comme fer ne parle que de leur mépris (ou de leur faible connaissance) des idées les plus fondamentales des SHS.
Je pense que c’est dans l’intérêt des « communs » que d’accepter le caractère irréductiblement agonistique du réel.
Alfaozkam-inaarmation found, problem solved, thanks!