Meta abandonne le fact-checking professionnel aux États-Unis pour un modèle communautaire. Une révolution ou un risque pour l’information en ligne ?
Depuis son lancement, Meta (anciennement Facebook) a été au cœur des controverses liées à la modération des contenus et à la vérification des faits. Mais début 2025, Mark Zuckerberg a annoncé un changement radical : la fin du fact-checking professionnel sur Facebook et Instagram aux États-Unis. Ce virage, inspiré par le modèle communautaire de X (ex-Twitter), soulève de nombreuses questions sur l’avenir de la modération en ligne et la liberté d’expression. Alors, s’agit-il d’une réelle révolution ou d’une simple capitulation face aux pressions politiques ?
Le choix de Meta : un tournant historique
Depuis plus de dix ans, Meta collaborait avec des journalistes et des organisations indépendantes pour vérifier les informations circulant sur ses plateformes. Ces initiatives avaient pour objectif de lutter contre les fake news et les contenus haineux. Cependant, selon Zuckerberg, ce système était devenu inefficace et trop politisé. Il a déclaré :
« Les vérificateurs ont plus participé à réduire la confiance qu’à l’améliorer. »
Désormais, Meta mise sur un système de « notes communautaires » similaires à celui d’Elon Musk sur X. Les utilisateurs pourront commenter, contextualiser et corriger les informations via un processus de validation communautaire. Cette méthode, bien qu’innovante, soulève des interrogations sur son efficacité et ses limites.
La fin du fact-checking professionnel : pourquoi maintenant ?
Le timing de cette décision n’est pas anodin. La réélection de Donald Trump à la présidence des États-Unis a entraîné un bouleversement dans les rapports de force entre les grandes entreprises technologiques et le pouvoir politique. Sous la pression de l’administration Trump et face aux critiques récurrentes d’Elon Musk, Zuckerberg semble avoir opté pour un alignement stratégique.
En outre, Joel Kaplan, proche de Donald Trump, a été promu à un poste clé chez Meta. Sa déclaration récente illustre bien ce changement de cap :
« Trop de contenus inoffensifs ont été censurés. Il est temps de redonner la parole aux utilisateurs. »
Cette approche semble également répondre aux préoccupations croissantes concernant la « censure » et les biais des médias traditionnels. Mais en abandonnant le fact-checking professionnel, Meta risque-t-il de perdre le contrôle sur la qualité des informations diffusées ?
Les limites du modèle communautaire
Le système des notes communautaires présente des avantages théoriques. Il encourage la diversité des perspectives et mise sur l’intelligence collective pour débusquer les fausses informations. Cependant, plusieurs problèmes subsistent :
1. Les biais de la majorité
Les décisions prises par une communauté peuvent refléter des biais culturels, politiques ou sociaux. Cela peut conduire à la suppression de contenus légitimes mais impopulaires.
2. Le risque de manipulation
Des groupes organisés pourraient exploiter ce système pour déformer ou orienter l’information. Par exemple, des campagnes de désinformation pourraient être validées si elles recueillent un soutien suffisant.
3. L’absence d’expertise
Contrairement aux journalistes et aux spécialistes, les utilisateurs lambda n’ont pas toujours les compétences nécessaires pour évaluer la véracité d’une information complexe.
Un impact global mais limité pour l’instant
Bien que ces changements soient actuellement limités aux États-Unis, ils pourraient préfigurer une évolution mondiale des politiques de Meta. Cependant, en Europe, les règles du Digital Services Act (DSA) imposent des normes strictes en matière de modération. Clara Chappaz, ministre déléguée chargée de l’IA et du numérique, a affirmé que la France veillera à ce que ces pratiques ne soient pas adoptées sur le territoire européen.
Une liberté d’expression à double tranchant
En présentant ces nouvelles règles comme une défense de la liberté d’expression, Meta semble vouloir s’attirer les faveurs des conservateurs. Mais cette liberté pourrait avoir un coût élevé :
- Prolifération des fake news : Sans vérification rigoureuse, les informations trompeuses pourraient se multiplier.
- Augmentation des discours haineux : Les nouvelles politiques de modération de Meta assouplissent les restrictions sur certains contenus, ce qui inquiète les observateurs.
- Perte de crédibilité : En délaissant les experts, Meta risque de perdre la confiance des utilisateurs qui attendent des plateformes fiables.
La décision de Meta d’abandonner le fact-checking professionnel marque une rupture majeure dans la modération des contenus en ligne. Si cette approche communautaire reflète une vision ambitieuse de la liberté d’expression, elle comporte également des risques significatifs. Alors que les regards se tournent vers les résultats de cette expérience aux États-Unis, une question demeure : Meta pourra-t-il vraiment concilier liberté et responsabilité ?