Vers une régulation efficace des fake news sur les réseaux sociaux : entre contrôle et limites

Publié le 30/09/2024
Vers une régulation efficace des fake news sur les réseaux sociaux : entre contrôle et limites
Pavlo Plakhotia/AdobeStock

Face à la prolifération des fake news sur les réseaux sociaux, les gouvernements européens intensifient leurs efforts pour contrer cette menace grandissante. Entre régulation étatique rigoureuse et promesses d’autorégulation de la part des géants du numérique, un équilibre délicat doit être trouvé. Comment imposer des garde-fous efficaces sans compromettre les principes fondamentaux de la liberté d’expression, pierre angulaire des démocraties modernes ? Cette question, au cœur des débats actuels, révèle toute la complexité de la lutte contre la désinformation dans un espace numérique en constante mutation.

La désinformation et les fake news représentent aujourd’hui un défi majeur pour les démocraties modernes, particulièrement à une époque où les réseaux sociaux jouent un rôle central dans la diffusion de l’information. En France, comme ailleurs en Europe, la réponse à ce défi s’articule autour de la régulation, de l’autorégulation des plateformes et de la sensibilisation des citoyens. Récemment, la Commission d’enquête sur la TNT à l’Assemblée nationale a intensifié ses efforts pour répondre à ce type de préoccupations, soulignant l’urgence d’une réglementation plus robuste. De plus, les récentes controverses autour des déclarations d’Elon Musk sur Twitter illustrent la complexité de la gestion de la désinformation sur les grandes plateformes. Ces éléments mettent en lumière un besoin croissant de régulation pour encadrer efficacement la diffusion de contenus trompeurs tout en respectant les principes fondamentaux des libertés publiques.

I – Le contexte actuel : une régulation en construction

La directive sur le commerce électronique de 2000 a jeté les bases de la responsabilité limitée des plateformes numériques, facilitant ainsi leur développement rapide tout en introduisant des défis pour la gestion de la désinformation. Selon cette directive, les plateformes ne sont pas tenues de surveiller activement les contenus mais elles doivent agir rapidement pour retirer les contenus illégaux une fois informées de leur présence. Cette approche a été cruciale pour l’expansion des plateformes numériques, mais elle a aussi permis la propagation de fake news, comme le montrent plusieurs cas notables.

Scandale de Cambridge Analytica (2018)1. Cambridge Analytica a utilisé des données de Facebook pour influencer les opinions politiques en ciblant des utilisateurs avec des publicités politiques personnalisées. Le scandale a révélé des lacunes majeures dans la régulation des données et des pratiques de désinformation. Ce cas a mis en lumière les défis liés à la régulation de la désinformation sur les plateformes sociales et a conduit à une prise de conscience accrue des problèmes de confidentialité et de manipulation de données.

Campagnes de désinformation lors des élections. Les élections récentes aux États-Unis et en Europe ont été marquées par des campagnes de désinformation. Par exemple, pendant l’élection présidentielle américaine de 2016, des campagnes coordonnées, souvent liées à des acteurs étrangers comme les agences russes, ont utilisé Facebook et Twitter pour diffuser des informations trompeuses. Une étude de l’Université d’Oxford2 a révélé que les fake news étaient 70 % plus susceptibles d’être partagées que les informations vérifiées sur Twitter.

La loi  2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de linformation a marqué un tournant dans la régulation de la désinformation en France en introduisant plusieurs mesures clés.

Coopération avec le Conseil supérieur de laudiovisuel (CSA). La loi exige que les plateformes coopèrent avec le CSA pour lutter contre la désinformation. Le CSA a mis en place un comité d’experts et une équipe dédiée pour surveiller et analyser les contenus problématiques.

Code européen de bonnes pratiques contre la désinformation. Le code, adopté en 2018 et signé par des entreprises comme Facebook, Google, Twitter et Mozilla, propose des mesures telles que :

• outils de signalement : permettre aux utilisateurs de signaler les fake news facilement. En 2020, Facebook a signalé avoir supprimé plus de 12 millions de publications liées à la désinformation sur le Covid-193.

• transparence des algorithmes : les plateformes doivent fournir des informations sur le fonctionnement de leurs algorithmes. Facebook a commencé à publier des rapports sur la transparence des publicités politiques et des contenus sponsorisés.

Initiatives de vérification des faits. Les plateformes doivent promouvoir les contenus vérifiés. Par exemple, en 2020, YouTube a lancé une fonctionnalité de « fact check » qui montre des vérifications des faits pour certains sujets de recherche, visant à réduire la propagation de la désinformation. Twitter/X dispose également d’un tel outil depuis 20234.

Rapports annuels. Les plateformes doivent soumettre des rapports annuels au CSA. En 2021, Twitter/X a publié un rapport détaillant ses efforts pour lutter contre la désinformation, y compris des informations sur les contenus retirés et les actions de modération.

II – Propositions pour une régulation efficace de la désinformation en ligne

La gestion de la désinformation est un enjeu complexe qui nécessite une approche intégrée et multidimensionnelle. Voici des propositions détaillées pour améliorer la régulation des fake news, accompagnées d’exemples et de données illustrant leur potentiel impact.

A – Établissement d’une régulation plus précise

Compléter les recommandations du CSA par une législation plus précise en matière de gestion des contenus. Une réforme de la directive sur le commerce électronique pourrait introduire des obligations spécifiques pour la détection proactive et la gestion des fake news tout en respectant les principes de liberté d’expression.

Obligations de détection proactive : imposer aux plateformes de développer des systèmes automatiques et algorithmiques pour identifier et signaler les fake news avant qu’elles ne deviennent virales. Par exemple, des plateformes pourraient être tenues d’utiliser des techniques de détection de contenu trompeur basées sur l’intelligence artificielle. Par exemple, Facebook a investi dans des outils de détection de fake news basés sur l’IA. En 2020, la plateforme a supprimé plus de 12 millions de publications liées à la désinformation sur le Covid-19 grâce à ces outils.

Critères de gestion : définir des critères clairs pour la gestion des contenus problématiques, y compris des délais spécifiques pour la vérification et la suppression des informations signalées. Ces critères de gestion pourraient être définis dans un règlement ou une norme, afin de lui appliquer le fonctionnement du droit de la compliance tels que définis dans la doctrine de Marie-Anne Frison-Roche.

B – Mise en place d’un label de confiance

Créer un label officiel de confiance pour les sources d’information, attribué par un organisme indépendant sur la base de critères rigoureux de vérification des faits.

Critères de labellisation : définir des normes strictes pour l’attribution du label, telles que la véracité des informations, la transparence des sources, et la correction rapide des erreurs. Snopes et FactCheck.org sont des exemples d’organismes de vérification des faits qui pourraient servir de modèles pour le label. En 2021, Snopes a recensé plus de 100 000 articles et posts en ligne pour vérifier leur véracité. Google a intégré des informations de vérification des faits dans ses résultats de recherche, ce qui a augmenté la visibilité des sources fiables et réduit l’impact des fake news.

Organisme indépendant : mettre en place une commission indépendante pour attribuer le label et garantir son impartialité.

C – Renforcement de la coopération internationale

Établir des mécanismes de coopération renforcée au niveau européen et international pour combattre la désinformation, incluant le partage de bonnes pratiques et la coordination des régulations.

Partage de bonnes pratiques : organiser des forums internationaux pour échanger sur les meilleures pratiques en matière de régulation de la désinformation. Twitter/X a participé à des initiatives internationales comme le Global Network Initiative, visant à établir des normes internationales pour la gestion de la désinformation.

Coordination des régulations : créer un cadre réglementaire européen harmonisé pour éviter les incohérences entre les législations nationales. L’Union européenne a mis en place le Code de bonnes pratiques contre la désinformation en 2018, signé par des géants technologiques tels que Facebook et Google, pour une approche coordonnée en Europe.

Notes de bas de pages

  • 1.
    Le Monde, « Ce qu’il faut savoir sur Cambridge Analytica, la société au cœur du scandale Facebook », 22 mars 2018, https://lext.so/CSTEWN.
  • 2.
    Atlantico, « Une étude de l’université d'Oxford l’établit, la propagation de “fake news” est devenue une pratique courante des Etats un peu partout dans le monde », 20 juill. 2017, https://lext.so/er1J7N.
  • 3.
    Les Échos, « Facebook a purgé plus d’un milliard de ses comptes fin 2020 », 22 mars 2021, https://lext.so/7RWEcD.
  • 4.
    France Inter, « Avec les “notes de communauté”, Twitter (X) marche sur les pas... de Wikipédia », 10 août 2023, https://lext.so/miAM0R.
Plan