Fake news : proposition d’un nouveau dispositif de lutte

Publié le 13/02/2023
Fake news
skypicsstudio/AdobeStock

La connaissance diffusée par les médias à un public influence son opinion. De ce fait, une information doit, lorsqu’elle fait l’objet d’une publication, être fiable, au risque de perdre la confiance de ce public (doute, suspicions, défiance) et de conduire à des effets désastreux (décrédibilisation, déstabilisation et/ou renversement politique). Or, depuis la révolution numérique (internet, médias sociaux, outils de l’intelligence artificielle), nous sommes confrontés à une hyperdiffusion de l’information. Ainsi, les fake news et les rumeurs se sont multipliées et les risques qu’elles comprennent également. Conscient des enjeux soulevés par ce phénomène, l’État français s’est engagé depuis plusieurs années dans la lutte contre la diffusion des fake news. Cela nous conduit à nous interroger sur la réglementation en vigueur : est-elle à même de répondre à ces enjeux ou au contraire subsiste-t-il des failles ? Auquel cas, les outils existants peuvent-ils être optimisés ou bien serait-il opportun de repenser le dispositif actuel par l’élaboration de nouveaux outils ? Notre étude a pour objet de répondre à ces questions.

1. La révolution numérique a été « source de bouleversements. L’information1 n’y [a pas échappé]. De sa production à sa consommation en passant par ses canaux de diffusion, elle a radicalement changé de visage. D’un côté, les médias tentent de s’adapter aux nouvelles technologies. De l’autre, les réseaux sociaux sont devenus des caisses de résonance planétaires aux contenus non vérifiés2 ». En effet, internet et les médias sociaux (YouTube, Facebook, Instagram, TikTok) sont devenus un terreau fertile pour la prolifération des rumeurs3 et des fausses informations4. Nous sommes passés, en une quinzaine d’années, d’une diffusion de l’information contrôlable (via les médias traditionnels, les livres, la presse papier, la radio, la télévision) à une hyperdiffusion5 de l’information (via les nouveaux médias [médias en ligne et numériques], internet, les médias sociaux, etc.). Cette surcharge informationnelle (mais aussi émotionnelle) a eu pour effet de complexifier l’appréhension des mouvements de masse par les États (augmentation des opinions extrémistes, de la désinformation, etc.). En effet, avec le développement des outils de l’intelligence artificielle (IA) (deep learning, machine learning6), « le numérique a mis à la portée du plus grand nombre des capacités de création et de falsification des contenus7 ». Aujourd’hui, toute personne peut « modifier un texte [documents authentiques décontextualisés], faire un montage photographique, audiovisuel [à l’image des deepfakes] ou sonore [exemple du logiciel Lyrebird8] et les diffuser publiquement [via l’ajout de liens hypertextes9] ». De ce fait, « l’absence d’éditorialisation de ces services leur offre la même publicité que celles des médias journalistiques [référencement via le taux de clics ou CTR SEO10] ».

2. En conséquence, du côté des citoyens, « les informations fiables et solides peuvent être plus difficiles à identifier11 ». C’est d’ailleurs ce que souligne une enquête menée par Viavoice pour le JDD, France TV et Radio France en février 2019, dans laquelle il est rapporté que « 72 % des Français pensent qu’il est de plus en plus difficile de distinguer le site d’un média sérieux relayant de vraies informations vs des sites relayant toutes sortes d’informations non vérifiées12 ». Or, cette perte de repères liée à la difficulté de pouvoir distinguer le vrai du faux conduit les Français à devenir de moins en moins précautionneux dans leur analyse des sources. En effet, selon le Trust Barometer 2021, un sondage mené par Edelman13, il est dit que seulement 18 % des Français « se préoccuperaient des sources pour juger de la qualité d’une information ou en consultent plusieurs avant de la relayer14 ». Par conséquent, face à l’adoption de ces nouveaux comportements, près des trois quarts des Français admettent « avoir déjà été confrontés aux fake news (73 %). […] Et un Français sur quatre déclare avoir déjà relayé une fake news auprès de son entourage ou sur les réseaux sociaux (24 %)15 ». Or l’on sait que « l’accès et l’usage de l’information impactent l’opinion envers les médias16 ». Cela explique pourquoi, ces dernières années, les Français sont de plus en plus nombreux à remettre en cause « la crédibilité des différents canaux de diffusion de l’information17 ». Cette méfiance partagée des Français à l’égard des nouveaux médias les conduit même à privilégier l’information en provenance de proches. En effet, selon l’étude Ipsos réalisée auprès de 27 pays, il a été rapporté que plus « d’un quart des Français (26 %) faisait davantage confiance à une information délivrée par l’un de leurs proches18 ». Or, cette mauvaise hygiène informationnelle19 est en soi une porte ouverte à la diffusion et à l’adhésion à des fausses informations. De ce fait, en matière de diffusion de fausses informations, les médias numériques doivent être perçus comme un facteur aggravant.

3. En somme, c’est le rapport des Français aux médias qui a été modifié en profondeur. Cela les a conduits à adopter de nouveaux mécanismes de pensée. Malheureusement, ces derniers sont porteurs d’effets négatifs (ils peuvent déstabiliser, générer le doute, orienter l’opinion, troubler l’ordre public, fragiliser les institutions démocratiques, etc.) et « laissent des traces indélébiles dans le temps, agissant sur l’intelligence collective comme des métastases20 » sur lesquelles il est possible de prendre appui pour diffuser à nouveau des rumeurs, des fake news21 et produire encore des effets négatifs. Nous sommes en présence d’un cercle vicieux. Dès lors, à partir de ce bref exposé, l’on comprend que la diffusion de rumeurs et de fake news est un problème majeur qui est subi par nos sociétés actuelles et qu’il convient donc de maîtriser et de réglementer. C’est là le défi que s’est proposé de relever l’État français ces dernières années. Se posent alors les questions de la réglementation en vigueur en la matière (les domaines qu’elle vise et son contenu) : le dispositif pris dans son ensemble (la réglementation, les projets ou proposition de réglementation actuelle, les outils employés par la soft law22, etc.) est-il à même de répondre à ces enjeux ou au contraire subsiste-t-il des failles ? Auquel cas, serait-il envisageable de les résorber à l’aide de nouveaux outils (proposition d’un nouveau dispositif) ?

4. Pour répondre à ces questions, il conviendra de prime abord de porter notre attention sur la réglementation française et européenne dans ce domaine (I), afin de déterminer si le dispositif actuel permet de résorber les difficultés auxquelles font face les États. Ensuite, si nous arrivons au constat que certaines failles subsistent, notamment par rapport à l’éventuelle adoption d’impératifs contradictoires, nous porterons notre attention sur la création de nouveaux outils destinés à les résorber (II). Dans tous les cas, il convient de préciser que les résultats trouvés ont vocation à s’appliquer à un grand nombre de réglementations (à l’échelle européenne et internationale).

I – La diffusion de fausses informations : focus sur les difficultés soulevées par la réglementation actuelle

5. Les informations et les rumeurs sont des événements « volatils dans le temps et éparpillés dans l’espace23 ». Ce principe s’applique tant aux vraies informations qu’aux fake news. Toutefois, dans ce dernier cas, nous verrons qu’il sera parfois nécessaire de sanctionner ce type de comportement. C’est pourquoi il convient dès à présent, à titre pédagogique, de dresser un panel sommaire du contenu et des domaines visés par la réglementation se rapportant à la diffusion de fausses informations (à l’échelle nationale et européenne – aspect théorique) (A). De cette manière, nous pourrons mettre en avant les atouts résultant du présent dispositif mais aussi les éventuelles limites subsistantes (aspect pratique) (B).

A – Étude des outils juridiques existants en matière de lutte contre les fake news à l’échelle nationale et européenne : faut-il privilégier les mesures contraignantes ou celles issues de la soft law ?

6. À première vue, lorsque l’on s’attache à l’étude de la réglementation en vigueur (nationale et européenne) se rapportant à la diffusion de fausses informations, on en arrive aux constats suivants : nous sommes en présence de dispositions riches par leur contenu (variété des dispositions, élaboration d’outils, etc.), diversifiées en raison des domaines ciblés (internet, médias sociaux, éducation, responsabilité, etc.) et modernes24 (prise en compte et utilisation des nouvelles technologies : algorithmes, geometric deep learning, blockchain25).

7. En effet, concernant le contenu et les domaines visés par la réglementation nationale, nous pouvons aussi bien trouver (liste non exhaustive) :

  • des mécanismes de droit se rapportant à la liberté de la presse, via la loi du 29 juillet 188126 (discours de haine : articles 23, 24, 24 bis, 32 et 33 ; fausses informations susceptibles ou étant susceptibles de troubler la paix publique : article 27 ; diffamation, injures commises envers les particuliers : article 32) ;

  • des outils de droit s’intéressant aux troubles ou aux dommages occasionnés par le contenu d’un service de communication au public en ligne (loi n° 2004-575 pour la confiance dans l’économie numérique (LCEN27) ;

  • des textes dédiés au contrôle, à la gestion et à l’endiguement de la diffusion des fausses informations sur internet, notamment en périodes électorales28 (la loi organique n° 2018-1201 et la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, dénommée également loi fake news ou loi infox).

8. Cet arsenal législatif, nous l’avons compris, a pour objectif de couvrir un grand nombre de situations pratiques et l’exploitation de cette base normative aurait pu suffire en soi. Mais afin de parfaire le dispositif actuel, l’État français a également voulu s’engager dans des mesures ayant une portée à long terme. Ainsi, des outils se rapportant à l’éducation aux médias et aux informations (EMI29) des enfants ont été adoptés en 201830 (v. campagnes d’information dans les établissements scolaires, le centre pour l’éducation aux médias et à l’information (CLEMI31) et la plateforme Pix32, Webradio33). À ce titre, la réglementation française peut compter sur le soutien des grandes plateformes en ligne et des associations de professionnels (v. association Fake Off34, les ressources numériques Facebook35, Trust Project36, Fact-checking37). Sur ce point, l’initiative du droit français est à saluer. L’éducation et la formation des citoyens se révèlent être un bon moyen de les amener à se former une opinion de manière éclairée et permettre à terme une évolution positive de notre société.

9. Concernant la réglementation européenne, il convient de préciser que la majorité des mesures ayant été adoptées jusqu’à présent en ce domaine ont une portée non contraignante (soft law). Elles sont fondées sur le principe de l’autorégulation. Cette démarche intellectuelle n’est pas le fruit du hasard. En effet, ces mesures ont été privilégiées car elles sont à l’heure actuelle plus à même d’agir effectivement sur le phénomène des fake news, par rapport aux mesures contraignantes (v. législation sur les services numériques dite Digital Services Act 38). Pour illustrer nos propos, nous pouvons prendre appui sur l’élaboration du code de bonnes pratiques sur la désinformation formulé à destination des principales plateformes en ligne et des grandes associations de professionnels (Adobe, Google, Microsoft, Twitter, etc.39). En effet, ce code, dont la première publication a eu lieu en octobre 201840 et la seconde (après révision) en juin 202241, n’a pas de valeur contraignante. Il est le « résultat de travaux menés par les signataires. [Et dans cette logique,] il appartient aux signataires de décider quels engagements ils souscrivent et il est de leur responsabilité d’assurer l’efficacité de la mise en œuvre de leurs engagements42 ». Nous sommes donc bien en présence de normes d’autorégulation. Et en pratique, les premiers résultats se sont avérés encourageants. Selon le communiqué de presse de la Commission européenne, le code s’est avéré être un outil efficace « pour limiter la diffusion de la désinformation en ligne, y compris en période électorale43 ». Dès lors, l’on comprend pourquoi les efforts de la Commission s’orientent davantage vers ce type de mécanismes.

10. En conclusion, il ressort de cet exposé sommaire des principaux textes et outils se rapportant à la lutte contre les fake news à l’échelle nationale et européenne un premier bilan satisfaisant. En effet, les visions française et européenne de ce phénomène, bien que distinctes, sont complémentaires et ont pour mérite d’œuvrer dans la même direction. Toutefois, il est vrai que pour l’heure les mesures issues de la soft law semblent être plus aptes à saisir ce phénomène avec célérité et efficacité, chose que les mesures contraignantes ne sont parfois pas à même de fournir44. À présent, il reste à savoir si la mise en œuvre pratique de ces dispositions se heurte à des difficultés.

B – Lutte contre les fausses informations : le problème résultant de la recherche d’un juste équilibre entre des impératifs contradictoires

11. Sur la base de notre précédente analyse, nous allons à présent nous attarder sur la mise en œuvre des dispositions précitées (aspect pratique). Cette étude nous permettra de mettre en avant plus aisément les points de difficulté soulevés par les outils à valeurs contraignante (issus de la réglementation française) et non contraignante (issus de la soft law – droit européen).

12. Concernant la mise en œuvre des dispositions nationales, le droit français, par principe, donne le droit à tout citoyen de s’exprimer, de diffuser des informations, des rumeurs, de donner son opinion et de débattre (faculté de penser et de formuler sa pensée45) en utilisant les outils de communication qu’il souhaite (journaux, médias sociaux, blogs, etc.), et ce, indépendamment du fait que l’information soit vraie ou fausse ou bien qu’elle ait pour origine un internaute utilisant sa véritable identité ou un pseudonyme (article 17 du Règlement général sur la protection des données et article 38 de la loi informatique et liberté). Les citoyens en ont le droit parce que l’État français est garant du respect des libertés individuelles (liberté d’opinion, liberté d’expression, droit au respect de la vie privée).

13. Toutefois, par exception, lorsque certaines conditions sont réunies, la réglementation française sanctionne la diffusion de fausses informations. À partir de là, se pose la question de savoir quels sont les critères permettant de sanctionner la diffusion d’une fake news. Au sens des textes dédiés à ce phénomène, nous pouvons dégager des critères communs à la régulation de toute fausse information (régime général) : le degré d’inquiétude, le degré de doute suscité chez les récepteurs de l’information et le nombre de sujets atteints par l’information46. De manière plus spécifique, d’autres critères peuvent s’ajouter aux précédents (régime spécial) : l’atteinte à la paix publique (en période électorale47) ou l’atteinte au droit des personnes (cas de l’usurpation d’identité48). Dans tous les cas, lorsque la diffusion d’une fausse information donne lieu à sanction, c’est qu’elle est considérée comme étant porteuse d’un danger. En conclusion, il ressort de cette brève analyse consacrée à la mise en œuvre pratique du dispositif français en matière de lutte contre les fake news un paradoxe : le droit français se propose à la fois de protéger et de sanctionner les libertés individuelles. Or ces impératifs contradictoires soumettent la réglementation française en vigueur à des limites naturelles.

14. Pour sa part, le droit européen a préféré se défaire de ces impératifs contradictoires (issus du droit dur – mesures contraignantes) en optant pour une vision complémentaire de la législation nationale, fondée sur le principe d’autorégulation des principaux acteurs d’internet. Si en théorie, la soft law semble plus à même que le droit de saisir les mouvements de masse, que ce soit par leur rapidité de mise en œuvre ou l’efficacité des résultats obtenus, en pratique, il semble que la mise en œuvre des outils développés par les principales plateformes du web soulève également de nombreuses limites. Ces limites, tout comme celles se rapportant aux outils à valeur contraignante, trouvent leur fondement dans l’existence d’un paradoxe : dans le cas présent, la gestion d’intérêts contradictoires. En effet, d’un côté, les géants du web mettent en place des outils ayant pour objectif d’endiguer la prolifération des fausses informations (API Twitter49) ; d’un autre côté, ces mêmes acteurs, dans une logique de profit, font passer leurs intérêts (cas des services de ventes numériques d’abonnés, de likes, de fans, de vues, de commentaires, de followers, etc. proposés par les principaux médias sociaux50) avant la modération des contenus (algorithmes de recommandation51, bulles de filtrages Google52, etc.). En conséquence, cela participe à l’augmentation de la désinformation du public (diffusion d’informations en vase clos, caste de l’information) et donc limite la portée et l’efficacité des outils.

15. Pour résumer, les outils mis en place par les responsables des médias sociaux (soft law – autorégulation) comme ceux issus de la réglementation française se trouvent actuellement coincés entre des impératifs contradictoires (lutte contre les fake news vs la recherche de profits et lutte contre les fake news vs respect des droits fondamentaux). Certes, des compromis ont été recherchés des deux côtés, mais ils ne sont guère suffisants pour endiguer ce phénomène en constante évolution (création de nouveaux outils d’IA, apparition de nouvelles bandes organisées, etc.). Dès lors, au regard de nos précédents développements, il nous semblerait opportun à ce stade de notre étude de proposer l’élaboration d’un nouveau dispositif permettant de résorber les failles subsistantes à la réglementation actuelle et aux outils non contraignants issus de la soft law.

II – Proposition d’un nouveau dispositif de lutte contre la diffusion des fake news

16. Nos précédents développements ont mis en lumière diverses difficultés résultant du contrôle de la diffusion des fausses informations par l’État français. Or, nous sommes conscients que les enjeux en ce domaine sont d’envergure et requièrent une prise en charge concrète et efficace. Ainsi, la suite de notre étude se propose d’approfondir la mise en place d’un nouveau dispositif destiné à résorber les failles subsistantes de la réglementation actuelle, afin de lutter effectivement contre la diffusion de fausses informations. En ce sens, notre proposition repose sur la création de trois nouveaux outils, que nous analyserons successivement : la création de centres de gestion de diffusion de l’information (A), la création d’une database répertoriant les informations (B) et la création d’un site internet associé à une application mobile dédiés au décryptage de l’actualité (C). À présent, procédons à l’étude de notre dispositif.

A – La création de centres de gestion de diffusion de l’information (CGDI)

17. Au sens de notre proposition, les centres de gestion de diffusion de l’information (CGDI) pourraient se définir comme des laboratoires de recherche, de supervision et de coordination de l’information en temps réel. Ils auraient pour objectif de prévenir et d’éclairer les citoyens sur les possibles effets négatifs d’une fausse information, en proposant de nouveaux outils de gestion de l’information (visualisable pour les citoyens via le site officiel du CGDI). Intervenant à l’échelle nationale (centre national – organisme public) et internationale (centre international regroupant les géants du web – organisme privé), ces centres seraient tournés vers l’interdisciplinarité pour répondre de manière adéquate aux problèmes soulevés par la diffusion de fausses informations. Par conséquent, ces CGDI seraient composés d’une direction générale et de groupes de travail comprenant du personnel permanent et non permanent (chercheurs, professeurs, professionnels, etc.). Enfin, chaque groupe de travail se verrait ainsi attribuer l’une des missions du centre53.

18. Parmi les missions traitées par les centres de gestion se trouveraient (liste non exhaustive) :

  • l’élaboration de nouveaux outils fondés sur l’IA (algorithmes, blockchain, etc.) ;

  • l’élaboration d’un code éthique de l’information, commun aux centres de gestion ;

  • la prévention ab initio des possibles fake news (fausses informations non encore diffusées mais pouvant exister ; création de fiches types de prévention – réactualisées en temps réel). Cette mission serait en lien direct avec l’application mobile de décryptage de l’actualité (v. n° 22 et s.) ;

  • la détection et rectification en temps réel des fake news déjà parues (mécanismes plus poussés que le fact-chacking actuel) ;

  • la collaboration entre les différents centres de gestion (national et international) ;

  • la coordination entre les centres de gestion et les gestionnaires de la database nationale répertoriant l’ensemble des informations (historique de l’information), du site internet et de l’application mobile dédiés au décryptage de l’actualité ;

  • l’établissement de rapports d’activités publics à destination des États, des chercheurs et des citoyens.

19. La création de tels centres présenterait de nombreux avantages. En effet, cela démontrerait tout d’abord que l’État français maintient une relation de confiance avec les géants du web (Adobe, Google, Microsoft, Twitter, etc.). Pour leur part, les principales plateformes en ligne ainsi que les grandes associations de professionnels prouveraient leur réelle volonté de lutter efficacement contre la diffusion des fake news. À ce titre, il convient de préciser qu’au sens de notre proposition, l’adhésion de chacun des membres se fonderait sur un engagement auto-déclaratif (démarche volontaire d’autorégulation54). Ainsi, il découlerait de cette collaboration entre les deux centres de gestion (public et privé) une grande richesse intellectuelle, l’un pouvant influencer, aider ou encore soutenir l’autre. Ensuite, cela permettrait de développer davantage d’outils de régulation (recherchant la flexibilité, la réactivité ou encore l’efficacité), selon des procédures et des financements distincts. Enfin, ces centres partageraient les mêmes valeurs (respect d’un code éthique commun) et pourraient ainsi être une source d’inspiration pour les autres États.

20. Ainsi, il ressort de l’étude de ce premier outil un bilan plutôt satisfaisant mais incomplet. En effet, cet outil à lui seul ne pourrait résorber l’ensemble des difficultés soulevées par ce phénomène. De ce fait, il serait nécessaire qu’il soit appuyé par la création de deux autres outils complémentaires et indispensables : la database dédiée à la gestion des informations et le site internet associé à l’application mobile de décryptage de l’actualité. Dès lors, procédons à leur étude.

B – La création d’une database répertoriant les fausses informations

21. Au sens de notre proposition, il conviendrait de créer, en parallèle des CGDI, une database55 (en accès public) répertoriant l’ensemble des informations circulant sur les médias numériques et les médias traditionnels. Cette database serait accessible via un site internet et s’intéressait particulièrement aux informations dites importantes, c’est-à-dire ayant eu une grande influence et ayant été transformées, modifiées ou encore inventées. Au risque de simplifier, cette database serait une sorte d’historique des fake news. Elle permettrait à n’importe quel citoyen de rechercher une information par année, domaine, mot-clé ou encore QR code56, puis d’observer l’écosystème de cette dernière. En ce sens, si l’utilisateur accédait à l’une de ces fiches, il pourrait y trouver le QR code (s’il existe), la date de parution, le résumé, les mots-clés, les sources, le taux (%) de diffusion (avec application d’un code couleur allant du vert au rouge) et la liste des fake news ayant été relayées à son sujet (accompagnées de leurs sources), ainsi que la liste des moyens employés pour rétablir la vérité (accompagnés de leurs sources). De cette manière, au fil des années, la database serait en mesure de fournir un large panel d’exemples de fake news et permettrait ainsi, à l’aide d’algorithmes, d’établir des statistiques57 ou encore de fournir des prévisions en temps réel sur les possibles fake news à paraître (à l’image des logiciels de justice prévisionnelle58). Finalement, la création d’une telle database comprenant l’ensemble des fonctionnalités précitées serait d’une aide précieuse pour les citoyens, qui pourraient ainsi apprendre à s’informer, à faire des recherches et à se protéger des fake news. Elle serait également un atout non négligeable pour les enseignants (apprentissage, identification, sensibilisation) et les chercheurs (élaboration de nouveaux outils, établissement de bilans, de statistiques, etc.). La mise en œuvre de cet outil présenterait donc de nombreux avantages (efficacité, fiabilité, transparence) et serait complémentaire à notre premier outil, les CGDI. Toutefois, pour que notre dispositif soit complet et puisse produire les effets escomptés, l’on devrait élaborer un nouvel et dernier outil : un site internet associé à une application mobile dédiés au décryptage de l’actualité.

C – La création d’un site internet associé à une application mobile dédiés au décryptage de l’actualité

22. Pour parfaire notre dispositif, il conviendrait donc de créer un site internet et une application mobile dédiés au décryptage de l’actualité59. Au sens de notre postulat, il serait nécessaire dans un premier temps de doter tous les supports de communication d’un QR code60 (à l’image des tatouages électroniques61proposés par certains spécialistes en cybersécurité). De manière simplifiée, le QR code constituerait une sorte de label62 de transparence de l’information. Il serait obligatoire pour les groupes publics de médias audiovisuels (France 2, France 3, France 5, etc.) et facultatif pour les groupes privés de médias audiovisuels (TF1, Canal +, M6, RTL Group etc.) et de médias en ligne et numériques (Facebook, Instagram, Google, etc.). L’intégration d’un QR code sur les supports de communication permettrait de répertorier l’ensemble des informations sur un site internet et sur une application mobile dédiés au décryptage de l’actualité.

Il convient de préciser dès à présent que contrairement à la database, qui répertorierait seulement les informations « importantes » et ayant fait l’objet de transformations mensongères, « [diffusées] dans le but de manipuler ou de tromper le public63 » (filtrage de l’information), le site internet et l’application concerneraient l’ensemble des informations contenant un QR code, indépendamment de leur véracité ou de leur degré d’importance. De même, si le même système (QR code) était appliqué par d’autres États, l’application serait en mesure de les diffuser et de proposer leur traduction de manière instantanée (écrite et orale64). Enfin, dans un souci didactique, le site et l’application pourraient être dotés d’un agent conversationnel permettant de faciliter les recherches (à l’image du ChatGPT65).

23. Concernant les principales fonctionnalités de l’application mobile, il s’agirait d’un outil pédagogique. En ce sens, sur la page d’accueil de l’application, l’on pourrait trouver une barre de recherche fonctionnant par mots-clés, un scan pour les QR codes, un historique des recherches, les informations faisant la une et les possibles alertes concernant la diffusion de fake news. Le fonctionnement de l’application serait quant à lui très simple d’utilisation. Pour accéder au contenu souhaité, il suffirait soit de scanner le QR code, soit d’effectuer une recherche par mots-clés. Ensuite, figurerait sur la fiche détaillée de l’information sélectionnée le QR code de l’information (ainsi que ceux se rapportant à des communications similaires), la date de la dernière actualisation, les sources, le résumé, les mots-clés, le diagramme circulaire se rapportant à la fiabilité de l’information (chacune d’entre elles se verrait attribuer un niveau de risque (%) basé sur l’état de la science au jour de sa diffusion66). De même, on pourrait y voir, à titre préventif, les éventuelles fake news pouvant circuler (sur la base d’informations semblables ayant donné lieu à la diffusion de fake news) et celles ayant déjà circulé (accompagnées de leurs sources et de la liste des moyens utilisés pour rétablir la vérité67). Enfin, pour parfaire cette application, l’on pourrait intégrer pour les mineurs un système de cryptage des images sensibles68, ainsi qu’un système de signalement69. Le fonctionnement du site internet serait calqué sur le même modèle que celui de l’application. Toutefois, il conviendrait que le site internet soit doté en sus d’un lecteur de QR code70, afin que les personnes utilisant un ordinateur de bureau ou un ordinateur portable puissent y avoir également accès.

24. Il est certain que la création d’un tel outil présenterait de nombreux avantages. D’un côté, il serait facile et rapide d’utilisation et permettrait d’éclairer et d’informer les citoyens en temps réel et en toute transparence. Dans cet ordre d’idée, quiconque utilisant l’application serait à même de décrypter une information, de comprendre son écosystème, d’analyser son historique, de se forger une opinion claire, mais aussi de se protéger et de protéger son entourage. D’un autre côté, cet outil permettrait de clarifier davantage le régime de responsabilité des internautes, des professionnels de l’édition ou encore des hébergeurs71. En effet, dans le cas des internautes par exemple, il serait plus facile, grâce au QR code, de remonter à l’origine d’une fake news. Enfin, cet outil pourrait facilement être repris par d’autres États, permettant ainsi de créer une base internationale de décryptage de l’actualité.

25. Pour conclure sur ce point, il est certain que la mise en œuvre d’un tel dispositif permettrait d’améliorer voire de résorber la plupart des failles existantes en la matière. Bien entendu, nous sommes conscients que la concrétisation d’un tel projet prendrait plusieurs années. Toutefois, les dangers soulevés par ce phénomène demandent, quoiqu’il arrive, de trouver de nouvelles solutions à même de le contrôler. Dès lors, notre proposition s’inscrit dans cette logique et reste ouverte à toute autre proposition allant dans ce sens. En définitive, l’objectif visé par la présente étude est avant tout d’œuvrer pour l’accès à tous les citoyens à une information libre et éclairée.

Notes de bas de pages

  • 1.
    V. définition du mot « information » en son troisième sens, Le Robert, https://lext.so/kE1Kq6.
  • 2.
    V. « Le vrai du faux : renouer la confiance à l’ère des Fake News », Softcom, 2022, https://lext.so/Bc_IlN.
  • 3.
    La rumeur n’est pas vérifiable. Par conséquent on ne peut pas prouver sa véracité : F. Dauphin, « Les Fake News au prisme des théories sur les rumeurs et la propagande », Études de communication, 2019, n° 53, pp. 15-32, https://lext.so/eKU-WC.
  • 4.
    Il peut arriver que la rumeur joue le rôle de contestation de l’information officielle et conduise ainsi à une désinformation (cas d’une rumeur provoquée), une fake news : v. F. Dauphin, « Les Fake News au prisme des théories sur les rumeurs et la propagande », Études de communication, 2019, n° 53, pp. 15-32, https://lext.so/eKU-WC.
  • 5.
    En effet, « chaque jour 100 millions de nouveaux contenus sont diffusés sur internet » : C. Deloire, « La Journalism trust initiative, une initiative d’auto-régulation innovante », Légipresse, 2019/HS1, n° 61, pp. 67-70.
  • 6.
    Y. Gaudemet, « La justice à l’heure des algorithmes », RDP 2018, p. 651 ; v. également G. Teboul, « La justice prédictive : une actualité inquiétante, ou un pari exaltant ? », GPL 7 avr. 2020, n° GPL377f4.
  • 7.
    P. Mouron, « De la rumeur aux fausses informations : Remarques sur la proposition de loi relative à la manipulation de l’information », Legicom, Victoires Éditions, 2019, Le droit face au défi de la rumeur - Actes du colloque organisé le 29 juin 2018 à l’Université d’Aix-Marseille, pp.53-63, https://lext.so/m5VrJb.
  • 8.
    Lyrebird est un logiciel de transformation de la voix qui permet d’emprunter la voix d’un personnage public telle une célébrité en utilisant un algorithme d’imitation de la voix ; v. site officiel de Lyrebird, https://uclic.fr/toolbox/lyrebird/.
  • 9.
    P. Mouron, « De la rumeur aux fausses informations : Remarques sur la proposition de loi relative à la manipulation de l’information », Legicom, Victoires Éditions, 2019, Le droit face au défi de la rumeur - Actes du colloque organisé le 29 juin 2018 à l’Université d’Aix-Marseille, pp. 53-63, https://lext.so/m5VrJb.
  • 10.
    Le « CTR SEO », de l’anglais click-through rate, « est le rapport entre le nombre de clics sur une annonce ou un extrait de recherche et le nombre total de vues » : v. « Le rôle du CTR dans le référencement : comment augmenter le nombre de clics depuis les SERP », 18 oct. 2021, https://seranking.com/fr/blog/ctr-seo/.
  • 11.
    M. Tézenas du Montcel, « Fake news, défiance… les médias sont-ils jugés crédibles aux yeux des Français en 2022 ? », L’ADN,18 févr. 2022, https://lext.so/Ll1UI3.
  • 12.
    C. Asselin, « Les Français face aux médias, à l’information et aux fake news : les chiffres », 5 juill.2021, https://lext.so/AU-BNd.
  • 13.
    Le rapport au format PDF du Edelman Trust Barometer 2021 est accessible via https://lext.so/dXiNwI.
  • 14.
    M. Tézenas du Montcel, « Fake news, défiance… les médias sont-ils jugés crédibles aux yeux des Français en 2022 ? », L’ADN, 18 févr. 2022, https://lext.so/Ll1UI3.
  • 15.
    « Les Français et les fake news », BVA Group, 26 avr. 2019, https://lext.so/ro2Wwz.
  • 16.
    C. Asselin, « Les Français face aux médias, à l’information et aux fake news : les chiffres », 5 juill.2021, https://lext.so/NO17kr.
  • 17.
    C. Asselin, « Les Français face aux médias, à l’information et aux fake news : les chiffres », 5 juill.2021, https://lext.so/NO17kr.
  • 18.
    Étude Ipsos Knowledge Centre, « Un Français sur trois ne fait plus confiance aux médias traditionnels pour s’informer », 10 juill. 2019, https://lext.so/JUEzjx ; H. Grand, « La moitié des Français estime que les médias publient des fausses informations », Figaro Économie, 5 juill. 2019, https://lext.so/6vWpD4.
  • 19.
    « Les Français et l’information : une hygiène informationnelle en berne », in C. Asselin, « Les Français face aux médias, à l’information et aux fake news : les chiffres », 5 juill. 2021, https://lext.so/NO17kr.
  • 20.
    D. Blanchet, R. Cerclé, Y. Forest, C. Jardy, W. Mézières, L. Peyrefitte, K. Piguet, C. Salkaln, « Enjeux de la prise en compte de la rumeur dans la communication de crise », INHESJ, 6e session nationale, Management Stratégique de la Crise, 2018-2019, https://lext.so/j1OBMK.
  • 21.
    En anglais, « fake » signifie « faux » ou « truqué » : C. Féral-Schuhl, Cyberdroit, 2020-2021, Dalloz, chapitre 712, Atteintes aux systèmes d’information, sect. 6, Fake News ; v. également P. Mouron, « De la rumeur aux fausses informations : Remarques sur la proposition de loi relative à la lutte contre la manipulation de l’information », Légicom 2018, p. 53.
  • 22.
    La soft law est un ensemble de textes non contraignants élaborés par des groupes de travail ; v. sur ce point T. Labatut, « De nouveaux outils pour une éthique partagée des acteurs de l’arbitrage », LPA 13 nov. 2020, n° LPA156z2.
  • 23.
    Citation de P. Beauvais, in V.-L. Benabou, « Le temps et la rumeur », Légicom 2018, vol. 60, n° 1, pp. 3-5.
  • 24.
    V. le site français du programme européen pour la recherche et l’innovation 2021-2027, https://www.horizon-europe.gouv.fr/ ; Exemple du groupe InVID qui a élaboré le programme In Video Veritas, qui permet d’aider les journalistes à détecter les vidéos truquées.
  • 25.
    En effet, « les algorithmes sont les principaux mécanismes qui permettent de repérer la désinformation » in D. Blanchet, R. Cerclé, Y. Forest, C. Jardy, W. Mézières, L. Peyrefitte, K. Piguet, C. Salkaln, « Enjeux de la prise en compte de la rumeur dans la communication de crise », INHESJ, 6e session nationale, Management Stratégique de la Crise, 2018-2019, https://lext.so/j1OBMK.
  • 26.
    Loi du 29 juillet 1881 sur la liberté de la presse, https://lext.so/KpP6nv.
  • 27.
    De même, nous pouvons également relever des dispositions en matière de droit des données publiques via l’ordonnance n° 2005-650 du 6 juin 2005 « relative à la liberté d’accès aux documents administratifs et à la réutilisation des informations publiques » et de la loi n° 2008-696 du 15 juillet 2008.
  • 28.
    À ce titre, les principaux apports de ce texte, portent, sur le sens que l’on doit prêter à la notion de « fausse information » (article 1er) ; sur la réactivité à pouvoir contrôler et stopper la diffusion d’une fausse information (en créant à cet effet, une procédure de référé lors d’un scrutin national) ; sur la transparence et la responsabilisation des principaux acteurs d’internet et de l’audiovisuel.
  • 29.
    Pour plus d’informations sur l’EMI, v. le site officiel d’Eduscol, https://lext.so/Ol63D4 ; v. également « Renforcer l’éducation aux médias et à l’information », 25 janv. 2022, https://lext.so/Mher8w.
  • 30.
    V. art. 16 à 19 de la loi n° 2018-1202 du 22 décembre 2018 et la circulaire du 14 avril 2022 sur la généralisation de l’éducation aux médias et à l’information. La circulaire est accessible via, https://lext.so/ugvT97.
  • 31.
    V. le site officiel du CLEMI, https://lext.so/IqedFk.
  • 32.
    Pour plus d’informations, v. le site officiel d’Eduscol : https://lext.so/0MFWrz.
  • 33.
    Pour plus d’informations, v. le Bulletin officiel de l’éducation nationale de la jeunesse et des sports, https://lext.so/FdaMrB.
  • 34.
    Pour plus d’informations, v. le site officiel de Fake off, https://www.fakeoff.fr/.
  • 35.
    Cette bibliothèque « est hébergée par Facebook et comprend actuellement des ressources d’apprentissage mises à disposition par Youth and Media au centre de recherche Berkman Klein Center for Internet & Society de l’université Harvard sous la licence Creative Commons Attribution-ShareAlike 4.0 International », https://fr-fr.facebook.com/safety/educators.
  • 36.
    « Les enjeux du droit pour lutter contre la désinformation sur les réseaux sociaux », Affiches Parisiennes, 14 mai 2021, https://lext.so/KL8v1q.
  • 37.
    Par exemple, Google a mis en place sa méthode de fact-checking appelé Fact-Check Explorer.
  • 38.
    La législation sur les services numériques dit Digital Services Act (DSA), est un texte législatif proposé par la Commission européenne qui permet de moderniser le cadre juridique de l’UE.
  • 39.
    La Commission européenne a pris l’initiative de l’élaboration d’un code lors de ses conclusions et de ses recommandations présentées le 12 mars 2018.
  • 40.
    La version PDF du code des bonnes pratiques sur la désinformation 2018 est accessible via https://lext.so/IjwqfM.
  • 41.
    Le code des bonnes pratiques sur la désinformation 2022 est accessible via ce site, https://lext.so/dyaHet.
  • 42.
    V. « Le code de bonnes pratiques de 2022 en matière de désinformation », https://lext.so/VdW7vG.
  • 43.
    V. « Le code de bonnes pratiques de 2022 en matière de désinformation », https://lext.so/VdW7vG.
  • 44.
    C’est notamment le cas de la nouvelle procédure de référé. En effet, « le délai de 48 heures est relativement long au regard du “temps” des réseaux sociaux, où les informations se renouvellent beaucoup plus rapidement », in P. Mouron, « De la rumeur aux fausses informations : Remarques sur la proposition de loi relative à la manipulation de l’information », Légicom 2019, Victoires Éditions, pp. 53-63.
  • 45.
    V. art. 11 de la Déclaration des droits de l’Homme et du citoyen de 1789 ; Ainsi, dans le respect des libertés d’autrui, la liberté d’opinion est indissociable de : la liberté d’expression (article 10de la CEDH), de la liberté d’association (article 2) et de la liberté de manifestation ; v. « Fiche thématique : qu’est-ce que la liberté d’expression », Vie publique, https://lext.so/TFMx5s.
  • 46.
    Si l’on se réfère à la définition du terme « rumeur » donnée par le Centre national de ressources textuelles et lexicales du CNRS (CNRTL), il est dit qu’il s’agit d’une « nouvelle sans certitude qui se répand de bouche-à-oreille », un « bruit inquiétant qui court ». [Ainsi, l’on retrouve bien] les caractéristiques « d’incertitude et d’inquiétude. [À noter que] juridiquement, la rumeur est de l’information, mais une information de nature à alarmer la population, à l’inquiéter » in N. Mallet-Poujol, « Rumeur et liberté d’expression : entre mensonge et vérité », Légicom 2018, vol. 60, n° 1, pp. 9-18.
  • 47.
    V. la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information.
  • 48.
    Il convient de préciser que de l’usurpation d’identité numérique « donne lieu à une grande variété de pratiques : phishing, spoofing ou encore le catfishing » in V.-G. Rabu, « Rumeur et anonymat », Légicom 2018, p. 35 ; v. article 226-4-1 du Code pénal.
  • 49.
    L’API Twitter « est une passerelle ou interface de programmation permettant de se connecter aux données Twitter de façon automatisée », in B. Barthelot, « API Twitter », 19 nov. 2017, https://lext.so/cEL9iO.
  • 50.
    T. Labatut, « Médias sociaux - L’achat numérique d’abonnés, de likes, de vues ou de commentaires est-il légal ? », LPA 18 oct. 2019, n° LPA148h7.
  • 51.
    « Les algorithmes de recommandation : quand les plateformes décident pour leurs utilisateurs », Affiches Parisiennes, 22 mai 2020, https://lext.so/dOMFhI.
  • 52.
    Les bulles de filtrage (filter bubbles) Google permettent de présenter les informations demandées en fonction de nombreux critères tels que l’historique des recherches, la localisation, la langue, etc. ; Pour plus d’informations, v. https://fr.wikipedia.org/wiki/Bulle_de_filtres.
  • 53.
    À l’image du fonctionnement de certaines institutions (groupes de travail de l’ONU : laboratoire de recherche, https://lext.so/nJKyLm ; CNRS, https://www.cnrs.fr/fr/la-recherche).
  • 54.
    On appliquerait ici la même démarche que celle adoptée par la Commission européenne vis-à-vis du code de bonnes conduites 2022 en matière de désinformation, https://lext.so/VdW7vG.
  • 55.
    Sur la notion de Database, v. T. Labatut, « De nouveaux outils pour une éthique partagée des acteurs de l’arbitrage », LPA 13 nov. 2020, n° LPA156z2.
  • 56.
    À l’image des moteurs de recherche Google, des méthodes de filtrages que l’on retrouve sur la majorité des sites marchands, etc.
  • 57.
    À l’image de ce qui existe en matière de justice prédictive : sur la notion de justice prédictive, v. B. Dondero, « Justice prédictive : la fin de l’aléa judiciaire ? », D. 2017, p. 532 ; A. Garapon, « Les enjeux de la justice prédictive », JCP G 2017, 31.
  • 58.
    V. L. Wada, « De la machine à l’intelligence artificielle : vers un régime juridique dédié aux robots », LPA 26 déc. 2018, n° LPA140x0 ; G. Teboul, « La justice prédictive : une actualité inquiétante, ou un pari exaltant ? », GPL 7 avr. 2020, n° GPL377f4.
  • 59.
    Au sens de notre hypothèse, on viendrait optimiser les outils existants à l’image des sites internet spécialisés dans le décryptage de l’actualité tels que CFactuel, https://lext.so/AzmtsQ.
  • 60.
    Il s’agit d’une abréviation de l’anglais Quick Response Code, https://fr.wikipedia.org/wiki/Code_QR.
  • 61.
    V. D. Blanchet, R. Cerclé, Y. Forest, C. Jardy, W. Mézières, L. Peyrefitte, K. Piguet, C. Salkaln, « Enjeux de la prise en compte de la rumeur dans la communication de crise », INHESJ, 6e session nationale, Management Stratégique de la Crise, 2018-2019, https://lext.so/j1OBMK.
  • 62.
    La création d’un label public a déjà fait l’objet de propositions doctrinales : C. Deloire, « La Journalism trust initiative, une initiative d’auto-régulation innovante », Légipresse, 2019/HS1, n° 61, pp. 67-70.
  • 63.
    R. Badouard, « Les fake news menacent-elles le débat public ? », 18 oct. 2018, https://lext.so/tqwZs8.
  • 64.
    Les avancées de l’IA ont permis d’optimiser les logiciels de traduction automatique ; v. exemple d’appareil de traduction orale existant actuellement : Vasco, https://vasco-electronics.fr/.
  • 65.
    Le ChatGPT est « un prototype d’agent conversationnel utilisant l’intelligence artificielle développée par OpenAI et spécialisé dans le dialogue. », https://fr.wikipedia.org/wiki/ChatGPT ; V le site officiel du ChatGPT, « ChatGPT : Optimizing Language Models for Dialogue », 30 nov. 2022, https://openai.com/blog/chatgpt/.
  • 66.
    À l’image de l’application mobile pour iOS et Android Yuka qui évalue l’impact sur la santé de tous les produits alimentaires et cosmétiques, en utilisant un système de notation sur 100, https://yuka.io/.
  • 67.
    En outre, la fiche pourrait également mettre en lien les possibles décisions de justice auxquelles l’information aurait donné lieu (Open data des décisions de justice Judilibre – Open data de la justice administrative ; Légifrance).
  • 68.
    Dans un tel cas, il serait demandé à l’internaute de déclarer sur l’honneur qu’il est bien majeur pour accéder au contenu, https://lext.so/JIjg1q.
  • 69.
    V. par ex. la page d’aide au signalement Facebook, https://lext.so/7ajpw0.
  • 70.
    Le mécanisme peut être mis facilement en place, à l’image de ce qui existe déjà : Code Reader Mac - QR Scanner, https://lext.so/kfo8e0.
  • 71.
    V. G. Rabu, « Rumeur et anonymat », Légicom 2018, p. 35.
Plan
X