2019-07-19 Compte-rendu du Bureau Ouvert


#1

Compte-rendu du Bureau Ouvert du vendredi 19 juillet 2019

Compte-rendu - Bureau Ouvert de Mme la députée Paula Forteza – 19/07/2019

Sujet : Lutter contre la désinformation

Contexte

Le vendredi 19 juillet 2019, la députée Paula Forteza a, une nouvelle fois, ouvert les portes de son bureau à des acteurs (chercheurs, développeurs, membres d’administrations politiques, personnes issues de la société civile, etc.) intéressés par les problématiques liées au numérique, et plus particulièrement pour cette dernière session avant les congés d’été, à la lutte contre la désinformation.

La discussion a mené au projet de création d’un outil de fact-checking collaboratif, baptisé Désinfox et fonctionnant sur le principe d’une base de données ouvertes recensant notamment des URLs de contenus circulant sur internet, et signalés comme problématiques par les utilisateurs.

D’autres sujets ont également été abordés au cours de la journée : l’éducation aux médias et à la désinformation de différents acteurs, tant civils que politiques et médiatiques, les nouvelles méthodes de manipulation de l’information (« deep fakes » et « deep nudes »), l’« économie de l’attention » qui pousse les algorithmes de plateformes à recommander des contenus problématiques, notamment de la désinformation.

Plusieurs pistes de réflexion et d’avancement ont été ouvertes, principalement concernant l’outil Désinfox. A ce jour, des fact-checkers­ ­­ certifiés ont déjà été contactés pour contribuer au projet, et un groupe de travail s’est formé pour le mettre en œuvre.

Retour plus en détails sur cette journée riche et efficace dans la lutte contre la désinformation.

Désinfox, une base de donnée pour lutter contre la désinformation

Lors du hackathon organisé le 28 juin 2019 par l’équipe de l’Ambassadeur pour le Numérique au Quai d’Orsay, sur le thème de la lutte contre la désinformation, les collaborateurs de la députée Paula Forteza ont notamment travaillé sur l’adaptation en français de l’outil taïwanais de fact-checking collaboratif CoFacts.

La poursuite du travail a continué au Bureau Ouvert avec un analyse approfondie du code source de CoFacts, qui utilise notamment le principe du crowdsourcing pour vérifier des informations publiées en ligne, spécifiquement dans la messagerie privée Line . L’outil permet de renseigner l’URL d’un contenu jugé douteux par un utilisateur et offre la possibilité d’indiquer une remontée sur ce contenu. Il fonctionne avec une base de données dotée d’une interface de programmation applicative (API), qui permet aux utilisateurs de la consulter. Une fois que le contenu a été identifié comme de la désinformation, un bot inclus dans la boucle de messagerie peut le signaler aux utilisateurs.

L’adaptation de l’outil passe par sa traduction et son intégration sur des réseaux sociaux autres que Line , peu utilisé en France. En effet, bien qu’en open source , CoFacts n’a pas été développé de manière générique mais spécifiquement pour Taïwan et n’inclut donc pas d’outil de traduction.

Après analyse, les développeurs présents ont jugé qu’il était préférable de créer notre propre outil, adapté à nos besoin, plutôt que d’adapter CoFacts, conçu spécialement pour Taiwan.

Un problème en particulier fait cependant surface : l’API de CoFacts, reposant exclusivement sur du crowdsourcing , place les utilisateurs comme juges de la qualité de l’information, ce qui est discutable, car il est complexe de désigner un acteur apte à remplir ce rôle. En effet, il n’existe pas de définition uniforme de la « désinformation ». Il s’agirait ici pour les utilisateurs de signaler du contenu auquel ils sont exposés en ligne, donnant ainsi leur avis plutôt que d’affirmer sa nature de manière indépendante et péremptoire. La somme de ces avis permettrait de faire remonter du contenu jugé douteux.

Les discussions ont donc mené à l’idée de créer une base de données, dotée d’une API, qui réunirait du contenu jugé douteux par les utilisateurs qui y sont exposés, les URLs le relayant et des fact-checks correspondants.

Tout utilisateur pourrait y contribuer, soit en signalant un contenu qu’il juge être de la désinformation et en demandant sa vérification, soit en aidant à détecter des occurrences sur les réseaux d’une information ayant déjà été vérifiée.

Pour éviter l’assertion qu’un contenu est de la désinformation ou non, les représentants de Science Feedback ont évoqué le système de claim review mark-up (https://disinfo.quaidorsay.fr/encyclopedia/reaction/tools#claimreview-markup). Une marque indiquant qu’un contenu a déjà été sujet à vérification pourrait ainsi être intégrée dans le système de signalement des contenus.

L’idée d’un plug-in pour navigateur web a aussi été abordée. Il indiquerait qu’une URL consultée est problématique ou non ; en cela, le système se rapproche de celui de NewsGuard (https://disinfo.quaidorsay.fr/encyclopedia/reaction/actors#newsguard-technologies )).

Est également évoquée la possibilité d’inclure dans le système de crowdsourcing des « trusted flaggers », c’est-à-dire des utilisateurs avec un statut de « signaleurs » certifiés.

Quelques limités ont été signalé par les participants. Tout d’abord, dès lors qu’un contenu est diffusé sur les réseaux sociaux, se pose le problème de la viralité. Il est extrêmement complexe d’endiguer la diffusion d’un contenu. De plus, un certain délai est nécessaire pour injecter un fact-check correspondant dans la base de données.

Si la base de données ne peut pas résoudre ce problème de viralité, elle offre au moins un contre-narratif par la diffusion d’un fact-check , et elle permet une mise en commun des efforts pour endiguer les effets de la désinformation.

Il est également important de préciser que l’un des problèmes majeurs et récurrents lorsque l’on aborde le sujet de la désinformation est la défiance envers les institutions, notamment gouvernementales, et les médias. Un outil ouvertement soutenu par ou provenant de ces entités risque de rencontrer cette défiance et de légitimer la désinformation qu’il cherche à combattre.

Cependant, ce projet nécessite un soutien. Sinon institutionnel, il pourrait être académique, avec le partenariat de communautés scientifiques reconnues. Il s’agirait d’offrir des clés à la société civile.

A la fin de la journée, les pistes de développement et les prochaines étapes ont été précisées :

  • Il est important qu’un utilisateur confronté à un contenu sur un réseau social puisse voir apparaître qu’un contenu a, par exemple, été signalé plusieurs fois. Le but étant d’éveiller un recul critique. Cette fonctionnalité pourrait apparaître dans le claim review mark-up . Ce genre de données est déjà détenu par les opérateurs de plateformes et il serait bénéfique qu’il soit publiquement accessible.
  • Parce qu’il s’agirait d’une base de données fondée sur un principe de fact-checking collaboratif, il est intéressant d’entrer en contact avec des fact-checkers , idéalement certifiés auprès de l’IFCN ( International Fact-Checking Network ). Une première prise de contact a déjà été effectuée auprès de fact-checkers du Monde et de Libération.
  • Est également envisagé de soumettre à un tel réseau de fact-checkers la règle, par exemple, de vérifier les contenus qui dépassent un certain seuil de viralité de manière inhabituellement rapide.
  • Pour alimenter la future base de données, un atelier s’est constitué, qui a fait de la recherche de données ouvertes en matière de fact-checks (sur Google, Facebook, Pharos, Storyzy et à l’échelle européenne).
  • Pour mener ce projet technique à bien, il est impératif de recourir à des développeurs, indépendants et qualifiés.

Retours plus en détails sur les autres thèmes discutés

Education aux médias, sensibilisation et moyens individuels de réaction

Certains participants ont formé un atelier autour de la question de l’éducation aux médias et à la désinformation . Le but était de déterminer non seulement à qui s’adresser, mais également par quel(s) moyen(s) et à quelle échelle.

Certaines catégories de population, comme les seniors (qui partageraient de la désinformation davantage que d’autres classes d’âge) ou les jeunes (principaux consommateurs de contenu), sont des cibles importantes. Mais les enseignants, les formateurs, les enfants sont également un public crucial lorsque l’on aborde l’éducation aux médias.

Le journalisme

Une participante, qui travaille à la formation journalistique (éducation aux médias, méthode de fact-checking , qualité de l’information) via CFI (agence française de développement des médias en Afrique, dans le monde arabe et en Asie du Sud Est), a démontré à quel point le rôle de la formation des médias importe.

Obéir à des logiques économiques (par exemple, de l’attention) contribue à une pollution de l’information. Il faudrait ainsi former les journalistes à produire une information qualitative, sans pour autant créer un climat de défiance en insistant sur la dangerosité de la désinformation et de ses conséquences. Il s’agirait d’accroître la visibilité des informations de qualité plutôt que de se focaliser sur la décroissance de celle des fausses informations.

Des problèmes locaux (limites à la liberté d’expression, contrôle de l’information, qualité de l’information, qualité de la formation journalistique, accès aux médias, etc.) sont autant de problèmes qui s’ajoutent à l’exigence d’opérer un tournant vers un journalisme « non-pollutif ».

La modération

Un chef de projet du Ministère de l’Education Nationale et de la Jeunesse, a poussé la réflexion sur la définition de la désinformation et plus particulièrement sur les règles de modération de contenu sur les plateformes.

Les règles de modération (manuelle comme algorithmique) sont directement fixées par les plateformes, trop souvent sans expliciter les raisons de la censure d’un contenu plutôt qu’un autre. De plus, la question de la responsabilité se pose puisque la modération est régulièrement sous-traitée et, lorsque manuelle, insuffisante par rapport au flux de contenus.

Ces règles devraient permettre de déterminer la réaction appropriée à la publication d’un contenu problématique. Accéder à ces consignes pourrait être particulièrement précieux si l’on cherche à déterminer soit la nature d’un contenu, soit les meilleures options à offrir à un utilisateur pour y réagir (signalement, fact-checking , comparaison avec d’autres sources, etc.).

Il faudrait donc se pencher sur les cadres des comportements des utilisateurs sur les plateformes et les choix qui leur sont offerts, pour mieux démystifier la modération et ®établir un degré de confiance.

La question des « deep fakes »

Les « deep fakes », ces synthèses de photos ou vidéos générées par IA, et plus récemment les « deep nudes » qui fonctionnent de la même manière mais dans un but pornographique, éveillent un intérêt croissant.

Aux Etats-Unis, une loi fédérale vient d’être proposée, imposant l’ajout d’une indication sur tous les contenus de synthèse publiés en ligne et imitant une personne réelle. Même si elle n’était pas respectée, elle permettrait au moins la criminalisation de ce type de publication. Il s’agirait de reconnaître les problèmes éthiques et politiques posés par ces pratiques en les inscrivant dans un cadre légal, pénal.

Il pourrait ainsi être bénéfique d’impulser une règlementation de ce type en France, ou tout du moins apporter de la visibilité à ces outils - et donc une conscientisation de la société civile à leur égard.

Algorithmes de recommandation

Le fondateur d’AlgoTransparency évoque les dangers des effets boule de neige de la diffusion de la désinformation via notamment les algorithmes de recommandation de contenu, comme celui de YouTube.

L’université de Berkeley a développé une intelligence artificielle dont le système d’apprentissage utilise seulement le titre de la vidéo, sa description, ses commentaires, et des théories du complot connues pour déterminer si une vidéo contient de la désinformation ou non, avec 90% de taux de succès.

Il pourrait être intéressant d’envisager d’inciter les plateformes à modifier leurs algorithmes de recommandation sur la base de ce type d’études.

Plateformes et économie de l’attention

Une responsabilisation des plateformes est nécessaire. Par des mécanismes algorithmiques reposant sur des principes d’économie de l’attention, des acteurs typiquement auteurs de désinformation sont mis en avant sur des réseaux sociaux. Cependant, il serait évidemment problématique de dresser arbitrairement une liste d’acteurs « fiables ». La question reste donc ouverte.