Alors que le 35e semaine de la presse à l’école débutera dans une semaine (du 18 au 23 mars), nous avons souhaité mettre en avant le travail du journaliste Guillaume Kuster avec Check First dans la lutte contre les Fake News.

Guillaume Kuster est journaliste, pendant une vingtaine d’années il a travaillé pour France Télévisions et Radio France. En 2016, il cofonde CheckFirst, une plateforme de lutte contre la désinformation et les FakeNews. Guillaume Kuster agit en tant qu’enquêteur et analyste de données. Son engagement médiatique est international : depuis 2014, il collabore avec la CIRCOM (association européenne de TV publiques) et participe à la réflexion sur les enjeux des évolutions technologiques (dont le mojo (mobile journalism) où il est l’un des experts), et a créé Tarkka médias en Finlande.

 

Comment est né Check First ?

Check First est une entreprise de logiciels et solutions spécialisée dans la mesure de l’impact des recommandations algorithmiques des grandes plateformes sur les sociétés. Nous développons des systèmes permettant d’analyser quels types d’informations sont « poussées » sur les réseaux sociaux et sites de contenus tels que YouTube, Google Search, TikTok, Instagram etc… Cela nous a permis de constater par exemple que Google promouvait un site de propagande pro-Kremlin lorsqu’un utilisateur tapait le mot clé « Dombass » dans la barre de recherche, ou qu’Amazon mettait en avant quasi exclusivement des ouvrages anti-vaccination après une recherche pour le mot « vaccin » dans sa boutique de livres.

La création de Check First n’est d’ailleurs pas sans rapport avec la pandémie puisque la société est née entre deux confinements en 2020, après que j’ai rencontré un développeur et une autre journaliste de formation en ligne lors de la création spontanée d’une rédaction entièrement décentralisée regroupant fact-checkers, journalistes et experts motivés à contrer l’immense vague de désinformation à propos du COVID-19 qui s’abattait sur nous à l’époque. Forts de plus de 140 membres à son pic, cette équipe a dû être organisée, développer ses méthodologies et s’assurer de la rigueur et de la précision de ses investigations. C’est de cette expertise, augmentée de nos expériences passées de développeurs et journalistes qu’est née Check First.

Qui sont vos associés et partenaires de projet ?

Tout dépend des projets. Notre rôle est de fournir des outils et méthodes permettant l’analyse de l’économie de l’information numérique, d’évaluer ses risques et son impact sur les populations. Nous nous associons souvent à des initiatives de fact-checking, organisations non gouvernementales, universités, think-tanks ou mécènes actifs dans la lutte contre la désinformation ou vigilants quant à l’impact des grandes plateformes sur nos sociétés. Les organisations d’éducation aux médias et à l’information sont d’autres partenaires privilégiés. Citons par exemple la fondation Mozilla, ISD et RESET tech aux USA, EU Disinfo Lab ou Apache en Belgique, FaktaBaari et l’université d’Helsinki en Finlande ou l’université Södertörn de Stockholm en Suède. Nous sommes également partenaires de l’organisation internationale de la francophonie pour le projet ODIL, qui réunit sous sa bannière près de 100 initiatives de lutte contre la désinformation dans l’espace francophone, essentiellement en Afrique. La rampe de lancement de Check First a été un appel à projets européens remporté avec la très réputée association EU Disinfo Lab, basée à Bruxelles. Nous avons pu développer le prototype de notre système de veille et de simulation d’utilisateurs CrossOver qui permet depuis une multitude d’emplacements géographiques d’auditer le fonctionnement des algorithmes de recommandation de contenus sur 11 plateformes. En clair, quelles vidéos voit un utilisateur basé à Namur lorsqu’il tape « Poutine » dans la barre de recherche de YouTube ? Les résultats sont-ils différents à Bruxelles ou Paris ? Quelle est la proportion de contenus problématiques renvoyés par l’algorithme ? À quelle vitesse un utilisateur est-il enfermé dans une bulle de contenu, etc…

Quel est votre modèle économique et quels sont vos projets de développement ?

Nos ressources proviennent de deux sources principales. Nous répondons régulièrement à des appels à projets provenant de différents acteurs tels que la Commission Européenne, le fond européen pour l’information et les médias (EMIF), la fondation Mozilla… Parallèlement, nous vendons notre expertise à des clients intéressés par nos capacités et prodiguons des formations.

Check First est un projet européen, comment l’adaptez-vous à chaque pays ?

Check First en tant que telle est une entreprise, à son tour porteuse de projets. Ces projets sont souvent européens mais nous opérons dans d’autres parties du monde également comme l’Afrique sub-saharienne ou le Proche-Orient. Notre démarche consiste à systématiquement nous adosser à un partenaire local, fin connaisseur du terrain, des langues locales et du contexte sociétal et politique. Nous fournissons les outils de mesure, formons nos partenaires à leur utilisation et ils se chargent de l’analyse des données récoltées. L’adaptation de nos solutions dans de nouveaux pays est à chaque fois une aventure humaine basée sur l’établissement d’une relation de confiance avec les initiatives locales et l’établissement d’une collaboration étroite.

Nous travaillons par exemple en ce moment en Finlande avec l’excellente équipe de FaktaBaari sur une veille exercée à l’aube des élections présidentielle et européennes de cette année. Leur expertise est précieuse pour déterminer quels sujets surveiller dans un contexte très particulier où le pays vient de rejoindre l’OTAN après l’agression russe en Ukraine alors que la Finlande partage une frontière de plus de 1400 km avec la Russie. Il sera intéressant d’y observer les thèmes de campagne ainsi que d’éventuelles tentatives d’ingérence dans le processus démocratique.

Vous avez travaillé pour France Télévisions pendant plusieurs années, à quel moment avez-vous pris conscience du problème des Fake News ?

J’étais effectivement journaliste durant près de 20 ans à Radio France, puis France Télévisions. La désinformation n’est évidemment pas un problème récent, mais l’avènement des réseaux sociaux l’a considérablement amplifiée et démocratisée. N’importe qui peut potentiellement toucher des millions de personnes avec très peu d’efforts et des coûts de production très faibles (une tendance qui vient d’ailleurs de changer d’ordre de magnitude avec l’apparition l’an dernier d’outils d’intelligence artificielle générative). J’ai eu la chance — ou la malchance — d’avoir été aux premières loges de ce phénomène en tant que journaliste (avec un penchant un peu geek). La fin des années 2000 et le début de la décennie suivante a été l’époque de la popularisation du smartphone, de la baisse des prix des forfaits de données mobiles, des applications mobiles pour tout et n’importe quoi et de l’explosion de la création en ligne. Très rapidement, je me suis rendu compte que cette révolution technologique allait vivement bousculer les médias et leur position jusque-là incontestée de faiseurs d’actualité. Ajoutez à cela une dose de capitalisme numérique et l’optimisation des plateformes pour l’engagement et la personnalisation des contenus et vous obtenez l’avènement de la bulle informationnelle : un nouvel entre-soi idéologique où les opinions contraires deviennent ennemies et doivent être moquées et combattues. Le terreau était fertile pour la propagation de la désinformation.

Les élections européennes approchent, faut-il craindre une massification de la désinformation ?

L’année 2024 est une année exceptionnelle en termes de rendez-vous électoraux puisque près de la moitié de la population mondiale est appelée aux urnes. La question n’est pas s’il faut craindre une massification de la désinformation, mais quelle forme elle va prendre et quel impact elle aura sur les résultats. La communauté de la lutte contre la désinformation exprime ses inquiétudes depuis l’an dernier quant à cette année charnière. Un exemple frappant a retenu l’attention de tous lors de la récente campagne des législatives en Slovaquie. Deux jours avant l’élection, un faux enregistrement audio du principal candidat d’opposition Michal Šimečka a largement circulé sur Facebook et TikTok. Dans sa voix usurpée, les auteurs de la vidéo ont fait croire qu’il planifiait une vaste tricherie électorale. La véracité de l’enregistrement a été rapidement contestée mais cela ne l’a pas empêché d’avoir été entendu des millions de fois en quelques heures avant sa dépublication par les plateformes.

Vous avez une vision européenne de la lutte contre la désinformation, quelles sont selon vous, les mesures les plus efficaces ?

L’éducation aux médias et aux savoir numériques est sans aucun doute une piste à suivre. L’exemple finlandais montre qu’une population sensibilisée dès le plus jeune âge (le sujet est abordé dès 7 ans et le sera bientôt à partir de 4 ans !) donne des résultats en termes de résilience de la population à la désinformation. Le pays est classé en tête du dernier index d’éducation aux médias de l’Open Society Institute de Sofia, devant les autres pays nordiques. Enseigner les codes de l’information, de ses sources et réflexes à avoir face à des contenus jouant trop sur les émotions est l’une des clés de la résistance à la désinformation et aux manipulations de l’espace informationnel. Ces exemples nordiques sont marquants et inspirent d’autres états. L’un des signes de l’engagement et du sérieux de la Finlande dans cet exercice est le fait que l’éducation aux médias est obligatoire à l’école, alors que dans de nombreux autres pays le sujet n’est pas traité ou, comme en France, des modules sont simplement proposés aux enseignants pour des interventions ponctuelles. Un autre volet de la lutte contre les risques systémiques est la régulation des plateformes.

Est-ce que le Digital Services Act, voté en août 2023 par l’Europe, est véritablement efficace contre la désinformation ? Quel regard portez-vous sur les réseaux sociaux et leurs efforts, ou non, contre la désinformation ?

Concernant le règlement sur les services numériques européen, il est trop tôt pour parler de résultats. Le DSA n’est pas encore entièrement entré en application et son objectif principal n’est pas la lutte contre la désinformation, même s’il cherche à responsabiliser les plateformes. Nous nous y intéressons toutefois de très près. Le texte vise à créer un monde en ligne plus sûr pour les 450 millions de citoyens européens. Il impose des obligations nouvelles aux plateformes, avec un jeu de contraintes particulièrement drastiques pour les plus grosses d’entre elles, qui cumulent plus de 45 millions d’utilisateurs dans l’Union. Les objectifs du DSA sont la création de systèmes de signalement de contenus illicites ou dangereux, la lutte contre le cyberharcèlement, la limitation de la publicité ciblée, la transparence des décisions de modération de contenu et enfin la simplification des conditions d’utilisation.

L’un des moyens par lequel le DSA peut être efficace dans la lutte contre la désinformation est son volet concernant les risques systémiques décrit dans son article 34. Il oblige les très grandes plateformes à identifier ces risques induits notamment par leurs algorithmes de recommandation de contenus. Elles doivent également être en capacité d’analyser le potentiel de manipulation de leurs systèmes par des acteurs malveillants. Surtout, l’article 35 du DSA les force à implémenter des mesures de minimisation de ces risques. C’est principalement par ces aspects que le texte peut aider à réduire la propagation des contenus problématiques mais nous devrons attendre pour voir les premiers effets que la Commission Européenne et les plateformes croisent le fer devant les tribunaux pour qu’une jurisprudence s’établisse. Le DSA demeure une avancée majeure et une première mondiale dans les efforts de régulation des plateformes et son application est observée très attentivement par d’autres pays tels le Canada et l’Australie par exemple, prêts à s’en inspirer.

 

We are Check First

X