[LUM#22] Quand l’IA passe, les fake news trépassent

Covid, vaccination, réchauffement climatique… Les sujets scientifiques sont omniprésents dans les grands débats, aussi et surtout sur les réseaux sociaux.
Comment trier le bon grain de l’ivraie dans toutes ces affirmations ? Au Lirmm, on s’y attelle avec l’intelligence artificielle.

Loin d’être cantonnée aux revues spécialisées, la science infuse désormais les tweets, posts et commentaires en tout genre. « C’est un constat, la science fait totalement partie du discours sur les réseaux sociaux, tout le monde en parle, pour donner du poids à des arguments, ou en réaction à une anxiété dans la société », explique Konstantin Todorov, chercheur au laboratoire d’informatique, de robotique et de microélectronique de Montpellier1.

Un constat qui en amène un autre : les faits scientifiques sont souvent présentés de manière simplifiée, décontextualisée et trompeuse. « Nous avons beaucoup observé ce phénomène notamment lors de l’épidémie de Covid-19 au cours de laquelle de nombreuses affirmations pseudo-scientifiques circulaient sur le web, propageant des biais ou des fausses informations, se souvient Sandra Bringay, chercheuse au Lirmm. Les mécanismes inhérents aux plateformes en ligne font que des déclarations controversées ou fausses génèrent plus d’interactions et d’intérêt », complète la spécialiste.

Lutter contre la désinformation

Comment dans ce contexte lutter contre la désinformation et améliorer la compréhension de questions scientifiques complexes ? Pour les deux chercheurs, la réponse passe par l’intelligence artificielle. Avec Salim Hafid, étudiant en thèse au Lirmm, ils proposent une approche hybride d’IA dédiée à l’interprétation du discours scientifique en ligne. Leur objectif : détecter et classifier les affirmations scientifiques dans les données provenant des réseaux sociaux.

Dans le cadre du projet franco-allemand AI4Sci, ils disposent d’une immense base de données avec l’archivage de tous les tweets postés sur l’ancêtre de X, « un immense corpus auquel nous avons pu avoir accès grâce à une collaboration avec le laboratoire allemand Gesis, partenaire du projet », précise Konstantin Todorov. Des données que les informaticiens ont utilisées pour faire du machine learning, en recourant à ce que l’on appelle les larges modèles de langage, qui leur permettent d’associer des concepts au texte.

Donner des repères

« L’idée c’est d’apprendre à la machine à reconnaître une assertion scientifique, en vérifiant par exemple s’il y a des références, des publications, certaines combinaisons de mots, la qualité de la source… Et de la resituer dans le contexte médiatique et scientifique qui les accompagne », précise Sandra Bringay.
Et de vérifier si ces affirmations sont vraies ou fausses ? « Dans le discours public ce qui compte plus que de savoir si l’information est vraie, c’est de mieux cerner comment elle est utilisée, répond Konstantin Todorov. Le but c’est d’aller vers des outils qui donnent aux utilisateurs des flags, autrement dit des repères, pour faciliter les bonnes pratiques de lecture. »

Les chercheurs collaborent notamment sur ce projet avec des sociologues et des journalistes avec un objectif plus large : lutter contre les stratégies de manipulation et aider à créer un discours public et démocratique sain.

Retrouvez les podcasts de l’UM désormais disponibles sur votre plateforme favorite (Spotify, Deezer, Apple podcasts, Amazon Music…).

  1. Lirmm (UM, CNRS, Inria, UPVD, UPVM) ↩︎