Vérifier si une information est vraie ou non exige beaucoup de temps. L’intelligence artificielle (IA) permettrait-elle de détecter des fausses nouvelles plus facilement et plus rapidement ?
Certains informaticiens indiquent que l’IA pourrait automatiser une partie de cette démarche. Si les agents conversationnels ou grands modèles de langage (LLM) peuvent fournir des réponses à des requêtes comportant un grand nombre de paramètres, ils pourraient, en théorie, déterminer si une allégation est vraie ou fausse. Mais ce n’est pas aussi simple.
Si on demande à l’IA de vérifier un fait, elle cherchera d’abord dans les connaissances qu’elle a acquises -c’est-à-dire la base de données à laquelle on lui a donné accès, indique Science Presse. Dans ce but, des banques de données ont été créées pour entraîner l’IA à partir de bases de données spécialisées.

Le problème avec ces banques de données, c’est qu’elles sont dépendantes du travail qu’ont eu le temps de faire les humains qui sont derrière ces sites. S’il s’agit d’une allégation trop récente pour avoir été vérifiée. C’est pourquoi certaines applications de vérification de faits ajoutent une étape, où l’IA parcourt le web pour récolter des informations complémentaires.
D’ailleurs, des chercheurs de l’Université de Zurich ont exploré le potentiel des LLM pour la vérification de faits. L’algorithme faisait une requête sur Google et retournait les dix premiers résultats trouvés. Il décidait ensuite si ceux-ci étaient suffisants pour répondre à la question ou s’il fallait procéder à une nouvelle recherche.
Malgré cela, concluaient-ils, les résultats de ces vérifications n’étaient pas toujours exacts.Google propose toutefois une solution: son outil Google Fact Check est un moteur de recherche qui ne renvoie que les résultats provenant d’une organisation de vérification de faits reconnue par Google. De plus, il est souvent important, lorsqu’on fait le travail de vérification des faits, de préciser comment le verdict a été rendu —par quelle démarche, ou en se basant sur quelles sources, et pourquoi. Plusieurs IA ne le font pas, déploraient les chercheurs de Zurich.
En outre, les agents conversationnels ont un potentiel pour vérifier certaines informations fausses, mais sont limités par les bases de données sur lesquelles ils s’appuient, et par leurs propres tendances à « inventer » des réponses. Même les plus efficaces de ces modèles sont encore loin derrière les vérificateurs humains.





