Les géants technologiques tels que Meta, Google et X investissent massivement dans des outils d'IA conçus pour détecter les fausses informations. Cela semble rassurant, mais selon une nouvelle étude de l'Université de Montréal, ces outils présentent de sérieux inconvénients qui se cachent derrière des chiffres de précision impressionnants.
Le chercheur doctoral Dorsaf Sallami a examiné les systèmes de détection des fausses informations basés sur l'IA et a constaté qu'ils ne vérifiaient en réalité aucun fait. Ils calculent des probabilités à partir de leurs données d'entraînement. Il faut les considérer moins comme un journaliste vérifiant une information que comme un miroir reflétant tout ce qui lui est présenté, y compris les mêmes biais et angles morts.
Selon Dorsaf Sallami, un système qui obtient une précision de 95 % en laboratoire peut encore échouer dans le monde réel, et cet écart constitue un problème grave.
Le problème des préjugés dont personne ne parle
Au-delà de la précision, Sallami a constaté que bon nombre de ces systèmes comportent des biais intégrés qui passent largement inaperçus. Certains modèles sont plus susceptibles de signaler les femmes comme sources de désinformation. D'autres ont des préjugés à l'égard des sources non occidentales ou reproduisent des préjugés politiques.
Il existe également un problème plus profond lié à la manière dont ces systèmes sont formés. Ils s'appuient sur les étiquettes attribuées par des organismes de vérification des faits, dont beaucoup manquent de transparence et dont certains sont des entreprises à but lucratif. L'ensemble du système repose sur des bases fragiles.
Ajoutez à cela l'essor d'outils tels que ChatGPT, qui facilitent plus que jamais la production de faux contenus, et les systèmes de détection formés il y a quelques mois à peine peuvent rapidement devenir obsolètes.
Une meilleure approche
La solution proposée par M. Sallami est Aletheia, une extension de navigateur qui explique pourquoi un contenu peut être suspect plutôt que de se contenter de dire s'il est vrai ou faux. Lors de tests, elle a atteint un taux de fiabilité de 85 %, surpassant de nombreux outils existants. Ce qui la différencie, c'est sa philosophie. Au lieu de vous donner un verdict et d'attendre que vous lui fassiez confiance, Aletheia vous montre son travail.

Elle extrait des preuves à partir de sources disponibles en ligne, les présente dans un langage simple et laisse les utilisateurs prendre la décision finale. Elle inclut même un flux en direct des dernières vérifications de faits et un forum communautaire où les utilisateurs peuvent partager et discuter de leurs conclusions. La conclusion est simple : l'IA doit aider votre jugement, pas le remplacer.