Une analyse de NewsGuard révèle que les chatbots d'intelligence artificielle comme ChatGPT et Perplexity présentent des informations inexactes dans 35 % des cas en août 2025, une hausse préoccupante par rapport à 18 % en 2024. Malgré des mises à jour importantes, ces technologies peinent à différencier sources fiables et désinformation. Claude et Gemini s'en tirent mieux avec 10 % et 16,67 % d'erreurs, tandis que Perplexity enregistre 46,67 % d'erreurs, provoquant des inquiétudes parmi ses utilisateurs. L'accès à Internet a réduit le taux de non-réponse à 0 %, mais a aussi amplifié les erreurs dues à une exploitation croissante de contenus fallacieux. L'industrie doit redoubler d'efforts pour améliorer la vérification des sources.
Une analyse menée par NewsGuard met en évidence que les chatbots d'intelligence artificielle tels que ChatGPT, Perplexity ou Gemini diffusent des informations inexactes dans 35 % des cas en août 2025, contre seulement 18 % l'année précédente. Cette détérioration résulte de leur difficulté grandissante à différencier les sources fiables des informations fallacieuses sur Internet.
Une diminution préoccupante de la fiabilité
En dépit de « dizaines de mises à jour largement médiatisées de leurs modèles », les intelligences artificielles génératives rencontrent une difficulté croissante à distinguer les faits établis de la désinformation. L'analyse réalisée par NewsGuard, organisme spécialisé dans la lutte contre la désinformation, a procédé à un audit des dix principaux outils disponibles sur le marché en août 2025.
Les résultats sont préoccupants : lors du dernier audit, les outils d'IA générative ont diffusé de fausses affirmations dans 35 % des cas, ce qui représente près du double du taux enregistré en 2024 (18 %). Cette dégradation survient paradoxalement alors même que ces technologies progressent en termes de puissance technique et fonctionnelle.
Des résultats variables en fonction des modèles
Afin d'évaluer cette fiabilité, NewsGuard a instauré un baromètre mensuel depuis juillet 2024, confrontant les modèles à des informations erronées portant sur des sujets sensibles tels que les négociations entre l'Ukraine et la Russie ou les élections moldaves. L'objectif consiste à « évaluer la manière dont les principaux modèles d'IA générative abordent les affirmations manifestement erronées concernant des sujets controversés ».
Tous les chatbots ne présentent pas la même efficacité dans cet exercice. Claude (10 %) et Gemini (16,67 %) obtiennent des résultats nettement supérieurs à ceux de leurs concurrents. À l'inverse, Perplexity se distingue par un taux d'erreurs de 46,67 %, marquant une dégradation notable pour ce moteur qui, pourtant, s'était montré exemplaire en août 2024 en réfutant l'intégralité des affirmations erronées soumises.
La baisse de Perplexity suscite des inquiétudes parmi les utilisateurs
Le recul de Perplexity n'a pas échappé à l'attention de sa communauté d'utilisateurs. Comme le souligne NewsGuard, « un forum Reddit consacré à Perplexity est abondamment rempli de doléances relatives à la diminution de la fiabilité du chatbot, et plusieurs utilisateurs s'interrogent sur la disparition de ce qui constituait jadis son principal avantage ».
ChatGPT et Meta se distinguent également comme des acteurs peu performants avec un taux d'erreurs de 40 %, tandis que Mistral AI, le leader français dans le domaine de l'IA, reproduit des informations erronées dans 36,67 % des cas, un résultat identique à celui enregistré en août 2024.
L'accès à Internet, une arme à double effet
Cette détérioration résulte principalement de l'intégration de la recherche web au sein de ces outils. Auparavant, les chatbots s'abstenaient de répondre aux questions d'actualité en indiquant que leur base de connaissances était limitée à une date antérieure. Grâce à l'accès à Internet, le taux de non-réponse a chuté à 0 % en août 2025, comparativement à 31 % l'année précédente.
« L'accès à Internet ne se limite pas à engendrer des effets négatifs. » Elles réussissent également plus fréquemment à démystifier un récit : le taux de réfutation est ainsi passé de 51 % à 65 %, précise Chine Labbé, rédactrice en chef de NewsGuard, dans les colonnes du Parisien.
Le défi lié à la sélection des sources
NewsGuard attire désormais l'attention sur le fait que la véritable difficulté réside dans la sélection des sources. « Plutôt que de s'abstenir de répondre, les chatbots ont entrepris d'extraire des informations provenant de sources peu fiables, sans opérer de distinction entre des médias établis depuis plus d'un siècle et des campagnes de propagande russes arborant des appellations similaires. »
Cette vulnérabilité est de manière croissante exploitée par des acteurs malintentionnés qui saturent le web de contenus fallacieux, notamment au moyen de fermes de contenu. Les modèles « reproduisent plus fréquemment des récits erronés, en s'engouffrant dans des lacunes de données où seuls les acteurs malintentionnés diffusent des informations, se laissant ainsi piéger par des sites web établis à l'étranger et se faisant passer pour des médias locaux ».
Un enjeu technologique demeurant à ce jour non résolu
En novembre 2024, Jensen Huang, directeur général de Nvidia, affirmait : « Il est impératif d'atteindre un niveau où la réponse obtenue inspire une confiance totale. » « Il me semble que nous sommes encore à plusieurs années de l'atteindre. » Près d'une année après, les conclusions de l'étude NewsGuard révèlent « le contraire d'un progrès ».
Cette situation suscite des interrogations majeures quant à l'emploi de ces outils dans un contexte marqué par la prolifération de la désinformation. Les entreprises du secteur technologique seront tenues d'intensifier leurs efforts afin de perfectionner les mécanismes de vérification des sources et de détection des informations erronées avant que ces intelligences artificielles ne puissent être considérées comme pleinement fiables.

