Les IA citent de mauvaises sources dans 60 % des cas, selon une étude

À l’heure où près d’1 Américain sur 4 utilise des modèles d’IA comme alternatives aux moteurs de recherche traditionnels, une étude du Tow Center for Digital Journalism (Columbia Journalism Review) révèle que l’IA se trompent dans plus de 60 % des cas lorsqu’elles citent des sources d’actualités. Sur huit outils testés – dont ChatGPT Search, Perplexity et Grok 3 – les chercheurs ont observé une attribution incorrecte des titres, dates, URLs et éditeurs d’articles. Parmi tous ces outils, le plus mauvais élève est Grok 3, avec un taux d’erreur de 94 %. OpenAI et Microsoft ont reconnu ces problèmes, sans apporter de réponse concrète.


Enseignements clés

  • Inexactitude généralisée : Les IA préfèrent générer des réponses plausibles (mais fausses) plutôt que d’admettre leur incertitude.
  • Les versions payantes ne font pas mieux : Paradoxalement, les outils premium comme Perplexity Pro ou Grok 3 premium, ont un taux d’erreur parfois plus élevé que les versions gratuites.
  • Violation des protocoles robots.txt : Certaines IA ignorent les demandes des éditeurs de ne pas indexer leur contenu, y compris des articles sous paywall !
  • Liens erronés : Plus de la moitié des liens générés (notamment par Gemini et Grok 3) sont des liens brisés ou inventés.
  • Un dilemme pour les éditeurs : Les médias doivent choisir entre bloquer l’IA (et perdre toute attribution) ou l’accepter pour être cité et référencé (sans trafic en retour sur leurs sites).