Des chercheurs américains ont examiné les citations de sources dans huit moteurs de recherche IA.
Une étude du Centre Tow pour le Journalisme Numérique à Columbia révèle de graves problèmes de précision avec les modèles d’IA générative utilisés pour les recherches d’actualités. Les chercheurs ont testé huit outils de recherche IA et ont découvert que plus de 60 pour cent des résultats de recherche étaient incorrects.
Qu’est-ce qui ne fonctionne pas correctement ?
Les chercheurs notent qu’environ un quart des Américains utilisent des modèles d’IA comme alternative aux moteurs de recherche traditionnels. Cela soulève de sérieuses préoccupations quant à la fiabilité, car l’étude a révélé un taux d’erreur élevé.
Les marges d’erreur variaient considérablement selon les plateformes. Perplexity a fourni des informations erronées dans 37 pour cent des cas, tandis que ChatGPT Search s’est trompé dans 67 pour cent des cas. Grok 3 a obtenu les pires résultats, avec un taux d’erreur de pas moins de 94 pour cent. Ces modèles d’IA donnaient souvent des réponses qui semblaient plausibles, mais étaient incorrectes.
Les tests ont été effectués en donnant aux modèles d’IA des extraits d’articles d’actualité réels, puis en leur demandant le titre, l’éditeur original, la date de publication et l’URL de l’article. Au total, 1 600 recherches ont été effectuées. Il est notable que les versions premium de certains outils d’IA aient obtenu de moins bons résultats que leurs homologues gratuits. Perplexity Pro et Grok 3 Premium ont donné plus souvent des réponses incorrectes. Ils refusaient également rarement de donner une réponse lorsqu’ils n’avaient pas d’informations fiables.
lire aussi
« Les moteurs de recherche IA se basent sur des sources incorrectes dans 60 pour cent des cas »
L’étude a également démontré que certains outils de recherche IA ignoraient les instructions des éditeurs. Par exemple, la version gratuite de Perplexity a pu citer correctement les dix extraits testés du contenu payant de National Geographic. Cela ne devrait pas se produire, car National Geographic bloque les robots d’exploration IA. De plus, les modèles d’IA font souvent référence à des versions syndiquées d’articles sur des plateformes telles que Yahoo News plutôt qu’aux publications originales. Cela signifie que les éditeurs reçoivent moins de trafic, bien que leurs textes constituent la base des résultats de recherche IA.
Un autre problème courant est l’invention d’URL. Plus de la moitié des références faites par Gemini de Google et Grok 3 ont conduit les chercheurs vers des liens inexistants ou brisés.
lire aussi
« Les moteurs de recherche IA se basent sur des sources incorrectes dans 60 pour cent des cas »
Cette problématique ne se limite pas aux États-Unis. Selon le dernier Digimeter d’imec, l’adoption d’outils d’IA pour la recherche d’informations augmente également en Flandre. Selon le rapport, 28 pour cent des Flamands utilisent régulièrement l’IA générative, et 21 pour cent ont explicitement utilisé ChatGPT.
Un sondage d’ITdaily révèle que 56 pour cent des répondants, composés de professionnels de l’IT, utilisent l’IA et sont honnêtes à ce sujet. 16 pour cent n’utilisent pas l’IA et 30 pour cent éprouvent de la « honte liée à l’IA ». Cela est principalement lié à l’impact écologique.
Bien qu’OpenAI et Microsoft aient réagi au rapport, ils n’ont pas apporté de réponses directes aux points critiques. OpenAI a souligné qu’elle soutient les éditeurs avec des références claires et des résumés, tandis que Microsoft a affirmé respecter les protocoles et directives existants. Pour l’instant, la fiabilité des moteurs de recherche IA reste une grande inconnue. Il n’est pas non plus clair si des mesures seront prises pour éviter les citations de sources erronées.