En ce moment

L’intelligence artificielle peut-elle remplacer Google ?

Posté le 12 mai 2025
par Philippe RICHARD
dans Informatique et Numérique

Avec l’émergence d’outils comme ChatGPT, les moteurs de recherche commencent à tomber de leur piédestal. Les chatbots IA peuvent consulter les sites web et les réseaux sociaux afin de fournir des réponses basées sur les dernières actualités. Mais leurs résultats laissent encore à désirer…

Les outils de recherche par IA gagnent en popularité. Près d’un Américain sur quatre utilisant l’IA à la place des moteurs de recherche traditionnels. Cependant, contrairement aux moteurs de recherche traditionnels qui dirigent les utilisateurs vers les sites d’actualités, les outils de recherche génératifs analysent et reconditionnent eux-mêmes les informations.

Et c’est là que le bât blesse. Une étude récente du Tow Center for Digital Journalism de la Columbia Journalism Review pointe du doigt des problèmes de précision concernant les modèles d’IA génératifs utilisés pour les recherches d’actualités. Pour arriver à ce constat, les chercheurs ont testé huit outils de recherche basés sur l’IA en leur fournissant des extraits d’articles de presse réels. Ils leur ont ensuite demandé d’identifier le titre original, l’éditeur, la date de publication et l’URL de chaque article.

Le résultat ? Peu mieux faire ! Les modèles d’IA citent des sources incorrectes dans plus de 60 % des cas, soulevant des inquiétudes quant à leur fiabilité pour attribuer correctement le contenu de l’actualité.

La plupart des outils testés ont présenté des réponses inexactes avec une confiance alarmante, utilisant rarement des expressions qualificatives ou reconnaissant des lacunes dans leurs connaissances. ChatGPT, par exemple, a incorrectement identifié 134 articles, mais n’a signalé un manque de confiance que 15 fois sur 200 réponses, et n’a jamais refusé de fournir une réponse. À l’exception de Copilot de Microsoft, qui a refusé plus de questions qu’il n’a répondu, tous les outils ont été plus enclins à fournir une réponse incorrecte qu’à reconnaître leurs limites.

Bonnet d’âne pour les versions Premium !

Autre exemple significatif, Perplexity a répondu incorrectement à 37 % des requêtes, tandis que Grok 3 a enregistré un taux d’erreur de 94 %. Sur son site, Perplexity est pourtant présenté comme « un moteur de recherche IA gratuit conçu pour révolutionner la façon dont vous découvrez l’information ».

Dans le détail, on apprend que les chatbots ont tendance à fournir des réponses incorrectes ou spéculatives plutôt que de refuser de répondre lorsqu’ils ne peuvent pas le faire avec précision. Pire, les versions premium (comme Perplexity Pro ou Grok 3) fournissent des réponses incorrectes avec plus d’assurance que leurs homologues gratuits et leurs taux d’erreur sont plus élevés !

L’étude a également montré que cinq des huit chatbots testés ont rendu publics les noms de leurs crawlers, permettant aux éditeurs de les bloquer. Cependant, en pratique, les chatbots n’ont pas toujours respecté ces préférences. Les résultats des chatbots d’IA citent souvent des sources externes pour légitimer leurs réponses. Même Grok, qui encourage les utilisateurs à obtenir des mises à jour en temps réel de X, cite encore massivement des organismes de presse traditionnels, selon un récent rapport de Reuters. Cela signifie que la crédibilité des éditeurs est souvent utilisée pour renforcer la crédibilité de la marque d’un chatbot.

Par exemple, DeepSeek a mal attribué la source des extraits fournis dans nos requêtes 115 fois sur 200. Cela signifie que le contenu des éditeurs de presse est le plus souvent attribué à la mauvaise source…

Bref, la situation n’évolue pas vraiment dans le bon sens. Une précédente étude sur ChatGPT, publiée en novembre 2024, était arrivée à des schémas similaires : présentations confiantes d’informations incorrectes, attributions trompeuses à des contenus syndiqués et pratiques incohérentes de recherche d’informations.

Au final, les résultats de cette étude doivent inciter les entreprises et les particuliers à utiliser ces outils avec précaution (notamment en recoupant les informations avec différentes sources fiables et reconnues). Les chercheurs notent en particulier que les éditeurs développant ces outils n’ont pas toujours exprimé leur intérêt à travailler avec les éditeurs de presse. Même ceux qui le font ne parviennent pas toujours à produire des citations précises ou à respecter les préférences indiquées dans le protocole d’exclusion des robots.


Pour aller plus loin