VCG

Les principaux assistants en intelligence artificielle (IA) dénaturent le contenu de l’actualité dans près de la moitié de leurs réponses, selon une nouvelle étude publiée mercredi par l’Union européenne de radiodiffusion (UER) et la BBC.

L’étude internationale a analysé 3 000 réponses aux questions sur l’actualité des principales applications logicielles d’assistance à l’IA qui utilisent l’IA pour comprendre les commandes en langage naturel et effectuer des tâches pour les utilisateurs.

Il a évalué les assistants IA dans 14 langues pour leur exactitude, leur source et leur capacité à distinguer les opinions des faits, notamment ChatGPT, Copilot, Gemini et Perplexity.

Dans l’ensemble, la recherche a montré que 45 pour cent des réponses de l’IA étudiées contenaient au moins un problème important, et 81 pour cent avaient une forme de problème.

Reuters a contacté les sociétés pour solliciter leurs commentaires sur les conclusions.

Gemini, l’assistant IA de Google, a déjà déclaré sur son site Web qu’il appréciait les commentaires pour continuer à améliorer la plate-forme et la rendre plus utile aux utilisateurs.

OpenAI et Microsoft ont déjà déclaré que les hallucinations (lorsqu’un modèle d’IA produit des informations incorrectes ou trompeuses, souvent en raison de facteurs tels que des données insuffisantes) sont des problèmes qu’ils tentent de résoudre.

Perplexity déclare sur son site Web que l’un de ses modes « Recherche approfondie » a une précision de 93,9 % en ce qui concerne la factualité.

Selon l’étude, un tiers des réponses des assistants IA contenaient de graves erreurs de sourcing, telles qu’une attribution manquante, trompeuse ou incorrecte.

Environ 72 % des réponses de Gemini, l’assistant IA de Google, présentaient des problèmes majeurs de sourcing, contre moins de 25 % pour tous les autres assistants, selon le rapport.

Le rapport indique que 20 % des réponses de tous les assistants IA étudiés contenaient des problèmes d’exactitude, notamment des informations obsolètes.

Les exemples cités par l’étude incluent Gemini indiquant de manière incorrecte des modifications apportées à une loi sur les vapes jetables et ChatGPT signalant que le pape François est le pape actuel plusieurs mois après sa mort.

Vingt-deux médias de service public de 18 pays, dont la France, l’Allemagne, l’Espagne, l’Ukraine, la Grande-Bretagne et les États-Unis, ont participé à l’étude.

L’UER a déclaré qu’à mesure que les assistants IA remplacent de plus en plus les moteurs de recherche traditionnels pour l’actualité, la confiance du public pourrait être menacée.

« Quand les gens ne savent pas à quoi faire confiance, ils finissent par ne faire confiance à rien du tout, ce qui peut décourager la participation démocratique », a déclaré le directeur des médias de l’UER, Jean Philip De Tender, dans un communiqué.

Selon le Digital News Report 2025 de l’Institut Reuters, environ 7 % de tous les consommateurs d’informations en ligne et 15 % des moins de 25 ans utilisent des assistants IA pour obtenir leurs informations.

Le nouveau rapport exhorte les entreprises d’IA à être tenues responsables et à améliorer la manière dont leurs assistants en IA répondent aux requêtes liées à l’actualité.