Les médias utilisent de plus en plus les outils d’IA, mais ceux-ci peuvent produire des erreurs. Bloomberg a dû corriger des résumés, Apple a désactivé une fonction sur l’actualité… Une étude de la BBC montre comment les IA peuvent faire de fausses citations.
« Quand on a lancé le sous-titrage assisté par l’IA il y a trois ans environ, le nom Macron devenait ‘micro-onde’ dans le texte, sourit Frédéric Brochard, de France Télévisions. Depuis, il y a eu des progrès extraordinaires. »
Alors que les médias utilisent de plus en plus les nouvelles technologies, de plus en plus performantes, les exemples d’erreurs demeurent toutefois légion. Le géant de l’information financière Bloomberg, qui offre depuis janvier un outil d’IA pour résumer des « news », a dû corriger au moins trois douzaines de résumés d’articles générés par l’IA, cette année, dont une date inexacte sur les récents droits de douane, relève le « New York Times ».
Un homme vivant… enterré par l’IA
En janvier, Apple avait désactivé un nouvel outil pour résumer l’actualité, après des erreurs et une plainte déposée par BBC News sur une faute – un homme toujours vivant… enterré par l’IA. Et, la toile regorge d’anecdotes sur des bévues et hallucinations de l’IA. On se souvient par exemple que Google AI Overviews avait été moqué à ses débuts pour avoir dit qu’il fallait de la colle pour garder le fromage sur les pizzas.
« Les modèles de langage sont probabilistes et font par construction des erreurs », observe Florent Latrive, chez Radio France. Autrement dit : comme tout (mauvais) élève pris en faute, une IA n’hésite pas à inventer lorsqu’elle ne sait pas.
Plus inquiétant en revanche, l’IA peut introduire des inexactitudes sur des sources fiables. En témoigne une étude de la BBC, réalisée en février dernier, qui a posé des questions d’actualité à ChatGPT, Copilot (Microsoft), Gemini (Google) et Perplexity, en leur demandant de se baser au maximum sur les infos de son site web.
Résultat : 51 % des réponses ont été jugées comme présentant des problèmes importants ; 19 % des réponses qui citaient le contenu de la BBC comportaient des erreurs factuelles (chiffres ou dates incorrects, etc.) ; 13 % des citations tirées d’articles de la BBC ont été modifiées ou n’existaient pas dans l’article en question.
Ce mur des erreurs et hallucinations fait hésiter de nombreux médias à pousser davantage l’utilisation de l’IA. « S’il faut tout vérifier, on ne gagne pas vraiment de temps », prévient Florent Latrive. « Les IA ne sont pas fiables à 100 %, d’où le nécessaire contrôle humain », ajoute Pascale Socquet, chez Prisma.
Faux sites créés par IA
Conscient de ces risques, Bloomberg poursuit néanmoins l’expérience : « 99 % des résumés d’IA répondent à nos normes éditoriales. Les journalistes ont un contrôle total sur l’apparition d’un résumé – avant et après la publication – et peuvent en supprimer », répond un porte-parole.
« Les IA ont tendance à faire de moins en moins d’erreurs mais ce n’est pas encore parfait, indique Nicolas Gaudemet, Chief AI Officer chez Onepoint. Il y a aussi de nombreux faux sites créés de toutes pièces par des IA, qui peuvent alimenter les modèles comme ChatGPT, qui vont donc produire des réponses erronées. C’est une forme d’empoisonnement. »
De fait, une trop forte généralisation de l’IA dans les médias pourrait porter préjudice au secteur, alors que la confiance du public est déjà fragile. Un lecteur fera-t-il bien la différence entre une erreur liée à l’IA, à partir d’un article, et une bévue du média lui-même ?
Dans une étude récente réalisée par le CPNEF, plusieurs professionnels partagent d’ailleurs la crainte de devoir redoubler d’efforts pour démontrer la fiabilité et la plus-value de leur travail. « Le risque est que certains médias, qui font la course aux clics, automatisent massivement, noyant l’attention du grand public », s’inquiète Florent Latrive.