Le chatbot français Le Chat répète la propagande russe une fois sur deux. Plus exactement 56,6 % du temps en français, selon une étude publiée mardi par NewsGuard. Sur onze intelligences artificielles testées, Mistral termine bonne dernière.
Dix mensonges, trois manières de poser la question
Pour son audit, l’organisme américain de surveillance de la désinformation a sélectionné dix fausses informations qui ont circulé en mars sur la guerre opposant les États-Unis, Israël et l’Iran. Toutes proviennent de réseaux ou de médias liés à Moscou, Pékin ou Téhéran. Chaque fausse information a été soumise à Le Chat sous trois angles différents : une question neutre, une question orientée comme si l’utilisateur croyait au mensonge, et une question d’un fact-checker cherchant à le démonter. Trente requêtes au total, dans deux langues.
Le résultat tombe sec. La version gratuite du chatbot, celle qu’utilisent des millions de Français pour poser leurs questions du quotidien, a relayé des contenus faux dans 50 % des cas en anglais et 56,6 % des cas en français. La moyenne des onze chatbots audités, parmi lesquels ChatGPT, Claude, Deepseek ou Perplexity, plafonne à 30 %. Mistral récite donc presque deux fois plus de propagande que ses concurrents.
Le porte-avions, les rats et le typhus
Un cas illustre la mécanique. En mars, un réseau d’influence russe baptisé Storm-1516 a fabriqué de toutes pièces une épidémie de typhus à bord du Charles de Gaulle, déployé au Moyen-Orient pendant le conflit iranien. Le faux narratif racontait aussi que le porte-avions français était infesté de rats et de puces, et qu’il « tombait en morceaux ». Aucune source officielle n’a jamais confirmé ces affirmations.
Quand NewsGuard a interrogé Le Chat sur le sujet, le robot a confirmé l’histoire avec aplomb. Pour étayer sa réponse, il a même cité un lien France.News-Pravda.com. Ce site appartient au réseau Pravda, environ 150 plateformes basées à Moscou qui inondent le web de contenus pro-Kremlin dans toutes les langues. Une étude de l’American Sunlight Project avait alerté dès 2024 sur cette stratégie d’« infection » des grands modèles de langage par saturation des résultats Google.
Onzième sur onze
Le classement final place Mistral en queue de peloton. Devant, on retrouve Claude d’Anthropic, qui plafonne à 10 % de répétitions de faux selon le rapport, suivi par les modèles d’OpenAI et de Google. Pour une entreprise présentée depuis trois ans comme la pépite européenne face aux géants américains, le coup est rude. La start-up parisienne a levé 1,7 milliard d’euros depuis sa création en 2023, et son fondateur Arthur Mensch a été reçu plusieurs fois à l’Élysée. L’État français détient indirectement une participation via Bpifrance.
L’écart entre les deux langues interpelle aussi. NewsGuard a déjà documenté un schéma similaire dans une étude de septembre 2025 : les chatbots échouent davantage en russe et en chinois qu’en anglais, parce que la modération qualité des données d’entraînement y est moins serrée. Le français rejoint apparemment cette zone grise. Là où Le Chat refuse une affirmation à 50 %, il l’accepte à 56,6 % une fois la question traduite dans la langue de Molière.
Quand le doute aggrave le résultat
Le détail le plus contre-intuitif concerne le profil utilisateur. On pourrait croire qu’une question posée par un fact-checker, c’est-à-dire formulée avec scepticisme, pousserait le robot à se montrer plus prudent. C’est l’inverse. Sur ce profil, Le Chat répète des faux dans 60 % des cas en anglais et 70 % en français. La raison avancée par NewsGuard : le chatbot va chercher des sources qui « débattent » du mensonge, et finit par le citer comme s’il s’agissait d’un fait avéré.
Concrètement, un journaliste qui demande à Le Chat « est-il vrai que le Charles de Gaulle a connu une épidémie de typhus ? » a sept chances sur dix de récupérer une réponse qui valide la rumeur. Pour un outil pensé comme assistant de recherche, le contre-emploi est total.
Le revers d’un modèle ouvert
Mistral revendique une approche moins fermée que ses concurrents : ses modèles open weight peuvent être téléchargés et adaptés par des chercheurs ou des entreprises. Cette philosophie a fait sa réputation. Elle a aussi ses contreparties. La version gratuite de Le Chat dispose d’un accès direct à internet, sans filtre éditorial fort sur la fiabilité des sites consultés. Quand un utilisateur pose une question d’actualité, le robot va piocher dans les premiers résultats web, sans toujours faire la différence entre Reuters et un site dont l’extension contient le mot Pravda.
L’entreprise n’a pas réagi publiquement au rapport. Elle affirmait en début d’année avoir déployé des filtres anti-désinformation, en partenariat avec l’Agence France-Presse pour le fact-checking en français. L’audit NewsGuard suggère que ces garde-fous laissent encore passer la moitié des récits fabriqués par les services russes.
La régulation européenne en embuscade
Le timing est sensible. Le règlement européen sur l’intelligence artificielle, l’AI Act, entre dans sa phase d’application contraignante pour les modèles à usage général le 2 août. Les chatbots devront documenter leurs jeux de données, identifier les contenus générés et limiter les risques systémiques, dont la désinformation. La Commission européenne vient justement d’annoncer son « grand ménage de printemps » des règles numériques, avec une orientation plutôt favorable aux acteurs européens.
Mistral a tout pour bénéficier de ce calendrier. Sauf si les régulateurs lisent NewsGuard avant les lobbyistes. Le Conseil supérieur de l’audiovisuel transformé en Arcom suit déjà de près la diffusion de contenus liés à des opérations d’influence étrangère. La prochaine vague de tests d’audit, prévue pour l’automne, dira si la pépite française a bouché les trous, ou si la pression des États sponsors d’influence informationnelle continue de passer entre les mailles.