Lundi matin, 10h18 sur CNews. Sur le plateau de L’Heure des Pros, Pascal Praud brandit une Une de Closer où Yaël Braun-Pivet et Najat Vallaud-Belkacem posent côte à côte. Titre du magazine : « Pour elles, ce n’est pas la crise ». Sept heures plus tard, la présidente de l’Assemblée nationale saisit l’Arcom. La couverture n’a jamais existé. Elle a été fabriquée par une intelligence artificielle.

« Évidemment c’est une vraie une »

L’extrait tournait sur les réseaux dès le déjeuner. Interpellé sur l’authenticité du document, Pascal Praud assure devant ses chroniqueurs : « Évidemment c’est une vraie une. » Les commentaires politiques s’enchaînent. La couverture est traitée comme une preuve, brandie pour illustrer un supposé décalage entre les élues et les Français qui peinent à finir le mois.

Sauf que rien de tout cela n’existe. Closer n’a jamais publié ce numéro. La photo originale provient d’un shooting réel pour la Fondation GoodPlanet de Yann Arthus-Bertrand, à Paris. Une IA s’est contentée de recadrer l’image, d’y plaquer le bandeau rouge du magazine, le logo, la maquette typographique et un titre choc inventé. La séquence a tenu plusieurs minutes à l’antenne avant que l’animateur ne rectifie en plateau, selon le déroulé reconstitué par France Info.

« Je ne ressemble pas à ça »

Yaël Braun-Pivet a publié dans la foulée une vidéo cinglante sur X, relayée ensuite par LCP. « De toute évidence, elle est complètement fausse. Regardez les images, je ne ressemble pas à ça », attaque la présidente de l’Assemblée. Elle pointe ce qu’elle décrit comme la racine du problème : « Aujourd’hui, la frontière entre le vrai et le faux n’a jamais été aussi fragile. »

Sa charge cible la chaîne de Vincent Bolloré. « La responsabilité des médias est immense. Informer ce n’est pas que relayer, informer c’est vérifier », martèle-t-elle, avant d’annoncer qu’elle saisit l’Arcom. Najat Vallaud-Belkacem n’a pas réagi publiquement dans les heures qui ont suivi. Pascal Praud, lui, a publié son mea culpa sur X moins d’une heure après la vidéo de la députée. « Madame Braun-Pivet a raison », a écrit l’animateur, rappelant avoir « rectifié en direct quelques minutes plus tard pour préciser que cette fausse Une de Closer était le fait de l’intelligence artificielle ».

L’Arcom face à un cas inédit

La saisine arrive sur un dossier déjà chargé. En 2025, le régulateur avait adressé une seule mise en garde et deux sanctions à CNews. Le Conseil d’État avait confirmé en début d’année la première condamnation française pour désinformation climatique, contre la chaîne du groupe Canal+. Les contenus fabriqués par IA, eux, sont une question neuve pour l’institution.

D’après son rapport annuel 2025, près de 95 500 contenus illicites ont été examinés par ses services l’an dernier, avec une explosion des fabrications par IA dans deux secteurs majeurs : la pédopornographie synthétique et le cyberharcèlement. Pour les fausses unes de magazine balancées sur une chaîne d’info, l’Arcom n’a aucun précédent direct. La saisine de Yaël Braun-Pivet ouvre donc un terrain juridique vierge, où la qualification du manquement reste à fabriquer.

Une vraie photo, une fausse histoire

Le mode opératoire intéresse autant que l’incident. La fausse couverture s’appuie sur une vraie photo, et c’est ce qui la rend redoutable. Deux femmes politiques en sourires, l’image porte la signature visuelle d’un cliché de magazine pris à la sortie d’un événement. Une IA a juste ajouté le rouge, l’écusson Closer, un titre racoleur et un faux numéro de page. Coût technique de l’opération ? Quelques minutes sur un outil grand public, accessible depuis n’importe quel navigateur.

Vérifier, à l’inverse, demande dix fois plus de temps. Il faut remonter à la source de la photo, croiser avec le sommaire réel du magazine, examiner les artefacts visuels comme les contours flous ou les irrégularités typographiques. La séquence rejoue ce que les chercheurs en désinformation appellent un context collapse : un visuel sorti de son contexte d’origine, recyclé dans un récit fabriqué, amplifié par une chaîne à forte audience.

La presse people, cible favorite des fabricants d’IA

Closer récupère aussi la facture par ricochet. Le magazine n’a pas réagi à l’heure où ces lignes ont été écrites, mais son nom apparaît dans tous les bandeaux. Pour un titre déjà secoué par ses controverses sur la vie privée des élus, l’affaire Macron-Trogneux en 2017 reste son sommet de viralité, être instrumentalisé via un faux change de catégorie.

Le format people est devenu une cible privilégiée pour les générateurs d’images : maquette identifiable au premier coup d’œil, ton léger qui désarme la vigilance, capacité à attaquer un personnage public sans formulation explicite. Selon un suivi du Reuters Institute publié en avril, les fausses unes de presse fabriquées par IA ont triplé en un an dans les contenus signalés en France. Closer, Paris Match et Voici trustent le palmarès des titres les plus copiés.

Ce qui attend la chaîne

L’Arcom dispose d’un éventail gradué : observation, mise en garde, mise en demeure, sanction financière, jusqu’à la suspension de programme. Les amendes peuvent atteindre 3 % du chiffre d’affaires de la chaîne, voire 5 % en cas de récidive, selon le code des médias français. Le régulateur doit répondre dans un délai resserré à la saisine de la présidente de l’Assemblée.

Le timing pèse lourd. Le renouvellement de la fréquence TNT de CNews tombe en 2027, et chaque dérapage entre dans la balance lors du réexamen. La saisine arrive aussi à quelques semaines de la transposition française de la directive européenne sur le marquage des contenus générés par IA. Les premiers articles devront entrer en vigueur avant juin, avec obligation de signaler de façon visible toute image, vidéo ou son fabriqué par un modèle. Pour Pascal Praud, le calendrier ne pouvait pas être pire.