En décembre dernier, Claire Marais-Beuil, députée et tête de liste à Beauvais, découvre une vidéo d’elle en train d’effectuer un strip-tease dans l’hémicycle de l’Assemblée nationale. La scène est fausse, fabriquée de toutes pièces par une intelligence artificielle. Une autre candidate, à Corbeil-Essonnes, se retrouve mise en scène en danseuse orientale dans un montage similaire. Les deux femmes ont porté plainte, mais les auteurs restent introuvables.
À deux semaines du scrutin municipal, ces affaires révèlent une dérive que personne n’avait anticipée à cette échelle : l’utilisation de l’IA générative pour produire des contenus sexuels ciblant des candidates aux élections.
Des montages créés en quelques clics
Les outils nécessaires pour fabriquer ce type de contenu sont désormais accessibles à tous. Grok, l’intelligence artificielle intégrée au réseau social X (anciennement Twitter), permet de générer des images truquées, y compris en « déshabillant » des personnes à partir de simples photos publiques, comme le rapporte Le Parisien. La vidéo visant la députée de Beauvais avait été diffusée sur une messagerie éphémère avant de disparaître, rendant toute identification de l’auteur quasi impossible.
« Je voudrais l’avoir en face de moi pour lui dire : t’aimerais que ta femme ou ta fille soient montrées comme ça sur les réseaux sociaux ? », a confié Claire Marais-Beuil au Parisien. À 67 ans, la députée du Rassemblement national n’avait jamais imaginé devenir la cible d’une telle attaque.
Emmanuel Daoud, avocat spécialisé en droit du numérique qui défend plusieurs victimes de ces montages, souligne que le phénomène touche presque exclusivement des femmes. Les contenus visent à « atteindre l’image, la dignité, la crédibilité et la confiance des personnes mises en scène », selon lui.
Un phénomène mondial qui s’invite dans les urnes françaises
La France n’est pas un cas isolé. Selon une étude publiée par la BBC en janvier 2026, le nombre de vidéos truquées à caractère sexuel a été multiplié par six entre 2023 et 2025 à l’échelle mondiale. Les femmes politiques figurent parmi les cibles privilégiées. En Inde, lors des élections générales de 2024, plusieurs candidates avaient subi des attaques similaires. Au Royaume-Uni, une enquête parlementaire avait recensé des dizaines de cas touchant des élues locales.
À lire aussi
Ce qui distingue la situation française, c’est le calendrier. Les municipales de mars 2026 se tiennent alors que les plateformes d’IA générative n’ont jamais été aussi performantes et accessibles. Franceinfo a documenté comment Grok, l’outil développé par la société xAI d’Elon Musk, propose même un mode « complotiste » dans sa version grand public, soulevant des questions sur la responsabilité des plateformes dans la diffusion de contenus manipulés.
Les plaintes se multiplient, les condamnations tardent
Sur le plan juridique, la France dispose d’un arsenal répressif. La diffusion de montages à caractère sexuel sans consentement est passible de deux ans d’emprisonnement et 60 000 euros d’amende. Lorsque la diffusion vise à nuire, les peines peuvent grimper à trois ans de prison. La loi du 21 mars 2024 a renforcé ces sanctions en ciblant spécifiquement les hypertrucages (terme officiel pour « deepfakes ») à caractère sexuel.
Le problème réside dans l’exécution. Les contenus circulent sur des messageries éphémères, des comptes anonymes, des serveurs situés hors de France. La vidéo visant Claire Marais-Beuil a été postée sur une plateforme éphémère et a disparu avant même que les enquêteurs puissent remonter la piste. « Cela peut venir de tous les camps », rappelle Le Parisien, soulignant que ces attaques dépassent les clivages politiques.
Depuis 2023, les signalements pour hypertrucages auprès de la plateforme Pharos ont augmenté de 400 %, selon les chiffres du ministère de l’Intérieur. Mais le taux de résolution reste faible : moins de 10 % des plaintes aboutissent à l’identification d’un suspect.
Le règlement européen, filet de sécurité tardif
Le Règlement européen sur l’intelligence artificielle (AI Act), adopté en mars 2024 par le Parlement de Strasbourg, impose aux créateurs de contenus générés par IA de les étiqueter clairement. Les systèmes capables de produire des hypertrucages doivent intégrer des filigranes numériques permettant d’en tracer l’origine. Mais la mise en application complète du texte n’est prévue que pour août 2026, soit cinq mois après les municipales.
En attendant, les candidates concernées se retrouvent seules face à la viralité des contenus. Le temps que la justice réagisse, le mal est fait : les images ont circulé, les commentaires se sont multipliés, la crédibilité de la candidate a été entamée.
Un scrutin sous pression numérique
Ces affaires s’ajoutent à un climat de tension déjà palpable autour des municipales 2026. À Nice, le maire Christian Estrosi a retrouvé une tête de porc et une étoile jaune à son domicile. À Paris, les réseaux sociaux regorgent de faux tracts et de montages visant plusieurs candidats. Le spectre de la désinformation plane sur un scrutin qui mobilise plus de 900 000 candidats dans 35 000 communes.
La Commission nationale de l’informatique et des libertés (CNIL) a publié le 25 février un guide à destination des candidats pour sécuriser leur image en ligne. Parmi les recommandations : limiter les photos en haute résolution sur les profils publics, activer la double authentification sur tous les comptes, et signaler immédiatement tout contenu suspect à Pharos.
Le premier tour des municipales est fixé au 15 mars. D’ici là, les autorités redoutent une multiplication de ces attaques numériques, alimentées par des outils toujours plus simples à utiliser. La proposition de loi du sénateur Thomas Dossus, qui vise à obliger les hébergeurs à supprimer les hypertrucages à caractère sexuel en 24 heures, doit être examinée en commission au Sénat le 19 mars, soit quatre jours après le scrutin.