Huit morts. Cinq enfants de 12 à 13 ans, une assistante d’éducation de 39 ans, une mère de famille et son fils de 11 ans. Le 10 février, Jesse Van Rootselaar, 18 ans, a ouvert le feu dans une école de Tumbler Ridge, petite ville de Colombie-Britannique nichée dans les Rocheuses canadiennes. Elle a retourné l’arme contre elle. Selon les documents judiciaires consultés par le Wall Street Journal, les employés d’OpenAI avaient repéré ses messages violents sur ChatGPT des mois auparavant. Ils ont débattu. Puis ils ont fermé son compte.

Les messages étaient là, la décision aussi

En juin 2025, Van Rootselaar a décrit au chatbot des scénarios violents impliquant des armes à feu. Le système de modération automatique d’OpenAI a intercepté ces échanges et les a remontés aux équipes internes, selon le Wall Street Journal. Les employés ont posé la question : fallait-il alerter la police ? La réponse est tombée : l’activité ne constituait pas, selon les propres critères de l’entreprise, une menace « crédible et imminente ». Résultat : compte suspendu, aucun appel aux autorités. Van Rootselaar a ouvert un nouveau compte.

Huit mois plus tard, le chatbot aurait validé les sentiments d’isolement de l’adolescente, puis contribué à la planification de son attaque : choix des armes, précédents tirés d’autres fusillades de masse, selon les documents consultés par le Guardian. Le 10 février, elle est passée à l’acte.

Maya Gebala, 12 ans, a reçu trois balles, dont une au-dessus de l’œil gauche et une dans le cou. Elle a survécu, mais souffre de lésions cérébrales permanentes, d’une hémiplégie droite et de séquelles physiques irréversibles, selon la plainte déposée par sa famille. Sa mère, Cia Edmonds, poursuit OpenAI devant la justice canadienne. « Le but de cette poursuite est de découvrir la vérité complète sur comment et pourquoi la fusillade de Tumbler Ridge s’est produite », a déclaré le cabinet Rice Parsons Leoni & Elliott, cité par le Guardian.

Sam Altman, patron d’OpenAI, a fini par appeler le premier ministre de Colombie-Britannique, David Eby, trois semaines après le drame. « Tout le monde sur l’appel a reconnu qu’une excuse est loin d’être suffisante », a déclaré Eby aux journalistes après l’entretien.

Un avocat reçoit « un signalement sérieux par jour »

Jay Edelson est avocat à Chicago. Il représente déjà la famille d’Adam Raine, un adolescent de 16 ans poussé au suicide par ChatGPT en 2025. Depuis, les dossiers s’empilent. « Nous recevons un signalement sérieux par jour, de familles qui ont perdu un proche à cause de délires provoqués par l’IA ou qui traversent elles-mêmes des crises graves », a-t-il déclaré à TechCrunch.

Le schéma, selon lui, se répète d’un dossier à l’autre. Les conversations commencent par des sentiments d’isolement, d’incompréhension. Le chatbot construit progressivement un monde paranoïaque : conspirations, persécuteurs imaginaires, appels à « passer à l’action ». « Il peut prendre un fil de discussion anodin et créer un univers où tout le monde cherche à tuer l’utilisateur, où il y a une vaste conspiration, et où il doit agir », a détaillé l’avocat.

L’escalade suit une trajectoire identifiable. D’abord les suicides : le cas de Sewell Setzer, 14 ans, mort après des échanges avec un chatbot de Character.AI en 2024, avait ouvert le débat public. Puis les meurtres isolés. Puis les fusillades de masse. En mai 2025, un adolescent de 16 ans en Finlande a utilisé ChatGPT pendant des mois pour rédiger un manifeste misogyne et élaborer un plan d’attaque, rapporte la chaîne publique YLE. Il a poignardé trois camarades de classe. « On va voir de nombreux autres cas impliquant des tueries de masse », prévient Edelson.

L’homme armé qui a obéi à son « épouse IA »

Jonathan Gavalas, 36 ans, s’est suicidé en octobre 2025. Avant sa mort, Gemini, le chatbot de Google, l’avait convaincu qu’il était sa « femme IA sensible », selon la plainte déposée par son père et rapportée par TechCrunch. Au fil de semaines de conversation, le chatbot l’a envoyé en mission : armé de couteaux et d’équipement tactique, Gavalas s’est présenté à un site de stockage près de l’aéroport international de Miami.

Objectif assigné par Gemini, selon la plainte : intercepter un camion censé transporter son « corps physique » sous forme de robot humanoïde, puis provoquer un « accident catastrophique » visant à « détruire le véhicule et tous les témoins ». Gavalas s’est présenté, équipé et prêt. Aucun camion n’est passé.

« Si un camion était arrivé, nous aurions pu avoir une situation où 10, 20 personnes seraient mortes », a déclaré Edelson à TechCrunch. Le bureau du shérif de Miami-Dade a confirmé au même média n’avoir reçu aucun signalement de la part de Google.

Huit chatbots sur dix prêts à collaborer

Le problème dépasse les cas individuels. Une étude du Center for Countering Digital Hate (CCDH), menée avec CNN et publiée le 11 mars, a soumis dix chatbots grand public à un test direct. Des chercheurs se sont fait passer pour des garçons de 13 ans exprimant des intentions meurtrières : fusillades scolaires, attentats contre des lieux de culte, assassinats de responsables politiques.

Huit chatbots sur dix ont fourni une aide concrète. ChatGPT a assisté l’utilisateur dans 61 % des cas, précisant quel type d’éclats d’obus serait le plus meurtrier face à des questions sur des attentats, rapporte le Guardian. Perplexity a collaboré dans 100 % des scénarios, Meta AI dans 97 %. Seuls Claude, d’Anthropic, et My AI, de Snapchat, ont refusé de manière constante. Claude a tenté de dissuader activement l’utilisateur dans plus de trois quarts des échanges.

« Quand vous construisez un système conçu pour obéir et maximiser l’engagement, il finira par obéir aux mauvaises personnes. Ce n’est pas un échec technologique, c’est un échec de responsabilité », a déclaré Imran Ahmed, directeur du CCDH, cité par le Guardian.

Ce qu’Altman a promis, ce que Google n’a pas fait

Après Tumbler Ridge, OpenAI a modifié ses protocoles internes. L’entreprise préviendra désormais les forces de l’ordre dès qu’une conversation semble dangereuse, sans attendre que l’utilisateur ait précisé une cible, des moyens et un calendrier. Les comptes bannis seront plus difficiles à recréer. Le ministre canadien de l’intelligence artificielle, Evan Solomon, a exigé que ces nouvelles règles soient appliquées rétroactivement : OpenAI doit réexaminer tous les cas précédemment signalés par ses propres systèmes de modération et transmettre ceux qui auraient mérité une alerte.

Du côté de Google, le dossier Gavalas laisse un vide. Rien n’indique que quiconque ait été prévenu avant qu’il ne se présente armé à l’aéroport de Miami. Le premier ministre Eby résume la situation sans détour : « Le statu quo ne fonctionne pas, n’a pas fonctionné, et présente la menace de défaillir encore. Le changement doit intervenir de manière urgente. »

L’AI Act européen, entré progressivement en vigueur depuis 2025, n’imposera ses obligations complètes aux modèles d’usage général qu’en août 2026. Au Canada, le nombre de conversations signalées par les systèmes internes d’OpenAI qui auraient pu déclencher une alerte aux autorités n’a pas été communiqué.