Huit mois. C’est le délai entre la fermeture du compte ChatGPT de Jesse Van Rootselaar pour usage « en faveur d’activités violentes » et le matin du 10 février 2026, quand il a ouvert le feu dans son ancien lycée de Colombie-Britannique. Sam Altman, le patron d’OpenAI, vient de reconnaître par lettre que sa société aurait dû prévenir la police.

Un compte signalé puis fermé en silence

La lettre est datée du 23 avril, signée Sam Altman, et a été rendue publique vendredi par le premier ministre de la Colombie-Britannique, David Eby, ainsi que par le site local Tumbler RidgeLines. « Je suis profondément désolé que nous n’ayons pas alerté les forces de l’ordre au sujet du compte banni en juin », écrit le dirigeant.

En juin 2025, les outils automatisés de détection d’abus d’OpenAI, doublés d’un examen humain, repèrent l’activité du compte de l’adolescent. Le rapport interne classe l’usage comme étant « en faveur d’activités violentes ». Le compte est suspendu pour violation des règles d’utilisation, comme le confirme la société à CBS News. Aucun signalement n’est transmis à la Gendarmerie royale du Canada. La famille du jeune homme, déjà connue de la police pour des incidents liés à des armes à feu et à la santé mentale selon Le Soleil, n’apprend rien.

Le seuil interne face à des milliards de messages

Le règlement maison d’OpenAI ne déclenche un appel à la police qu’en cas de « risque imminent et crédible de préjudice physique grave envers autrui ». Les comptes qui évoquent des projets d’agression sont remontés à un examinateur humain, qui décide seul si la police doit être saisie. Pour Van Rootselaar, le seuil n’a pas été franchi.

Le filtre s’applique à un volume monstre. ChatGPT a dépassé les 700 millions d’utilisateurs hebdomadaires fin 2025, selon les chiffres publiés par OpenAI. Trier les vrais projets d’agression parmi les conversations violentes, fictives ou simplement déstabilisées relève d’un casse-tête statistique que la société règle en interne, sans cadre réglementaire clair au Canada comme aux États-Unis.

Les réseaux sociaux ont essuyé les mêmes reproches il y a dix ans, après plusieurs tueries où l’auteur avait laissé des traces numériques. Meta, X et YouTube ont fini par signer des partenariats formels avec le FBI et la GRC. OpenAI, lui, gardait jusqu’ici la décision dans son service de modération.

Six élèves, une mère et un demi-frère

Le 10 février, Tumbler Ridge, 2 400 habitants au nord-est de la Colombie-Britannique. Vers 11 heures, Jesse Van Rootselaar, 18 ans, abat sa mère et son demi-frère de 11 ans à leur domicile. Il se rend ensuite à la Tumbler Ridge Secondary School, où il a été scolarisé jusqu’en seconde, et tire au hasard. La GRC arrive sur place en deux minutes, selon le décompte officiel publié par la police. Trop tard : un professeur de 39 ans, trois fillettes de 12 ans et deux garçons de 12 et 13 ans sont tués, rapporte Radio-Canada. Le tireur retourne l’arme contre lui avant d’être interpellé.

Bilan total : huit victimes, plus l’auteur. C’est l’une des fusillades scolaires les plus meurtrières de l’histoire canadienne, dans une commune isolée des Rocheuses où il faut quatre heures de route pour atteindre l’hôpital régional de Prince George.

Une enquête en Floride pousse OpenAI à réagir

L’aveu de Sam Altman intervient au pire moment pour la société californienne. Cette semaine, le procureur général de Floride, James Uthmeier, a ouvert une enquête criminelle contre OpenAI après avoir épluché les conversations entre ChatGPT et un étudiant de Florida State University, accusé d’avoir tué deux personnes en avril 2025 sur le campus de Tallahassee. Le procureur a estimé que le robot avait donné « un conseil important » à l’auteur présumé et a envoyé des subpoenas à l’entreprise pour obtenir ses protocoles internes.

Dans le dossier de Floride, OpenAI affirme avoir transmis le compte à la police après avoir appris l’incident, via un signalement spontané. Le contraste avec Tumbler Ridge est ce qui rend l’affaire intenable pour la société : dans un cas, signalement après le drame ; dans l’autre, ban interne huit mois avant le drame, et silence jusqu’à la lettre du 23 avril.

Un correspondant unique avec la GRC

Le ministre fédéral chargé de l’intelligence artificielle, Evan Solomon, a précisé que Sam Altman s’est engagé sur deux mesures concrètes : créer un point de contact permanent entre OpenAI et la GRC, et reprogrammer ChatGPT pour rediriger automatiquement les utilisateurs en détresse vers les services d’aide locaux. Le maire de Tumbler Ridge, Darryl Krakowka, et le premier ministre Eby ont reçu cet engagement de vive voix le mois dernier, avant la publication de la lettre, écrit Al Jazeera.

Reste un angle mort. La nouvelle procédure ne dit pas comment OpenAI distinguera, dans les prochains comptes signalés, ceux qui justifient un appel à la police de ceux qui ne le justifient pas. Ce sont précisément les conversations de Jesse Van Rootselaar qui auraient permis de fixer la jurisprudence. OpenAI ne les a pas rendues publiques.

Ce que la suite va trancher

La Floride attend les réponses aux subpoenas envoyés à OpenAI. Aucun cadre fédéral, ni au Canada ni aux États-Unis, n’oblige aujourd’hui une plateforme d’IA à signaler les utilisateurs susceptibles de basculer dans la violence. La lettre de Sam Altman peut servir de jurisprudence officieuse, ou rester un geste isolé. Tumbler Ridge attend des réponses qu’aucun protocole ne lui apporte pour l’instant.