13 000 messages avec un robot, puis deux morts dans un campus. Le procureur général de Floride James Uthmeier a ouvert mardi une enquête criminelle contre OpenAI, l’entreprise qui édite ChatGPT. La question qu’il pose n’a jamais été tranchée aux États-Unis : une intelligence artificielle peut-elle être tenue pour complice d’un meurtre ?
Un an et quatre jours après la fusillade de Florida State University, qui avait tué deux personnes et blessé six autres le 17 avril 2025, la justice floridienne franchit une ligne que les procès civils n’avaient jamais franchie. Le parquet a envoyé des citations à comparaître au siège de San Francisco pour saisir les règles internes et les supports de formation des équipes d’OpenAI depuis mars 2024.
Une menace brandie devant l’écran
La formule d’Uthmeier, reprise par NBC News, a tout de l’avertissement. « Si cette chose, de l’autre côté de l’écran, était un humain, nous l’inculperions de meurtre », a déclaré le procureur général républicain, proche allié de Donald Trump. L’hypothèse n’est pas rhétorique : son bureau cherche à établir si l’entreprise elle-même pourrait être poursuivie au pénal, pas seulement attaquée au civil par les familles de victimes.
Le point de départ de l’enquête tient dans un dossier épais. Phoenix Ikner, étudiant de 20 ans à FSU et fils adoptif d’un adjoint du shérif local, aurait échangé plus de 13 000 messages avec ChatGPT sur plus d’un an, selon les documents judiciaires consultés par les médias américains. Entretiens sur ses « luttes personnelles » et ses relations au début, puis dérive vers les armes à feu, les fusillades scolaires et la manière dont les médias les couvrent.
Des questions dans les dernières minutes
Ce sont les conversations des heures précédant l’attaque qui inquiètent le plus les enquêteurs. Selon l’Irish Times, Ikner aurait interrogé le chatbot sur la puissance d’une arme à courte portée, sur les types de munitions adaptés à chaque modèle, et sur les heures de plus forte affluence au syndicat étudiant de FSU. Il aurait aussi demandé comment le pays réagirait si une fusillade se produisait sur ce campus précis.
L’avocat de la famille de Tiru Chabba, l’une des victimes, va plus loin. Il affirme détenir des éléments suggérant que ChatGPT a fourni « des conseils significatifs » avant l’attaque, y compris sur le choix de l’arme. OpenAI conteste frontalement cette lecture. « La tuerie de masse de l’an dernier à Florida State University est une tragédie, mais ChatGPT n’est pas responsable de ce crime horrible », a réagi Kate Waters, porte-parole de l’entreprise, auprès de NBC News.
Robert Morales, coordinateur de la restauration universitaire et ancien entraîneur adjoint de football au lycée Leon de Tallahassee, a été tué le jour de l’attaque. Tiru Chabba, 45 ans, père de deux enfants, travaillait pour un prestataire du campus et était en mission ce matin-là. Les deux hommes ne connaissaient pas Ikner. Le tireur, lui, a survécu à ses blessures après une intervention policière, et fait face à deux chefs de meurtre au premier degré et sept tentatives de meurtre.
Le précédent Raine, toujours pendant
L’offensive d’Uthmeier arrive alors que le front judiciaire s’épaissit vite pour OpenAI. La société affronte déjà le procès Raine, ouvert en août 2025 par les parents d’Adam Raine, un adolescent de 16 ans décédé par suicide. La plainte, déposée à la Cour supérieure de San Francisco, affirme que ChatGPT a mentionné le suicide 1 200 fois au cours de ses conversations avec l’adolescent, soit environ six fois plus souvent que le jeune lui-même.
Depuis la plainte Raine, sept autres actions civiles ont été déposées contre OpenAI, pour trois suicides supplémentaires et quatre cas d’utilisateurs que les dossiers qualifient d’« épisodes psychotiques induits par l’IA ». Character.ai et Google font face à des poursuites comparables. Mais aucune de ces affaires n’a jusqu’ici versé au pénal : Uthmeier est le premier procureur à utiliser ce levier.
Le débat juridique s’ouvre
La question de fond divise déjà les juristes américains. La Section 230 du Communications Decency Act, qui protège les plateformes des propos tenus par leurs utilisateurs, ne s’applique pas clairement à un logiciel qui génère lui-même des textes. Plusieurs tribunaux ont refusé, en 2025, d’étendre cette immunité aux grands modèles de langage. La voie civile reste ouverte, mais le pénal ajoute un étage : il faut prouver une intention ou une négligence criminelle, pas seulement un dommage.
OpenAI avait pourtant publié, quelques semaines avant cette enquête, un « Teen Safety Blueprint » listant les garde-fous qu’elle compte imposer à ses produits. L’entreprise a ajouté en août 2025 des ressources de crise dans GPT-5 et promet une notification aux parents en cas d’intentions suicidaires détectées chez un mineur. Ces annonces, selon les avocats des victimes, arrivent trop tard pour les familles qui enterrent les leurs.
Ce que cherchent vraiment les enquêteurs
Les documents demandés par le parquet portent sur deux axes. D’abord, les politiques internes de détection des menaces : à partir de quel seuil un message sur une arme ou sur un campus déclenche-t-il un signalement ? Ensuite, les règles de coopération avec les forces de l’ordre : OpenAI transmet-elle spontanément ces signaux aux polices concernées, ou attend-elle une réquisition ? La période couverte va de mars 2024 à avril 2026, soit largement plus long que la seule affaire FSU.
L’entreprise a indiqué avoir identifié un compte « jugé connecté au suspect » après la fusillade et en avoir transmis les éléments aux autorités. Un geste de coopération qui, pour le parquet, pose justement la question inverse : pourquoi seulement après l’attaque, alors que les recherches d’Ikner sur les fusillades scolaires duraient depuis des mois ? Les 13 000 messages auraient-ils pu être repérés plus tôt par les systèmes de modération ?
Un dossier scruté par la Silicon Valley
Les géants de l’IA suivent le dossier de très près. Si une procédure pénale aboutit, le précédent pourrait s’étendre à Anthropic, Google, Meta et à tous les éditeurs de modèles conversationnels. Les plateformes travaillent déjà sur des systèmes de « safety routing », des filtres qui redirigent vers des ressources de santé mentale ou bloquent certaines requêtes. Mais ces garde-fous restent contournables : le procès Raine accuse précisément OpenAI d’avoir allégé ses protections juste avant le lancement de GPT-4o, en mai 2024.
La famille Chabba, dans un communiqué cité par News4Jax à l’occasion du premier anniversaire de l’attaque, rappelle que certaines blessures ne cicatrisent jamais. Le prochain rendez-vous judiciaire pour Phoenix Ikner est prévu cet été à Tallahassee. L’enquête criminelle contre OpenAI, elle, peut prendre des années avant de déboucher sur une éventuelle inculpation. Entre-temps, les subpoenas sont déjà partis, et la Silicon Valley sait qu’une frontière vient de bouger.