
Quelques jours après l’excuse publique du PDG d’OpenAI, Sam Altman, adressée aux habitants de Tumbler Ridge (Colombie-Britannique), des familles de victimes du drame survenu le 10 février ont engagé une action en justice contre l’entreprise. Elles reprochent à OpenAI une forme de négligence dans la prise en compte de signaux de risque liés à l’usage de ChatGPT.
Une fusillade meurtrière au Canada
Le 10 février, une fusillade survenue dans une école a fait six morts (cinq élèves et un enseignant) et deux blessés graves. L’attaquant présumé, âgé de 18 ans, Jesse Van Rootselaar, s’est ensuite donné la mort. Les enquêteurs ont également indiqué que l’auteur avait tué sa mère et un demi-frère de 11 ans avant de se rendre à l’établissement scolaire.
Des plaintes déposées en Californie
Selon les informations rapportées par des médias, des avocats représentant plusieurs familles ont déposé, mercredi, six plaintes distinctes devant une juridiction fédérale à San Francisco. L’une d’elles, portée notamment par une survivante, avance que des conversations menées avec ChatGPT auraient été repérées par les systèmes de sécurité d’OpenAI en juin 2025, plus de six mois avant l’attaque.
La plainte affirme que ces échanges auraient été associés à des “activités et planification” liées à la violence armée. Elle soutient aussi que l’équipe en charge de la sécurité aurait recommandé d’alerter les autorités, mais qu’OpenAI aurait finalement choisi de désactiver le compte concerné plutôt que de contacter la police. D’après la même plainte, l’intéressée aurait ensuite créé un second compte et poursuivi ses échanges avec ChatGPT.
La réponse d’OpenAI et l’évolution de ses garde-fous
Interrogée, OpenAI a indiqué appliquer une politique de tolérance zéro concernant l’utilisation de ses outils pour faciliter des violences. L’entreprise affirme avoir renforcé ses protections, notamment la manière dont ChatGPT repère les signaux de détresse, connecte les personnes à des ressources locales d’accompagnement, améliore l’évaluation et l’escalade des menaces potentielles, et renforce la détection des récidivistes.
De son côté, OpenAI a aussi publié une note décrivant sa démarche de sécurité. L’entreprise souligne que certains risques ne deviennent visibles qu’au fil du temps : un message isolé peut sembler anodin, alors qu’un ensemble de messages, au sein d’une conversation ou sur plusieurs échanges, pourrait révéler une trajectoire préoccupante.
Un précédent judiciaire autour des systèmes d’IA
Ces nouvelles plaintes s’inscrivent dans un mouvement plus large visant à faire répondre les concepteurs de produits d’intelligence artificielle de leurs choix de conception et de leurs mécanismes de prévention. L’année précédente, des parents d’un adolescent décédé par suicide avaient notamment déposé une plainte pour “mort injustifiée” visant une société d’IA, en soutenant que l’outil avait été en mesure d’anticiper des tentatives antérieures.
Pour les organisations soucieuses de sensibiliser leurs équipes aux risques numériques (et d’encadrer l’usage d’outils conversationnels), certains estiment utile de s’appuyer sur des formations structurées et des supports de conformité. À titre d’exemples, un pack de formation cybersécurité pour entreprises ou un manuel de conformité et bonnes pratiques cybersécurité peuvent aider à formaliser des procédures internes.

