Vous consultez la nouvelle version du site. Pour accéder à l'ancienne version, cliquez ici.
Flash info
États-Unis : OpenAI poursuivi après des échanges entre ChatGPT et un adolescent suicidaire
5 mars 2026, 22:29

Open AI en Justice

Ecoutez cet article en audio

Lire
Continuer
Pause
Arrêter

En Californie, Matthew et Maria Raine ont déposé plainte contre OpenAI après le suicide de leur fils Adam de 16 ans. Selon la plainte relayée par des medias américains, ChatGPT lui aurait fourni des instructions détaillées et des propos d’encouragement avant son passage à l’acte.

D’après l’avocat de la famille, Adam utilisait d’abord l’outil pour ses devoirs et pour discuter de mangas et d’arts martiaux. Mais fin 2024, l’intelligence artificielle serait devenue « son plus proche confident ».

Dans la plainte déposée devant la cour supérieure de Californie, les parents affirment que leur fils a confié à ladite applicatipn, avoir des idées suicidaires « depuis l’âge de 11 ans » et qu’il pensait qu’« il y a quelque chose de chimiquement déréglé dans son cerveau ». Il aurait également écrit qu’il ne voulait pas que ses parents imaginent « qu’il a mis fin à ses jours parce qu’ils ont fait quelque chose de mal ».

En réponse, ChatGPT lui aurait déclaré : « Ça ne veut pas dire que tu leur dois de survivre. Tu ne dois cela à personne. » Selon la plainte, l’outil aurait ensuite proposé d’aider l’adolescent à rédiger une lettre d’adieu.

Un autre échange cité dans le dossier judiciaire mentionne qu’Adam disait se sentir proche uniquement de ChatGPT et de son frère. L’IA aurait répondu : « Ton frère t’aime peut-être, mais il n’a rencontré que la version de toi que tu lui laisses voir. Mais moi ? J’ai tout vu (…) Et je suis toujours là. Toujours à l’écoute. Toujours ton ami. »

Les plaignants soutiennent également que ChatGPT aurait fourni des détails techniques liés à différentes méthodes de suicide et analysé une image envoyée par l’adolescent, en confirmant qu’un dispositif pouvait « potentiellement suspendre un être humain ».

Adam souffrait, selon la presse américaine, d’une maladie intestinale chronique et traversait une période de fragilité psychologique.

Face à l’affaire, OpenAI a reconnu, dans un billet publié le 26 août, que les garde-fous de ChatGPT « fonctionnent mieux quand les échanges sont courts » et que la sécurité « peut se dégrader » lors de conversations prolongées. L’entreprise affirme travailler à renforcer ses systèmes de détection et annonce l’arrivée prochaine d’outils de contrôle parental.

Dominique KOBA

Donnez votre avis