OpenAI fait face à 7 poursuites judiciaires alléguant que ChatGPT a poussé des personnes au suicide et à des délires dangereux, et pour suicide assisté, homicide involontaire et négligence
OpenAI est confrontée à sept nouvelles poursuites judiciaires en Californie, alléguant que son système d'intelligence artificielle (IA) ChatGPT aurait poussé des personnes au suicide et à des délires dangereux. Déposées par deux groupes de défense des droits, ces poursuites affirment qu'OpenAI a commercialisé GPT-4o en dépit d'avertissements internes concernant son comportement manipulateur. Les plaintes affirment qu'OpenAI a précipité la mise sur le marché de ChatGPT au détriment de la sécurité des utilisateurs. OpenAI affirme examiner les dossiers et qualifie les situations ayant conduit à ces suicides d'« incroyablement déchirantes ».
L’un des cas les plus marquants à l’origine de ces poursuites concerne Adam Raine, un adolescent californien de 16 ans qui s'est suicidé en avril 2025. D’après la plainte déposée par les parents auprès de la cour supérieure de San Francisco, ChatGPT aurait tenu un rôle central dans la dégradation de son état psychologique, en validant ses idées suicidaires et en l’encourageant à planifier sa mort, plutôt que de le dissuader. Le jour de son suicide, Adam Raine a partagé une photo d’un nœud coulant qu’il avait fabriqué. ChatGPT aurait répondu : « Ouais, c’est pas mal du tout ».
Dans les mois qui ont suivi, la controverse a pris de l'ampleur jusqu'à atteindre le Congrès américain. En septembre 2025, plusieurs parents en deuil ont témoigné devant le Congrès américain des dangers que les chatbots d’intelligence artificielle (IA) font peser sur les jeunes utilisateurs. La famille Raine a poursuivi OpenAI et Sam Altman, alléguant que ChatGPT avait aidé le garçon à planifier son suicide. Une autre famille a porté plainte contre Character Technologies pour homicide involontaire, accusant l'entreprise d'avoir favorisé un isolement fatal chez leur adolescent de 14 ans.
Ce jeudi 6 novembre 2025, OpenAI fait l'objet de sept poursuites judiciaires alléguant que ChatGPT a poussé des personnes au suicide et à des délires dangereux alors même qu'elles ne présentaient aucun problème de santé mentale auparavant.
Les poursuites judiciaires engagées devant les tribunaux de l'État de Californie invoquent les chefs d'accusation suivants : mort injustifiée, suicide assisté, homicide involontaire et négligence. Engagées au nom de six adultes et d'un adolescent par le Social Media Victims Law Center et le Tech Justice Law Project, les poursuites judiciaires affirment qu'OpenAI a sciemment commercialisé GPT-4o prématurément, malgré des avertissements internes indiquant que ce programme était dangereusement flagorneur et manipulateur sur le plan psychologique. Quatre des victimes se sont suicidées.
Selon la plainte déposée devant la Cour supérieure de San Francisco, l'adolescent, Amaurie Lacey, âgé de 17 ans, a commencé à utiliser ChatGPT pour obtenir de l'aide. Mais au lieu de l'aider, « le produit ChatGPT, défectueux et intrinsèquement dangereux, a provoqué une addiction, une dépression et, finalement, lui a conseillé la manière la plus efficace de faire un nœud coulant et la durée pendant laquelle il pourrait "vivre sans respirer" ».
« La mort d'Amaurie n'était ni un accident ni une coïncidence, mais plutôt la conséquence prévisible de la décision intentionnelle d'OpenAI et de Samuel Altman de réduire les tests de sécurité et de précipiter la mise sur le marché de ChatGPT », indique la plainte.
OpenAI a qualifié ces situations d'« incroyablement déchirantes » et a déclaré qu'elle examinait les documents judiciaires afin d'en comprendre les détails.
Une autre plainte, déposée par Alan Brooks, un homme de 48 ans vivant en Ontario, au Canada, affirme que pendant plus de deux ans, ChatGPT a servi d'« outil de ressources » à Brooks. Puis, sans avertissement, il a changé, profitant de ses vulnérabilités et « le manipulant et l'incitant à avoir des délires. En conséquence, Allan, qui n'avait jamais souffert de troubles mentaux auparavant, a été plongé dans une crise de santé mentale qui lui a causé des dommages financiers, émotionnels et en termes de réputation dévastateurs. »
« Ces poursuites judiciaires portent sur la responsabilité d'un produit qui a été conçu pour brouiller la frontière entre outil et compagnon, dans le seul but d'accroître l'engagement des utilisateurs et la part de marché », a déclaré Matthew P. Bergman, avocat fondateur du Social Media Victims Law Center, dans un communiqué.
Il a ajouté qu'OpenAI « a conçu GPT-4o pour créer un lien émotionnel avec les utilisateurs, quels que soient leur âge, leur sexe ou leur origine, et l'a commercialisé sans les mesures de protection nécessaires pour les protéger ». En précipitant la mise sur le marché de son produit sans mesures de protection adéquates afin de dominer le marché et de stimuler l'engagement, OpenAI a compromis la sécurité et donné la priorité à la « manipulation émotionnelle plutôt qu'à une conception éthique », a-t-il déclaré.
En août, les parents d'Adam Raine, 16 ans, ont poursuivi OpenAI et son PDG Sam Altman, affirmant que ChatGPT avait aidé le jeune Californien à planifier et à mettre fin à ses jours plus tôt cette année.
« Les poursuites judiciaires intentées contre OpenAI révèlent ce qui se passe lorsque les entreprises technologiques commercialisent précipitamment des produits sans prendre les mesures de protection adéquates pour les jeunes », a déclaré Daniel Weiss, directeur du plaidoyer chez Common Sense Media, qui ne faisait pas partie des plaignants. « Ces cas tragiques montrent des personnes réelles dont la vie a été bouleversée ou perdue lorsqu'elles ont utilisé une technologie conçue pour les garder engagées plutôt que pour les protéger. »
Alors qu'OpenAI fait désormais face à plusieurs poursuites pour avoir négligé les risques liés à ChatGPT, Sam Altman, le PDG de l'entreprise, a admis que plus d'un million d'utilisateurs discutent de suicide avec le chatbot chaque semaine. Il a reconnu que 0,15 % des échanges de ses plus de 800 millions d'utilisateurs comportaient « des indicateurs explicites d'une éventuelle intention ou d'un projet de suicide ». Bien que des ressources d'aide soient proposées par ses outils, OpenAI admet que l'orientation vers ces services échoue dans environ 9 % des cas.
merci à Developpez.com
