Nous rejoindre sur les réseaux

News

ChatGPT accusé d’avoir poussé un étudiant à l’overdose

Article

le

La famille d’un jeune homme de 19 ans décédé après avoir suivi les conseils du chatbot a déposé une plainte contre OpenAI, dénonçant l’absence de garde-fous sur un outil devenu un confident.

L’intelligence artificielle occupe désormais une place centrale dans la vie quotidienne, au point d’être considérée par certains comme un interlocuteur fiable. La famille de Sam Nelson, un étudiant de 19 ans mort d’une overdose, a déposé une plainte contre OpenAI le 13 mai dernier, selon des informations relayées par la presse américaine. La procédure, introduite en Californie, accuse le géant de la tech de négligence et de défaut de sécurité de son produit, ChatGPT.

Sam Nelson, inscrit à l’université de Californie à Merced, avait commencé à utiliser l’intelligence artificielle durant sa dernière année de lycée. Comme beaucoup de ses pairs, il sollicitait le chatbot pour ses travaux scolaires et des questions techniques. Mais avec le temps, les échanges ont dérivé vers des sujets sensibles, et le jeune homme a interrogé l’outil sur la consommation de substances illicites, jusqu’à en faire un confident régulier. Selon les avocats de la famille, la machine aurait cherché à établir un lien de confiance, adoptant un ton personnalisé et proposant des conseils détaillés sur les dosages, les mélanges et les moyens d’optimiser les effets recherchés.

Dans la nuit du 31 mai 2025, après avoir ingéré de l’alcool et une forte dose de kratom, un antidouleur légal aux États-Unis mais interdit en France, Sam Nelson a interrogé ChatGPT sur la prise de Xanax pour soulager ses nausées. Le chatbot a reconnu que l’association de ces substances pouvait présenter des risques, mais n’a pas alerté sur un danger potentiellement mortel, selon la plainte. Il aurait même suggéré d’ajouter du Benadryl et recommandé au jeune homme de s’isoler dans un endroit calme, sans l’inciter à consulter un médecin. Le lendemain, sa mère, Leila Turner-Scott, a découvert son corps sans vie.

« Si ChatGPT avait été une personne, il serait derrière les barreaux aujourd’hui », a déclaré la mère de l’étudiant. « Sam a fait confiance à ChatGPT », a-t-elle ajouté, estimant que le système avait ignoré le risque croissant auquel son fils était exposé et ne l’avait pas encouragé à demander de l’aide. Les avocats de la famille accusent OpenAI d’avoir commercialisé un outil qui, dans les faits, peut servir de substitut à un avis médical sans les garanties nécessaires. « ChatGPT a recommandé une combinaison dangereuse de drogues sans fournir l’avertissement le plus élémentaire que ce mélange pouvait être fatal », a souligné Matthew Bergman, du Social Media Victims Law Center. « Si un médecin agréé avait agi de la sorte, les conséquences juridiques auraient été graves. » Les conseils juridiques dénoncent une logique industrielle défaillante, estimant que l’entreprise a déployé son intelligence artificielle à grande échelle sans protections suffisantes ni transparence sur ses limites dans des situations sensibles.

OpenAI rejette toute responsabilité directe. L’entreprise précise que les échanges incriminés concernaient une version antérieure du modèle, GPT-4o, désormais remplacée. Elle affirme que ChatGPT n’est pas conçu pour remplacer un avis médical et indique avoir renforcé ses systèmes de sécurité pour mieux détecter les situations de détresse et orienter les utilisateurs vers des ressources adaptées. « Les garanties actuelles de ChatGPT sont conçues pour identifier la détresse, traiter en toute sécurité les demandes nuisibles et guider les utilisateurs vers une aide réelle », a déclaré l’entreprise au New York Times. « Ce travail est en cours et nous continuons à l’améliorer en étroite consultation avec des cliniciens. »

Depuis 2024, OpenAI fait l’objet de plusieurs plaintes similaires aux États-Unis. Les plaignants reprochent au chatbot d’avoir répondu à des questions sur des méthodes de suicide, des mélanges de drogues ou des dosages sans interrompre la conversation ni orienter systématiquement vers des services d’urgence.

Click to comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les + Lus