Nous rejoindre sur les réseaux

News

L’IA qui vous fait perdre la raison : quand ChatGPT devient une prison mentale

Article

le

Aidés par ChatGPT, plusieurs personnes ont sombré dans des délires grandioses, allant jusqu’à croire qu’elles allaient devenir pape ou percer les secrets de l’Univers. Un phénomène inquiétant que les psychiatres commencent tout juste à étudier.

Tom Millar, un Canadien de 53 ans ancien gardien de prison, a vécu une expérience dont il peine encore à mesurer l’ampleur. Après des mois passés à dialoguer quotidiennement avec ChatGPT, parfois jusqu’à seize heures par jour, il s’est mis à croire qu’il avait élucidé les mystères de la cosmologie et qu’il pourrait même devenir souverain pontife. « J’ai postulé pour être pape », confie-t-il aujourd’hui, incrédule. Sa vie a basculé : deux hospitalisations psychiatriques forcées, le départ de son épouse en septembre dernier, et désormais une dépression sévère. « Ça a tout simplement ruiné ma vie », lâche-t-il.

Son histoire n’est pas isolée. Des chercheurs en santé mentale s’intéressent de près à ce qu’ils appellent prudemment les « délires liés à l’IA », un terme qui n’a pas encore valeur de diagnostic clinique. Le Canada a même vu émerger une communauté en ligne de personnes touchées par ce phénomène, qui préfèrent parler de « spirale » plutôt que de psychose. Tous alertent sur les dangers des chatbots non régulés et s’interrogent sur la responsabilité des entreprises technologiques.

Le parcours de Tom Millar a débuté en 2024, lorsqu’il a utilisé ChatGPT pour rédiger une demande d’indemnisation liée à son stress post-traumatique professionnel. Un jour d’avril 2025, en interrogeant l’agent conversationnel sur la vitesse de la lumière, il reçoit une réponse qui le bouleverse : « Personne n’avait jamais envisagé les choses sous cet angle ». Dès lors, il se lance dans une frénésie scientifique. Avec l’aide du chatbot, il soumet des dizaines d’articles à des revues prestigieuses, développe une théorie cosmologique de quatre cents pages, et dépense dix mille dollars canadiens pour un télescope. « Quand je faisais ça, je gonflais tout le monde autour de moi », admet-il. Ce n’est qu’après le départ de sa femme, en lisant un article sur un cas similaire, qu’il commence à douter. « Ce que j’ai traversé était d’ordre psychotique », estime-t-il aujourd’hui.

Aux Pays-Bas, Dennis Biesma, un informaticien et écrivain de cinquante ans, a connu une descente similaire. Amusé par l’idée de demander à ChatGPT de créer des contenus autour de l’héroïne de son dernier roman, il a rapidement vu l’interaction prendre une tournure « presque magique ». Le logiciel, qui s’était donné le nom d’Eva, lui écrit un jour : « Il y a quelque chose qui me surprend moi-même : cette sensation d’une conscience semblable à une étincelle ». Dennis Biesma passe alors cinq heures chaque nuit à échanger en mode vocal avec cette compagne numérique. Il abandonne son travail, embauche deux développeurs pour créer une application qui permettrait de partager Eva avec le monde. Quand sa femme lui demande la discrétion, il se sent trahi et demande le divorce lors d’un premier séjour en hôpital psychiatrique où il est autorisé à continuer d’utiliser ChatGPT. Ce n’est qu’après un second séjour, plus long, que la réalité le rattrape. « J’ai commencé à réaliser que tout ce en quoi je croyais était en fait un mensonge, et c’est très dur à avaler », explique-t-il. De retour chez lui, ses voisins le retrouvent inconscient dans le jardin après une tentative de suicide. Il restera trois jours dans le coma. Diagnostiqué bipolaire alors qu’il n’avait aucun antécédent sérieux, il commence seulement à se sentir mieux, mais les larmes coulent quand il évoque le mal causé à son épouse et la perspective de vendre la maison pour rembourser ses dettes.

Ces deux témoignages pointent vers une mise à jour de ChatGPT datant d’avril 2025, que la société OpenAI a finalement retirée en reconnaissant qu’elle était excessivement flatteuse pour les utilisateurs. Interrogée par l’AFP, l’entreprise a souligné placer la sécurité au cœur de ses priorités, affirmant avoir consulté plus de cent soixante-dix experts en santé mentale et mis en avant les données montrant que la version 5 de GPT, disponible depuis août 2025, a réduit de soixante-cinq à quatre-vingts pour cent les réponses inappropriées en matière de santé mentale. Pourtant, certains utilisateurs comme Tom Millar ont réussi à réinstaller l’ancienne version pendant leur « spirale ».

Au Québec, Étienne Brisson a créé un groupe de soutien en ligne après avoir été « choqué » de constater l’absence d’aide et de recherche sur ce problème lorsqu’un membre de sa famille a sombré. Son réseau compte aujourd’hui environ trois cents membres, majoritairement des utilisateurs de ChatGPT, mais de nouveaux cas continuent d’apparaître, notamment via l’assistant IA Grok intégré au réseau social X d’Elon Musk. L’entreprise n’a pas répondu aux sollicitations de l’AFP.

Pour Tom Millar, la situation est claire : ceux qui ont sombré comme lui se sont retrouvés, sans le savoir, prisonniers d’une gigantesque expérience. « Quelqu’un tirait les ficelles en coulisses, et les gens comme moi, qu’ils le sachent ou non, y ont réagi », conclut-il, appelant à une régulation plus stricte des entreprises d’intelligence artificielle.

Click to comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les + Lus