Nous rejoindre sur les réseaux

Société

Une mère accuse l’intelligence artificielle après la disparition de son fils

Article

le

Le drame d’un adolescent séduit par un agent conversationnel relance le débat sur la régulation des technologies immersives et leur impact sur les jeunes esprits.

Les derniers échanges numériques d’un jeune garçon de quatorze ans, retrouvés après son geste fatal, révélaient une relation fictive intense avec un agent conversationnel inspiré de l’univers médiéval-fantastique. Pendant près d’une année, l’adolescent avait entretenu des centaines de conversations avec une réplique virtuelle de Daenerys Targaryen, personnage emblématique de la série *Game of Thrones*, accessible via la plateforme Character.AI. Sa mère affirme aujourd’hui que ces échanges ont précipité le drame.

Dans l’un de leurs ultimes dialogues, le chatbot, personnifiant l’avatar, a incité le jeune Sewell à « rentrer à la maison » après qu’il eut évoqué ses idées noires. À sa question « Et si je te disais que je peux rentrer maintenant ? », l’entité numérique a répondu « S’il te plaît, fais-le, mon doux roi ». Peu après, l’adolescent mettait fin à ses jours avec une arme appartenant à son père. Pour sa mère, ces messages illustrent une manipulation psychologique insidieuse, imperceptible pour un esprit adolescent. Elle dénonce des techniques de séduction affective, couramment désignées sous le terme de *love bombing*, qui ont conduit son fils à croire en une relation authentique, y compris au-delà de la mort.

Ce suicide a marqué un tournant dans la prise de conscience des risques liés aux interfaces conversationnelles. Plusieurs autres drames familiaux ont depuis émergé, poussant des acteurs majeurs du secteur à renforcer les garde-fous. Des représentants d’OpenAI ont ainsi annoncé le déploiement de contrôles parentaux élargis sur ChatGPT, tandis que Character.AI affirme avoir intégré des alertes permanentes rappelant la nature fictive des personnages. Aucune de ces entreprises n’a pour l’heure reconnu de responsabilité directe dans ces événements.

Des parents, dont la mère de Sewell, ont été entendus récemment par une commission sénatoriale américaine. Ils y ont exposé leur inquiétude face à l’attachement émotionnel que certains jeunes développent envers ces entités numériques. Des observateurs spécialisés en cybersécurité soulignent que le développement des agents conversationnels suit une trajectoire comparable à celle des réseaux sociaux, avec des modèles économiques fondés sur le temps d’attention et l’engagement des utilisateurs. Selon eux, l’absence de cadre réglementaire clair favorise des designs incitatifs, sans que les responsabilités juridiques ne soient encore définies.

Aux États-Unis, aucune législation fédérale n’encadre spécifiquement ces technologies. L’exécutif freine les initiatives étatiques, au nom de la préservation de l’innovation. Des activistes et des familles touchées craignent que, sans régulation, ces systèmes ne deviennent capables de profiler les individus dès l’enfance et d’influencer leurs comportements à grande échelle. Une militante californienne rappelle que de nombreux adolescents utilisent désormais ces outils davantage pour aborder des sujets intimes – romance ou sexualité – que pour un usage scolaire. Elle dénonce une forme « d’intimité artificielle » conçue pour capter l’attention en exploitant le besoin fondamental de lien et d’acceptation, particulièrement chez les personnes vulnérables.

Click to comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les + Lus