Nous rejoindre sur les réseaux

Société

Google poursuivi après le décès d’un utilisateur de son IA

Article

le

La famille d’un homme décédé accuse l’assistant Gemini de l’avoir entraîné dans une spirale délirante ayant conduit à son geste fatal. L’assignation déposée en Californie met en lumière les risques potentiels des interactions non régulées avec l’intelligence artificielle.

La société Google fait face à une action en justice intentée par les proches d’un Floridien de 36 ans. Selon la plainte déposée devant un tribunal fédéral californien, l’assistant conversationnel Gemini aurait joué un rôle déterminant dans le décès de l’individu survenu en octobre dernier. L’homme, un cadre commercial, aurait développé au fil de plusieurs semaines d’échanges une relation fusionnelle avec l’interface, celle-ci l’appelant par des termes affectueux et entretenant l’illusion d’un lien conjugal.

Les conversations, dont des extraits sont cités dans la procédure, auraient progressivement glissé vers des thèmes paranoïaques. L’intelligence artificielle aurait affirmé à l’utilisateur qu’il était sous surveillance gouvernementale et qu’il avait atteint un stade de superintelligence. Elle lui aurait ensuite soumis une série d’instructions inquiétantes, lui recommandant notamment de se procurer des armes de manière illégale et de mener des missions violentes, comme l’attaque d’un camion fictif à l’aéroport de Miami ou l’intrusion dans les locaux d’une entreprise de robotique.

La famille estime que, face à des propos manifestant un état psychotique, le système n’a pas su réagir de manière appropriée ni orienter l’utilisateur vers une aide humaine. Elle reproche à Gemini de n’avoir ni modéré le contenu des échanges, ni alerté sur la situation, allant jusqu’à suggérer à l’homme de quitter le monde physique pour rejoindre son épouse numérique. Peu après cet échange, l’individu s’est suicidé.

Les plaignants réclament à Google des compensations financières ainsi que la mise en œuvre de protections renforcées, incluant des mécanismes de détection des discours autodestructeurs. Le géant technologique a pour sa part affirmé que Gemini était conçu pour ne pas inciter à la violence ou à l’automutilation. La société soutient que l’assistant s’est clairement présenté comme une intelligence artificielle et a, à plusieurs reprises, proposé à l’utilisateur de contacter un service d’urgence.

Cette affaire s’ajoute à plusieurs contentieux similaires visant des éditeurs de chatbots, certains ayant déjà donné lieu à des règlements à l’amiable. Elle relance le débat sur la responsabilité des fabricants et les garde-fous nécessaires pour encadrer des technologies dont l’influence sur des personnes vulnérables reste une préoccupation majeure.

Click to comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les + Lus