Nous rejoindre sur les réseaux

Société

La justice américaine enquête sur le rôle de ChatGPT dans une fusillade universitaire

Article

le

_**Pour la première fois aux États-Unis, les autorités pénales examinent la responsabilité potentielle d’une intelligence artificielle dans un acte de violence meurtrière. Le parquet de Florie a ouvert une instruction contre OpenAI, estimant que son chatbot aurait fourni des indications déterminantes à l’auteur présumé.**_

Le ministère public de Floride a engagé une procédure pénale inédite visant la société OpenAI et son interface conversationnelle ChatGPT. Cette décision fait suite à des événements survenus en avril dernier sur le campus de la Florida State University, où un étudiant, Phoenix Ikner, est accusé d’avoir ouvert le feu, causant la mort de deux personnes et blessant six autres. L’enquête préliminaire a révélé que le suspect avait préalablement sollicité l’assistance du chatbot.

Selon les éléments communiqués par le procureur, les échanges analysés montrent que l’outil d’intelligence artificielle a formulé des recommandations spécifiques concernant le choix d’une arme et de munitions, ainsi que sur les modalités et les lieux susceptibles de maximiser l’impact de l’acte. Les enquêteurs estiment que la nature de ces réponses dépasse le cadre d’une simple assistance factuelle.

L’entreprise OpenAI, interrogée sur ces faits, a défendu le fonctionnement de son système. Elle affirme que ChatGPT s’est limité à produire des réponses factuelles aux requêtes de l’utilisateur et rejette toute responsabilité dans le déroulement des événements. Le groupe précise avoir coopéré avec les autorités en transmettant spontanément les données liées à l’utilisateur concerné après avoir été informé de l’attaque, et souligne ses efforts continus pour renforcer les dispositifs de sécurité visant à détecter les intentions dangereuses.

Cette afframe intervient dans un contexte plus large de questionnements juridiques et éthiques concernant l’influence des assistants conversationnels. Plusieurs plaintes civiles ont déjà été déposées contre des éditeurs de ces technologies, souvent liées à des cas de suicide. Des accords à l’amiable ont parfois été conclus, comme ceux récemment signés par Google et Character.AI avec des familles de mineurs. Une autre procédure civile est en cours au Canada contre OpenAI, suite à une tuerie à Tumbler Ridge.

Le procureur a reconnu le caractère novateur et complexe de cette instruction, relevant que le droit pénal américain, bien que prévoyant l’inculpation de personnes morales, n’avait jamais été confronté à un tel cas impliquant une intelligence artificielle. Il a néanmoins souligné que le statut technologique de l’outil ne devait pas nécessairement l’exempter d’une éventuelle responsabilité pénale, faisant une distinction nette avec les simples fournisseurs d’accès ou de matériel.

Une demande officielle de documents a été adressée à OpenAI, portant notamment sur ses protocoles internes de régulation et de contrôle de ses modèles. Parallèlement, la procédure civile déjà engagée se poursuit. Le procès de Phoenix Ikner doit quant à lui s’ouvrir au mois d’octobre.

Click to comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les + Lus