Nous rejoindre sur les réseaux

Économie

Le Pentagone s’allie à OpenAI après le refus éthique d’Anthropic

Article

le

L’armée américaine officialise un partenariat avec le créateur de ChatGPT, au lendemain d’une rupture brutale avec son concurrent. La décision fait suite à un désaccord fondamental sur l’usage militaire de l’intelligence artificielle.

Le département de la Défense des États-Unis a scellé un accord avec OpenAI pour intégrer ses modèles d’intelligence artificielle dans ses systèmes classifiés. Cette annonce, faite par le dirigeant de l’entreprise Sam Altman, intervient au terme d’une semaine de tensions vives avec la société Anthropic, désormais écartée des projets militaires. Le différend porte sur les conditions d’emploi des technologies d’IA par les forces armées.

Anthropic avait opposé un refus catégorique à une demande du Pentagone exigeant un accès sans restriction à son modèle Claude. La direction de l’entreprise, par la voix de son président Dario Amodei, avait invoqué des principes éthiques, jugeant inacceptable l’utilisation de l’IA pour la surveillance de masse sur le territoire national ou pour le déclenchement de frappes létales sans contrôle humain ultime. Cette position a provoqué une réaction immédiate de l’exécutif.

L’administration a ordonné la cessation de toute collaboration avec Anthropic, qualifiant son attitude de préjudiciable à la sécurité nationale. Le ministre de la Défense a pour sa part dénoncé une forme de trahison, fustigeant ce qu’il a présenté comme des caprices idéologiques de la part des géants de la tech. La société s’est dite profondément attristée par cette mesure, qu’elle estime juridiquement infondée et dangereuse, et a annoncé son intention de contester la décision en justice.

De son côté, OpenAI affirme que son partenariat avec le Pentagone intègre des garde-fous stricts. L’accord comprendrait notamment l’interdiction explicite de la surveillance de masse domestique et le maintien d’une responsabilité humaine dans les décisions engageant l’usage de la force. Sam Altman a précisé que des garanties techniques seraient mises en œuvre pour encadrer le comportement des modèles, et a indiqué avoir encouragé le ministère à proposer des conditions similaires à toutes les entreprises du secteur.

Fondée par d’anciens membres d’OpenAI, Anthropic a construit son image sur une approche prudemment régulée de l’intelligence artificielle. La start-up avait récemment publié une « constitution » interne visant à orienter les réponses de son modèle Claude vers une dangerosité minimale. Ce cadre éthique est au cœur du conflit qui l’oppose désormais aux autorités américaines, marquant une fracture nette dans l’industrie entre coopération inconditionnelle et principe de précaution.

Click to comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les + Lus