Nous rejoindre sur les réseaux

Politique

Le Pentagone choisit sept entreprises d’IA pour des missions secrètes, Anthropic mis à l’écart

Article

le

Le ministère américain de la Défense a officialisé vendredi la sélection de sept sociétés technologiques pour déployer leurs modèles d’intelligence artificielle dans le cadre d’opérations classifiées. La start-up Anthropic, pourtant reconnue pour la performance de son système Claude, n’a pas été retenue en raison d’un contentieux en cours avec l’administration.

Le Pentagone a annoncé avoir conclu des accords avec SpaceX, la maison mère du laboratoire d’IA xAI, OpenAI, Google, Nvidia, Reflection, Microsoft et la filiale cloud d’Amazon, AWS. Ces partenariats ouvrent l’accès à leurs technologies pour des activités confidentielles liées à la sécurité nationale.

Anthropic, dont le modèle Claude est considéré comme l’un des plus avancés au monde, a été écartée de cette sélection. Fin février, l’administration Trump avait résilié l’ensemble des contrats avec cette entreprise californienne, une décision que cette dernière conteste devant la justice. Le ministère a justifié cette exclusion par la volonté de diversifier ses fournisseurs d’IA pour les missions sensibles.

Le Pentagone avait déjà signalé des conventions similaires avec OpenAI et Google. Dans un communiqué, il a précisé que ces alliances visent à accélérer la transformation de l’armée américaine en une force intégrant pleinement l’intelligence artificielle. Les modèles retenus seront déployés pour des opérations de niveau 6 et 7, les plus élevés au sein de l’institution.

Ces systèmes doivent améliorer la synthèse des données, la compréhension contextuelle et l’aide à la décision des combattants dans des environnements complexes. Le modèle Claude d’Anthropic avait été utilisé dans ce cadre lors de l’offensive américaine contre l’Iran, mais les choix relatifs aux frappes, au moment ou à la cible demeurent du ressort humain.

En multipliant les prestataires, le ministère entend éviter une dépendance excessive à un seul fournisseur et garantir une flexibilité à long terme. Il souhaite s’appuyer sur des développeurs capables d’autoriser une utilisation complète de leurs modèles pour soutenir ses missions.

Le différend entre l’administration et Anthropic trouve son origine dans la volonté de la start-up d’interdire l’usage de ses technologies pour la surveillance de masse de la population américaine et pour des attaques meurtrières. Le Pentagone estimait pour sa part que les garanties d’un usage conforme à la loi étaient suffisantes. Lundi, une lettre signée par environ six cents employés de Google a demandé à leur direction de renoncer à fournir ses modèles à l’armée pour des opérations classifiées.

Click to comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les + Lus