Nous rejoindre sur les réseaux

Société

Anthropic suspend le déploiement d’une intelligence artificielle aux capacités de piratage inquiétantes

Article

le

La société a décidé de retarder la commercialisation de son nouveau modèle, Claude Mythos, après que celui-ci a identifié des milliers de vulnérabilités critiques dans des logiciels largement utilisés. Cette décision intervient dans un contexte de course effrénée à l’innovation.

La société spécialisée en intelligence artificielle Anthropic a pris la décision inhabituelle de reporter la mise à disposition de son dernier modèle, Claude Mythos. Ce report fait suite à la découverte, lors de tests internes, d’un nombre considérable de failles de sécurité dites « zero-day » dans divers programmes informatiques. Ces vulnérabilités, jusqu’alors inconnues des développeurs et des utilisateurs, représenteraient autant de portes d’entrée potentielles pour des acteurs malveillants si elles n’étaient pas corrigées.

Face à cette situation, l’entreprise a initié une collaboration inédite avec une quarantaine d’organisations, incluant des géants de la technologie et des sociétés de cybersécurité. L’objectif de ce consortium, baptisé Project Glasswing, est d’utiliser une version de test de Mythos pour auditer et renforcer la sécurité des infrastructures numériques avant toute diffusion plus large. Anthropic mettra à disposition des partenaires une puissance de calcul évaluée à cent millions de dollars pour conduire ces travaux.

Les experts du secteur soulignent le caractère pivot de cet épisode. L’efficacité démontrée par l’IA dans la détection de failles complexes, qui échappaient souvent aux analyses humaines, modifie profondément le paysage de la sécurité numérique. Si cette technologie peut être un outil puissant pour la défense, elle risque également de devenir une arme redoutable entre les mains de cybercriminels, en automatisant et en démocratisant la recherche de vulnérabilités.

Anthropic précise que Mythos a été conçu à l’origine comme un modèle généraliste et non comme un outil spécialisé. La société affirme que son ambition ultime reste un déploiement public, mais seulement après avoir intégré des mécanismes de contrôle suffisants pour prévenir les utilisations les plus risquées. Cette approche prudente contraste avec l’accélération récente des lancements de modèles d’IA par ses concurrents. Des échanges ont également eu lieu avec les autorités américaines concernant les implications de cette technologie.

Click to comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les + Lus