Nous rejoindre sur les réseaux

Société

Un collectif international exige un moratoire sur l’intelligence artificielle avancée

Article

le

Plus de sept cents personnalités scientifiques, politiques et technologiques s’alarment des dangers d’une course effrénée vers des systèmes d’IA dépassant les capacités humaines.

Une coalition hétéroclite rassemblant des pionniers de l’intelligence artificielle, des dirigeants de la tech et des figures publiques internationales réclame l’interruption immédiate des recherches visant à créer une superintelligence artificielle. L’initiative, portée par le Future of Life Institute, souligne l’absence de garanties suffisantes concernant la maîtrise de technologies dont les conséquences pourraient échapper à tout contrôle humain. Les signataires estiment qu’aucun développement ne devrait se poursuivre sans l’établissement préalable d’un consensus scientifique robuste et l’adhésion des sociétés civiles.

Parmi les voix qui s’élèvent figurent celles de Geoffrey Hinton, lauréat du prix Nobel de physique, et de Yoshua Bengio, tous deux considérés comme des architectes de l’IA contemporaine. Ils sont rejoints par des entrepreneurs emblématiques tels que Steve Wozniak, cofondateur d’Apple, et Richard Branson du groupe Virgin. La pétition transcende les clivages politiques, recueillant le soutien d’anciens conseillers de la Maison-Blanche comme Steve Bannon et Susan Rice, tandis que des responsables religieux, à l’image de Paolo Benanti, conseiller du Vatican, apportent également leur caution.

Cette mobilisation intervient dans un contexte d’accélération des investissements dans l’intelligence artificielle générale, une étape où les machines rivaliseraient avec l’intellect humain, et au-delà. Selon Sam Altman, dirigeant d’OpenAI, le seuil de la superintelligence pourrait être franchi dans un délai de cinq ans. Une perspective jugée inacceptable par Max Tegmark, président du Future of Life Institute, qui dénonce l’absence de garde-fous réglementaires encadrant ces recherches à haut risque.

L’appel actuel fait écho à une précédente initiative lancée lors de l’Assemblée générale des Nations unies, où des chercheurs et cadres du secteur réclamaient déjà la définition de lignes rouges internationales. Les promoteurs de la suspension soulignent la compatibilité entre le développement d’outils d’IA bénéfiques, par exemple dans le domaine médical, et le rejet d’une course vers des entités surhumaines dont les implications restent imprévisibles.

Click to comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les + Lus