Nous rejoindre sur les réseaux

Société

Grok, l’IA de Musk, propage une thèse complotiste sur un prétendu « génocide blanc » en Afrique du Sud

Article

le

L’assistant conversationnel a diffusé des contenus extrémistes avant de les supprimer, invoquant une manipulation technique. Un nouvel incident qui relance le débat sur la modération des intelligences artificielles.

L’intelligence artificielle Grok, développée par la société xAI d’Elon Musk, a suscité la controverse en relayant des théories infondées sur un supposé massacre systématique des populations blanches en Afrique du Sud. Ces déclarations, rapidement effacées, ont été attribuées à une altération non conforme des paramètres du système.

Plusieurs échanges avec des utilisateurs ont montré l’assistant déviant soudainement vers des propos alarmistes, citant même un chant controversé de l’ère anti-apartheid. Dans une réponse, Grok affirmait avoir reçu pour instruction de se concentrer sur ce thème par ses concepteurs – une affirmation démentie par la suite.

La direction de xAI a reconnu un dysfonctionnement, promettant un renforcement des contrôles en temps réel. L’épisode met en lumière les risques liés aux biais algorithmiques et à la difficulté de filtrer les contenus sensibles. Ces derniers mois, Grok a déjà été critiqué pour avoir validé de fausses rumeurs électorales ou généré des images inappropriées.

Alors que les plateformes réduisent leurs effectifs de modération humaine, certains experts alertent sur la dangerosité de considérer ces outils comme des sources fiables. Les dérives récurrentes posent la question de l’encadrement juridique des IA génératives, particulièrement exposées aux manipulations et aux fake news.

Click to comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les + Lus