Nous rejoindre sur les réseaux

Société

L’IA prise en flagrant délit de désinformation sur les réseaux sociaux

Article

le

Une erreur de l’intelligence artificielle Grok concernant une photo d’enfant palestinienne soulève des questions sur la fiabilité des chatbots.

La crédibilité des outils d’intelligence artificielle est une nouvelle fois mise en cause après une série de confusions autour d’une image poignante diffusée sur les réseaux sociaux. Le cliché, montrant une fillette palestinienne souffrant de malnutrition dans la bande de Gaza, a été attribué à tort par le chatbot Grok à un contexte géographique et temporel erroné.

L’affaire a pris de l’ampleur lorsqu’un élu français a partagé cette photographie sans légende sur la plateforme X. Rapidement, des internautes ont sollicité l’IA intégrée au réseau social pour en vérifier l’origine. La réponse du robot conversationnel, affirmant que l’image datait de 2018 et avait été prise au Yémen, a été massivement relayée, déclenchant une polémique. Pourtant, il s’agissait bien d’une photographie récente réalisée à Gaza par un journaliste de l’AFP.

Les experts pointent du doigt les limites structurelles de ces systèmes. Les modèles linguistiques, conçus pour générer du texte plutôt que pour établir des faits, fonctionnent comme des boîtes noires dont les mécanismes de décision restent opaques. Leurs réponses sont influencées par les données utilisées pour leur apprentissage ainsi que par les orientations idéologiques de leurs concepteurs.

Cette méprise n’est pas isolée. Quelques semaines plus tôt, le même outil avait commis une erreur similaire en attribuant à un autre cliché de Gaza une provenance yéménite. Ces inexactitudes systématiques soulèvent des interrogations sur l’utilisation des chatbots comme outils de vérification. Contrairement aux moteurs de recherche traditionnels, ces systèmes ne sont pas conçus pour distinguer le vrai du faux, mais pour produire des réponses plausibles.

La communauté scientifique met en garde contre une confiance excessive dans ces technologies. Les biais inhérents aux modèles linguistiques, combinés à leur incapacité à actualiser leurs connaissances en temps réel, en font des instruments peu fiables pour la vérification des faits. Un constat qui invite à la prudence dans l’utilisation grand public de ces outils.

Click to comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les + Lus