Nous rejoindre sur les réseaux

Société

Des détecteurs d’IA douteux, nouveaux outils de manipulation

Article

le

Une enquête révèle que certains services en ligne, présentés comme capables d’identifier les textes générés par intelligence artificielle, produisent des résultats erronés pour ensuite proposer, contre rémunération, de les « humaniser ». Des experts dénoncent des pratiques trompeuses aux conséquences potentiellement graves.

La prolifération des contenus synthétiques s’accompagne de l’émergence d’outils prétendant les démasquer. Or, l’examen de plusieurs de ces services met en lumière des défaillances systématiques et des intentions commerciales suspectes. Ils classent régulièrement à tort des textes rédigés par des humains, y compris des œuvres littéraires anciennes, comme étant le produit d’une intelligence artificielle. Cette fausse accusation sert souvent de prétexte pour orienter l’utilisateur vers un service payant de réécriture, promettant de rendre le texte plus « humain ».

Les mécanismes de ces plateformes soulèvent de sérieuses interrogations. Certaines semblent fonctionner sans connexion internet active, laissant supposer que leur diagnostic est prédéterminé plutôt que le fruit d’une analyse technique sophistiquée. Les réponses des entreprises concernées, lorsqu’elles sont sollicitées, invoquent généralement les limites inhérentes à la technologie et refusent toute garantie sur la fiabilité de leurs résultats.

Au-delà de l’aspect commercial, ces outils peu fiables présentent un risque de détournement malveillant. Ils peuvent être instrumentalisés pour jeter le discrédit sur des documents authentiques, comme l’ont montré des cas où des acteurs politiques ont utilisé leurs verdicts erronés pour accuser des adversaires de recourir à des textes synthétiques. Cette facilité à labelliser arbitrairement un contenu ouvre la voie à des campagnes de désinformation.

Le milieu académique, souvent ciblé par le marketing de ces services, reste extrêmement circonspect. Des recherches indépendantes qualifient ces offres de pratiques trompeuses, notant que le processus dit d’« humanisation » peut en réalité dégrader la qualité rédactionnelle en produisant des formulations alambiquées et peu naturelles. Des établissements d’enseignement supérieur cités comme clients potentiels par ces plateformes ont fermement démenti toute collaboration.

Cette situation rappelle que la détection automatisée de l’IA, dans le domaine textuel, reste un défi complexe et non résolu. Les professionnels de la vérification des faits utilisent parfois des technologies similaires, notamment pour l’analyse d’images ou d’audio, mais toujours en les croisant avec d’autres méthodes d’enquête et en considérant leurs conclusions avec une grande prudence. La quête d’un outil universel et infaillible apparaît, pour l’heure, comme une illusion exploitée par des acteurs peu scrupuleux.

Click to comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les + Lus