Société
Des détecteurs d’IA douteux, nouveaux outils de manipulation
Une enquête révèle que certains services en ligne, présentés comme capables d’identifier les textes générés par intelligence artificielle, produisent des résultats erronés pour ensuite proposer, contre rémunération, de les « humaniser ». Des experts dénoncent des pratiques trompeuses aux conséquences potentiellement graves.
La prolifération des contenus synthétiques s’accompagne de l’émergence d’outils prétendant les démasquer. Or, l’examen de plusieurs de ces services met en lumière des défaillances systématiques et des intentions commerciales suspectes. Ils classent régulièrement à tort des textes rédigés par des humains, y compris des œuvres littéraires anciennes, comme étant le produit d’une intelligence artificielle. Cette fausse accusation sert souvent de prétexte pour orienter l’utilisateur vers un service payant de réécriture, promettant de rendre le texte plus « humain ».
Les mécanismes de ces plateformes soulèvent de sérieuses interrogations. Certaines semblent fonctionner sans connexion internet active, laissant supposer que leur diagnostic est prédéterminé plutôt que le fruit d’une analyse technique sophistiquée. Les réponses des entreprises concernées, lorsqu’elles sont sollicitées, invoquent généralement les limites inhérentes à la technologie et refusent toute garantie sur la fiabilité de leurs résultats.
Au-delà de l’aspect commercial, ces outils peu fiables présentent un risque de détournement malveillant. Ils peuvent être instrumentalisés pour jeter le discrédit sur des documents authentiques, comme l’ont montré des cas où des acteurs politiques ont utilisé leurs verdicts erronés pour accuser des adversaires de recourir à des textes synthétiques. Cette facilité à labelliser arbitrairement un contenu ouvre la voie à des campagnes de désinformation.
Le milieu académique, souvent ciblé par le marketing de ces services, reste extrêmement circonspect. Des recherches indépendantes qualifient ces offres de pratiques trompeuses, notant que le processus dit d’« humanisation » peut en réalité dégrader la qualité rédactionnelle en produisant des formulations alambiquées et peu naturelles. Des établissements d’enseignement supérieur cités comme clients potentiels par ces plateformes ont fermement démenti toute collaboration.
Cette situation rappelle que la détection automatisée de l’IA, dans le domaine textuel, reste un défi complexe et non résolu. Les professionnels de la vérification des faits utilisent parfois des technologies similaires, notamment pour l’analyse d’images ou d’audio, mais toujours en les croisant avec d’autres méthodes d’enquête et en considérant leurs conclusions avec une grande prudence. La quête d’un outil universel et infaillible apparaît, pour l’heure, comme une illusion exploitée par des acteurs peu scrupuleux.
-
FrontignanEn Ligne 7 joursFrontignan : un recours en annulation déposé, le scrutin municipal contesté sur plusieurs irrégularités
-
SociétéEn Ligne 6 joursUn départ inattendu au sommet du Conseil constitutionnel
-
PolitiqueEn Ligne 3 joursVillepin esquisse un retour et revendique l’héritage gaulliste
-
SociétéEn Ligne 7 joursLa gauche insoumise en plein déchirement
-
Faits DiversEn Ligne 4 joursUn suspect arrêté plus de quatre décennies après l’homicide d’une infirmière en Vendée
-
MondeEn Ligne 7 joursQuatre Français détenus à Dubaï retrouvent la liberté
-
Faits DiversEn Ligne 5 joursLe rappeur Gims en garde à vue dans une affaire de blanchiment en bande organisée
-
CultureEn Ligne 3 joursLa scène rap française célèbre la mémoire de Werenoi à l’Accor Arena