Société
Des détecteurs d’IA douteux, nouveaux outils de manipulation
Une enquête révèle que certains services en ligne, présentés comme capables d’identifier les textes générés par intelligence artificielle, produisent des résultats erronés pour ensuite proposer, contre rémunération, de les « humaniser ». Des experts dénoncent des pratiques trompeuses aux conséquences potentiellement graves.
La prolifération des contenus synthétiques s’accompagne de l’émergence d’outils prétendant les démasquer. Or, l’examen de plusieurs de ces services met en lumière des défaillances systématiques et des intentions commerciales suspectes. Ils classent régulièrement à tort des textes rédigés par des humains, y compris des œuvres littéraires anciennes, comme étant le produit d’une intelligence artificielle. Cette fausse accusation sert souvent de prétexte pour orienter l’utilisateur vers un service payant de réécriture, promettant de rendre le texte plus « humain ».
Les mécanismes de ces plateformes soulèvent de sérieuses interrogations. Certaines semblent fonctionner sans connexion internet active, laissant supposer que leur diagnostic est prédéterminé plutôt que le fruit d’une analyse technique sophistiquée. Les réponses des entreprises concernées, lorsqu’elles sont sollicitées, invoquent généralement les limites inhérentes à la technologie et refusent toute garantie sur la fiabilité de leurs résultats.
Au-delà de l’aspect commercial, ces outils peu fiables présentent un risque de détournement malveillant. Ils peuvent être instrumentalisés pour jeter le discrédit sur des documents authentiques, comme l’ont montré des cas où des acteurs politiques ont utilisé leurs verdicts erronés pour accuser des adversaires de recourir à des textes synthétiques. Cette facilité à labelliser arbitrairement un contenu ouvre la voie à des campagnes de désinformation.
Le milieu académique, souvent ciblé par le marketing de ces services, reste extrêmement circonspect. Des recherches indépendantes qualifient ces offres de pratiques trompeuses, notant que le processus dit d’« humanisation » peut en réalité dégrader la qualité rédactionnelle en produisant des formulations alambiquées et peu naturelles. Des établissements d’enseignement supérieur cités comme clients potentiels par ces plateformes ont fermement démenti toute collaboration.
Cette situation rappelle que la détection automatisée de l’IA, dans le domaine textuel, reste un défi complexe et non résolu. Les professionnels de la vérification des faits utilisent parfois des technologies similaires, notamment pour l’analyse d’images ou d’audio, mais toujours en les croisant avec d’autres méthodes d’enquête et en considérant leurs conclusions avec une grande prudence. La quête d’un outil universel et infaillible apparaît, pour l’heure, comme une illusion exploitée par des acteurs peu scrupuleux.
-
NewsEn Ligne 7 joursUn avion de voltige s’écrase à Clermont-Ferrand, le pilote décède sur le coup
-
Faits DiversEn Ligne 6 joursSaut périlleux pour une enfant de 9 ans à Châtellerault
-
NewsEn Ligne 6 joursEnquête à Nice : le couple Estrosi visé par des soupçons d’usage abusif de moyens municipaux
-
SportsEn Ligne 5 joursLa double peine pour Julia Simon : son contrat avec les Douanes suspendu après sa condamnation
-
NewsEn Ligne 6 joursBouaye sous un manteau de grêle en plein printemps
-
SociétéEn Ligne 3 joursHantavirus : les scientifiques face au défi de la communication sans raviver les traumatismes du Covid
-
MondeEn Ligne 6 joursUn ornithologue néerlandais, première victime identifiée du hantavirus à bord du MV Hondius
-
SportsEn Ligne 7 joursLe chaos s’empare du stade de Furiani : le match Bastia-Le Mans définitivement interrompu