Nous rejoindre sur les réseaux

Société

Les limites de l’intelligence artificielle dans le diagnostic médical

Article

le

Une étude scientifique révèle que les assistants conversationnels comme ChatGPT ne surpassent pas une simple recherche internet pour identifier des pathologies, soulignant les risques d’une utilisation directe par les patients.

La capacité des intelligences artificielles génératives à remplacer un avis médical est sérieusement mise en doute. Des travaux de recherche publiés dans la revue *Nature Medicine* indiquent que ces outils, dont ChatGPT, ne présentent pas d’avantage significatif par rapport à une consultation classique des moteurs de recherche pour établir un diagnostic. Cette évaluation intervient alors que le secteur de la santé explore activement les applications potentielles de ces technologies.

L’étude a été conduite auprès de plus de mille trois cents personnes au Royaume-Uni, à qui ont été soumis dix scénarios cliniques distincts et bien caractérisés. Les participants, jouant le rôle de patients, ont soumis leurs symptômes à plusieurs modèles d’IA grand public. Le résultat est sans appel. Seulement un tiers des diagnostics proposés par l’intelligence artificielle se sont révélés exacts, un score équivalent à celui obtenu par un groupe témoin effectuant des recherches sur le web.

Cette performance contraste avec les résultats parfois impressionnants enregistrés par ces mêmes systèmes lors d’examens médicaux théoriques. Les chercheurs soulignent que la difficulté réside dans l’interaction avec le public. Les descriptions fournies par les individus sont souvent incomplètes ou imprécises, une situation à laquelle les modèles linguistiques peinent à s’adapter efficacement, contrairement à un clinicien expérimenté.

Les conclusions de l’étude appellent à la prudence, dans un contexte où l’accès aux soins peut être difficile et où l’usage de ces assistants par le grand public se généralise. Les autorités sanitaires de plusieurs pays, dont la France, planchent justement sur un cadre réglementaire pour un éventuel emploi direct de ces outils par les patients. Les experts rappellent que, malgré des progrès constants, ces technologies comportent des risques réels si elles sont considérées comme des substituts à une consultation professionnelle.

La méthodologie de l’étude, basée sur des cas simulés, et le fait qu’elle ait évalué des versions désormais obsolètes des modèles, constituent des limites reconnues par ses auteurs. Néanmoins, elle offre un éclairage critique essentiel sur l’état actuel de ces technologies et sur la nécessité de poursuivre les évaluations dans des conditions réelles avant d’envisager une intégration clinique.

Click to comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les + Lus