Une étude révèle une raison inattendue derrière l’inefficacité des chatbots IA à diagnostiquer les symptômes

Image d'illustration. Chatbot AIADN
Selon une étude récente, les chatbots d’intelligence artificielle rencontrent des difficultés notables à établir des diagnostics précis face à des symptômes médicaux. Les chercheurs mettent en lumière une cause inattendue derrière ces erreurs récurrentes.
Tl;dr
- Chatbots ne remplacent pas l’avis médical humain.
- Failles de communication entre patients et IA persistantes.
- L’IA utile en support, pas en diagnostic direct.
L’intelligence artificielle à l’épreuve du réel
Dans un contexte où les technologies basées sur l’intelligence artificielle (IA) se multiplient, des millions de personnes sollicitent désormais des chatbots pour des conseils divers, y compris sur leur santé. Cependant, la prudence reste de mise. Récemment, le médecin-chef du Royaume-Uni a alerté sur la fiabilité discutable de ces outils pour les décisions médicales. Une étude menée par Rebecca Payne, maître de conférences à Bangor University et à l’University of Oxford, éclaire ces réserves.
Résultats contrastés en situation réelle
Pour mesurer la performance de trois chatbots populaires, les chercheurs ont confronté des participants à des scénarios médicaux courants. Certains utilisaient un chatbot tandis que d’autres s’appuyaient sur leurs sources habituelles. À leur grande surprise, ceux qui recouraient à l’IA générative identifiaient moins souvent la bonne pathologie et n’étaient pas plus performants pour choisir le service de soins approprié que le groupe témoin.
Lorsqu’on retire l’humain de l’équation et qu’on confie directement les mêmes cas aux modèles linguistiques, le constat change radicalement : ils retrouvent alors leur efficacité en identifiant correctement les diagnostics et niveaux de prise en charge. Mais dès que s’installe une interaction humaine, tout se complique. En analysant les dialogues, il apparaît que :
- Les utilisateurs passent parfois à côté d’informations importantes mentionnées par le chatbot.
- L’incompréhension ou des informations incomplètes nuisent au bon déroulement du conseil.
Le problème ne réside donc pas dans la base de connaissances médicale du modèle, mais dans la communication homme-machine, manifestement encore perfectible.
L’art subtil de la médecine humaine
Comme le rappelle Rebecca Payne, exercer la médecine dépasse largement la simple restitution d’un savoir encyclopédique. L’approche clinique implique écoute active, explications adaptées et co-construction d’un plan thérapeutique — autant d’aspects difficilement automatisables. Le modèle pédagogique Calgary–Cambridge insiste depuis longtemps sur ce dialogue humain : empathie, clarification, questionnement pertinent restent au cœur du soin.
L’IA : secrétaire plutôt que médecin ?
Cela dit, écarter l’IA médicale serait réducteur. Elle s’avère déjà précieuse pour organiser des documents médicaux complexes ou synthétiser dossiers et comptes-rendus. Son avenir immédiat semble davantage orienté vers l’assistance administrative ou le soutien au praticien plutôt qu’au diagnostic autonome.
Si ces outils suscitent de grands espoirs, ils doivent encore franchir plusieurs étapes avant d’envisager remplacer le médecin au chevet du patient. L’intelligence artificielle sait répondre aux questions ; comprendre réellement un être humain reste une tout autre histoire.
