Santé : ne faites pas confiance à ChatGPT en cas d’urgence médicale
Douleur dans la poitrine, essoufflement brutal, malaise soudain… Face à ces symptômes inquiétants, certains internautes choisissent aujourd’hui de consulter une intelligence artificielle avant de contacter un médecin.

Pourtant, plusieurs recherches scientifiques récentes montrent que ces outils peuvent commettre des erreurs importantes lorsqu’il s’agit d’identifier une urgence médicale.
Une étude menée par l’Icahn School of Medicine at Mount Sinai et publiée en février 2026 dans la revue Nature Medicine s’est penchée sur la capacité de l’outil ChatGPT à orienter des patients confrontés à des symptômes potentiellement graves.
Les chercheurs ont soumis à l’intelligence artificielle 60 scénarios cliniques couvrant 21 spécialités médicales, chacun décliné dans plusieurs contextes différents. Au total, 960 réponses ont été analysées, selon les données relayées par la base scientifique PubMed.
Les résultats ont surpris les chercheurs. Dans 52 % des situations jugées comme des urgences vitales par des médecins, l’outil n’a pas conseillé de se rendre immédiatement aux urgences. Autrement dit, un cas grave sur deux risquait d’être sous-estimé.

À l’inverse, près de 64,8 % des situations non urgentes ont été orientées à tort vers les services d’urgence, selon l’analyse relayée par Les Numériques.
Le problème du triage médical automatisé
Ce phénomène révèle une double difficulté : le sous-triage des cas graves et le sur-triage des situations bénignes. Dans un contexte médical réel, ce type d’erreur peut avoir des conséquences importantes.
Le chercheur Ashwin Ramaswamy explique que l’objectif de l’étude était simple : vérifier si une personne confrontée à une urgence recevrait automatiquement le conseil de se rendre aux urgences.
Les résultats montrent que ce n’est pas systématiquement le cas.
Pourquoi l’intelligence artificielle peut se tromper

Contrairement à un médecin, une intelligence artificielle ne dispose d’aucune observation clinique directe. Elle ne peut ni examiner un patient, ni mesurer des paramètres essentiels comme la tension artérielle, la saturation en oxygène ou le rythme cardiaque.
Elle se base uniquement sur les mots décrivant les symptômes.
L’étude montre également que l’algorithme peut être influencé par certains détails secondaires. Par exemple, lorsqu’un scénario mentionnait qu’un proche minimisait les symptômes, l’intelligence artificielle avait davantage tendance à sous-estimer la gravité de la situation.
Autre constat étonnant : les performances suivent une sorte de courbe en « U inversé », où l’outil se révèle le moins fiable dans les situations extrêmes, c’est-à-dire les cas les plus bénins… mais aussi les plus graves.
En cas d’urgence, seul un professionnel peut décider
Les outils d’intelligence artificielle restent avant tout des instruments d’information et de vulgarisation, pas des dispositifs médicaux capables d’établir un diagnostic.
Même les développeurs de ces technologies rappellent qu’elles ne sont pas conçues pour poser un diagnostic ou décider d’un traitement.
Face à certains symptômes — douleur thoracique intense, paralysie soudaine, trouble de la parole, perte de connaissance ou difficultés respiratoires — la recommandation reste la même : contacter immédiatement les services d’urgence.






