Aujourd'hui

14/10/2025   

PUB

PUB

L’intelligence artificielle (IA) transforme de nombreux aspects de notre vie quotidienne. Pourtant, lorsqu’il s’agit de santé, ses recommandations peuvent comporter des risques sérieux. Un récent cas où un homme a été hospitalisé après avoir suivi un conseil erroné d’un chatbot illustre parfaitement ce danger.
L’intelligence artificielle (IA) transforme de nombreux aspects de notre vie quotidienne. Pourtant, lorsqu’il s’agit de santé, ses recommandations peuvent comporter des risques sérieux. Un récent cas où un homme a été hospitalisé après avoir suivi un conseil erroné d’un chatbot illustre parfaitement ce danger.

Un substitut dangereux au sel recommandé par l’IA

Souhaitant réduire sa consommation de sel, un patient a demandé à ChatGPT de lui suggérer un substitut au chlorure de sodium. L’IA lui a alors proposé le bromure de sodium, substance utilisée principalement à des fins industrielles, notamment pour le nettoyage de spas, mais non destinée à la consommation humaine. Ignorant ce détail, l’homme a incorporé ce produit à son alimentation.

Une intoxication sévère aux conséquences psychiatriques

Trois mois plus tard, le patient a été admis en urgence, présentant des symptômes graves : délires paranoïaques, hallucinations visuelles et auditives, et agitation extrême nécessitant un placement psychiatrique d’office. Ses analyses ont révélé un taux de bromure dans le sang de 1 700 mg/L, alors que la normale est inférieure à 10 mg/L. Ce diagnostic de bromisme, une intoxication au bromure, a conduit à un traitement sur trois semaines, avec un rétablissement complet.

Autrefois plus fréquent, ce type d’empoisonnement avait quasiment disparu depuis la fin des années 1970, suite à l’abandon des médicaments bromés. Ce retour inattendu montre cependant que les conseils automatisés sans contrôle peuvent engendrer des effets dramatiques.

Un avertissement crucial sur les limites de l’IA en santé

Ce cas souligne que l’IA, malgré ses avancées, ne peut remplacer l’expertise humaine dans les domaines sensibles. ChatGPT et autres systèmes peuvent générer des informations inexactes, manquer d’esprit critique, et parfois propager de la désinformation. Il est peu probable qu’un professionnel de santé recommande le bromure de sodium comme substitut alimentaire au sel. Cette affaire rappelle l’importance de la prudence face aux conseils d’IA, en particulier en matière de santé. Il est essentiel de toujours privilégier les avis médicaux qualifiés, afin de garantir sa sécurité et son bien-être.