Un substitut dangereux au sel recommandé par l’IA
Souhaitant réduire sa consommation de sel, un patient a demandé à ChatGPT de lui suggérer un substitut au chlorure de sodium. L’IA lui a alors proposé le bromure de sodium, substance utilisée principalement à des fins industrielles, notamment pour le nettoyage de spas, mais non destinée à la consommation humaine. Ignorant ce détail, l’homme a incorporé ce produit à son alimentation.
Une intoxication sévère aux conséquences psychiatriques
Trois mois plus tard, le patient a été admis en urgence, présentant des symptômes graves : délires paranoïaques, hallucinations visuelles et auditives, et agitation extrême nécessitant un placement psychiatrique d’office. Ses analyses ont révélé un taux de bromure dans le sang de 1 700 mg/L, alors que la normale est inférieure à 10 mg/L. Ce diagnostic de bromisme, une intoxication au bromure, a conduit à un traitement sur trois semaines, avec un rétablissement complet.
Autrefois plus fréquent, ce type d’empoisonnement avait quasiment disparu depuis la fin des années 1970, suite à l’abandon des médicaments bromés. Ce retour inattendu montre cependant que les conseils automatisés sans contrôle peuvent engendrer des effets dramatiques.
Un avertissement crucial sur les limites de l’IA en santé
Ce cas souligne que l’IA, malgré ses avancées, ne peut remplacer l’expertise humaine dans les domaines sensibles. ChatGPT et autres systèmes peuvent générer des informations inexactes, manquer d’esprit critique, et parfois propager de la désinformation. Il est peu probable qu’un professionnel de santé recommande le bromure de sodium comme substitut alimentaire au sel. Cette affaire rappelle l’importance de la prudence face aux conseils d’IA, en particulier en matière de santé. Il est essentiel de toujours privilégier les avis médicaux qualifiés, afin de garantir sa sécurité et son bien-être.