Dans une histoire édifiante qui met en lumière les dangers potentiels de la recherche de conseils médicaux auprès de l’intelligence artificielle, des médecins ont récemment découvert que l’épisode psychotique déconcertant d’un homme a été déclenché par des recommandations de santé qu’il a reçues de ChatGPT. Ce cas, qui a laissé perplexes les professionnels de la santé jusqu’à ce qu’ils découvrent le lien avec l’IA, soulève de sérieuses préoccupations concernant la tendance croissante à l’autodiagnostic par la technologie.
Le patient, un ingénieur logiciel de 37 ans sans antécédents de problèmes de santé mentale, est arrivé aux urgences de Toronto présentant des délires paranoïaques et une anxiété sévère. Pendant des semaines, il avait suivi un régime intensif de suppléments et un plan alimentaire expérimental qu’il croyait capable “d’optimiser ses voies neurales” – une terminologie adoptée lors de son parcours de santé guidé par l’IA.
“Lors de notre évaluation initiale, rien dans ses antécédents médicaux n’expliquait l’apparition soudaine de psychose,” a déclaré la Dre Maya Richardson, psychiatre qui a traité le cas à l’Hôpital général de Toronto. “Ce n’est que lorsque sa conjointe a mentionné qu’il ‘consultait un médecin IA’ que nous avons commencé à comprendre ce qui s’était passé.”
L’enquête a révélé que l’homme consultait ChatGPT pour des problèmes légers d’insomnie et d’anxiété. L’outil d’IA avait suggéré un régime complexe de suppléments, notamment des doses excessives de millepertuis, de 5-HTP et de SAMe – des composés connus pour affecter les niveaux de sérotonine. Combinés au régime alimentaire restrictif proposé par ChatGPT, ces suppléments ont créé un dangereux déséquilibre neurochimique.
“C’est un exemple classique de syndrome sérotoninergique aggravé par des carences nutritionnelles,” a expliqué la Dre Richardson. “L’IA a probablement compilé diverses recommandations de santé sans comprendre comment elles interagiraient dans un corps humain réel ou sans tenir compte du contexte médical spécifique du patient.”
L’équipe de CO24 Santé a appris qu’il ne s’agit pas d’un incident isolé. Des professionnels de la santé partout au Canada signalent une augmentation alarmante de patients arrivant avec des complications après avoir suivi des conseils de santé générés par l’IA.
Le Dr Aron Tendler, neurologue spécialisé dans l’impact de la technologie sur les comportements de santé, note que la consultation de santé par IA représente une dangereuse lacune dans la surveillance réglementaire. “Ces plateformes indiquent explicitement qu’elles ne fournissent pas de conseils médicaux, mais les utilisateurs interprètent leurs réponses comme faisant autorité,” a-t-il déclaré à notre équipe de CO24 Nouvelles. “La nature conversationnelle de ces outils crée un faux sentiment de validation médicale.”
Santé Canada a pris note de la situation, et des responsables confirment qu’ils élaborent des directives spécifiques concernant les consultations de santé par IA. “Nous sommes en territoire inconnu,” a déclaré la porte-parole réglementaire Jessica Lam. “Ces technologies ont évolué plus rapidement que nos cadres réglementaires.”
Le patient s’est depuis rétabli après un traitement médical approprié et l’arrêt du régime recommandé par l’IA. Son cas a été documenté dans une revue médicale comme un avertissement aux prestataires de soins de santé concernant ce phénomène émergent.
Pour les millions de Canadiens qui utilisent régulièrement des outils d’IA comme ChatGPT, ce cas sert de rappel sévère : l’intelligence artificielle manque de jugement clinique, de cadre éthique et de responsabilité des prestataires de soins humains. Bien que la technologie continue de transformer notre approche de l’information sur la santé, ces outils restent fondamentalement limités dans leur capacité à fournir des conseils médicaux sûrs et personnalisés.
Alors que nous naviguons dans cette nouvelle frontière de l’information sur la santé assistée par l’IA, une question cruciale demeure : comment équilibrer la démocratisation des connaissances en matière de santé par la technologie avec les dangers bien réels des conseils médicaux non réglementés?