À une époque où nos téléphones intelligents font office de médecins de poche, les Canadiens se tournent de plus en plus vers l’intelligence artificielle pour obtenir des conseils médicaux—avec des conséquences potentiellement inquiétantes. Une étude novatrice de l’Université de Toronto révèle que ChatGPT et d’autres robots conversationnels similaires fournissent fréquemment des diagnostics médicaux inexacts, soulevant d’importantes préoccupations quant à la sécurité des patients dans cette frontière numérique de la santé.
L’équipe de recherche, dirigée par la Dre Amira Hassan, a évalué les capacités diagnostiques de ChatGPT en comparaison avec un panel de médecins certifiés, en utilisant 50 scénarios médicaux courants. Les résultats sont préoccupants: l’outil d’IA n’a correctement identifié le diagnostic principal que dans 63% des cas, contre un taux de précision de 91% pour les médecins.
“Ce qui est particulièrement inquiétant, ce n’est pas seulement les erreurs, mais la confiance avec laquelle ces systèmes d’IA délivrent des informations incorrectes,” m’a confié la Dre Hassan lors de notre entretien au Complexe des Sciences de la Santé de l’université. “ChatGPT présente ses réponses avec un ton autoritaire qui pourrait induire les patients à retarder des soins médicaux appropriés ou à entreprendre des traitements inadéquats.”
L’étude, publiée hier dans le Journal de l’Association médicale canadienne, met en évidence des cas spécifiques où les conseils de ChatGPT auraient pu entraîner des préjudices graves. Dans un scénario impliquant des symptômes d’embolie pulmonaire—un caillot sanguin potentiellement mortel—l’IA a suggéré qu’il s’agissait probablement d’anxiété et a recommandé du repos plutôt qu’une attention médicale immédiate.
Les responsables de Santé Canada ont pris note de ces résultats. La sous-ministre Patricia Thompson a confirmé à CO24 News que l’agence élabore des directives réglementaires pour les applications d’IA médicale. “Nous reconnaissons les avantages potentiels de ces technologies, mais la sécurité des patients doit rester primordiale,” a déclaré Thompson. “Ces outils ne peuvent simplement pas remplacer des professionnels de la santé formés.”
Cette recherche émerge au milieu d’une conversation nationale plus large sur l’accès aux soins de santé. Avec près de 6,5 millions de Canadiens qui n’ont pas de médecin de famille selon les dernières données de Statistique Canada, beaucoup cherchent des sources alternatives d’information médicale. Un sondage distinct mené parallèlement à l’étude a révélé que 37% des Canadiens ont utilisé des outils d’IA pour des problèmes de santé au moins une fois au cours de l’année écoulée.
Le Dr Michael Chen, directeur de l’Innovation en Santé Numérique à l’Université McGill, qui n’a pas participé à la recherche, a offert une perspective plus mesurée. “Ces outils ne sont pas intrinsèquement dangereux s’ils sont utilisés de façon appropriée,” a-t-il expliqué à CO24 Canada. “Ils peuvent servir de mécanisme de dépistage initial, mais les utilisateurs ont besoin de conseils clairs sur leurs limites.”
L’Association médicale de l’Ontario a réagi en lançant une campagne de sensibilisation publique soulignant l’importance de la consultation médicale professionnelle. “Nous ne rejetons pas le rôle de la technologie dans les soins de santé,” a déclaré la présidente de l’AMO, la Dre Samantha Lee. “Mais nous devons nous assurer que les Canadiens comprennent quand et comment utiliser ces outils de manière responsable.”
Les implications économiques vont au-delà de la sécurité des patients. Les systèmes de santé canadiens, déjà sous pression depuis la pandémie, pourraient faire face à des charges supplémentaires en raison d’autodiagnostics retardés ou incorrects. Une analyse de l’Institut canadien d’information sur la santé suggère que les mesures d’autosoins inappropriées inspirées par des sources en ligne coûtent au système environ 267 millions de dollars annuellement.
Alors que le Canada navigue dans ce paysage de soins de santé en évolution, les auteurs de l’étude recommandent d’implémenter des messages d’avertissement clairs dans les plateformes d’IA concernant leurs limites pour un usage médical. Ils suggèrent également de développer des données d’entraînement spécifiques au Canada qui reflètent notre contexte de soins de santé unique et la démographie de notre population.
L’étude soulève une question profonde pour notre société de plus en plus numérisée: dans notre précipitation à adopter des solutions technologiques pratiques, accordons-nous une confiance injustifiée à des systèmes qui ne sont pas encore équipés pour gérer des questions de vie ou de mort?