Selon OpenAI, plus de 230 millions de personnes se tournent désormais vers des chatbots IA comme ChatGPT pour obtenir des conseils en matière de santé. Si ces outils promettent un accès plus facile à la navigation en matière de soins de santé et à l’auto-représentation, leur confier des informations médicales sensibles est un pari. Les entreprises technologiques fonctionnent selon des règles différentes de celles des prestataires médicaux, et la protection des données est loin d’être garantie. La ruée vers l’intégration de l’IA dans les soins de santé soulève de sérieuses questions sur la confidentialité des utilisateurs et la fiabilité des conseils de santé automatisés.
L’essor de l’IA dans les soins de santé
Deux acteurs majeurs, OpenAI et Anthropic, ont récemment lancé des produits d’IA dédiés à la santé. ChatGPT Health d’OpenAI et Claude for Healthcare d’Anthropic visent à rationaliser les requêtes liées à la santé. Cependant, ces outils diffèrent considérablement en termes de sécurité ; OpenAI propose une version grand public ainsi qu’une solution d’entreprise plus protégée, ChatGPT for Healthcare, ce qui crée une confusion parmi les utilisateurs qui peuvent assumer le même niveau de protection. Le Gemini de Google reste largement absent de cette poussée, mais son modèle MedGemma est disponible pour les développeurs.
OpenAI encourage activement le partage de données de santé sensibles – dossiers médicaux, résultats de tests, données d’applications d’Apple Health, Peloton, etc. – en promettant la confidentialité. Pourtant, les conditions de service peuvent changer et les protections juridiques sont faibles. L’absence de lois fédérales complètes sur la protection de la vie privée rend les utilisateurs vulnérables, s’appuyant sur les promesses des entreprises plutôt que sur des normes applicables.
L’illusion de la sécurité
Même avec le cryptage et les engagements déclarés en matière de confidentialité, confier à l’IA des données de santé est risqué. Les assurances d’OpenAI sont brouillées par l’existence de ChatGPT for Healthcare, un produit axé sur les entreprises avec des garanties plus solides. Les noms et dates de lancement similaires permettent de confondre facilement la version grand public avec la version plus sécurisée, une erreur que de nombreux utilisateurs ont déjà commise.
De plus, les entreprises peuvent modifier leurs politiques d’utilisation des données à tout moment. Comme le souligne Hannah van Kolfschooten, chercheuse en droit de la santé numérique, « vous devrez être sûr que ChatGPT ne [modifie pas ses pratiques de confidentialité] ». La conformité HIPAA, même si elle est revendiquée, ne garantit pas son application. Adhérer volontairement aux normes n’est pas la même chose qu’être légalement lié.
Les dangers de la désinformation
Au-delà de la confidentialité, les chatbots IA peuvent fournir des conseils de santé inexacts ou dangereux. Les exemples incluent les chatbots recommandant le bromure de sodium au lieu du sel, ou conseillant à tort aux patients atteints de cancer d’éviter les graisses. OpenAI et Anthropic déclinent toute responsabilité en matière de diagnostic et de traitement, classant leurs outils comme dispositifs non médicaux pour éviter des réglementations plus strictes.
Ce classement est discutable, dans la mesure où les utilisateurs utilisent déjà ces outils pour la prise de décision médicale. OpenAI met en avant la santé comme un cas d’utilisation majeur, présentant même une patiente atteinte d’un cancer qui a utilisé ChatGPT pour comprendre son diagnostic. Les propres critères de référence de l’entreprise suggèrent que l’IA peut bien fonctionner dans des scénarios médicaux, soulevant des questions sur la surveillance réglementaire.
Une question de confiance
La question centrale est la confiance. La médecine est fortement réglementée pour une raison : les erreurs peuvent être fatales. Toutefois, les entreprises d’IA opèrent dans un environnement en évolution plus rapide et moins réglementé. Même si l’IA pourrait améliorer l’accès aux soins de santé, l’industrie n’a pas encore gagné le même niveau de confiance que les prestataires médicaux traditionnels.
En fin de compte, partager des données de santé privées avec des chatbots IA est un compromis entre commodité et risque. Jusqu’à ce qu’une réglementation plus stricte et des normes de confidentialité applicables soient en place, les utilisateurs doivent procéder avec prudence. Le paysage actuel donne la priorité à l’innovation plutôt qu’à la sécurité, laissant les individus naviguer dans un avenir complexe et incertain.





























