Secondo OpenAI, più di 230 milioni di persone si rivolgono ora ai chatbot basati sull’intelligenza artificiale come ChatGPT per ricevere consigli sulla salute. Sebbene questi strumenti promettano un accesso più semplice alla navigazione sanitaria e all’auto-tutela, affidare loro dettagli medici sensibili è una scommessa. Le aziende tecnologiche operano secondo regole diverse rispetto ai fornitori di servizi sanitari e la protezione dei dati è lungi dall’essere garantita. La fretta di integrare l’intelligenza artificiale nell’assistenza sanitaria solleva seri interrogativi sulla privacy degli utenti e sull’affidabilità della consulenza sanitaria automatizzata.
L’ascesa dell’intelligenza artificiale nel settore sanitario
Due importanti player, OpenAI e Anthropic, hanno recentemente lanciato prodotti di IA dedicati al settore sanitario. ChatGPT Health di OpenAI e Claude for Healthcare di Anthropic mirano a semplificare le query relative alla salute. Tuttavia, questi strumenti differiscono notevolmente in termini di sicurezza; OpenAI offre una versione consumer insieme a una soluzione aziendale più protetta, ChatGPT for Healthcare, creando confusione tra gli utenti che potrebbero assumere lo stesso livello di protezione. Gemini di Google rimane in gran parte assente da questa spinta, ma il suo modello MedGemma è disponibile per gli sviluppatori.
OpenAI incoraggia attivamente la condivisione di dati sanitari sensibili – cartelle cliniche, risultati di test, dati delle app di Apple Health, Peloton, ecc. – promettendo riservatezza. Tuttavia, i termini del servizio possono cambiare e le tutele legali sono deboli. La mancanza di leggi federali complete sulla privacy rende gli utenti vulnerabili, facendo affidamento sulle promesse dell’azienda piuttosto che su standard applicabili.
L’illusione della sicurezza
Anche con la crittografia e gli impegni dichiarati in materia di privacy, affidare all’IA i dati sanitari è rischioso. Le garanzie di OpenAI sono offuscate dall’esistenza di ChatGPT for Healthcare, un prodotto focalizzato sul business con tutele più forti. I nomi e le date di lancio simili rendono facile confondere la versione consumer con quella più sicura, un errore che molti utenti hanno già commesso.
Inoltre, le aziende possono modificare le proprie politiche di utilizzo dei dati in qualsiasi momento. Come sottolinea la ricercatrice in diritto sanitario digitale Hannah van Kolfschooten, “Dovrai avere fiducia che ChatGPT non [modifichi le sue pratiche sulla privacy].” La conformità HIPAA, anche se dichiarata, non garantisce l’applicazione. Aderire volontariamente agli standard non equivale ad essere vincolati legalmente.
I pericoli della disinformazione
Oltre alla privacy, i chatbot basati sull’intelligenza artificiale possono fornire consigli sanitari imprecisi o pericolosi. Gli esempi includono chatbot che raccomandano il bromuro di sodio al posto del sale o che consigliano erroneamente ai pazienti affetti da cancro di evitare i grassi. OpenAI e Anthropic declinano ogni responsabilità per diagnosi e cure, classificando i propri strumenti come dispositivi non medici per evitare normative più severe.
Questa classificazione è discutibile, dato che gli utenti utilizzano già questi strumenti per il processo decisionale medico. OpenAI evidenzia la salute come un caso d’uso importante, mostrando anche un malato di cancro che ha utilizzato ChatGPT per comprendere la sua diagnosi. I parametri di riferimento dell’azienda suggeriscono che l’intelligenza artificiale può funzionare bene in scenari medici, sollevando interrogativi sulla supervisione normativa.
Una questione di fiducia
La questione centrale è la fiducia. La medicina è fortemente regolamentata per un motivo: gli errori possono essere fatali. Le società di intelligenza artificiale, tuttavia, operano in un ambiente in rapida evoluzione e meno regolamentato. Sebbene l’intelligenza artificiale possa migliorare l’accesso all’assistenza sanitaria, il settore non ha ancora guadagnato lo stesso livello di fiducia dei fornitori di servizi medici tradizionali.
In definitiva, la condivisione dei dati sanitari privati con i chatbot basati sull’intelligenza artificiale è un compromesso tra convenienza e rischio. Fino a quando non saranno introdotte normative più severe e standard di privacy applicabili, gli utenti devono procedere con cautela. Il panorama attuale dà priorità all’innovazione rispetto alla sicurezza, lasciando gli individui a navigare in un futuro complesso e incerto.
