Compartilhando dados de saúde com chatbots de IA: uma troca arriscada

2

Mais de 230 milhões de pessoas recorrem agora a chatbots de IA como o ChatGPT para aconselhamento de saúde, de acordo com a OpenAI. Embora essas ferramentas prometam acesso mais fácil à navegação e autodefesa em saúde, confiar-lhes detalhes médicos confidenciais é uma aposta. As empresas tecnológicas operam sob regras diferentes das dos prestadores de serviços médicos e a proteção de dados está longe de ser garantida. A pressa em integrar a IA nos cuidados de saúde levanta sérias questões sobre a privacidade dos utilizadores e a fiabilidade dos conselhos de saúde automatizados.

A ascensão da IA na saúde

Dois grandes players, OpenAI e Anthropic, lançaram recentemente produtos dedicados de IA para saúde. O ChatGPT Health da OpenAI e o Claude for Healthcare da Anthropic visam agilizar as consultas relacionadas à saúde. No entanto, estas ferramentas diferem significativamente em termos de segurança; OpenAI oferece uma versão para consumidor juntamente com uma solução empresarial mais protegida, ChatGPT for Healthcare, causando confusão entre os usuários que podem assumir o mesmo nível de proteção. O Gemini do Google permanece praticamente ausente desse impulso, mas seu modelo MedGemma está disponível para desenvolvedores.

A OpenAI incentiva ativamente o compartilhamento de dados confidenciais de saúde – registros médicos, resultados de testes, dados de aplicativos da Apple Health, Peloton, etc. – prometendo confidencialidade. No entanto, os termos de serviço podem mudar e as proteções legais são fracas. A falta de leis federais abrangentes sobre privacidade deixa os usuários vulneráveis, dependendo das promessas das empresas em vez de padrões aplicáveis.

A Ilusão de Segurança

Mesmo com criptografia e compromissos declarados com a privacidade, confiar dados de saúde à IA é arriscado. As garantias da OpenAI são obscurecidas pela existência do ChatGPT for Healthcare, um produto focado nos negócios com salvaguardas mais fortes. Os nomes e datas de lançamento semelhantes tornam fácil confundir a versão para consumidor com a mais segura, um erro que muitos usuários já cometeram.

Além disso, as empresas podem alterar as suas políticas de utilização de dados a qualquer momento. Como aponta a pesquisadora de direito de saúde digital Hannah van Kolfschooten: “Você terá que confiar que o ChatGPT não [altera suas práticas de privacidade]”. A conformidade com a HIPAA, mesmo que reivindicada, não garante a aplicação. Aderir voluntariamente aos padrões não é o mesmo que estar legalmente vinculado.

Os perigos da desinformação

Além da privacidade, os chatbots de IA podem fornecer conselhos de saúde imprecisos ou perigosos. Os exemplos incluem chatbots que recomendam brometo de sódio em vez de sal ou aconselham erroneamente pacientes com câncer a evitar gorduras. OpenAI e Anthropic isentam-se de responsabilidade pelo diagnóstico e tratamento, classificando suas ferramentas como dispositivos não médicos para evitar regulamentações mais rígidas.

Essa classificação é questionável, visto que os usuários já utilizam essas ferramentas para tomada de decisões médicas. A OpenAI destaca a saúde como um caso de uso importante, apresentando até mesmo uma paciente com câncer que usou o ChatGPT para entender seu diagnóstico. Os próprios benchmarks da empresa sugerem que a IA pode ter um bom desempenho em cenários médicos, levantando questões sobre a supervisão regulamentar.

Uma questão de confiança

A questão central é a confiança. A medicina é fortemente regulamentada por uma razão: os erros podem ser fatais. As empresas de IA, no entanto, operam num ambiente de evolução mais rápida e menos regulamentado. Embora a IA possa melhorar o acesso aos cuidados de saúde, a indústria ainda não conquistou o mesmo nível de confiança que os prestadores médicos tradicionais.

Em última análise, partilhar dados privados de saúde com chatbots de IA é uma troca entre conveniência e risco. Até que regulamentações mais rigorosas e padrões de privacidade aplicáveis ​​estejam em vigor, os usuários devem proceder com cautela. O cenário atual dá prioridade à inovação em detrimento da segurança, deixando os indivíduos a navegar num futuro complexo e incerto.