Compartir datos de salud con chatbots de IA: una compensación arriesgada

9

Según OpenAI, más de 230 millones de personas recurren ahora a chatbots de IA como ChatGPT en busca de consejos de salud. Si bien estas herramientas prometen un acceso más fácil a la navegación y la autodefensa en materia de atención médica, confiarles detalles médicos confidenciales es una apuesta. Las empresas de tecnología operan bajo reglas diferentes a las de los proveedores médicos, y la protección de datos está lejos de estar garantizada. La prisa por integrar la IA en la atención sanitaria plantea serias dudas sobre la privacidad del usuario y la fiabilidad de los consejos sanitarios automatizados.

El auge de la IA en la atención sanitaria

Dos actores importantes, OpenAI y Anthropic, han lanzado recientemente productos de IA dedicados a la atención sanitaria. ChatGPT Health de OpenAI y Claude for Healthcare de Anthropic tienen como objetivo agilizar las consultas relacionadas con la salud. Sin embargo, estas herramientas difieren significativamente en seguridad; OpenAI ofrece una versión para consumidores junto con una solución empresarial más protegida, ChatGPT for Healthcare, lo que genera confusión entre los usuarios que pueden asumir el mismo nivel de protección. Gemini de Google permanece en gran medida ausente de este impulso, pero su modelo MedGemma está disponible para los desarrolladores.

OpenAI fomenta activamente el intercambio de datos de salud confidenciales (registros médicos, resultados de pruebas, datos de aplicaciones de Apple Health, Peloton, etc.) prometiendo confidencialidad. Sin embargo, las condiciones de servicio pueden cambiar y las protecciones legales son débiles. La falta de leyes federales integrales de privacidad deja a los usuarios vulnerables, dependiendo de las promesas de las empresas en lugar de estándares aplicables.

La ilusión de la seguridad

Incluso con el cifrado y los compromisos declarados con la privacidad, confiar datos de salud a la IA es riesgoso. Las garantías de OpenAI se ven empañadas por la existencia de ChatGPT for Healthcare, un producto centrado en los negocios con salvaguardias más sólidas. Los nombres y fechas de lanzamiento similares hacen que sea fácil confundir la versión para consumidores con la más segura, un error que muchos usuarios ya han cometido.

Además, las empresas pueden modificar sus políticas de uso de datos en cualquier momento. Como señala la investigadora de derecho de salud digital Hannah van Kolfschooten, “Tendrá que confiar en que ChatGPT no [cambia sus prácticas de privacidad]”. El cumplimiento de HIPAA, incluso si se afirma, no garantiza su cumplimiento. Adherirse voluntariamente a las normas no es lo mismo que estar legalmente obligado.

Los peligros de la desinformación

Más allá de la privacidad, los chatbots de IA pueden brindar consejos de salud inexactos o peligrosos. Los ejemplos incluyen chatbots que recomiendan bromuro de sodio en lugar de sal, o aconsejan erróneamente a los pacientes con cáncer que eviten las grasas. OpenAI y Anthropic renuncian a toda responsabilidad en materia de diagnóstico y tratamiento y clasifican sus herramientas como dispositivos no médicos para evitar regulaciones más estrictas.

Esta clasificación es cuestionable, dado que los usuarios ya están utilizando estas herramientas para la toma de decisiones médicas. OpenAI destaca la salud como un caso de uso importante, incluso muestra a una paciente con cáncer que usó ChatGPT para comprender su diagnóstico. Los propios puntos de referencia de la compañía sugieren que la IA puede funcionar bien en escenarios médicos, lo que plantea dudas sobre la supervisión regulatoria.

Una cuestión de confianza

La cuestión central es la confianza. La medicina está fuertemente regulada por una razón: los errores pueden ser fatales. Sin embargo, las empresas de IA operan en un entorno menos regulado y que se mueve más rápido. Si bien la IA podría mejorar el acceso a la atención médica, la industria aún no se ha ganado el mismo nivel de confianza que los proveedores médicos tradicionales.

En última instancia, compartir datos de salud privados con chatbots de IA es una compensación entre conveniencia y riesgo. Hasta que se establezcan regulaciones más estrictas y estándares de privacidad aplicables, los usuarios deben proceder con precaución. El panorama actual prioriza la innovación sobre la seguridad, lo que deja a las personas navegar por un futuro complejo e incierto.