Sdílení zdravotních dat s AI Chatboty: Riskantní obchod

12

Podle OpenAI se nyní více než 230 milionů lidí obrací na chatboty s umělou inteligencí, jako je ChatGPT, s žádostí o zdravotní rady. I když tyto nástroje slibují snadnější přístup k navigaci ve zdravotnictví a vlastní ochraně, důvěřovat jim citlivými lékařskými údaji je hra s ohněm. Technické společnosti fungují podle jiných pravidel než poskytovatelé zdravotní péče a ochrana dat není zdaleka zaručena. Rychlé přijetí umělé inteligence ve zdravotnictví vyvolává vážné otázky ohledně soukromí uživatelů a spolehlivosti automatizovaných lékařských rad.

Vzestup umělé inteligence ve zdravotnictví

Dva hlavní hráči, OpenAI a Anthropic, nedávno uvedli na trh specializované produkty umělé inteligence pro zdravotnictví. OpenAI ChatGPT Health a Claude for Healthcare od Anthropic mají za cíl zjednodušit dotazy týkající se zdraví. Tyto nástroje se však výrazně liší v zabezpečení, přičemž OpenAI nabízí spotřebitelskou verzi vedle bezpečnějšího podnikového řešení ChatGPT for Healthcare, což vede ke zmatku mezi uživateli, kteří mohou předpokládat stejnou úroveň zabezpečení. Gemini od Google na této frontě do značné míry chybí, ale jeho model MedGemma je vývojářům k dispozici.

OpenAI aktivně podporuje sdílení citlivých zdravotních dat – lékařských záznamů, výsledků testů, dat aplikací z Apple Health, Peloton atd. – s příslibem soukromí. Podmínky služby se však mohou změnit a právní ochrana je slabá. Nedostatek komplexních federálních zákonů na ochranu soukromí způsobuje, že uživatelé jsou náchylní spoléhat se spíše na sliby společnosti než na právně vymahatelné normy.

Iluze bezpečí

I při šifrování a deklarovaných závazcích ochrany osobních údajů je důvěřování AI zdravotním údajům riskantní. Záruky OpenAI jsou zahaleny existencí ChatGPT for Healthcare, produktu zaměřeného na podnikání se silnějšími bezpečnostními opatřeními. Vzhledem k podobným názvům a datům uvedení na trh je obtížné zaměnit spotřebitelskou verzi za bezpečnější verzi, což už udělalo mnoho uživatelů.

Společnosti navíc mohou své datové zásady kdykoli změnit. Jak poznamenává výzkumnice digitálního zdravotnického práva Hannah van Colfschoten: “Budete muset věřit, že ChatGPT nezmění své zásady ochrany osobních údajů.” Shoda HIPAA, i když je uvedena, nezaručuje shodu. Dobrovolné dodržování norem je něco jiného než zákonná povinnost.

Nebezpečí dezinformací

Pomineme-li soukromí, AI chatboti mohou poskytovat nepřesné nebo nebezpečné lékařské rady. Příkladem mohou být chatboti doporučující bromid sodný místo soli nebo nesprávné rady pacientům s rakovinou, aby se vyhýbali tukům. OpenAI a Anthropic se zříkají odpovědnosti za diagnostiku a léčbu tím, že své nástroje klasifikují jako nelékařská zařízení, aby se vyhnuly přísnějším předpisům.

Tato klasifikace je sporná vzhledem k tomu, že uživatelé již tyto nástroje používají k přijímání lékařských rozhodnutí. OpenAI vyzdvihuje zdravotní péči jako klíčový případ použití, a dokonce představuje pacienta s rakovinou, který použil ChatGPT k pochopení své diagnózy. Vlastní testy společnosti ukazují, že umělá inteligence může fungovat dobře v lékařských scénářích, což vyvolává regulační otázky.

Otázka důvěry

Hlavním problémem je důvěra. Medicína je z nějakého důvodu vysoce regulována: chyby mohou být smrtelné. AI společnosti však fungují v dynamičtějším a méně regulovaném prostředí. I když má umělá inteligence potenciál zlepšit přístup ke zdravotní péči, toto odvětví si dosud nezískalo stejnou úroveň důvěry jako tradiční poskytovatelé zdravotní péče.

Sdílení osobních údajů o zdraví s chatboty AI je nakonec kompromisem mezi pohodlím a rizikem. Dokud nebudou zavedeny přísnější předpisy a platné standardy ochrany osobních údajů, měli by uživatelé postupovat opatrně. Současná situace upřednostňuje inovace před bezpečností a nechává lidi orientovat se ve složité a nejisté situaci.