додому Без рубрики Udostępnianie danych zdrowotnych chatbotom AI: ryzykowny handel

Udostępnianie danych zdrowotnych chatbotom AI: ryzykowny handel

Według OpenAI ponad 230 milionów ludzi zwraca się obecnie do chatbotów AI, takich jak ChatGPT, po porady zdrowotne. Chociaż narzędzia te obiecują łatwiejszy dostęp do nawigacji w opiece zdrowotnej i ochrony siebie, powierzanie im wrażliwych danych medycznych to igranie z ogniem. Firmy technologiczne działają na innych zasadach niż dostawcy usług opieki zdrowotnej, a ochrona danych nie jest gwarantowana. Szybkie przyjęcie sztucznej inteligencji w opiece zdrowotnej rodzi poważne pytania dotyczące prywatności użytkowników i wiarygodności zautomatyzowanych porad medycznych.

Rozwój sztucznej inteligencji w opiece zdrowotnej

Dwóch głównych graczy, OpenAI i Anthropic, wprowadziło niedawno na rynek specjalistyczne produkty AI dla opieki zdrowotnej. ChatGPT Health firmy OpenAI i Claude for Healthcare firmy Anthropic mają na celu uproszczenie zapytań związanych ze zdrowiem. Jednakże narzędzia te różnią się znacznie pod względem bezpieczeństwa, przy czym OpenAI oferuje wersję konsumencką wraz z bezpieczniejszym rozwiązaniem dla przedsiębiorstw, ChatGPT dla opieki zdrowotnej, co prowadzi do dezorientacji wśród użytkowników, którzy mogą zakładać ten sam poziom bezpieczeństwa. Gemini firmy Google jest w dużej mierze nieobecny na tym froncie, ale jego model MedGemma jest dostępny dla programistów.

OpenAI aktywnie zachęca do udostępniania wrażliwych danych zdrowotnych — dokumentacji medycznej, wyników testów, danych aplikacji Apple Health, Peloton itp. — z obietnicą zachowania prywatności. Warunki świadczenia usług mogą jednak ulec zmianie, a zabezpieczenia prawne są słabe. Brak kompleksowych federalnych przepisów dotyczących prywatności naraża użytkowników na poleganie na obietnicach firm, a nie na prawnie egzekwowalnych standardach.

Iluzja bezpieczeństwa

Nawet przy szyfrowaniu i określonych zobowiązaniach dotyczących prywatności powierzanie sztucznej inteligencji danych dotyczących zdrowia jest ryzykowne. Gwarancje OpenAI są przyćmione istnieniem ChatGPT for Healthcare, produktu zorientowanego na biznes z silniejszymi zabezpieczeniami. Podobne nazwy i daty premiery sprawiają, że trudno pomylić wersję konsumencką z wersją bezpieczniejszą, co popełniło już wielu użytkowników.

Co więcej, firmy mogą w dowolnym momencie zmienić swoje zasady dotyczące danych. Jak zauważa Hannah van Colfschoten, badaczka prawa cyfrowego w dziedzinie zdrowia: „Musisz zaufać, że ChatGPT nie [zmieni swojej polityki prywatności]”. Zgodność z ustawą HIPAA, nawet jeśli jest podana, nie gwarantuje zgodności. Dobrowolne przestrzeganie standardów różni się od obowiązku prawnego.

Niebezpieczeństwa dezinformacji

Pomijając prywatność, chatboty AI mogą udzielać niedokładnych lub niebezpiecznych porad medycznych. Przykładami mogą być chatboty zalecające bromek sodu zamiast soli lub nieprawidłowe doradzające pacjentom chorym na raka, aby unikali tłuszczów. OpenAI i Anthropic zrzekają się odpowiedzialności za diagnostykę i leczenie, klasyfikując swoje narzędzia jako urządzenia niemedyczne, aby uniknąć bardziej rygorystycznych przepisów.

Klasyfikacja ta budzi wątpliwości, biorąc pod uwagę, że użytkownicy już korzystają z tych narzędzi przy podejmowaniu decyzji medycznych. OpenAI podkreśla opiekę zdrowotną jako kluczowy przypadek użycia, prezentując nawet pacjenta chorego na raka, który korzystał z ChatGPT, aby zrozumieć swoją diagnozę. Własne testy firmy pokazują, że sztuczna inteligencja może dobrze działać w scenariuszach medycznych, co rodzi pytania regulacyjne.

Kwestia zaufania

Głównym problemem jest zaufanie. Medycyna jest ściśle regulowana nie bez powodu: błędy mogą być śmiertelne. Firmy zajmujące się sztuczną inteligencją działają jednak w bardziej dynamicznym i mniej regulowanym środowisku. Choć sztuczna inteligencja może potencjalnie poprawić dostęp do opieki zdrowotnej, branża nie zdobyła jeszcze takiego samego poziomu zaufania, jak tradycyjni świadczeniodawcy.

Ostatecznie udostępnianie danych osobowych dotyczących zdrowia chatbotom AI stanowi kompromis między wygodą a ryzykiem. Do czasu wprowadzenia bardziej rygorystycznych przepisów i obowiązujących standardów prywatności użytkownicy powinni zachować ostrożność. W obecnej sytuacji innowacje są ważniejsze od bezpieczeństwa, przez co ludzie muszą radzić sobie w złożonej i niepewnej sytuacji.

Exit mobile version