За даними OpenAI, понад 230 мільйонів людей зараз звертаються до чат-ботів зі штучним інтелектом, таких як ChatGPT, щоб отримати консультацію щодо здоров’я. Хоча ці інструменти обіцяють легший доступ до навігації в медичних закладах і захисту себе, довіряти їм конфіденційні медичні дані — це грати з вогнем. Технічні компанії діють за іншими правилами, ніж постачальники медичних послуг, і захист даних далеко не гарантований. Швидке впровадження штучного інтелекту в охорону здоров’я викликає серйозні питання щодо конфіденційності користувачів і надійності автоматизованих медичних консультацій.
Розвиток ШІ в охороні здоров’я
Два великих гравця, OpenAI і Anthropic, нещодавно запустили спеціалізовані продукти ШІ для охорони здоров’я. ChatGPT Health від OpenAI і Claude for Healthcare від Anthropic спрямовані на спрощення запитів, пов’язаних зі здоров’ям. Однак ці інструменти суттєво відрізняються за рівнем безпеки, причому OpenAI пропонує споживчу версію разом із більш безпечним корпоративним рішенням ChatGPT for Healthcare, що призводить до плутанини серед користувачів, які можуть припускати той самий рівень безпеки. Gemini від Google практично відсутній на цьому фронті, але його модель MedGemma доступна для розробників.
OpenAI активно заохочує обмін конфіденційними даними про здоров’я — медичні записи, результати тестів, дані додатків від Apple Health, Peloton тощо — з обіцянкою конфіденційності. Однак умови обслуговування можуть змінюватися, а правовий захист слабкий. Відсутність всеосяжних федеральних законів про конфіденційність робить користувачів вразливими до покладення на обіцянки компанії, а не на стандарти, які мають юридичну силу.
Ілюзія безпеки
Навіть із шифруванням і заявленими зобов’язаннями щодо конфіденційності довіряти ШІ дані про здоров’я ризиковано. Гарантії OpenAI затьмарені існуванням ChatGPT for Healthcare, орієнтованого на бізнес продукту з більш суворими заходами безпеки. Подібні назви та дати запуску ускладнюють переплутати споживчу версію з безпечнішою версією, помилку, яку вже зробили багато користувачів.
Крім того, компанії можуть змінити свою політику щодо даних у будь-який час. Як зазначає дослідниця законодавства про цифрове здоров’я Ханна ван Колфшотен, «вам доведеться повірити, що ChatGPT не [змінить свою політику конфіденційності]». Відповідність HIPAA, навіть якщо вона заявлена, не гарантує відповідності. Добровільне дотримання стандартів відрізняється від юридичного зобов’язання.
Небезпека дезінформації
Крім конфіденційності, чат-боти ШІ можуть надавати неточні або небезпечні медичні поради. Приклади включають чат-боти, які рекомендують бромід натрію замість солі або неправильно радять хворим на рак уникати жирів. OpenAI і Anthropic відмовляються від відповідальності за діагностику та лікування, класифікуючи свої інструменти як немедичні, щоб уникнути суворіших правил.
Ця класифікація викликає сумніви, враховуючи, що користувачі вже використовують ці інструменти для прийняття медичних рішень. OpenAI висвітлює охорону здоров’я як ключовий випадок використання, навіть демонструючи хворого на рак, який використовував ChatGPT, щоб зрозуміти свій діагноз. Власні тести компанії показують, що штучний інтелект може добре працювати в медичних сценаріях, що викликає регуляторні питання.
Питання довіри
Головна проблема – довіра. Медицина недарма жорстко регулюється: помилки можуть бути смертельними. Однак компанії, які займаються штучним інтелектом, працюють у більш динамічному та менш регульованому середовищі. Хоча штучний інтелект має потенціал для покращення доступу до медичної допомоги, галузь ще не заслужила такого ж рівня довіри, як традиційні постачальники медичних послуг.
Зрештою, обмін особистими даними про здоров’я з чат-ботами AI – це компроміс між зручністю та ризиком. Користувачам слід бути обережними, доки не будуть запроваджені суворіші правила та відповідні стандарти конфіденційності. Нинішня ситуація надає перевагу інноваціям над безпекою, залишаючи людям орієнтуватися в складній і невизначеній ситуації.
