Обмен Данными о Здоровье с AI-Чатботами: Рискованная Сделка

4

По данным OpenAI, более 230 миллионов человек теперь обращаются к AI-чатботам, таким как ChatGPT, за советами по здоровью. Хотя эти инструменты обещают более легкий доступ к навигации по здравоохранению и самозащите, доверие им с конфиденциальными медицинскими данными — это игра с огнем. Технологические компании работают по другим правилам, чем медицинские учреждения, и защита данных далеко не гарантирована. Стремительное внедрение AI в здравоохранение поднимает серьезные вопросы о конфиденциальности пользователей и надежности автоматизированных медицинских консультаций.

Рост AI в Здравоохранении

Два основных игрока, OpenAI и Anthropic, недавно запустили специализированные AI-продукты для здравоохранения. ChatGPT Health от OpenAI и Claude for Healthcare от Anthropic стремятся упростить запросы, связанные со здоровьем. Однако эти инструменты значительно различаются по безопасности: OpenAI предлагает потребительскую версию наряду с более защищенным корпоративным решением, ChatGPT for Healthcare, что приводит к путанице среди пользователей, которые могут предполагать одинаковый уровень защиты. Gemini от Google в значительной степени отсутствует в этом направлении, но его модель MedGemma доступна для разработчиков.

OpenAI активно поощряет обмен конфиденциальными данными о здоровье — медицинскими записями, результатами анализов, данными приложений из Apple Health, Peloton и т. д. — обещая конфиденциальность. Однако условия обслуживания могут измениться, а правовая защита слаба. Отсутствие всеобъемлющих федеральных законов о конфиденциальности оставляет пользователей уязвимыми, полагаясь на обещания компании, а не на юридически обязательные стандарты.

Иллюзия Безопасности

Даже с шифрованием и заявленными обязательствами по конфиденциальности, доверие AI с данными о здоровье рискованно. Гарантии OpenAI затуманиваются существованием ChatGPT for Healthcare — продукта, ориентированного на бизнес, с более надежными мерами безопасности. Схожие названия и даты запуска затрудняют возможность ошибочного принятия потребительской версии за более безопасную, ошибку, которую многие пользователи уже совершили.

Более того, компании могут изменять свою политику использования данных в любое время. Как отмечает исследователь цифрового права в области здравоохранения Ханна ван Колфсхотен, «Вам придется доверять, что ChatGPT не [изменит свою политику конфиденциальности]». Соблюдение HIPAA, даже если заявлено, не гарантирует соблюдения. Добровольное соблюдение стандартов отличается от юридической обязанности.

Опасности Дезинформации

Помимо конфиденциальности, AI-чатботы могут давать неточные или опасные медицинские советы. Примеры включают чатботов, рекомендующих бромид натрия вместо соли, или неправильно советующих онкологическим больным избегать жиров. OpenAI и Anthropic отказываются от ответственности за диагностику и лечение, классифицируя свои инструменты как немедицинские устройства, чтобы избежать более строгих правил.

Эта классификация сомнительна, учитывая, что пользователи уже используют эти инструменты для принятия медицинских решений. OpenAI подчеркивает, что здравоохранение является основным вариантом использования, даже демонстрируя онкологического больного, который использовал ChatGPT для понимания своего диагноза. Собственные тесты компании показывают, что AI может хорошо работать в медицинских сценариях, что вызывает вопросы о надзорных органах.

Вопрос Доверия

Основная проблема — доверие. Медицина жестко регулируется по причине: ошибки могут быть смертельными. Однако AI-компании работают в более динамичной и менее регулируемой среде. Хотя AI может улучшить доступ к здравоохранению, индустрия еще не заслужила такого же уровня доверия, как традиционные медицинские учреждения.

В конечном счете, обмен личными данными о здоровье с AI-чатботами — это компромисс между удобством и риском. Пока не будут введены более строгие правила и применимые стандарты конфиденциальности, пользователям следует действовать с осторожностью. Текущая ситуация отдает приоритет инновациям, а не безопасности, оставляя людей ориентироваться в сложной и неопределенной ситуации.