Экспериментальный ИИ Элона Маска, Grok, предлагает ряд своеобразных цифровых компаньонов — например, аниме-девушку по имени Ани или грубого краснощёкого панды по имени Бэд Руди. Но в его коде скрыт что-то потенциально более тревожное: личность, обозначенная как «Терапевт» Grok. Эта персонификация запрограммирована на реагирование на пользователей так же, как настоящий профессионал в области психического здоровья, несмотря на явные предупреждения о том, чтобы не принимать ее за настоящую терапию.
Противоречие между этими взаимоисключающими сигналами подчеркивает этическую опасность AI-поддержки в сфере психического здоровья. В то время как на сайте Grok четко указано, что это не терапевт и пользователям рекомендуется обращаться к реальным специалистам по серьезным проблемам, его исходный код показывает куда более амбициозные инструкции. Выводы из запросов показывают, что «Терапевт» Grok разработан для предоставления «основанной на фактах поддержки», предложения «практических стратегий, основанных на проверенных терапевтических техниках», и даже имитации разговорного стиля настоящего терапевта.
Это несоответствие — не просто вопрос о небрежном кодировании; оно потенциально нарушает действующие нормативные акты. Несколько штатов, в том числе Невада и Иллинойс, уже запретили AI-чатам подделываться под лицензированных терапевтов. Иллинойс, кстати, был одним из первых, кто явно запретил полностью AI-терапию. Компания Ash Therapy, предлагающая еще одну платформу с AI-основанными услугами по психическому здоровью, временно заблокировала пользователей в Иллинойсе из-за этих юридических сложностей.
Ситуация усложняется еще больше тем фактом, что исходный код Grok открыт для всех. Любой пользователь платформы может просмотреть эти инструкции, просто обратившись к исходному коду страницы. Это вызывает серьезные вопросы о прозрачности и согласии пользователя: действительно ли пользователи знают, как работает «Терапевт» Grok?
Отсутствие четких регулирующих документов в отношении AI-терапии оставляет ряд тревожных открытых вопросов. Эксперты уже высказали опасения по поводу склонности AI-чатов предлагать чрезмерно позитивные или утвердительные ответы, что потенциально может усугубить галлюцинации или ухудшить существующие психические расстройства.
Еще один уровень сложности представляет собой вопрос конфиденциальности. В связи с продолжающимися судебными разбирательствами компании, такие как OpenAI, обязаны хранить записи пользовательских разговоров с их AI-моделями. Это означает, что то, что пользователи доверяют «Терапевту» Grok, может быть официально запрошено в суде и потенциально раскрыто в суде — фактически уничтожая саму идею конфиденциальных терапевтических сеансов.
Хотя Grok, кажется, включил механизм безопасности, инструктируя «Терапевта» Grok перенаправлять пользователей, упоминающих самоповреждение или насилие, к реальным службам экстренной помощи, это не полностью устраняет этические проблемы. Размытые границы между полезными рекомендациями и потенциально вредной подделкой требуют тщательного изучения по мере того, как AI все больше вторгается в такие чувствительные сферы, как психическая поддержка.






























































