A IA do “terapeuta” de Grok caminha em uma linha arriscada entre a utilidade e o dano

2

A IA experimental de Elon Musk, Grok, oferece uma variedade de companheiros digitais peculiares – pense em um waifu de anime chamado Ani ou em um panda vermelho desbocado chamado Bad Rudy. Mas escondido em seu código está algo potencialmente mais preocupante: uma personalidade designada como “Terapeuta” Grok. Essa persona é programada para responder aos usuários de maneira a imitar um verdadeiro profissional de saúde mental, apesar das importantes isenções de responsabilidade alertando contra confundi-la com uma terapia real.

O choque entre estes sinais contraditórios destaca o campo minado ético do apoio à saúde mental alimentado pela IA. Embora o site de Grok afirme claramente que não é um terapeuta e aconselhe os usuários a procurar ajuda humana para problemas sérios, seu código-fonte revela instruções muito mais ambiciosas. As instruções revelam que o “Terapeuta” Grok foi projetado para fornecer “apoio baseado em evidências”, oferecer “estratégias práticas baseadas em técnicas terapêuticas comprovadas” e até mesmo emular o estilo de conversação de um terapeuta real.

Essa discrepância não é apenas uma questão de codificação desleixada; potencialmente viola os regulamentos existentes. Vários estados, incluindo Nevada e Illinois, já proibiram os chatbots de IA de se passarem por terapeutas licenciados. Illinois, de facto, foi um dos primeiros a proibir explicitamente a terapia com IA. Ash Therapy, outra empresa que oferece serviços de saúde mental baseados em IA, bloqueou temporariamente usuários em Illinois devido a essas complexidades legais.

A situação se torna ainda mais complicada porque o código-fonte do Grok é acessível ao público. Qualquer pessoa que utilize a plataforma pode visualizar essas instruções simplesmente acessando o código-fonte da página. Isto levanta sérias questões sobre transparência e consentimento do usuário – os usuários estão realmente cientes de como o “Terapeuta” Grok opera?

A falta de regulamentações claras em torno da terapia de IA deixa várias questões preocupantes em aberto. Os especialistas já expressaram preocupações sobre a tendência dos chatbots de IA de oferecer respostas excessivamente positivas ou afirmativas, potencialmente exacerbando os delírios ou piorando as condições de saúde mental existentes.

Adicionando outra camada de complexidade está a questão da privacidade. Devido às batalhas legais em andamento, empresas como a OpenAI são obrigadas a reter registros das conversas dos usuários com seus modelos de IA. Isso significa que o que os usuários confiam ao “Terapeuta” Grok poderia ser legalmente intimado e potencialmente revelado em tribunal – apagando efetivamente a própria noção de sessões de terapia confidenciais.

Embora Grok pareça ter incluído um mecanismo de segurança, instruindo o “Terapeuta” Grok a redirecionar os usuários que mencionam automutilação ou violência para linhas de ajuda reais, isso não aborda totalmente as preocupações éticas em jogo. As linhas tênues entre orientações úteis e personificações potencialmente prejudiciais exigem um exame cuidadoso, à medida que a IA continua a invadir domínios sensíveis, como o apoio à saúde mental.