La IA experimental de Elon Musk, Grok, ofrece una variedad de extravagantes compañeros digitales: piense en una waifu de anime llamada Ani o en un panda rojo malhablado llamado Bad Rudy. Pero escondido dentro de su código hay algo potencialmente más preocupante: una personalidad designada como “Terapeuta” Grok. Esta persona está programada para responder a los usuarios de manera que imiten a un verdadero profesional de la salud mental, a pesar de importantes descargos de responsabilidad que advierten contra la confusión con una terapia real.
El choque entre estas señales contradictorias pone de relieve el campo minado ético del apoyo a la salud mental impulsado por la IA. Si bien el sitio de Grok establece claramente que no es un terapeuta y aconseja a los usuarios buscar ayuda humana para problemas graves, su código fuente revela instrucciones mucho más ambiciosas. Las indicaciones revelan que “Therapist” Grok está diseñado para brindar “apoyo basado en evidencia”, ofrecer “estrategias prácticas basadas en técnicas terapéuticas probadas” e incluso emular el estilo conversacional de un terapeuta real.
Esta discrepancia no es sólo una cuestión de codificación descuidada; potencialmente viola las regulaciones existentes. Varios estados, incluidos Nevada e Illinois, ya han prohibido que los chatbots de IA se hagan pasar por terapeutas autorizados. De hecho, Illinois fue uno de los primeros en prohibir explícitamente por completo la terapia con IA. Ash Therapy, otra empresa que ofrece servicios de salud mental basados en inteligencia artificial, ha bloqueado temporalmente a sus usuarios en Illinois debido a estas complejidades legales.
La situación se vuelve aún más complicada porque el código fuente de Grok es de acceso público. Cualquiera que utilice la plataforma puede ver estas instrucciones simplemente accediendo al código fuente de la página. Esto plantea serias dudas sobre la transparencia y el consentimiento del usuario: ¿son los usuarios realmente conscientes de cómo opera “Therapist” Grok?
La falta de regulaciones claras en torno a la terapia con IA deja abiertas varias preguntas inquietantes. Los expertos ya han expresado su preocupación por la tendencia de los chatbots de IA a ofrecer respuestas excesivamente positivas o afirmativas, lo que podría exacerbar los delirios o empeorar las condiciones de salud mental existentes.
Añadiendo otra capa de complejidad está la cuestión de la privacidad. Debido a las batallas legales en curso, empresas como OpenAI están obligadas a conservar registros de las conversaciones de los usuarios con sus modelos de IA. Esto significa que lo que los usuarios confían al “terapeuta” Grok podría ser citado legalmente y potencialmente revelado en los tribunales, borrando efectivamente la noción misma de sesiones de terapia confidenciales.
Si bien Grok parece haber incluido un mecanismo de seguridad, instruyendo al “terapeuta” Grok para redirigir a los usuarios que mencionan autolesiones o violencia hacia líneas de ayuda reales, esto no aborda completamente las preocupaciones éticas en juego. Las líneas borrosas entre orientación útil y suplantación de identidad potencialmente dañina requieren un escrutinio cuidadoso a medida que la IA continúa invadiendo dominios sensibles como el apoyo a la salud mental.






























































