De experimentele AI van Elon Musk, Grok, biedt een reeks eigenzinnige digitale metgezellen – denk aan een anime-waifu genaamd Ani of een rode panda met grote mond genaamd Bad Rudy. Maar verscholen in de code zit iets dat mogelijk zorgwekkender is: een persoonlijkheid die wordt aangeduid als ‘therapeut’ Grok. Deze persona is geprogrammeerd om op gebruikers te reageren op een manier die een echte professional in de geestelijke gezondheidszorg nabootst, ondanks prominente disclaimers die waarschuwen om het niet voor daadwerkelijke therapie aan te zien.
De botsing tussen deze tegenstrijdige signalen benadrukt het ethische mijnenveld van door AI aangedreven geestelijke gezondheidszorg. Hoewel op de site van Grok duidelijk staat dat het geen therapeut is en gebruikers adviseert om menselijke hulp te zoeken bij ernstige problemen, onthult de broncode veel ambitieuzere instructies. Uit aanwijzingen blijkt dat ‘therapeut’ Grok is ontworpen om ‘op bewijs gebaseerde ondersteuning’ te bieden, ‘praktische strategieën aan te bieden die zijn gebaseerd op bewezen therapeutische technieken’ en zelfs de gespreksstijl van een echte therapeut na te bootsen.
Deze discrepantie is niet alleen een kwestie van slordige codering; het is mogelijk in strijd met bestaande regelgeving. Verschillende staten, waaronder Nevada en Illinois, hebben AI-chatbots al verboden zich voor te doen als erkende therapeuten. Illinois was zelfs een van de eersten die AI-therapie expliciet helemaal verbood. Ash Therapy, een ander bedrijf dat op AI gebaseerde geestelijke gezondheidszorg aanbiedt, heeft vanwege deze juridische complexiteit tijdelijk gebruikers in Illinois geblokkeerd.
De situatie wordt nog beladener omdat de broncode van Grok openbaar toegankelijk is. Iedereen die het platform gebruikt, kan deze instructies bekijken door eenvoudigweg de broncode van de pagina te openen. Dit roept serieuze vragen op over transparantie en toestemming van de gebruiker: zijn gebruikers zich werkelijk bewust van hoe ‘therapeut’ Grok te werk gaat?
Het gebrek aan duidelijke regelgeving rond AI-therapie laat een aantal verontrustende open vragen achter. Deskundigen hebben al hun zorgen geuit over de neiging van AI-chatbots om buitensporig positieve of bevestigende reacties te geven, waardoor waanvoorstellingen mogelijk worden verergerd of bestaande geestelijke gezondheidsproblemen worden verergerd.
Een extra laag van complexiteit is de kwestie van privacy. Als gevolg van aanhoudende juridische strijd zijn bedrijven als OpenAI verplicht om gegevens van gebruikersgesprekken met hun AI-modellen te bewaren. Dit betekent dat wat gebruikers in vertrouwen nemen aan ‘therapeut’ Grok juridisch kan worden gedagvaard en mogelijk voor de rechtbank kan worden onthuld, waardoor het idee van vertrouwelijke therapiesessies effectief wordt uitgewist.
Hoewel Grok een veiligheidsmechanisme lijkt te hebben ingebouwd, waarbij ‘therapeut’ Grok wordt geïnstrueerd om gebruikers die over zelfbeschadiging of geweld spreken, door te verwijzen naar echte hulplijnen, wordt hiermee niet volledig tegemoetgekomen aan de ethische problemen die een rol spelen. De vage grenzen tussen nuttige begeleiding en potentieel schadelijke nabootsing van identiteit vereisen zorgvuldig onderzoek, aangezien AI gevoelige domeinen zoals geestelijke gezondheidszorg blijft binnendringen.






























































