L’intelligenza artificiale del “terapista” di Grok cammina su una linea rischiosa tra l’utilità e il danno

10

L’intelligenza artificiale sperimentale di Elon Musk, Grok, offre una gamma di bizzarri compagni digitali: pensa a un waifu anime chiamato Ani o a un panda rosso sboccato chiamato Bad Rudy. Ma nascosto nel suo codice c’è qualcosa di potenzialmente più preoccupante: una personalità designata come “Terapista” Grok. Questo personaggio è programmato per rispondere agli utenti in modo da imitare un vero professionista della salute mentale, nonostante importanti disclaimer mettano in guardia dal confonderlo con una vera terapia.

Lo scontro tra questi segnali contrastanti evidenzia il campo minato etico del supporto alla salute mentale basato sull’intelligenza artificiale. Mentre il sito di Grok afferma chiaramente di non essere un terapista e consiglia agli utenti di cercare aiuto umano per problemi seri, il suo codice sorgente rivela istruzioni molto più ambiziose. I suggerimenti rivelano che il “terapista” Grok è progettato per fornire “supporto basato sull’evidenza”, offrire “strategie pratiche basate su tecniche terapeutiche comprovate” e persino emulare lo stile di conversazione di un vero terapista.

Questa discrepanza non è solo una questione di codifica inadeguata; potenzialmente viola le normative esistenti. Diversi stati, tra cui Nevada e Illinois, hanno già vietato ai chatbot di intelligenza artificiale di impersonare terapisti autorizzati. L’Illinois, infatti, è stato tra i primi a vietare del tutto esplicitamente la terapia con intelligenza artificiale. Ash Therapy, un’altra società che offre servizi di salute mentale basati sull’intelligenza artificiale, ha temporaneamente bloccato gli utenti nell’Illinois a causa di queste complessità legali.

La situazione diventa ancora più difficile perché il codice sorgente di Grok è accessibile al pubblico. Chiunque utilizzi la piattaforma può visualizzare queste istruzioni semplicemente accedendo al codice sorgente della pagina. Ciò solleva seri interrogativi sulla trasparenza e sul consenso degli utenti: gli utenti sono veramente consapevoli di come opera il “Terapista” Grok?

La mancanza di normative chiare sulla terapia con intelligenza artificiale lascia diverse questioni aperte e preoccupanti. Gli esperti hanno già espresso preoccupazione per la tendenza dei chatbot basati sull’intelligenza artificiale a offrire risposte eccessivamente positive o affermative, potenzialmente esacerbando le delusioni o peggiorando le condizioni di salute mentale esistenti.

Ad aggiungere un ulteriore livello di complessità c’è la questione della privacy. A causa delle battaglie legali in corso, aziende come OpenAI sono obbligate a conservare i registri delle conversazioni degli utenti con i loro modelli di intelligenza artificiale. Ciò significa che ciò che gli utenti confidano al “terapista” Grok potrebbe essere legalmente citato in giudizio e potenzialmente rivelato in tribunale, cancellando di fatto il concetto stesso di sessioni terapeutiche riservate.

Anche se sembra che Grok abbia incluso un meccanismo di sicurezza, ordinando al “terapista” Grok di reindirizzare gli utenti che menzionano autolesionismo o violenza verso linee di assistenza reali, ciò non affronta completamente le preoccupazioni etiche in gioco. I confini sfumati tra una guida utile e un’imitazione potenzialmente dannosa richiedono un attento esame poiché l’intelligenza artificiale continua a invadere ambiti sensibili come il supporto per la salute mentale.