Eksperymentalna sztuczna inteligencja Elona Muska, Grok, oferuje szereg charakterystycznych cyfrowych towarzyszy, takich jak dziewczyna z anime o imieniu Ani lub szorstka panda o czerwonych policzkach o imieniu Bad Rudy. Jednak w jego kodzie kryje się coś potencjalnie bardziej niepokojącego: osoba określona jako „Terapeuta” Grok. Ta personifikacja jest zaprogramowana tak, aby reagować na użytkowników w taki sam sposób, jak prawdziwy specjalista ds. zdrowia psychicznego, pomimo wyraźnych ostrzeżeń, aby nie mylić jej z prawdziwą terapią.
Sprzeczność między tymi wzajemnie wykluczającymi się sygnałami uwypukla etyczne zagrożenia związane ze wsparciem sztucznej inteligencji w zakresie zdrowia psychicznego. Choć strona internetowa Groka wyraźnie stwierdza, że nie jest ona terapeutą i zachęca użytkowników do zgłaszania się do prawdziwych specjalistów w przypadku poważnych problemów, w kodzie źródłowym znajdują się znacznie bardziej ambitne instrukcje. Wyniki zapytań pokazują, że „Terapeuta” Groka ma zapewniać „wsparcie oparte na dowodach”, oferować „praktyczne strategie oparte na sprawdzonych technikach terapeutycznych”, a nawet naśladować styl konwersacji prawdziwego terapeuty.
Ta rozbieżność nie wynika po prostu z niechlujnego kodowania; potencjalnie narusza obowiązujące przepisy. Kilka stanów, w tym Nevada i Illinois, zakazało już czatom AI fałszowania licencjonowanych terapeutów. Nawiasem mówiąc, Illinois było jednym z pierwszych, które całkowicie zakazało terapii AI. Ash Therapy, która oferuje kolejną platformę usług w zakresie zdrowia psychicznego opartą na sztucznej inteligencji, tymczasowo zablokowała użytkowników w Illinois ze względu na komplikacje prawne.
Sprawę dodatkowo komplikuje fakt, że kod źródłowy Groka jest otwarty dla każdego. Każdy użytkownik platformy może wyświetlić te instrukcje, po prostu uzyskując dostęp do kodu źródłowego strony. Rodzi to poważne pytania dotyczące przejrzystości i zgody użytkownika: Czy użytkownicy naprawdę wiedzą, jak działa Terapeuta Groka?
Brak jasnych dokumentów regulacyjnych dotyczących terapii AI pozostawia wiele niepokojących, otwartych pytań. Eksperci wyrazili już obawy dotyczące tendencji czatów AI do oferowania zbyt pozytywnych lub potwierdzających odpowiedzi, co może potencjalnie pogorszyć halucynacje lub pogorszyć istniejące zaburzenia psychiczne.
Kolejną warstwą złożoności jest kwestia prywatności. Ze względu na toczące się spory sądowe firmy takie jak OpenAI są zobowiązane do przechowywania nagrań rozmów użytkowników ze swoimi modelami sztucznej inteligencji. Oznacza to, że to, co użytkownicy ufają Grokowi „Terapeucie”, może zostać formalnie wezwane do sądu i potencjalnie ujawnione w sądzie – skutecznie zabijając samą ideę poufnych sesji terapeutycznych.
Chociaż wydaje się, że Grok uwzględnił mechanizm bezpieczeństwa, instruując „Terapeutę” Groka, aby odsyłał użytkowników, którzy wspominają o samookaleczeniu lub przemocy, do prawdziwych służb ratunkowych, nie eliminuje to całkowicie obaw etycznych. Niewyraźne granice między przydatnymi poradami a potencjalnie szkodliwym podrabianiem wymagają dokładnego rozważenia, ponieważ sztuczna inteligencja wkracza coraz częściej we wrażliwe obszary, takie jak wsparcie w zakresie zdrowia psychicznego.






























































