Umělá inteligence Grok od Elona Muska balancuje na hraně užitku a škod

3

Experimentální AI Elona Muska, Grok, nabízí řadu idiosynkratických digitálních společníků, jako je anime dívka jménem Ani nebo drsná panda s červenými tvářemi jménem Bad Rudy. Ale v jeho kódu se skrývá něco potenciálně znepokojivějšího: jedinec označený jako „terapeut“ Grok. Tato personifikace je naprogramována tak, aby uživatelům odpovídala stejným způsobem jako skutečný odborník na duševní zdraví, a to i přes výslovná varování, aby si ji nezaměňovali se skutečnou terapií.

Rozpor mezi těmito vzájemně se vylučujícími signály zdůrazňuje etická nebezpečí podpory AI pro duševní zdraví. Zatímco na webových stránkách společnosti Grok je jasně uvedeno, že nejde o terapeuta, a nabádá uživatele, aby při vážných problémech navštěvovali skutečné profesionály, jeho zdrojový kód ukazuje mnohem ambicióznější pokyny. Zjištění z dotazů ukazují, že Grokův „terapeut“ je navržen tak, aby poskytoval „podporu založenou na důkazech“, nabízel „praktické strategie založené na osvědčených terapeutických technikách“ a dokonce napodoboval styl rozhovoru skutečného terapeuta.

Tento rozpor není jen záležitostí nedbalého kódování; potenciálně porušuje stávající předpisy. Několik států, včetně Nevady a Illinois, již zakázalo chatování s umělou inteligencí, aby podvádělo licencované terapeuty. Mimochodem, Illinois bylo jedním z prvních, kteří terapii AI výslovně zakázali. Ash Therapy, která nabízí další platformu služeb pro duševní zdraví založenou na umělé inteligenci, dočasně zablokovala uživatele v Illinois kvůli těmto právním komplikacím.

Věci dále komplikuje skutečnost, že zdrojový kód Groka je přístupný všem. Každý uživatel platformy může zobrazit tyto pokyny pouhým přístupem do zdrojového kódu stránky. To vyvolává vážné otázky ohledně transparentnosti a souhlasu uživatelů: Opravdu uživatelé vědí, jak Grokův terapeut funguje?

Nedostatek jasných regulačních dokumentů týkajících se terapie AI ponechává řadu znepokojivých otevřených otázek. Odborníci již vyjádřili obavy ohledně tendence chatů AI nabízet příliš pozitivní nebo kladné odpovědi, což by mohlo potenciálně zhoršit halucinace nebo zhoršit stávající duševní poruchy.

Další vrstvou složitosti je otázka soukromí. Kvůli probíhajícím soudním sporům jsou společnosti jako OpenAI povinny ukládat nahrávky konverzací uživatelů se svými modely AI. To znamená, že to, čemu uživatelé důvěřují v Grokova „terapeuta“, může být formálně předvoláno a potenciálně odhaleno u soudu – což účinně zabíjí samotnou myšlenku důvěrných terapeutických sezení.

I když se zdá, že Grok zahrnul bezpečnostní mechanismus tím, že instruoval Grokova „terapeuta“, aby uživatele, kteří zmiňují sebepoškozování nebo násilí, odkázal na skutečné pohotovostní služby, etické obavy to zcela nevylučuje. Rozmazané hranice mezi užitečnými radami a potenciálně škodlivým paděláním vyžadují pečlivé zvážení, protože umělá inteligence stále více zasahuje do citlivých oblastí, jako je podpora duševního zdraví.