OpenAI odhaduje, že stovky tisíc uživatelů diskutují o sebevraždě AI

12

OpenAI nedávno zveřejnila alarmující data o tom, jak často uživatelé interagují se svými modely AI, zejména ChatGPT, v konverzacích týkajících se duševního zdraví, včetně sebevražd. Nejnovější blogový příspěvek společnosti o vylepšeních schopnosti GPT-4 detekovat a reagovat na citlivé požadavky uživatelů obsahuje odhady, které ukazují, že značný počet uživatelů vyjadřuje sebevražedné myšlenky nebo úmysly. Tato publikace přichází uprostřed probíhajícího právního vyšetřování OpenAI souvisejícího s bezpečnostními protokoly a jejich dopadem na pohodu uživatelů.

Rozsah problému

Zatímco OpenAI zdůrazňuje, že konverzace naznačující vážné problémy duševního zdraví, jako je psychóza nebo mánie, jsou „vzácné“, samotná velikost uživatelské základny ChatGPT – 800 milionů aktivních uživatelů týdně – znamená, že i malá procenta se promítají do značného počtu lidí.

Společnost odhaduje, že přibližně 0,07 % týdenních uživatelů (asi 560 000 lidí) a 0,01 % zpráv obsahuje známky psychózy nebo mánie. U konverzací výslovně souvisejících s plánováním nebo úmyslem spáchat sebevraždu OpenAI odhaduje, že 0,15 % týdenních uživatelů (1,2 milionu lidí) se zapojí do takových konverzací a 0,05 % zpráv (400 000) vykazuje přímé nebo nepřímé známky sebevražedných myšlenek.

I velmi malé procento naší velké uživatelské základny představuje významný počet lidí, a proto bereme tuto práci tak vážně. — Zástupce OpenAI

Kontext a význam

Tyto statistiky zdůrazňují klíčový bod: rostoucí průnik AI a duševního zdraví. Jak se chatboti pohánění umělou inteligencí stávají sofistikovanějšími a integrovanějšími do každodenního života, jsou stále častěji využíváni jako konverzační partneři a důvěrníci. To je zvláště důležité, protože tato čísla odrážejí širší společenské trendy v počtu lidí trpících duševními problémy. Zatímco OpenAI věří, že jeho uživatelská základna odráží běžnou populaci, skutečnost, že se uživatelé obracejí na AI s žádostí o podporu v krizových situacích, zdůrazňuje potřebu pečlivého sledování a účinných intervenčních strategií.

Měřítko je také důležité, protože je snadné nesprávně interpretovat, co znamenají procenta. I když se procenta zdají malá, představují významný počet lidí s duševním onemocněním. To zdůrazňuje důležitost neustálé bdělosti a zlepšení schopnosti umělé inteligence detekovat příznaky a odpovídajícím způsobem reagovat.

Probíhající soudní spory a obavy o bezpečnost

Propuštění přichází uprostřed žaloby rodičů Adama Reina, 16letého, který spáchal sebevraždu na začátku tohoto roku. Žaloba tvrdí, že OpenAI záměrně oslabila svá preventivní opatření pro sebevraždu, aby zvýšila zapojení uživatelů, což vedlo k tolerantnějšímu prostředí pro škodlivé interakce. OpenAI tato obvinění odmítá.

Žaloba podnítí širší debatu o odpovědnosti vývojářů AI upřednostňovat bezpečnost uživatelů před metrikami zapojení. Tento incident upozorňuje na etické výzvy trénování umělé inteligence na obrovských souborech dat lidských konverzací, které mohou obsahovat citlivé a potenciálně škodlivé informace.

Pohled do budoucnosti

OpenAI zdůrazňuje, že se jedná o odhady a “čísla, která poskytujeme, se mohou výrazně změnit, až se dozvíme více.” Společnost nadále pracuje na zlepšení schopnosti svých modelů detekovat známky sebepoškozování a poskytovat uživatelům přístup k užitečným zdrojům. Toto úsilí zahrnuje spolupráci s psychiatry a neustálé zlepšování bezpečnostních protokolů.

Pokud vy nebo někdo, koho znáte, zažíváte sebevražedné myšlenky nebo je v krizi, je k dispozici pomoc. Můžete zavolat nebo napsat na číslo 988 a spojit se s Národní linkou pomoci pro sebevraždy a krize nebo navštívit 988lifeline.org. Další podporu lze nalézt na telefonním čísle The Trans Lifeline (877-565-8860), The Trevor Project (866-488-7386), Crisis Text Line (text START na 741-741) nebo zavolání na linku pomoci NAMI (1-800-950-NAMI).