OpenAI opublikowało niedawno alarmujące dane na temat tego, jak często użytkownicy wchodzą w interakcję ze swoimi modelami sztucznej inteligencji, zwłaszcza ChatGPT, w rozmowach związanych ze zdrowiem psychicznym, w tym samobójstwami. Najnowszy wpis na blogu firmy dotyczący udoskonaleń zdolności GPT-4 do wykrywania i reagowania na wrażliwe żądania użytkowników zawiera szacunki wskazujące, że znaczna liczba użytkowników ma myśli lub zamiary samobójcze. Niniejsza publikacja pojawia się w związku z trwającym dochodzeniem prawnym dotyczącym OpenAI w związku z protokołami bezpieczeństwa i ich wpływem na dobro użytkowników.
Skala problemu
Choć OpenAI podkreśla, że rozmowy wskazujące na poważne problemy ze zdrowiem psychicznym, takie jak psychoza czy mania, są „rzadkie”, sama wielkość bazy użytkowników ChatGPT – 800 milionów aktywnych użytkowników tygodniowo – oznacza, że nawet niewielkie wartości procentowe przekładają się na znaczną liczbę osób.
Firma szacuje, że około 0,07% użytkowników tygodniowo (około 560 000 osób) i 0,01% wiadomości zawiera oznaki psychozy lub manii. W przypadku rozmów wyraźnie związanych z planowaniem lub zamiarem popełnienia samobójstwa OpenAI szacuje, że 0,15% użytkowników tygodniowo (1,2 mln osób) angażuje się w takie rozmowy, a 0,05% wiadomości (400 000) wykazuje bezpośrednie lub pośrednie oznaki myśli samobójczych.
Nawet bardzo mały procent naszej dużej bazy użytkowników reprezentuje znaczną liczbę osób i dlatego tak poważnie podchodzimy do tej pracy. — Przedstawiciel OpenAI
Kontekst i znaczenie
Statystyki te podkreślają kluczowy punkt: rosnące skrzyżowanie sztucznej inteligencji i zdrowia psychicznego. W miarę jak chatboty oparte na sztucznej inteligencji stają się coraz bardziej wyrafinowane i zintegrowane z życiem codziennym, coraz częściej wykorzystuje się je jako partnerów do rozmów i powierników. Jest to szczególnie ważne, ponieważ te liczby odzwierciedlają szersze trendy społeczne dotyczące liczby osób doświadczających problemów psychicznych. Choć OpenAI wierzy, że baza jej użytkowników odzwierciedla ogólną populację, fakt, że użytkownicy zwracają się do AI o wsparcie w sytuacjach kryzysowych, podkreśla potrzebę uważnego monitorowania i skutecznych strategii interwencyjnych.
Skala jest również ważna, ponieważ łatwo jest błędnie zinterpretować znaczenie procentów. Nawet jeśli wartości procentowe wydają się niewielkie, reprezentują znaczną liczbę osób chorych psychicznie. Podkreśla to znaczenie ciągłej czujności i poprawy zdolności sztucznej inteligencji do wykrywania znaków i odpowiedniego reagowania.
Trwający proces sądowy i obawy dotyczące bezpieczeństwa
Orzeczenie to następuje w związku z pozwem złożonym przez rodziców Adama Reina, 16-latka, który na początku tego roku popełnił samobójstwo. W pozwie zarzuca się, że OpenAI celowo osłabiło swoje środki zapobiegania samobójstwom, aby zwiększyć zaangażowanie użytkowników, w wyniku czego powstało bardziej tolerancyjne środowisko dla szkodliwych interakcji. OpenAI zaprzecza tym zarzutom.
Pozew wywołuje szerszą debatę na temat odpowiedzialności twórców sztucznej inteligencji za przedkładanie bezpieczeństwa użytkowników nad wskaźniki zaangażowania. Ten incydent uwydatnia etyczne wyzwania związane ze szkoleniem sztucznej inteligencji na ogromnych zbiorach danych dotyczących rozmów międzyludzkich, które mogą zawierać wrażliwe i potencjalnie szkodliwe informacje.
Patrzę w przyszłość
OpenAI podkreśla, że są to szacunki i „podane przez nas liczby mogą się znacząco zmienić w miarę zdobywania większej wiedzy”. Firma nadal pracuje nad poprawą zdolności swoich modeli do wykrywania oznak samookaleczenia i zapewniania użytkownikom dostępu do przydatnych zasobów. Wysiłki te obejmują współpracę z psychiatrami i ciągłe doskonalenie protokołów bezpieczeństwa.
Jeśli Ty lub ktoś, kogo znasz, ma myśli samobójcze lub znajduje się w kryzysie, dostępna jest pomoc. Możesz zadzwonić lub wysłać SMS-a pod numer 988, aby połączyć się z Krajową Linią Pomocy dla Samobójstw i Kryzysów, lub odwiedzić stronę 988lifeline.org. Dodatkowe wsparcie można uzyskać dzwoniąc na infolinię Trans Lifeline (877-565-8860), The Trevor Project (866-488-7386), na linię Crisis Text Line (wysyłając SMS o treści START pod numer 741-741) lub dzwoniąc na infolinię NAMI (1-800-950-NAMI).




























































