OpenAI heeft onlangs gegevens bekendgemaakt over hoeveel van zijn gebruikers deelnemen aan gesprekken over geestelijke gezondheid, met name zelfmoord, met zijn AI-modellen, met name ChatGPT. De laatste blogpost van het bedrijf, waarin verbeteringen worden beschreven aan het vermogen van GPT-4 om gevoelige gebruikersprompts te identificeren en erop te reageren, bevatte schattingen waaruit bleek dat een aanzienlijk aantal gebruikers zelfmoordgedachten of -intenties uitte. Deze onthulling komt omdat OpenAI voortdurend wordt geconfronteerd met juridisch onderzoek met betrekking tot veiligheidsprotocollen en hun impact op het welzijn van gebruikers.
De schaal van de getallen
Hoewel OpenAI benadrukt dat gesprekken die wijzen op ernstige geestelijke gezondheidsproblemen zoals psychose of manie ‘zeldzaam’ zijn, betekent de enorme omvang van ChatGPT’s gebruikersbestand – 800 miljoen wekelijkse actieve gebruikers – dat zelfs kleine percentages zich vertalen in een substantieel aantal individuen.
Het bedrijf schat dat ongeveer 0,07% van de wekelijkse gebruikers (ongeveer 560.000 mensen) en 0,01% van de berichten indicatoren van psychose of manie bevatten. Wat betreft gesprekken waarin expliciet zelfmoordplannen of -intenties aan de orde komen, schat OpenAI dat 0,15% van de wekelijkse gebruikers (1,2 miljoen mensen) dergelijke interacties aangaat, terwijl 0,05% van de berichten (400.000) directe of indirecte tekenen van zelfmoordgedachten vertoont.
Zelfs een heel klein percentage van ons grote gebruikersbestand vertegenwoordigt een aanzienlijk aantal mensen, en daarom nemen we dit werk zo serieus. – OpenAI-woordvoerder
Context en betekenis
Deze statistieken benadrukken een cruciaal punt: het groeiende kruispunt van AI en geestelijke gezondheid. Naarmate AI-chatbots steeds geavanceerder worden en geïntegreerd worden in het dagelijks leven, worden ze steeds vaker gebruikt als klankbord en vertrouweling. Dit is vooral belangrijk omdat deze cijfers bredere maatschappelijke trends van toenemende uitdagingen op het gebied van de geestelijke gezondheidszorg weerspiegelen. Hoewel OpenAI gelooft dat zijn gebruikersbestand de bevolking als geheel weerspiegelt, onderstreept het feit dat gebruikers zich bij deze crises tot AI wenden voor ondersteuning de noodzaak van zorgvuldige monitoring en effectieve interventiestrategieën.
De schaal is ook belangrijk omdat de betekenis van percentages gemakkelijk verkeerd kan worden begrepen. Hoewel de percentages ogenschijnlijk klein zijn, vertegenwoordigen ze een aanzienlijk aantal mensen in nood. Dit versterkt het belang van constante waakzaamheid en verbeteringen in het vermogen van de AI om adequaat te identificeren en te reageren.
Lopende rechtszaak en veiligheidsproblemen
De vrijgave van deze gegevens vindt plaats tegen de achtergrond van een rechtszaak die is aangespannen door de ouders van Adam Raine, een 16-jarige die eerder dit jaar door zelfmoord stierf. De rechtszaak beweert dat OpenAI opzettelijk zijn waarborgen voor zelfmoordpreventie heeft verzwakt om de betrokkenheid van gebruikers te vergroten, wat heeft geleid tot een meer tolerante omgeving voor schadelijke interacties. OpenAI heeft deze claims ontkend.
De rechtszaak leidt tot een breder debat over de verantwoordelijkheid van AI-ontwikkelaars om gebruikersveiligheid voorrang te geven boven betrokkenheidsstatistieken. Dit incident onderstreept de ethische complexiteit van het trainen van AI op enorme datasets van menselijke gesprekken, die gevoelige en potentieel schadelijke inhoud kunnen bevatten.
Vooruitkijken
OpenAI benadrukt dat dit schattingen zijn en dat “de cijfers die we hebben verstrekt aanzienlijk kunnen veranderen naarmate we meer te weten komen.” Het bedrijf blijft werken aan het verbeteren van het vermogen van zijn modellen om tekenen van zelfbeschadiging te detecteren en gebruikers te verbinden met nuttige bronnen. Deze inspanningen omvatten samenwerking met psychiaters en voortdurende verfijning van veiligheidsprotocollen.
Als u of iemand die u kent worstelt met zelfmoordgedachten of een geestelijke gezondheidscrisis ervaart, zijn er hulpmiddelen beschikbaar. U kunt de 988 Suicide & Crisis Lifeline bereiken door 988 te bellen of te sms’en, of door 988lifeline.org te bezoeken. Aanvullende ondersteuning is te vinden op de Trans Lifeline (877-565-8860), The Trevor Project (866-488-7386), Crisis Text Line (sms START naar 741-741) of de NAMI HelpLine (1-800-950-NAMI)



























































