OpenAI hat kürzlich besorgniserregende Daten darüber veröffentlicht, wie viele seiner Benutzer sich mit seinen KI-Modellen, insbesondere ChatGPT, an Gesprächen über psychische Gesundheit, insbesondere Selbstmord, beteiligen. Der neueste Blog-Beitrag des Unternehmens, in dem Verbesserungen an der Fähigkeit von GPT-4, sensible Benutzeraufforderungen zu erkennen und darauf zu reagieren, detailliert beschrieben wird, enthielt Schätzungen, die zeigen, dass eine beträchtliche Anzahl von Benutzern Selbstmordgedanken oder -absichten äußern. Diese Offenlegung erfolgt, da OpenAI einer laufenden rechtlichen Prüfung im Zusammenhang mit Sicherheitsprotokollen und deren Auswirkungen auf das Wohlbefinden der Benutzer ausgesetzt ist.
Die Skala der Zahlen
Während OpenAI betont, dass Gespräche, die auf ernsthafte psychische Probleme wie Psychosen oder Manie hinweisen, „selten“ sind, bedeutet die schiere Größe der ChatGPT-Benutzerbasis – 800 Millionen aktive Benutzer pro Woche –, dass selbst kleine Prozentsätze auf eine beträchtliche Anzahl von Personen übertragen werden können.
Das Unternehmen schätzt, dass etwa 0,07 % der wöchentlichen Nutzer (ungefähr 560.000 Menschen) und 0,01 % der Nachrichten Anzeichen einer Psychose oder Manie enthalten. In Bezug auf Gespräche, in denen es ausdrücklich um Selbstmordplanung oder -absicht geht, schätzt OpenAI, dass 0,15 % der wöchentlichen Benutzer (1,2 Millionen Menschen) an solchen Interaktionen beteiligt sind, während 0,05 % der Nachrichten (400.000) direkte oder indirekte Anzeichen von Selbstmordgedanken aufweisen.
Selbst ein sehr kleiner Prozentsatz unserer großen Nutzerbasis repräsentiert eine bedeutende Anzahl von Menschen, und deshalb nehmen wir diese Arbeit so ernst. – OpenAI-Sprecher
Kontext und Bedeutung
Diese Statistiken verdeutlichen einen kritischen Punkt: die zunehmende Überschneidung von KI und psychischer Gesundheit. Da KI-Chatbots immer ausgefeilter und in das tägliche Leben integriert werden, werden sie zunehmend als Resonanzboden und Vertraute eingesetzt. Dies ist besonders bedeutsam, weil diese Zahlen breitere gesellschaftliche Trends zunehmender psychischer Gesundheitsprobleme widerspiegeln. Während OpenAI davon ausgeht, dass seine Nutzerbasis die Bevölkerung insgesamt widerspiegelt, unterstreicht die Tatsache, dass Nutzer sich bei diesen Krisen an KI wenden, um Unterstützung zu erhalten, die Notwendigkeit einer sorgfältigen Überwachung und wirksamer Interventionsstrategien.
Die Skala ist auch wichtig, da die Bedeutung von Prozentsätzen leicht missverstanden werden kann. Auch wenn die Prozentsätze scheinbar gering sind, repräsentieren sie doch eine beträchtliche Anzahl von Menschen in Not. Dies unterstreicht die Bedeutung ständiger Wachsamkeit und Verbesserungen der Fähigkeit der KI, zu erkennen und angemessen zu reagieren.
Laufender Rechtsstreit und Sicherheitsbedenken
Die Veröffentlichung dieser Daten erfolgt vor dem Hintergrund einer Klage der Eltern von Adam Raine, einem 16-Jährigen, der Anfang des Jahres durch Selbstmord starb. In der Klage wird behauptet, dass OpenAI seine Schutzmaßnahmen zur Suizidprävention absichtlich geschwächt habe, um das Engagement der Benutzer zu steigern, was zu einem freizügigeren Umfeld für schädliche Interaktionen geführt habe. OpenAI hat diese Behauptungen zurückgewiesen.
Die Klage löst eine breitere Debatte über die Verantwortung von KI-Entwicklern aus, der Benutzersicherheit Vorrang vor Engagement-Kennzahlen zu geben. Dieser Vorfall unterstreicht die ethische Komplexität des Trainings von KI auf der Grundlage riesiger Datensätze menschlicher Gespräche, die sensible und potenziell schädliche Inhalte enthalten können.
Blick nach vorne
OpenAI betont, dass es sich hierbei um Schätzungen handelt und „die von uns angegebenen Zahlen sich erheblich ändern können, wenn wir mehr erfahren.“ Das Unternehmen arbeitet weiterhin daran, die Fähigkeit seiner Modelle zu verbessern, Anzeichen von Selbstverletzung zu erkennen und Benutzer mit hilfreichen Ressourcen zu verbinden. Zu diesen Bemühungen gehört die Zusammenarbeit mit Psychiatern und die laufende Verbesserung der Sicherheitsprotokolle.
Wenn Sie oder jemand, den Sie kennen, mit Selbstmordgedanken zu kämpfen hat oder sich in einer psychischen Krise befindet, stehen Ihnen Ressourcen zur Verfügung. Sie können die 988 Suicide & Crisis Lifeline erreichen, indem Sie 988 anrufen oder eine SMS senden oder 988lifeline.org besuchen. Zusätzliche Unterstützung finden Sie bei Trans Lifeline (877-565-8860), The Trevor Project (866-488-7386), Crisis Text Line (Senden Sie eine SMS mit START an 741-741) oder der NAMI HelpLine (1-800-950-NAMI).





























































