OpenAI stima che centinaia di migliaia di utenti discutono di suicidio con l’intelligenza artificiale

22

OpenAI ha recentemente divulgato dati riguardanti quanti dei suoi utenti partecipano a conversazioni relative alla salute mentale, in particolare al suicidio, con i suoi modelli di intelligenza artificiale, in particolare ChatGPT. L’ultimo post sul blog dell’azienda, che descrive in dettaglio i miglioramenti alla capacità di GPT-4 di identificare e rispondere ai messaggi sensibili degli utenti, includeva stime che mostrano che un numero significativo di utenti esprime pensieri o intenzioni suicide. Questa divulgazione arriva mentre OpenAI deve affrontare un controllo legale continuo relativo ai protocolli di sicurezza e al loro impatto sul benessere degli utenti.

La scala dei numeri

Mentre OpenAI sottolinea che le conversazioni che indicano gravi problemi di salute mentale come psicosi o mania sono “rare”, la vastità della base di utenti di ChatGPT – 800 milioni di utenti attivi settimanali – significa che anche piccole percentuali si traducono in un numero sostanziale di individui.

L’azienda stima che circa lo 0,07% degli utenti settimanali (circa 560.000 persone) e lo 0,01% dei messaggi contengano indicatori di psicosi o mania. Per quanto riguarda le conversazioni che affrontano esplicitamente la pianificazione o l’intento suicidario, OpenAI stima che lo 0,15% degli utenti settimanali (1,2 milioni di persone) sia coinvolto in tali interazioni, mentre lo 0,05% dei messaggi (400.000) dimostra segni diretti o indiretti di ideazione suicidaria.

Anche una percentuale molto piccola della nostra vasta base di utenti rappresenta un numero significativo di persone, ed è per questo che prendiamo questo lavoro così seriamente. – Portavoce di OpenAI

Contesto e significato

Queste statistiche evidenziano un punto critico: la crescente intersezione tra intelligenza artificiale e salute mentale. Man mano che i chatbot basati sull’intelligenza artificiale diventano sempre più sofisticati e integrati nella vita quotidiana, vengono sempre più utilizzati come casse di risonanza e confidenti. Ciò è particolarmente significativo perché questi numeri riflettono tendenze sociali più ampie di crescenti sfide per la salute mentale. Sebbene OpenAI ritenga che la sua base di utenti rispecchi la popolazione in generale, il fatto che gli utenti si rivolgano all’intelligenza artificiale per ricevere supporto in queste crisi sottolinea la necessità di un attento monitoraggio e di strategie di intervento efficaci.

La scala è importante anche perché è facile fraintendere il significato delle percentuali. Anche se le percentuali sono apparentemente piccole, rappresentano un numero significativo di persone in difficoltà. Ciò rafforza l’importanza di una vigilanza costante e di miglioramenti nella capacità dell’IA di identificare e rispondere in modo appropriato.

Causa in corso e problemi di sicurezza

Il rilascio di questi dati avviene nel contesto di una causa intentata dai genitori di Adam Raine, un sedicenne morto suicida all’inizio di quest’anno. La causa sostiene che OpenAI ha intenzionalmente indebolito le sue misure di prevenzione del suicidio al fine di aumentare il coinvolgimento degli utenti, portando a un ambiente più permissivo per le interazioni dannose. OpenAI ha negato queste affermazioni.

La causa sta stimolando un dibattito più ampio sulla responsabilità degli sviluppatori di intelligenza artificiale di dare priorità alla sicurezza degli utenti rispetto alle metriche di coinvolgimento. Questo incidente sottolinea le complessità etiche dell’addestramento dell’IA su vasti set di dati di conversazioni umane, che possono includere contenuti sensibili e potenzialmente dannosi.

Guardando al futuro

OpenAI sottolinea che si tratta di stime e “i numeri che abbiamo fornito potrebbero cambiare in modo significativo man mano che ne apprenderemo di più”. L’azienda continua a lavorare per migliorare la capacità dei suoi modelli di rilevare segni di autolesionismo e connettere gli utenti con risorse utili. Questi sforzi includono la collaborazione con gli psichiatri e il continuo perfezionamento dei protocolli di sicurezza.

Se tu o qualcuno che conosci state lottando con pensieri suicidi o stai vivendo una crisi di salute mentale, sono disponibili delle risorse. Puoi contattare 988 Suicide & Crisis Lifeline chiamando o inviando un SMS al 988 o visitando 988lifeline.org. È possibile trovare ulteriore supporto presso Trans Lifeline (877-565-8860), The Trevor Project (866-488-7386), Crisis Text Line (invio di testo da START a 741-741) o NAMI HelpLine (1-800-950-NAMI)