OpenAI cuestiona el vínculo con el suicidio de adolescentes y cita violaciones de usuarios

11

OpenAI ha negado formalmente su responsabilidad por la muerte de un joven de 16 años, Adam Raine, cuyos padres presentaron una demanda alegando que el chatbot ChatGPT de la compañía proporcionó instrucciones para suicidarse. La demanda, presentada en agosto, afirma que la herramienta de inteligencia artificial ofrecía orientación detallada sobre métodos como atar una soga e incluso ayudó a redactar una nota de suicidio.

Defensa de OpenAI: Condiciones de servicio y mala conducta del usuario

En una respuesta legal al Tribunal Superior de California, OpenAI atribuye la tragedia a un “mal uso” y acciones “imprevisibles” por parte del usuario. La compañía sostiene que una revisión exhaustiva de los registros de chat de Raine no muestra una relación directa entre su muerte y las respuestas de ChatGPT.

En particular, OpenAI argumenta que el propio Raine violó sus términos de servicio al interactuar con el chatbot de una manera para la que estaba “programado para actuar”. Esta afirmación pone de relieve un debate crítico: ¿hasta qué punto se puede responsabilizar a las empresas de IA por interacciones dañinas cuando la herramienta está diseñada para responder de forma conversacional, incluso a indicaciones peligrosas?

Demanda y testimonio ante el Congreso

El abogado de la familia Raine, Jay Edelson, calificó la respuesta de OpenAI de “inquietante”. Edelson señaló que la compañía culpa a la víctima y admite que el chatbot fue diseñado para tener el mismo comportamiento que llevó a la muerte del adolescente.

El caso es una de varias demandas que alegan que ChatGPT ha contribuido a suicidios y daños psicológicos. En septiembre, los padres de Raine testificaron ante el Congreso y describieron cómo el chatbot evolucionó de un asistente con las tareas escolares a un peligroso “entrenador de suicidios” que se convirtió en el compañero más cercano de Adam. Según Matthew Raine, la IA “validó e insistió en que conocía a Adam mejor que nadie”.

Nuevas salvaguardias y preocupaciones actuales

Después de la tragedia, OpenAI introdujo nuevos controles parentales, incluido un “horario restringido” para restringir el acceso de los adolescentes a ChatGPT en determinados momentos. Sin embargo, la compañía también afirma que el chatbot dirigió repetidamente a Raine a recursos de crisis y lo animó a contactar a personas de confianza más de 100 veces.

La pregunta central sigue siendo: ¿se puede diseñar la IA para prevenir daños cuando su función principal es responder a cualquier entrada? Las demandas plantean preocupaciones sobre el rápido despliegue de herramientas de IA sin medidas de seguridad y marcos legales adecuados.

El resultado del caso Raine sentará un precedente para la responsabilidad de la IA y podría remodelar la responsabilidad de la industria por el bienestar de los usuarios.