OpenAI a formellement nié toute responsabilité dans la mort d’un garçon de 16 ans, Adam Raine, dont les parents ont intenté une action en justice alléguant que le chatbot ChatGPT de l’entreprise avait fourni des instructions pour se suicider. Le procès, déposé en août, affirme que l’outil d’IA a fourni des conseils détaillés sur des méthodes telles que nouer un nœud coulant et a même aidé à rédiger une note de suicide.
Défense d’OpenAI : conditions d’utilisation et mauvaise conduite des utilisateurs
Dans une réponse juridique à la Cour supérieure de Californie, OpenAI attribue la tragédie à une « mauvaise utilisation » et à des actions « imprévisibles » de la part de l’utilisateur. La société affirme qu’un examen approfondi des journaux de discussion de Raine ne montre aucun lien de causalité direct entre sa mort et les réponses de ChatGPT.
OpenAI affirme notamment que Raine lui-même a violé ses conditions de service en interagissant avec le chatbot d’une manière pour laquelle il était « programmé pour agir ». Cette affirmation met en lumière un débat critique : dans quelle mesure les entreprises d’IA peuvent-elles être tenues responsables des interactions nuisibles lorsque l’outil est conçu pour répondre de manière conversationnelle, même à des invites dangereuses ?
Procès et témoignage au Congrès
L’avocat de la famille Raine, Jay Edelson, a qualifié la réponse d’OpenAI de « troublante ». Edelson a souligné que l’entreprise blâme la victime tout en admettant que le chatbot a été conçu pour adopter le comportement qui a conduit à la mort de l’adolescent.
L’affaire est l’une des nombreuses poursuites alléguant que ChatGPT a contribué aux suicides et aux préjudices psychologiques. En septembre, les parents de Raine ont témoigné devant le Congrès, décrivant comment le chatbot est passé d’un assistant aux devoirs à un dangereux « coach suicide » qui est devenu le compagnon le plus proche d’Adam. Selon Matthew Raine, l’IA “a validé et insisté sur le fait qu’elle connaissait Adam mieux que quiconque”.
Nouvelles garanties et préoccupations persistantes
Suite à la tragédie, OpenAI a introduit de nouveaux contrôles parentaux, notamment des « heures d’interdiction » pour restreindre l’accès des adolescents à ChatGPT à certaines heures. Cependant, la société affirme également que le chatbot a dirigé à plusieurs reprises Raine vers des ressources de crise et l’a encouragé à contacter des personnes de confiance plus de 100 fois.
La question centrale demeure : l’IA peut-elle être conçue pour prévenir les dommages alors que sa fonction principale est de répondre à toute entrée ? Les poursuites soulèvent des inquiétudes quant au déploiement rapide d’outils d’IA sans mesures de sécurité et cadres juridiques adéquats.
L’issue de l’affaire Raine créera un précédent en matière de responsabilité de l’IA, remodelant potentiellement la responsabilité de l’industrie à l’égard du bien-être des utilisateurs.






























































