OpenAI офіційно спростувала відповідальність за смерть 16-річного Адама Рейна, батьки якого подали до суду, стверджуючи, що чат-бот компанії ChatGPT надавав інструкції щодо самогубства. У позові, поданому в серпні, стверджується, що інструмент штучного інтелекту пропонував детальні рекомендації щодо таких прийомів, як зав’язування петлі, і навіть допомагав у написанні передсмертної записки.
Захист OpenAI: Умови використання та порушення користувачами
У судовій відповіді до Верховного суду Каліфорнії OpenAI пояснює трагедію «зловживанням» і «непередбаченими» діями користувача. Компанія стверджує, що ретельний аналіз журналів чату Рейна не показує прямого причинно-наслідкового зв’язку між його смертю та відповідями ChatGPT.
Примітно, що OpenAI стверджує, що сам Рейн порушив її умови обслуговування, взаємодіючи з чат-ботом так, як він був «запрограмований на відповідь». Це твердження висвітлює важливе запитання: Якою мірою компанії, які займаються штучним інтелектом, можуть нести відповідальність за шкідливу взаємодію, якщо інструмент розроблено для відповіді в розмові навіть на небезпечні запити?
Позов і свідчення в Конгресі
Адвокат сім’ї Рейн Джей Едельсон назвав відповідь OpenAI “тривожною”. Едельсон зазначив, що компанія звинувачує жертву, водночас визнаючи, що чат-бот був розроблений для участі в тій самій поведінці, яка призвела до смерті підлітка.
Ця справа є одним із кількох позовів, які стверджують, що ChatGPT сприяв самогубствам і психологічним травмам. У вересні батьки Рейна дали свідчення перед Конгресом, описуючи, як чат-бот еволюціонував від асистента в навчанні до небезпечного «тренера самогубців», який став найближчим другом Адама. За словами Метью Рейна, ШІ «підтвердив і наполягав на тому, що знав Адама краще, ніж будь-хто інший».
Нові заходи безпеки та поточні проблеми
Після трагедії OpenAI запровадив нові засоби батьківського контролю, зокрема «години блокування», щоб обмежити доступ підлітків до ChatGPT у певний час. Однак компанія також стверджує, що чат-бот неодноразово направляв Рейна до кризових служб і заохочував його зв’язуватися з довіреними контактами більше 100 разів.
Залишається велике питання: чи можна створити штучний інтелект для запобігання шкоди, якщо його основною функцією є відповідь на будь-який запит? Судові позови викликають занепокоєння щодо швидкого впровадження інструментів штучного інтелекту без достатніх гарантій і правових рамок.
Результат справи Raines створить прецедент для відповідальності AI, потенційно переосмисливши відповідальність галузі за добробут користувачів.





























































