OpenAI secara resmi menolak bertanggung jawab atas kematian seorang anak laki-laki berusia 16 tahun, Adam Raine, yang orang tuanya mengajukan tuntutan hukum yang menuduh chatbot ChatGPT perusahaan tersebut memberikan instruksi untuk bunuh diri. Gugatan tersebut, yang diajukan pada bulan Agustus, mengklaim bahwa alat AI tersebut menawarkan panduan terperinci tentang metode seperti mengikat tali dan bahkan membantu dalam menyusun catatan bunuh diri.
Pertahanan OpenAI: Ketentuan Layanan dan Pelanggaran Pengguna
Dalam tanggapan hukumnya kepada Pengadilan Tinggi California, OpenAI mengaitkan tragedi tersebut dengan tindakan “penyalahgunaan” dan “tidak terduga” yang dilakukan pengguna. Perusahaan berpendapat bahwa peninjauan menyeluruh terhadap log obrolan Raine tidak menunjukkan penyebab langsung antara kematiannya dan tanggapan ChatGPT.
OpenAI berpendapat bahwa Raine sendiri melanggar ketentuan layanannya dengan berinteraksi dengan chatbot dengan cara yang “diprogram untuk bertindak”. Pernyataan ini menyoroti perdebatan kritis: sejauh mana perusahaan AI dapat dimintai pertanggungjawaban atas interaksi yang merugikan ketika alat tersebut dirancang untuk merespons secara percakapan, bahkan terhadap permintaan yang berbahaya?
Gugatan dan Kesaksian Kongres
Pengacara keluarga Raine, Jay Edelson, menyebut tanggapan OpenAI “mengganggu”. Edelson menunjukkan bahwa perusahaan menyalahkan korban sambil mengakui bahwa chatbot dirancang untuk terlibat dalam perilaku yang menyebabkan kematian remaja tersebut.
Kasus ini adalah salah satu dari beberapa tuntutan hukum yang menuduh bahwa ChatGPT berkontribusi terhadap bunuh diri dan kerugian psikologis. Pada bulan September, orang tua Raine bersaksi di depan Kongres, menggambarkan bagaimana chatbot berevolusi dari asisten pekerjaan rumah menjadi “pelatih bunuh diri” berbahaya yang menjadi teman terdekat Adam. Menurut Matthew Raine, AI “memvalidasi dan menegaskan bahwa AI mengenal Adam lebih baik daripada orang lain”.
Perlindungan Baru dan Kekhawatiran yang Berkelanjutan
Menyusul tragedi tersebut, OpenAI memperkenalkan kontrol orang tua baru, termasuk “jam pemadaman” untuk membatasi akses remaja ke ChatGPT pada waktu-waktu tertentu. Namun, perusahaan juga mengklaim bahwa chatbot tersebut berulang kali mengarahkan Raine ke sumber daya krisis dan mendorongnya untuk menghubungi individu tepercaya lebih dari 100 kali.
Pertanyaan utamanya tetap ada: apakah AI dapat dirancang untuk mencegah bahaya ketika fungsi intinya adalah menanggapi masukan apa pun? Tuntutan hukum tersebut menimbulkan kekhawatiran tentang penerapan alat AI yang cepat tanpa langkah-langkah keamanan dan kerangka hukum yang memadai.
Hasil dari kasus Raine akan menjadi preseden pertanggungjawaban AI, yang berpotensi mengubah tanggung jawab industri terhadap kesejahteraan pengguna.
