Gelombang baru aplikasi pembuat video yang didukung AI menimbulkan kekhawatiran serius mengenai penyebaran deepfake, privasi online, dan landasan kepercayaan terhadap informasi digital. Sora 2 dari OpenAI, sebuah aplikasi populer yang memungkinkan pengguna membuat video pendek dari perintah teks, merupakan contoh kekhawatiran ini. Meskipun seolah-olah dirancang untuk hiburan – misalnya rap Ratu Elizabeth atau rekaman kamera bel pintu yang lucu – potensi penyalahgunaan Sora 2 mengkhawatirkan para ahli dan kelompok advokasi.
Daya tarik Sora 2 terletak pada kesederhanaannya. Pengguna mengetik skenario apa pun yang mereka bayangkan, dan AI menghasilkan video pendek. Namun kemudahan penggunaan ini memicu kekhawatiran bahwa pelaku kejahatan dapat mengeksploitasinya untuk membuat konten yang meyakinkan namun sepenuhnya dibuat-buat. Selain sekadar lelucon, konsekuensinya sangat besar: deepfake yang dilakukan tanpa persetujuan dapat merusak reputasi, menyebarkan disinformasi, atau bahkan memicu kekerasan.
Public Citizen, sebuah kelompok pengawas konsumen, memimpin tuntutan terhadap Sora 2. Dalam surat yang ditujukan kepada CEO OpenAI Sam Altman dan diteruskan ke Kongres AS, mereka menuduh perusahaan tersebut memprioritaskan kecepatan daripada keamanan dalam merilis aplikasi. Mereka berpendapat bahwa peluncuran cepat Sora 2, yang didorong oleh tekanan persaingan, menunjukkan “pengabaian yang sembrono” terhadap hak pengguna, privasi, dan stabilitas demokrasi.
JB Branch, seorang advokat kebijakan teknologi di Public Citizen, menekankan potensi ancaman terhadap demokrasi: “Saya pikir kita sedang memasuki dunia di mana masyarakat tidak dapat mempercayai apa yang mereka lihat. Dan kita mulai melihat strategi dalam politik di mana gambar pertama, video pertama yang dirilis, adalah apa yang diingat orang.”
Ketakutan ini bukannya tidak berdasar. Laporan terbaru menyoroti bagaimana Sora 2 digunakan untuk menghasilkan konten yang mengganggu seperti video wanita yang dicekik. Meskipun OpenAI mengklaim memblokir ketelanjangan, perjuangan moderasi kontennya melampaui materi eksplisit.
Perusahaan telah mencoba mengendalikan kerusakan setelah mendapat kritik luas. Mereka sepakat untuk mencegah penggunaan tanpa izin atas kemiripan tokoh-tokoh terkemuka seperti Martin Luther King Jr. dan Bryan Cranston dalam video Sora 2 setelah mendapat reaksi keras dari pihak perkebunan dan serikat pekerja yang mewakili para aktor. Namun, Branch berpendapat bahwa tindakan reaktif ini tidak berhasil. Dia percaya OpenAI harus memprioritaskan pilihan desain yang memitigasi dampak buruk sebelum merilis produk, daripada mengatasi masalah hanya setelah protes publik.
Rekam jejak OpenAI dengan produk andalannya, chatbot ChatGPT, semakin memicu kekhawatiran ini. Tujuh tuntutan hukum yang diajukan di AS menyatakan bahwa ChatGPT mendorong pengguna untuk bunuh diri dan delusi berbahaya meskipun ada peringatan internal tentang potensi manipulasi. Persamaan ini menyoroti pola yang berulang: OpenAI merilis alat-alat AI yang kuat sebelum waktunya, sehingga rentan terhadap penyalahgunaan sebelum perlindungan yang kuat diterapkan.
Perdebatan seputar Sora 2 menyoroti titik kritis. Seiring dengan kemajuan teknologi AI yang sangat pesat, keseimbangan antara inovasi dan tanggung jawab etis menjadi semakin penting. Jika platform seperti Sora 2 tidak diatur secara hati-hati dan dipandu oleh pertimbangan etis, konsekuensinya bagi individu dan masyarakat bisa sangat luas dan meresahkan.
