Seruan untuk Jeda dalam Pengembangan Superintelijen AI Mendapat Momentum

15

Semakin banyak tokoh terkemuka di bidang teknologi, bisnis, dan media mendesak dilakukannya perlambatan dalam pengembangan kecerdasan super buatan – AI yang melampaui kecerdasan manusia. Sebuah surat yang ditandatangani oleh lebih dari 850 orang, termasuk ilmuwan komputer terkemuka, pengusaha, dan tokoh budaya, menyerukan penghentian sementara perkembangan ini sampai ada upaya perlindungan.

Siapa yang Menyampaikan Kekhawatiran Ini?

Daftar penandatangannya berbunyi seperti siapa yang berasal dari dunia teknologi dan seterusnya. Geoffrey Hinton dan Yoshua Bengio, yang sering disebut sebagai “bapak baptis” AI karena karya inovatif mereka, telah turut menyuarakan pendapat mereka. Di samping mereka ada Steve Wozniak, salah satu pendiri Apple, dan Richard Branson, pendiri Virgin Group. Kelompok ini juga mencakup akademisi, tokoh media seperti Stephen Fry, pemimpin agama, dan mantan politisi. Yang tidak termasuk dalam daftar adalah Sam Altman (CEO OpenAI) dan Mustafa Suleyman (pemimpin AI Microsoft), meskipun sebelumnya mereka sudah memperingatkan tentang potensi bahaya AI tingkat lanjut.

Memahami Superintelligence dan AGI

Inti perdebatan berkisar pada superintelligence, sebuah istilah yang secara umum dipahami sebagai AI yang melebihi kemampuan kognitif manusia dalam segala aspek. Kekhawatirannya adalah bahwa sistem seperti itu, jika sudah terbentuk, akan menjadi tidak terkendali, sehingga berpotensi menimbulkan konsekuensi yang tidak diinginkan dan berbahaya. Gagasan tentang mesin yang pada akhirnya melampaui kendali manusia berakar pada ilmu komputer awal, dengan Alan Turing memperkirakan pada tahun 1950-an bahwa ini akan menjadi “hasil bawaan”.

Diskusi juga sering kali mencakup Kecerdasan Umum Buatan (AGI), yang sering dianggap sebagai batu loncatan menuju kecerdasan super. AGI secara umum didefinisikan sebagai AI yang menyamai atau melampaui kemampuan kognitif manusia. Sam Altman, misalnya, memandang AGI sebagai kekuatan yang berpotensi transformatif, mampu “mengangkat kemanusiaan”, dan membedakannya dari skenario di mana mesin mengambil alih kendali. Namun, beberapa kritikus berpendapat bahwa AGI masih dapat menimbulkan risiko yang signifikan dan terlalu erat kaitannya dengan bahaya superintelligence jika tidak dilakukan tanpa pertimbangan yang matang.

Mengapa Kekhawatiran Meningkat

Seruan untuk jeda berasal dari beberapa kekhawatiran yang saling berhubungan. Surat tersebut secara khusus menyoroti kekhawatiran akan:

  • Gangguan ekonomi: AI dapat mengotomatisasi pekerjaan dalam skala besar, yang menyebabkan meluasnya pengangguran dan ketidakstabilan ekonomi.
  • Hilangnya otonomi: Manusia bisa kehilangan kendali atas kehidupan mereka ketika sistem AI mengambil keputusan dengan konsekuensi yang luas.
  • Ancaman terhadap kebebasan dan martabat: Penggunaan AI untuk pengawasan dan manipulasi dapat mengikis kebebasan sipil dan hak asasi manusia.
  • Risiko keamanan nasional: AI dapat dijadikan senjata, sehingga menyebabkan bentuk peperangan dan ketidakstabilan baru.
  • Risiko eksistensial: Dalam skenario paling ekstrem, pengembangan AI yang tidak terkendali dapat mengancam kelangsungan hidup umat manusia.

Peran Perusahaan Teknologi

Upaya untuk menciptakan AI yang lebih canggih antara lain didorong oleh persaingan yang ketat di antara perusahaan-perusahaan teknologi. Perlombaan ini sering kali dibingkai dalam konteks keamanan nasional dan dominasi ekonomi. Beberapa perusahaan, seperti Meta, memanfaatkan desas-desus seputar AI canggih dengan menggunakan istilah seperti “superintelligence” untuk mempromosikan model terbaru mereka. Namun, upaya untuk mencapai supremasi AI ini dapat menutupi perlunya pertimbangan yang cermat terhadap potensi risiko dan pengembangan protokol keselamatan yang kuat.

Seruan untuk Berhati-hati

Meningkatnya suara-suara yang menyerukan penghentian sementara perlombaan menuju superintelligence mencerminkan keprihatinan yang mendalam mengenai potensi konsekuensi dari pengembangan AI yang tidak terkendali. Para penandatangan percaya bahwa moratorium superintelligence diperlukan sampai ada konsensus ilmiah yang luas bahwa superintelligence dapat dikembangkan dengan aman dan terkendali, dengan dukungan publik yang besar. Hal ini mencakup pengembangan kerangka pengaman dan etika sebelum menciptakan sistem yang mampu melampaui kecerdasan manusia, daripada mencoba mengendalikannya setelah hal tersebut terjadi.

Perkembangan superintelligence menghadirkan risiko yang tidak hanya bersifat teknologi; mereka pada dasarnya adalah manusia, yang mempengaruhi kebebasan kita, kesejahteraan kita, dan kemungkinan besar keberadaan kita. – Penandatangan surat

Pada akhirnya, perdebatan yang sedang berlangsung menggarisbawahi perlunya pendekatan yang bijaksana dan kolaboratif dalam pengembangan AI, dengan memprioritaskan kesejahteraan manusia dan dampak sosial di samping kemajuan teknologi.