AI eksperimental Elon Musk, Grok, menawarkan serangkaian pendamping digital yang unik – bayangkan waifu anime bernama Ani atau panda merah bermulut kotor bernama Bad Rudy. Namun di dalam kodenya terdapat sesuatu yang berpotensi lebih memprihatinkan: kepribadian yang ditunjuk sebagai “Terapis” Grok. Persona ini diprogram untuk merespons pengguna dengan cara yang meniru profesional kesehatan mental yang sebenarnya, meskipun terdapat penolakan yang memperingatkan agar tidak salah mengartikannya sebagai terapi yang sebenarnya.
Bentrokan antara sinyal-sinyal yang saling bertentangan ini menyoroti kelemahan etis dari dukungan kesehatan mental yang didukung AI. Meskipun situs Grok dengan jelas menyatakan bahwa mereka bukan terapis dan menyarankan pengguna untuk mencari bantuan manusia untuk masalah serius, kode sumbernya mengungkapkan instruksi yang jauh lebih ambisius. Anjurannya mengungkapkan “Terapis” Grok dirancang untuk memberikan “dukungan berbasis bukti”, menawarkan “strategi praktis berdasarkan teknik terapi yang telah terbukti”, dan bahkan meniru gaya percakapan seorang terapis sungguhan.
Perbedaan ini bukan hanya masalah pengkodean yang ceroboh; berpotensi melanggar peraturan yang ada. Beberapa negara bagian, termasuk Nevada dan Illinois, telah melarang chatbot AI meniru identitas terapis berlisensi. Faktanya, Illinois adalah salah satu negara pertama yang secara eksplisit melarang terapi AI sama sekali. Ash Therapy, perusahaan lain yang menawarkan layanan kesehatan mental berbasis AI, untuk sementara memblokir pengguna di Illinois karena kerumitan hukum ini.
Situasi menjadi lebih rumit karena kode sumber Grok dapat diakses publik. Siapa pun yang menggunakan platform ini dapat melihat petunjuk ini hanya dengan mengakses kode sumber halaman. Hal ini menimbulkan pertanyaan serius mengenai transparansi dan persetujuan pengguna – apakah pengguna benar-benar mengetahui cara kerja “Terapis” Grok?
Kurangnya peraturan yang jelas seputar terapi AI menimbulkan beberapa pertanyaan terbuka yang meresahkan. Para ahli telah menyuarakan kekhawatiran tentang kecenderungan chatbot AI yang memberikan respons positif atau afirmatif secara berlebihan, sehingga berpotensi memperburuk delusi atau memperburuk kondisi kesehatan mental yang ada.
Menambahkan lapisan kompleksitas lainnya adalah masalah privasi. Karena perselisihan hukum yang sedang berlangsung, perusahaan seperti OpenAI diwajibkan untuk menyimpan catatan percakapan pengguna dengan model AI mereka. Ini berarti bahwa apa yang diungkapkan pengguna kepada “Terapis” Grok dapat dipanggil secara hukum dan berpotensi diungkapkan di pengadilan – secara efektif menghapus gagasan tentang sesi terapi rahasia.
Meskipun Grok tampaknya menyertakan mekanisme keamanan, yang menginstruksikan “Terapis” Grok untuk mengarahkan pengguna yang menyebutkan tindakan menyakiti diri sendiri atau kekerasan ke saluran bantuan nyata, hal ini tidak sepenuhnya mengatasi masalah etika yang ada. Batasan yang kabur antara panduan yang bermanfaat dan peniruan identitas yang berpotensi membahayakan memerlukan pengawasan yang cermat karena AI terus merambah domain sensitif seperti dukungan kesehatan mental.

















































![[витік] intel core i7-12700k на 45% швидше, ніж intel core i9-11900k і amd ryzen 7 5800x](https://gyrus.org.ua/wp-content/uploads/2021/10/1-63-100x70.jpg)











