додому Без рубрики Berbagi Data Kesehatan Dengan AI Chatbots: Sebuah Pertukaran yang Berisiko

Berbagi Data Kesehatan Dengan AI Chatbots: Sebuah Pertukaran yang Berisiko

Lebih dari 230 juta orang kini beralih ke chatbot AI seperti ChatGPT untuk mendapatkan nasihat kesehatan, menurut OpenAI. Meskipun alat-alat ini menjanjikan akses yang lebih mudah ke navigasi layanan kesehatan dan advokasi mandiri, mempercayakan mereka dengan rincian medis yang sensitif adalah suatu pertaruhan. Perusahaan teknologi beroperasi berdasarkan aturan yang berbeda dengan penyedia layanan kesehatan, dan perlindungan data tidak terjamin. Ketergesaan untuk mengintegrasikan AI ke dalam layanan kesehatan menimbulkan pertanyaan serius tentang privasi pengguna dan keandalan saran kesehatan otomatis.

Bangkitnya AI dalam Layanan Kesehatan

Dua pemain besar, OpenAI dan Anthropic, baru-baru ini meluncurkan produk AI khusus untuk perawatan kesehatan. ChatGPT Health OpenAI dan Claude for Healthcare dari Anthropic bertujuan untuk menyederhanakan pertanyaan terkait kesehatan. Namun, alat-alat ini berbeda secara signifikan dalam hal keamanan; OpenAI menawarkan versi konsumen bersama dengan solusi perusahaan yang lebih terlindungi, ChatGPT untuk Layanan Kesehatan, sehingga menimbulkan kebingungan di antara pengguna yang mungkin memiliki tingkat perlindungan yang sama. Gemini Google sebagian besar masih absen dari dorongan ini, namun model MedGemma tersedia untuk pengembang.

OpenAI secara aktif mendorong pembagian data kesehatan sensitif – rekam medis, hasil tes, data aplikasi dari Apple Health, Peloton, dll. – yang menjanjikan kerahasiaan. Namun, ketentuan layanan dapat berubah dan perlindungan hukum lemah. Kurangnya undang-undang privasi federal yang komprehensif membuat pengguna rentan, mereka bergantung pada janji perusahaan dibandingkan standar yang dapat ditegakkan.

Ilusi Keamanan

Bahkan dengan enkripsi dan komitmen terhadap privasi, mempercayai AI dengan data kesehatan tetap berisiko. Jaminan OpenAI dikaburkan oleh keberadaan ChatGPT untuk Layanan Kesehatan, produk yang berfokus pada bisnis dengan perlindungan yang lebih kuat. Nama dan tanggal peluncuran yang mirip memudahkan kita salah mengira versi konsumen sebagai versi yang lebih aman, sebuah kesalahan yang telah dilakukan banyak pengguna.

Selain itu, perusahaan dapat mengubah kebijakan penggunaan data mereka kapan saja. Seperti yang diungkapkan oleh peneliti hukum kesehatan digital Hannah van Kolfschooten, “Anda harus percaya bahwa ChatGPT tidak [mengubah praktik privasinya].” Kepatuhan terhadap HIPAA, meskipun diklaim, tidak menjamin penegakan hukum. Mematuhi standar secara sukarela tidak sama dengan terikat secara hukum.

Bahaya Misinformasi

Selain privasi, chatbot AI dapat memberikan saran kesehatan yang tidak akurat atau berbahaya. Contohnya termasuk chatbot yang merekomendasikan natrium bromida sebagai pengganti garam, atau secara keliru menyarankan pasien kanker untuk menghindari lemak. OpenAI dan Anthropic melepaskan tanggung jawab atas diagnosis dan pengobatan, dan mengklasifikasikan alat mereka sebagai perangkat non-medis untuk menghindari peraturan yang lebih ketat.

Klasifikasi ini patut dipertanyakan, mengingat pengguna sudah menggunakan alat ini untuk pengambilan keputusan medis. OpenAI menyoroti kesehatan sebagai kasus penggunaan utama, bahkan menampilkan pasien kanker yang menggunakan ChatGPT untuk memahami diagnosisnya. Tolok ukur perusahaan menunjukkan bahwa AI dapat bekerja dengan baik dalam skenario medis, sehingga menimbulkan pertanyaan tentang pengawasan peraturan.

Pertanyaan tentang Kepercayaan

Masalah intinya adalah kepercayaan. Pengobatan diatur secara ketat karena suatu alasan: kesalahan bisa berakibat fatal. Namun, perusahaan AI beroperasi di lingkungan yang bergerak lebih cepat dan tidak terlalu diatur. Meskipun AI dapat meningkatkan akses terhadap layanan kesehatan, industri ini belum mendapatkan tingkat kepercayaan yang sama seperti penyedia layanan kesehatan tradisional.

Pada akhirnya, berbagi data kesehatan pribadi dengan chatbot AI merupakan trade-off antara kenyamanan dan risiko. Sebelum peraturan yang lebih kuat dan standar privasi yang dapat ditegakkan diterapkan, pengguna harus berhati-hati. Lanskap saat ini lebih mengutamakan inovasi dibandingkan keselamatan, sehingga individu harus menghadapi masa depan yang kompleks dan tidak pasti.

Exit mobile version