Penelitian mendalam yang dilakukan oleh Dr. Yampolskiy mengungkapkan bahwa saat ini tidak ada bukti bahwa AI dapat dikendalikan dengan aman, sehingga muncul seruan untuk menghentikan pengembangan AI sampai keamanannya terjamin. Bukunya yang akan datang membahas risiko-risiko yang ada dan kebutuhan penting untuk meningkatkan langkah-langkah keamanan AI. Kredit: SciTechDaily.com
Menyoroti tidak adanya bukti pengendalian AI, Dr. Yampolskiy memperingatkan akan adanya risiko yang ada dan menganjurkan pendekatan yang hati-hati dalam pengembangan AI, dengan fokus pada keselamatan dan minimalisasi risiko.
Saat ini tidak ada bukti bahwa AI dapat dikendalikan dengan aman, menurut tinjauan ekstensif, dan tanpa bukti bahwa AI dapat dikendalikan, maka AI tidak boleh dikembangkan, demikian peringatan seorang peneliti.
Meskipun ada pengakuan bahwa masalah pengendalian AI mungkin merupakan salah satu masalah paling penting yang dihadapi umat manusia, masalah ini masih kurang dipahami, tidak didefinisikan dengan baik, dan kurang diteliti, Dr. Roman V. Yampolskiy menjelaskan.
Dalam bukunya yang akan datang, AI: Tidak dapat dijelaskan, Tidak dapat diprediksi, Tidak dapat dikendalikanPakar Keamanan AI Dr. Yampolskiy melihat potensi AI untuk mengubah masyarakat secara drastis, namun tidak selalu menguntungkan kita.
Ia menjelaskan: “Kita sedang menghadapi peristiwa yang hampir pasti terjadi dan berpotensi menyebabkan bencana besar. Tidak heran banyak orang menganggap hal ini sebagai masalah paling penting yang pernah dihadapi umat manusia. Hasilnya bisa berupa kemakmuran atau kepunahan, dan nasib alam semesta berada dalam bahaya.”
Kecerdasan super yang tidak terkendali
Yampolskiy telah melakukan tinjauan ekstensif terhadap literatur ilmiah AI dan menyatakan bahwa ia tidak menemukan bukti bahwa AI dapat dikendalikan dengan aman – dan bahkan jika ada pengendalian parsial, hal tersebut tidak akan cukup.
Ia menjelaskan: “Mengapa begitu banyak peneliti berasumsi bahwa masalah pengendalian AI dapat dipecahkan? Sejauh pengetahuan kami, tidak ada bukti mengenai hal itu, tidak ada bukti. Sebelum memulai upaya membangun AI yang terkendali, penting untuk menunjukkan bahwa masalahnya dapat diselesaikan.
“Hal ini, dikombinasikan dengan statistik yang menunjukkan bahwa pengembangan superintelligence AI hampir pasti terjadi, menunjukkan bahwa kita harus mendukung upaya keselamatan AI secara signifikan.”
Dia berpendapat bahwa kemampuan kita untuk menghasilkan perangkat lunak cerdas jauh melampaui kemampuan kita untuk mengontrol atau bahkan memverifikasinya. Setelah melakukan tinjauan literatur yang komprehensif, ia berpendapat bahwa sistem cerdas yang canggih tidak akan pernah bisa dikendalikan sepenuhnya sehingga akan selalu menghadirkan tingkat risiko tertentu, apa pun manfaat yang diberikannya. Ia meyakini bahwa tujuan komunitas AI adalah meminimalkan risiko sekaligus memaksimalkan potensi manfaatnya.
Apa saja kendalanya?
AI (dan superintelligence), berbeda dari program lain dalam kemampuannya mempelajari perilaku baru, menyesuaikan kinerjanya, dan bertindak semi-otonom dalam situasi baru.
Salah satu permasalahan dalam menjadikan AI ‘aman’ adalah bahwa kemungkinan pengambilan keputusan dan kegagalan yang dilakukan oleh makhluk super cerdas ketika ia menjadi lebih mampu tidak terbatas, sehingga terdapat banyak sekali masalah keamanan. Memprediksi masalah saja tidak mungkin terjadi dan melakukan mitigasi terhadap masalah tersebut melalui patch keamanan mungkin tidak cukup.
Pada saat yang sama, Yampolskiy menjelaskan, AI tidak dapat menjelaskan apa yang telah diputuskannya, dan/atau kita tidak dapat memahami penjelasan yang diberikan karena manusia tidak cukup pintar untuk memahami konsep yang diterapkan. Jika kita tidak memahami keputusan AI dan hanya memiliki ‘kotak hitam’, kita tidak dapat memahami masalahnya dan mengurangi kemungkinan terjadinya kecelakaan di masa depan.
Misalnya, sistem AI sudah ditugaskan untuk mengambil keputusan di bidang layanan kesehatan, investasi, ketenagakerjaan, perbankan, dan keamanan, dan masih banyak lagi. Sistem seperti ini harus mampu menjelaskan bagaimana mereka mengambil keputusan, terutama untuk menunjukkan bahwa keputusan tersebut bebas bias.
Yampolskiy menjelaskan: “Jika kita terbiasa menerima jawaban AI tanpa penjelasan, yang pada dasarnya memperlakukannya seperti sistem Oracle, kita tidak akan bisa mengetahui apakah AI mulai memberikan jawaban yang salah atau manipulatif.”
Mengontrol yang tidak dapat dikendalikan
Ketika kemampuan AI meningkat, otonominya juga meningkat namun kendali kita terhadapnya menurun, Yampolskiy menjelaskan, dan peningkatan otonomi sama dengan penurunan keselamatan.
Misalnya, agar superintelligence menghindari perolehan pengetahuan yang tidak akurat dan menghilangkan semua bias dari pemrogramnya, superintelligence dapat mengabaikan semua pengetahuan tersebut dan menemukan kembali/membuktikan semuanya dari awal, namun hal itu juga akan menghilangkan bias yang pro-manusia.
“Agen (manusia) yang kurang cerdas tidak dapat secara permanen mengendalikan agen yang lebih cerdas (ASI). Hal ini bukan karena kita mungkin gagal menemukan rancangan yang aman untuk kecerdasan super di antara semua rancangan yang mungkin ada, namun karena rancangan seperti itu tidak mungkin dilakukan, dan tidak ada. Superintelligence bukan berarti memberontak, melainkan tidak dapat dikendalikan,” jelasnya.
“Umat manusia sedang menghadapi sebuah pilihan, apakah kita akan menjadi seperti bayi, terurus namun tidak bisa mengendalikan diri, atau apakah kita menolak memiliki wali yang membantu namun tetap memegang kendali dan bebas.”
Ia menyatakan bahwa titik ekuilibrium dapat ditemukan di mana kita mengorbankan sejumlah kemampuan demi imbalan sejumlah kendali, dengan mengorbankan penyediaan sistem dengan tingkat otonomi tertentu.
Mendamaikan nilai-nilai kemanusiaan
Salah satu saran pengendalian adalah merancang mesin yang secara tepat mengikuti perintah manusia, namun Yampolskiy menunjukkan potensi konflik perintah, salah tafsir, atau penggunaan jahat.
Ia menjelaskan: “Manusia yang memegang kendali dapat menghasilkan perintah yang kontradiktif atau jelas-jelas jahat, sedangkan AI yang memegang kendali berarti manusia tidak melakukan hal tersebut.”
Jika AI bertindak lebih sebagai penasihat, maka AI dapat mengatasi masalah salah tafsir atas perintah langsung dan potensi perintah jahat, namun penulis berpendapat agar AI menjadi penasihat yang berguna, AI harus memiliki nilai-nilai unggulnya sendiri.
“Sebagian besar peneliti keamanan AI sedang mencari cara untuk menyelaraskan superintelligence di masa depan dengan nilai-nilai kemanusiaan. AI yang selaras dengan nilai akan menjadi bias menurut definisinya, bias yang pro-manusia, baik atau buruk tetaplah bias. Paradoks AI yang selaras dengan nilai adalah bahwa seseorang yang secara eksplisit memerintahkan sistem AI untuk melakukan sesuatu mungkin mendapat jawaban “tidak” sementara sistem tersebut mencoba melakukan apa yang sebenarnya diinginkan orang tersebut. Kemanusiaan dilindungi atau dihormati, tapi tidak keduanya,” jelasnya.
Meminimalkan risiko
Untuk meminimalkan risiko AI, menurutnya AI perlu dimodifikasi dengan opsi ‘batalkan’, terbatas, transparan, dan mudah dipahami dalam bahasa manusia.
Dia menyarankan semua AI harus dikategorikan sebagai dapat dikendalikan atau tidak dapat dikendalikan, dan tidak ada yang boleh diabaikan dan moratorium terbatas, dan bahkan larangan sebagian terhadap jenis teknologi AI tertentu harus dipertimbangkan.
Alih-alih berkecil hati, ia berkata: “Hal ini justru menjadi alasan, bagi lebih banyak orang, untuk menggali lebih dalam dan meningkatkan upaya, serta pendanaan untuk penelitian Keselamatan dan Keamanan AI. Kita mungkin tidak akan pernah mencapai AI yang 100% aman, namun kita bisa menjadikan AI lebih aman sesuai dengan upaya kita, dan ini jauh lebih baik daripada tidak melakukan apa pun. Kita perlu menggunakan kesempatan ini dengan bijak.”





