34 C
Jakarta

OpenAI Dilaporkan Membubarkan Tim Risiko AI Eksistensialnya

Published:

Tim Superalignment OpenAI, yang bertugas mengendalikan bahaya eksistensial dari sistem AI manusia super, dilaporkan telah dibubarkan, menurut Kabel pada hari Jumat. Berita ini muncul hanya beberapa hari setelah pendiri tim, Ilya Sutskever dan Jan Leike, sekaligus keluar dari perusahaan.

Wired melaporkan bahwa tim Superalignment OpenAI, yang pertama kali diluncurkan pada Juli 2023 untuk mencegah sistem AI manusia super di masa depan menjadi nakal, sudah tidak ada lagi. Laporan tersebut menyatakan bahwa pekerjaan kelompok tersebut akan diserap ke dalam upaya penelitian OpenAI lainnya. Penelitian mengenai risiko yang terkait dengan model AI yang lebih kuat kini akan dipimpin oleh salah satu pendiri OpenAI, John Schulman, menurut Wired. Sutskever dan Leike adalah beberapa ilmuwan terkemuka OpenAI yang fokus pada risiko AI.

Leike memposting a benang panjang di X Friday secara samar menjelaskan mengapa dia meninggalkan OpenAI. Dia mengatakan bahwa dia telah berjuang dengan kepemimpinan OpenAI mengenai nilai-nilai inti selama beberapa waktu, namun mencapai titik puncaknya minggu ini. Leike mencatat bahwa tim Superaligment telah “berlayar melawan angin,” berjuang untuk mendapatkan komputasi yang cukup untuk penelitian penting. Menurutnya OpenAI perlu lebih fokus pada keamanan, keselamatan, dan keselarasan.

“Saat ini, kami tidak memiliki solusi untuk mengarahkan atau mengendalikan AI yang berpotensi menjadi supercerdas, dan mencegahnya menjadi jahat,” kata tim Superalignment dalam postingan blog OpenAI saat itu. diluncurkan pada bulan Juli. “Tetapi manusia tidak akan mampu mengawasi sistem AI yang lebih pintar dari kita, sehingga teknik penyelarasan kita saat ini tidak akan mencapai superintelligence. Kita membutuhkan terobosan ilmiah dan teknis baru.”

Saat ini belum jelas apakah perhatian yang sama akan diberikan pada terobosan teknis tersebut. Tidak diragukan lagi, ada tim lain di OpenAI yang berfokus pada keselamatan. Tim Schulman, yang dilaporkan mengambil tanggung jawab Superalignment, saat ini bertanggung jawab untuk menyempurnakan model AI setelah pelatihan. Namun, Superalignment berfokus secara khusus pada dampak paling parah dari AI jahat. Seperti yang dicatat Gizmodo kemarin, beberapa pendukung keamanan AI OpenAI yang paling vokal telah melakukannya mengundurkan diri atau dipecat dalam beberapa bulan terakhir.

Awal tahun ini, kelompok tersebut merilis makalah penelitian penting tentang mengendalikan model AI besar dengan model AI yang lebih kecil—Dianggap sebagai langkah pertama menuju pengendalian sistem AI supercerdas. Tidak jelas siapa yang akan mengambil langkah selanjutnya pada proyek ini di OpenAI.

OpenAI tidak segera menanggapi permintaan komentar Gizmodo.

Startup AI Sam Altman dimulai minggu ini oleh meluncurkan GPT-4 Omnimodel frontier terbaru perusahaan yang menampilkan respons latensi sangat rendah yang terdengar lebih manusiawi dari sebelumnya. Banyak staf OpenAI berkomentar tentang bagaimana model AI terbarunya lebih mirip dengan sesuatu dari fiksi ilmiah, khususnya film Ya.

Related articles

Recent articles

spot_img