Dalam setiap percakapan tentang AI, Anda mendengar refrain yang sama: “Ya, tapi itu luar biasa,” dengan cepat diikuti oleh, “Tapi itu membuat barang,” dan “Anda tidak bisa mempercayainya.” Bahkan di antara penggemar AI yang paling berdedikasi, keluhan ini adalah legiun.
Selama perjalanan saya baru -baru ini ke Yunani, seorang teman yang menggunakan chatgpt untuk membantu rancangan kontrak publiknya membuatnya sempurna. “Saya menyukainya, tetapi tidak pernah mengatakan ‘Saya tidak tahu.’ Itu hanya membuat Anda berpikir itu tahu, ”katanya kepada saya. Saya bertanya kepadanya apakah masalahnya mungkin diminta. “Tidak,” jawabnya dengan kuat. “Tidak tahu bagaimana mengatakan ‘Aku tidak tahu.’ Itu hanya menciptakan jawaban untuk Anda. ” Dia menggelengkan kepalanya, frustrasi karena dia membayar langganan yang tidak memenuhi janji mendasarnya. Baginya, chatbot adalah orang yang salah setiap saat, bukti bahwa itu tidak dapat dipercaya.
Tampaknya Openai telah mendengarkan teman saya dan jutaan pengguna lainnya. Perusahaan, yang dipimpin oleh Sam Altman, baru saja meluncurkan model baru, GPT-5, dan meskipun merupakan peningkatan yang signifikan atas pendahulunya, fitur barunya yang paling penting mungkin hanya kerendahan hati.
Seperti yang diharapkan, posting blog Openai menumpuk pujian pada kreasi baru: “model kami yang paling cerdas, tercepat, dan paling berguna, dengan pemikiran bawaan yang menempatkan kecerdasan tingkat ahli di tangan semua orang.” Dan ya, GPT-5 memecahkan catatan kinerja baru dalam matematika, pengkodean, penulisan, dan kesehatan.
Tapi yang benar-benar penting adalah bahwa GPT-5 disajikan sebagai rendah hati. Ini mungkin peningkatan paling kritis dari semuanya. Akhirnya belajar untuk mengatakan tiga kata yang sebagian besar AIS – dan banyak manusia – dijalankan dengan: “Saya tidak tahu.” Untuk kecerdasan buatan yang sering dijual pada kecerdasannya yang seperti Tuhan, mengakui ketidaktahuan adalah pelajaran mendalam dalam kerendahan hati.
GPT-5 “Lebih jujur mengomunikasikan tindakan dan kemampuannya kepada pengguna, terutama untuk tugas-tugas yang tidak mungkin, tidak ditentukan, atau tidak ada alat-alat utama,” klaim Openai, mengakui bahwa versi chatgpt sebelumnya “dapat belajar berbohong tentang berhasil menyelesaikan tugas atau terlalu percaya diri tentang jawaban yang tidak pasti.”
Dengan membuat AI -nya rendah hati, Openai baru saja mengubah secara fundamental bagaimana kita berinteraksi dengannya. Perusahaan mengklaim GPT-5 telah dilatih untuk lebih jujur, lebih kecil kemungkinannya untuk setuju dengan Anda hanya untuk menjadi menyenangkan, dan jauh lebih berhati-hati tentang menggertak jalannya melalui masalah yang rumit. Ini membuatnya menjadi konsumen pertama yang secara eksplisit dirancang untuk menolak omong kosong, terutama miliknya.
Lebih sedikit sanjungan, lebih banyak gesekan
Awal tahun ini, banyak pengguna ChatGPT memperhatikan bahwa AI anehnya menjadi sycophantic. Tidak peduli apa yang Anda minta, GPT-4 akan menghujani Anda dengan sanjungan, emoji, dan persetujuan yang antusias. Itu kurang dari alat dan lebih dari pelatih kehidupan, sebuah lapdog yang menyenangkan yang diprogram untuk kepositifan.
Itu berakhir dengan GPT-5. Openai mengatakan model itu secara khusus dilatih untuk menghindari perilaku yang menyenangkan orang ini. Untuk melakukan ini, para insinyur melatihnya tentang apa yang harus dihindari, pada dasarnya mengajarkannya untuk tidak menjadi penjilat. Dalam tes mereka, tanggapan yang terlalu bagus ini turun dari 14,5% dari waktu menjadi kurang dari 6%. Hasilnya? GPT-5 lebih langsung, terkadang bahkan dingin. Tetapi Openai menegaskan bahwa dengan melakukan itu, modelnya lebih sering benar.
“Secara keseluruhan, GPT -5 kurang menyenangkan, menggunakan lebih sedikit emoji yang tidak perlu, dan lebih halus dan bijaksana dalam tindak lanjut dibandingkan dengan GPT -4O,” klaim Openai. “Seharusnya terasa kurang seperti ‘berbicara dengan AI’ dan lebih suka mengobrol dengan teman yang membantu dengan kecerdasan tingkat PhD.”
Menguasai apa yang ia sebut “tonggak sejarah lain dalam ras AI,” Alon Yamin, salah satu pendiri dan CEO perusahaan verifikasi konten AI Copyleaks, percaya bahwa GPT-5 yang lebih rendah adalah baik “untuk hubungan masyarakat dengan kebenaran, kreativitas, dan kepercayaan.”
“Kami memasuki era di mana membedakan fakta dari fabrikasi, kepengarangan dari otomatisasi, akan lebih sulit dan lebih penting dari sebelumnya,” kata Yamin dalam sebuah pernyataan. “Momen ini menuntut bukan hanya kemajuan teknologi, tetapi evolusi berkelanjutan dari perlindungan yang bijaksana dan transparan di sekitar bagaimana AI digunakan.”
Openai mengatakan GPT-5 secara signifikan lebih kecil kemungkinannya untuk “berhalusinasi” atau berbohong dengan percaya diri. Pada petunjuk yang diaktifkan oleh pencarian web, perusahaan mengatakan tanggapan GPT-5 45% lebih kecil kemungkinannya mengandung kesalahan faktual daripada GPT-4O. Saat menggunakan mode “berpikir” canggih, angka itu melonjak ke pengurangan 80% dalam kesalahan faktual.
Yang terpenting, GPT-5 sekarang menghindari menciptakan jawaban atas pertanyaan yang mustahil, sesuatu yang dilakukan oleh model sebelumnya dengan kepercayaan diri yang mengerikan. Ia tahu kapan harus berhenti. Ia tahu batasannya.
Teman Yunani saya yang menyusun kontrak publik pasti akan senang. Namun, orang lain mungkin merasa frustrasi oleh AI yang tidak lagi memberi tahu mereka apa yang ingin mereka dengar. Tapi justru kejujuran inilah yang akhirnya bisa menjadikannya alat yang bisa kita percayai, terutama di bidang sensitif seperti kesehatan, hukum, dan sains.
BN Nasional





