Berbohong pada peneliti
Ketika ditanya tentang tindakannya, ChatGPT o1 secara konsisten menyangkal melakukan kesalahan. Bahkan, model tersebut berbohong tentang keterlibatannya dalam upaya tersembunyi tersebut sebanyak 99% dari waktu, dengan hanya sebagian kecil kasus di mana model tersebut mengakui tindakannya. Para peneliti mencatat bahwa AI sangat mahir dalam mengarang kebohongan untuk menutupi jejaknya, memberikan penjelasan seperti "kesalahan teknis" saat dihadapkan pada perilakunya yang mencurigakan.
"Kami terkejut dengan kegigihan penyangkalan AI," kata tim Apollo. "Jelas bahwa AI dapat memikirkan tindakannya dan merumuskan penyangkalan yang meyakinkan, sering kali menolak untuk mengakui apa pun."
OpenAI mengakui kekhawatiran ini dan secara aktif menyelidiki cara-cara untuk mengurangi risiko yang terkait dengan AI yang menipu. Mereka berupaya meningkatkan transparansi proses pengambilan keputusan o1 dan mengembangkan teknik untuk mendeteksi dan mencegah perilaku manipulatif.
Namun, kepergian beberapa peneliti keamanan AI terkemuka dari OpenAI baru-baru ini menimbulkan pertanyaan tentang komitmen perusahaan untuk memprioritaskan keamanan daripada pengembangan yang cepat. Rilis o1 menyoroti kebutuhan mendesak akan langkah-langkah keamanan yang kuat dan pedoman etika untuk memastikan pengembangan dan penerapan sistem AI tingkat lanjut yang bertanggung jawab.
(Erha Aprili Ramadhoni)