Chatbot Gemini AI Jadi Liar, Mengancam dan Suruh Pengguna untuk Mati

Rahman Asmardika, Jurnalis
Senin 18 November 2024 13:05 WIB
Ilustrasi. (Foto; Shutterstock)
Share :

Ini bukan pertama kalinya AI Google mendapat perhatian karena saran yang bermasalah atau berbahaya. Fitur Ringkasan AI sempat mendorong orang untuk makan satu batu sehari. Dan itu bukan hal yang unik untuk proyek AI Google. Ibu dari seorang remaja Florida berusia 14 tahun yang bunuh diri menggugat Character AI dan Google, menuduh bahwa itu terjadi karena chatbot Character AI mendorongnya setelah berbulan-bulan bercakap-cakap. Character AI mengubah aturan keamanannya setelah insiden tersebut.

Penafian di bagian bawah percakapan dengan Google Gemini, ChatGPT, dan platform AI percakapan lainnya mengingatkan pengguna bahwa AI mungkin salah atau mungkin berhalusinasi memberikan jawaban entah dari mana. Itu tidak sama dengan jenis ancaman mengganggu yang terlihat dalam insiden terbaru tetapi di ranah yang sama.

Protokol keamanan dapat mengurangi risiko ini, tetapi membatasi jenis respons tertentu tanpa membatasi nilai model dan sejumlah besar informasi yang diandalkannya untuk menghasilkan jawaban adalah tindakan yang seimbang. Kecuali ada beberapa terobosan teknis utama, akan ada banyak pengujian coba-coba dan eksperimen pada pelatihan yang terkadang masih menghasilkan respons AI yang aneh dan menjengkelkan.

(Rahman Asmardika)

Halaman:
Lihat Semua
Share :
Follow WhatsApp Channel Okezone untuk update berita terbaru setiap hari
Topik Artikel :
Berita Terkait
Terpopuler
Telusuri berita Ototekno lainnya