Advertisement
Advertisement
Advertisement
Advertisement

Mengenal Superintelligence AI, Mengapa Banyak Dikhawatirkan Akan Jadi Akhir Umat Manusia?

Rahman Asmardika , Jurnalis-Jum'at, 24 Oktober 2025 |16:45 WIB
Mengenal Superintelligence AI, Mengapa Banyak Dikhawatirkan Akan Jadi Akhir Umat Manusia?
Ilustrasi.
A
A
A

JAKARTA – Ratusan tokoh dari berbagai latar belakang, mulai dari selebriti, politikus, hingga pemimpin perusahaan dan ilmuwan teknologi, telah menandatangani pernyataan untuk melarang pengembangan apa yang disebut dengan kecerdasan buatan (AI) super atau superintelijen. Pernyataan ini menegaskan kekhawatiran akan potensi dampak buruk AI yang mungkin menjadi akhir dari umat manusia.

Apa Itu Superintelligence AI?

"Superintelligence" atau yang diartikan sebagai “Kecerdasan Super”, dalam konteks ini berarti sistem buatan yang mampu mengungguli manusia dalam hampir semua tugas kognitif, termasuk pembelajaran, penalaran, perencanaan, dan kreativitas. Ini termasuk mempelajari tugas-tugas baru, bernalar tentang masalah kompleks, merencanakan jangka panjang, dan menjadi kreatif, melampaui sistem "AI sempit" saat ini.

Para ahli sering menggunakan istilah ini bersama dengan Kecerdasan Umum Buatan (AGI), sebuah sistem yang mampu memahami atau mempelajari tugas intelektual apa pun yang dapat dilakukan manusia. Superintelijen adalah langkah selanjutnya, di mana sistem tersebut secara signifikan melampaui kemampuan manusia.

Namun, risiko yang terkait dengan superintelijen mencakup kemungkinan operator manusia kehilangan kendali, sistem yang memperbaiki diri sendiri bertindak dengan cara tidak dapat diprediksi manusia, dan jika mekanisme keselamatan gagal, konsekuensinya bahkan dapat bersifat eksistensial.

 

Meskipun pendukung pengembangan AI tingkat lanjut berpendapat AI dapat memecahkan masalah besar seperti pengobatan penyakit, mitigasi perubahan iklim, dan peningkatan produktivitas, para kritikus mengingatkan bahwa kerangka regulasi dan keselamatan masih jauh tertinggal dari laju pengembangan.

Larangan Pengembangan Superintelijen AI

Untuk mencegah hal tersebut terjadi, sebuah pernyataan baru yang dikoordinasikan oleh organisasi nirlaba Future of Life Institute (FLI) menyerukan pelarangan pengembangan AI superintelijen hingga ada "konsensus ilmiah yang luas bahwa hal itu dapat dilakukan dengan aman dan terkendali". Surat tersebut mendesak agar pengembangan tidak dilanjutkan hingga ada mekanisme keamanan andal dan kesepakatan sosial.

Dilansir dari Business Insider, di antara ratusan tokoh yang menandatangani surat tersebut terdapat pelopor AI seperti Geoffrey Hinton dan Yoshua Bengio, pemimpin teknologi seperti Steve Wozniak, mantan Presiden Irlandia Mary Robinson, tokoh kerajaan Pangeran Harry dan Meghan Markle, penasihat agama, serta tokoh politik seperti Susan Rice.

Surat itu disertai data jajak pendapat yang menunjukkan hanya sekitar 5 persen orang Amerika yang mendukung pengembangan superintelijen tanpa aturan, sementara sekitar tiga perempat mendukung regulasi ketat.

 

Sebelumnya, sudah ada seruan untuk menghentikan pelatihan model superintelijen. Pada Maret 2023, FLI dan pihak lain menyerukan penghentian pelatihan "eksperimen AI raksasa" selama enam bulan. Namun, kali ini seruannya berbeda, yaitu pelarangan menyeluruh terhadap sistem tersebut hingga terbukti aman.

Penyelenggara berpendapat bahwa terdapat persaingan ketat di antara perusahaan teknologi besar, termasuk OpenAI, Google, Meta Platforms, Anthropic, dan xAI, untuk mengembangkan AGI dan seterusnya. Kekhawatiran utama adalah persaingan ini bisa mengesampingkan aspek keamanan.

(Rahman Asmardika)

      
Follow WhatsApp Channel Okezone untuk update berita terbaru setiap hari
Berita Terkait
Telusuri berita ototekno lainnya
Advertisement
Advertisement
Advertisement