Advertisement
Advertisement
Advertisement
Advertisement

Berpotensi Mengancam Manusia, Ratusan Tokoh Serukan Hentikan Pengembangan AI Superintelligence

Muhamad Fadli Ramadan , Jurnalis-Kamis, 23 Oktober 2025 |13:12 WIB
Berpotensi Mengancam Manusia, Ratusan Tokoh Serukan Hentikan Pengembangan AI Superintelligence
Ilustrasi.
A
A
A

JAKARTA – Seiring penggunaan kecerdasan buatan atau AI yang semakin luas, isu mengenai teknologi ini juga semakin banyak dibicarakan. AI tidak hanya memberikan kemudahan dan kemajuan besar, tetapi juga memiliki potensi mengancam kehidupan manusia.

Kini, ratusan tokoh dunia, mulai dari ilmuwan, mantan petinggi militer, seniman, hingga anggota keluarga kerajaan, menandatangani pernyataan yang menyerukan pelarangan pengembangan AI super, atau yang dikenal dengan superintelligence.

Surat pernyataan tersebut, yang diinisiasi oleh Future of Life Institute (FLI), menyatakan larangan ini tidak boleh dicabut sebelum ada konsensus ilmiah yang luas bahwa pengembangan superintelligence dapat dijalankan dengan aman dan terkendali.

Pernyataan ini digagas oleh sekelompok peneliti AI yang prihatin dengan pesatnya kemajuan teknologi. Lebih dari 800 tokoh ternama telah menandatangani dokumen tersebut, termasuk pakar AI Geoffrey Hinton, serta Pangeran Harry dan Meghan Markle.

Seruan ini menambah daftar panjang desakan untuk memperlambat laju pengembangan AI, di tengah kekhawatiran teknologi ini dapat mengubah struktur ekonomi dan budaya global.

 

Sementara itu, perusahaan teknologi besar seperti OpenAI, Google, dan Meta terus menginvestasikan miliaran dolar untuk memperkuat model AI mereka, membangun pusat data, dan mengintegrasikan fitur AI ke dalam berbagai produk.

“Sistem AI yang lebih mutakhir dapat melampaui sebagian besar individu dalam sebagian besar tugas kognitif hanya dalam beberapa tahun. Kemajuan ini membuka solusi untuk tantangan global utama, tetapi juga membawa risiko signifikan,” ujar Bengio, Profesor di Universitas Montreal, dalam siaran pers.

Direktur Eksekutif FLI, Anthony Aguirre, yang juga fisikawan di University of California, menilai perkembangan AI terjadi jauh lebih cepat—bahkan melebihi pemahaman masyarakat umum.

“Pada dasarnya, arah perkembangan ini ditentukan oleh perusahaan dan sistem ekonomi yang mendorong mereka, bukan oleh pilihan publik. Padahal, kita harus bertanya: apakah ini benar-benar masa depan yang kita inginkan? Apakah kita siap jika AI menggantikan peran manusia?” ujarnya.

 

Aguirre mengatakan dunia membutuhkan lebih banyak diskusi publik dan kebijakan nyata dalam mengatur arah pengembangan AI. Bahkan, ada kemungkinan dibentuk perjanjian internasional mengenai AI canggih, layaknya kesepakatan global untuk senjata nuklir dan teknologi berbahaya lainnya.

“Publik sebenarnya tidak menginginkan perlombaan ini. Sudah saatnya kita berhenti sejenak dan memutuskan bersama ke mana arah teknologi ini akan dibawa,” tutupnya.

(Rahman Asmardika)

      
Follow WhatsApp Channel Okezone untuk update berita terbaru setiap hari
Berita Terkait
Telusuri berita ototekno lainnya
Advertisement
Advertisement
Advertisement