Tak mau Terburu-buru Atur AI, Kominfo: Terlalu Cepat Belum Tentu Bagus

Tangguh Yudha, Jurnalis
Senin 05 Februari 2024 12:07 WIB
Ilustrasi. (Foto: Reuters)
Share :

JAKARTA – Perkembangan artificial Intelligence (AI) atau kecerdasan buatan yang semakin pesat membutuhkan regulasi untuk mencegah penyalahgunaan oleh pihak yang tidak bertanggung jawab. Terkait hal ini, Kementerian Komunikasi dan Informatika (Kominfo) menekankan bahwa pengaturan AI tidak bisa terburu-buru karena berpotensi memberikan dampak buruk.

Berbicara pada seminar bertajuk "Menuju Etika dan Regulasi AI di Indonesia, Senin (5/2/2024), Sekretaris Ditjen Aptika Kominfo, Dr. I Nyoman Adhiarna, M. Eng, mengatakan bahwa terlalu cepat meregulasi AI justru akan meminimalisir manfaat yang bisa didapat dari kecerdasan buatan tersebut. Selain itu regulasi yang terburu-buru juga berpotensi "salah atur" lantaran peraturan yang dibuat cenderung belum dikaji secara matang.

"Mengatur AI ini kalau terlalu cepat diatur belum tentu bagus karena manfaat dari AI belum tentu kita bisa nikmati. Dan kita sendiri belum tentu tahu bagaimana mengaturnya," ungkap Nyoman dalam paparannya.

Meski demikian, Nyoman menyampaikan bahwa terlalu lambat membuat aturan AI juga bisa memberikan dampak yang tidak baik. Ia menilai terlambat membuat aturan AI akan membuat efek buruk yang dapat dihasilkan oleh AI semakin meluas.

"Karena itu kenapa Kominfo menyusun surat edaran mengenai etika penggunaan dan pemanfaatan AI. Surat edaran bisa menjadi panduan bagi pelaku usaha aktivitas pemrograman berbasis kecerdasan artifisial pada PSE lingkup publik dan privat," jelasnya.

Untuk diketahui, Surat Edaran Menteri Komunikasi dan Informatika Nomor 9 Tahun 2023 tentang Etika Kecerdasan Artifisial ditandatangani tanggal 19 Desember 2023. Di dalamnya memuat tiga kebijakan yaitu nilai etika, pelaksanaan nilai etika, dan tanggung jawab dalam pemanfaatan dan pengembangan kecerdasan artifisial.

Adapun kebijakan tentang tanggung jawab dalam pemanfaatan dan pengembangan AI, Kominfo menyatakan PSE lingkup publik dan privat mewujudkan tanggung jawab pengembangan dan pemanfaatannya melalui tiga cara.

Pertama, memastikan AI tidak diselenggarakan sebagai penentu kebijakan dan/atau pengambil keputusan yang menyangkut kemanusiaan. Kedua, memberikan informasi yang berkaitan dengan pengembangan teknologi berbasis kecerdasan artifisial oleh pengembang untuk mencegah dampak negatif dan kerugian dari teknologi yang dihasilkan. Dan ketiga, memperhatikan manajemen risiko dan manajemen krisis dalam pengembangan AI.

(Rahman Asmardika)

Halaman:
Share :
Follow WhatsApp Channel Okezone untuk update berita terbaru setiap hari
Topik Artikel :
Berita Terkait
Terpopuler
Telusuri berita Ototekno lainnya