BEIJING – China telah mengusulkan syarat keamanan bagi perusahaan yang menawarkan layanan berbasis AI generatif, termasuk daftar hitam sumber data yang tidak dapat digunakan untuk melatih model AI.
Ketentuan tersebut dipublikasikan pada Rabu (11/10/2023) oleh Komite Standardisasi Keamanan Informasi Nasional, yang mencakup pejabat dari Cyberspace Administration of China (CAC), Kementerian Perindustrian dan Teknologi Informasi, dan polisi.
AI Generatif, yang populer berkat keberhasilan chatbot ChatGPT dari OpenAI, diketahui mampu mempelajari cara mengambil tindakan dari data masa lalu dan membuat konten baru seperti teks atau gambar berdasarkan pelatihan tersebut.
Komite mengusulkan untuk melakukan penilaian keamanan terhadap setiap konten yang digunakan untuk melatih model AI generatif yang berhadapan dengan publik, dengan konten yang mengandung "lebih dari 5% informasi ilegal dan berbahaya" akan dimasukkan ke dalam daftar hitam.
Jenis informasi semacam ini mencakup "menganjurkan terorisme" atau kekerasan, serta "menggulingkan sistem sosialis", "merusak citra negara", dan "merongrong persatuan nasional dan stabilitas sosial".
Kebijakan ini menyatakan bahwa informasi yang disensor di internet China tidak boleh digunakan untuk melatih model. Penerbitan peraturan ini dilakukan lebih dari sebulan setelah para regulator memberikan izin kepada beberapa perusahaan teknologi China, termasuk mesin pencari Baidu, untuk meluncurkan chatbot bertenaga AI mereka kepada publik.
Di bulan Juli, badan regulator dunia maya menerbitkan langkah-langkah yang mengendalikan layanan semacam itu yang menurut para analis jauh lebih lunak dibandingkan dengan langkah-langkah yang diuraikan dalam draft bulan April.