JAKARTA - Perusahaan induk Google, Alphabet, telah menyusun ulang kebijakannya yang memandu penggunaan kecerdasan buatan (AI). Kebijakan baru Alphabet menghapus janji untuk tidak pernah menggunakan AI dengan cara "yang mungkin menyebabkan kerugian secara keseluruhan", yang termasuk menjadikan AI sebagai senjata serta menggunakannya untuk tujuan pengawasan.
Janji untuk menjauhi penggunaan yang buruk itu dibuat pada 2018, ketika ribuan karyawan Google memprotes keputusan perusahaan untuk mengizinkan Pentagon menggunakan algoritmanya guna menganalisis rekaman drone militer. Sebagai tanggapan, Alphabet menolak memperbarui kontraknya dengan militer Amerika Serikat (AS) dan segera mengumumkan empat garis merah yang tidak akan pernah dilanggar dalam penggunaan AI.
Saat menerbitkan serangkaian prinsip, Google menyertakan bagian berjudul "Aplikasi AI yang tidak akan kami kejar", yang di dalamnya tercantum "teknologi yang menyebabkan atau kemungkinan menyebabkan kerusakan secara keseluruhan" serta "senjata atau teknologi lain yang tujuan atau penerapan utamanya adalah untuk menyebabkan atau secara langsung memfasilitasi cedera pada orang." Pengawasan dan "teknologi yang tujuannya melanggar prinsip hukum internasional dan hak asasi manusia yang diterima secara luas" juga disebutkan dalam daftar hitam AI.
Namun, saat memperbarui prinsipnya awal minggu ini, Google menghapus seluruh bagian ini dari pedoman, yang berarti tidak ada lagi jaminan bahwa perusahaan tidak akan menggunakan AI untuk tujuan menyebabkan kerusakan. Sebaliknya, raksasa teknologi itu kini menawarkan komitmen samar untuk "mengembangkan dan menerapkan model serta aplikasi yang kemungkinan manfaatnya secara keseluruhan jauh lebih besar daripada risiko yang dapat diperkirakan."
Menanggapi perubahan kebijakan tersebut dalam sebuah posting blog, wakil presiden senior Google James Manyika dan salah satu pendiri Google DeepMind Demis Hassabis menulis bahwa "sejak pertama kali kami menerbitkan Prinsip AI pada 2018, teknologi tersebut telah berkembang pesat" dari topik penelitian pinggiran menjadi elemen yang meluas dalam kehidupan sehari-hari.
Mengutip "persaingan global yang terjadi untuk kepemimpinan AI dalam lanskap geopolitik yang semakin kompleks," keduanya mengatakan bahwa "demokrasi harus memimpin dalam pengembangan AI, dipandu oleh nilai-nilai inti seperti kebebasan, kesetaraan, dan penghormatan terhadap hak asasi manusia." Di antara aplikasi yang mereka bayangkan untuk AI saat ini adalah aplikasi yang mendukung keamanan nasional – oleh karena itu mereka menarik kembali jaminan sebelumnya untuk tidak menggunakan AI sebagai senjata, demikian dilansir IFL Science.
Dengan mengingat hal ini, Google mengatakan bahwa pihaknya kini berupaya memanfaatkan teknologi tersebut untuk "membantu mengatasi tantangan terbesar umat manusia" dan mempromosikan cara-cara untuk "memanfaatkan AI secara positif", tanpa menyebutkan secara pasti apa yang dilakukan dan – yang lebih penting – tidak dilakukan.
Tanpa membuat pernyataan khusus tentang jenis kegiatan apa yang tidak akan dilakukan oleh perusahaan tersebut, keduanya mengatakan bahwa penggunaan AI oleh Google akan "tetap konsisten dengan prinsip-prinsip hukum internasional dan hak asasi manusia yang diterima secara luas," dan bahwa mereka akan "bekerja sama untuk menciptakan AI yang melindungi orang, mendorong pertumbuhan global, dan mendukung keamanan nasional."
(Rahman Asmardika)