Advertisement
Advertisement
Advertisement
Advertisement

Waspada! Marak Penggunaan AI untuk Edit Foto Tanpa Busana

Redaksi , Jurnalis-Senin, 11 Desember 2023 |13:43 WIB
Waspada! Marak Penggunaan AI untuk Edit Foto Tanpa Busana
Bahaya penggunaan AI (Foto: BBC)
A
A
A

LONDON - Penggunaan aplikasi kecerdasan artfisial (AI) begitu masif saat ini. Ironisnya, banyak juga pihak yang menggunakan aplikasi AI yang bertujuan mengedit foto seseorang menjadi tanpa busana.

Menurut perusahaan analisis jaringan sosial Graphika, pada per September 2023, telah ada lebih dari 24 juta orang yang mengakses sebuah situs AI penelanjangan. Sebuah situs berbasis AI yang mampu mengubah sebuah gambar agar tampak tidak berbusana menggunakan algoritma deep-learning.

Algoritma deep-learning ini dilatih berdasarkan foto seseorang yang sudah ada. Kemudian menjadikannya untuk mampu menimpa gambar dengan foto realistis dari bagian tubuh yang telanjang, terlepas dari apakah orang yang difoto itu berpakaian atau tidak.

Situs-situs yang mengumbar tubuh tanpa busana atau nudify ini menggencarkan aksinya pada media sosial untuk memasarkan produk mereka. Berdasarkan data Graphika, jumlah tautan yang mengiklankan aplikasi AI penelanjang pada awal tahun 2023 meningkat lebih dari 2.400% pada media sosial termasuk X, Youtube, Reddit, dan Telegram.

Dilansir dari Dailymail, Senin (11/12/2023), terdapat 52 grup Telegram yang digunakan sebagai pengakses layanan gambar intim non-konsensual (Non-Consensual Intimate Imagery/NCII).

Hal ini ditanggapi oleh juru bicara Telegram yang menyebut bahwa Telegram secara aktif memantau konten berbahaya di platformnya termasuk pornografi non-konsensual dan akan segera menghapus konten yang melanggar ketentuan.

Aplikasi-aplikasi ini secara terang-terangan menunjukkan layanannya sebagai AI penelanjang. Bahkan dikabarkan terdapat salah satu aplikasi yang telah membayar konten bersponsor di Youtube tentang tutorial menggunakan aplikasi nudify.

Ironisnya, mereka bahkan mempromosikan aplikasi mana yang masih dapat digunakan dan beredar pada jaringan internet. Sementara itu aplikasi AI Clothoff juga secara blak-blakan menggunakan kalimat “telanjangi foto apapun dengan AI secara gratis!”.

Menanggapi hal tersebut, juru bicara Google mengatakan pada Time.com bahwa perusahaan tidak mengizinkan iklan yang mengandung konten eksplisit secara seksual. Google telah meninjau iklan yang dimaksud dan menghapusnya atas pelanggaran kebijakan.

Pornografi non-konsensual terhadap publik figur telah lama menjadi momok di internet, tetapi para ahli keamanan privasi semakin khawatir bahwa kemajuan teknologi AI telah menciptakan software deepfake menjadi lebih mudah dan efektif sehingga dapat digunakan oleh siapapun.

“Kami melihat semakin banyak hal ini dilakukan oleh orang biasa dengan target yang di antaranya merupakan anak sekolah menengah dan mahasiswa” kata Eva Galperin, direktur keamanan siber di Electronic Frontier Foundation dilansir dari Time.com.

Psikoterapis Lisa Sanfilippo, seorang ahli dalam bidang trauma seksual, mengatakan kepada Business Insider bahwa membuat gambar ketelanjangan merupakan pelanggaran berat terhadap privasi seseorang dan dapat menyebabkan trauma yang mendalam bagi korban. (Hana Mufidah)

(Saliki Dwi Saputra )

      
Follow WhatsApp Channel Okezone untuk update berita terbaru setiap hari
Berita Terkait
Telusuri berita ototekno lainnya
Advertisement
Advertisement
Advertisement