KECERDASAN buatan atau artificial intelligence (AI) telah membawa dampak besar dalam kehidupan. Tugas keseharian manusia dapat dikerjakan lebih mudah berkat bantuan AI.
Dibalik sisi postifnya, AI juga rentan untuk disalahgunakan. Kecerdasan buatan bisa dijadikan alat untuk melancarkan aksi kejahatan, salah satunya penipuan dengan menggunakan kloning suara.
Hal ini sudah terjadi pada Januari 2023 di Amerika Serikat (AS). Para penjahat menelepon seorang ibu, lalu membuat suara tiruan anaknya seolah-olah sedang diculik. Mereka lalu meminta tebusan kepada sang ibu.
Dilansir dari CNN, peristiwa bermula ketika telepon Jeniffer DeStefano berdering pada sore hari ketika ia baru saja turun dari mobil. Kala itu dia berada di studio tempat anaknya, Aubrey berlatih dansa.
Dia sebenarnya tidak ingin mengangkat telepon itu lantaran nomor yang masuk tidak dikenal. Namun dia ingat bahwa anaknya yang tua, Brianna sedang berlatih ski. DeStefano berpikir panggilan telepon ini berkaitan dengan anaknya yang mungkin dalam keadaan darurat saat latihan. Maka dari itu dia mengangkat teleponnya.
Namun ketika telepon diangkat, terdengar suara tangisan dan teriakan dari seorang anak perempuan. DeStefano kemudian menyadari bahwa itu merupakan suara putrinya, Brianna. Para penjahat itu pun meminta tebusan kepada sang ibu USD1 juta.
Setelah melewati kepanikan yang luar biasa, belakangan diketahui bahwa penculikan Brianna tersebut tidaklah benar. Hal itu diketahui dalam panggilan darurat 911 dan juga konfirmasi dari sang anak. Saat dihubungi, Brianna mengaku dalam keadaan baik-baik saja.
Pejabat federal AS memperingatkan bahwa kejahatan semacam ini semakin canggih. Hal ini tidak terlepas dari pertumbuhan AI yang murah dan dapat diakses siapapun. Para penjahat bisa mengkloning suara dan membuat potongan dialog yang akan terdengar seperti tawanan mereka.
"Kloning yang cukup bagus dapat dibuat dengan audio kurang dari satu menit dan beberapa memgklaim bahwa bahkan beberapa detik saja sudah cukup," kata Profesor Ilmu Komputer University of California, Hany Farid.
Farid mengatakan, data yang diperlukan untuk membuat pemalsuan semakin ringkas. Bahkan dengan bantuan perangkat lunak AI, kloning suara bisa dilakukan hanya dengan USD5 per bulan.
Lalu dari mana penipu mendapatkan suara targetnya?
Komisi Perdagangan Federal AS memperingatkan bahwa para penjahat bisa mendapatkan klip audio dari postingan media sosial korban. Mereka akan mengkloning suara anggota keluarga dengan bantuan AI.
"Yang dia butuhkan hanyalah klip audio pendek dari suara anggota keluarga Anda yang bisa dia dapatkan dari konten yang diposting online, dan program kloning suara. Ketika scammer memanggil Anda (itu akan) terdengar seperti orang yang Anda cintai," jelas agensi tersebut.
Dalam kasus DeStefano ini, sang anak memang kerap aktif di media sosial. Brianna punya akun TikTok dan Instagram berisikan foto dan video. Kemungkinan para penipu itu memanfaatkannya untuk mengkloning suara Brianna.
Ada beberapa cara untuk menghindari penipuan semacam ini. Salah seorang yang bekerja di FBI menyarankan agar jangan memposting rencana perjalanan ke media sosial.
Kemudian buat kata sandi yang hanya diketahui oleh anggota keluarga. Ketika penculikan terjadi, minta dia menyebut kata sandi keluarga untuk memastikan bahwa korban merupakan anggota keluarga Anda.
Berhati-hati memberikan informasi keuangan kepada orang lain melalui telepon. Hal paling penting, jangan mudah percaya dengan suara yang didengar melalui telepon.
(Martin Bagya Kertiyasa)