<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:media="http://search.yahoo.com/mrss/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title>Cara Kerja Lavender, Sistem AI Israel yang Targetkan Pembunuhan Warga Palestina di Gaza</title><description>Israel dilaporkan mengizinkan kematian hingga 100 warga sipil untuk pembunuhan seorang target tingkat tinggi yang ditunjuk oleh Lavender.&#13;
</description><link>https://ototekno.okezone.com/read/2024/04/04/56/2992428/cara-kerja-lavender-sistem-ai-israel-yang-targetkan-pembunuhan-warga-palestina-di-gaza</link><language>id</language><atom:link type="application/rss+xml" rel="self" href="https://ototekno.okezone.com/read/2024/04/04/56/2992428/cara-kerja-lavender-sistem-ai-israel-yang-targetkan-pembunuhan-warga-palestina-di-gaza"/><item><title>Cara Kerja Lavender, Sistem AI Israel yang Targetkan Pembunuhan Warga Palestina di Gaza</title><link>https://ototekno.okezone.com/read/2024/04/04/56/2992428/cara-kerja-lavender-sistem-ai-israel-yang-targetkan-pembunuhan-warga-palestina-di-gaza</link><guid isPermaLink="false">https://ototekno.okezone.com/read/2024/04/04/56/2992428/cara-kerja-lavender-sistem-ai-israel-yang-targetkan-pembunuhan-warga-palestina-di-gaza</guid><pubDate>Kamis 04 April 2024 13:15 WIB</pubDate><dc:creator>Rahman Asmardika</dc:creator><media:content url="https://img.okezone.com/content/2024/04/04/56/2992428/mobil_wck-YUrb_large.JPG" expression="full" type="image/jpeg">Mobil yang hancur akibat serangan udara Israel yang menewaskan pekerja kemanusiaan World Central Kitchen (WCK), di antaranya warga asing, di Deir Al Balah, Gaza Tengah, 2 April 2024. (Foto: Reuters)</media:content><images><thumb></thumb><image>https://img.okezone.com/content/2024/04/04/56/2992428/mobil_wck-YUrb_large.JPG</image><title>Mobil yang hancur akibat serangan udara Israel yang menewaskan pekerja kemanusiaan World Central Kitchen (WCK), di antaranya warga asing, di Deir Al Balah, Gaza Tengah, 2 April 2024. (Foto: Reuters)</title></images><description>JAKARTA &amp;ndash; Sebuah laporan baru mengungkap bahwa israel telah menggunakan sistem program kecerdasan buatan atau artificial intelligence (AI) yang bernama Lavender untuk membuat &amp;ldquo;daftar pembunuhan&amp;rdquo; terhadap puluhan ribu orang di Gaza. Daftar ini disebut bertanggung jawab atas serangan-serangan Israel yang menyebabkan tewasnya ribuan warga sipil di Gaza, termasuk anak-anak dan pekerja kemanusiaan.&amp;nbsp;&#13;
&#13;
Laporan yang diungkap oleh +972 Magazine dan Local Call, mengutip enam perwira intelijen Israel yang tidak disebutkan namanya, mengungkap bagaimana militer zionis &amp;ldquo;hampir sepenuhnya bergantung&amp;rdquo; pada Lavender selama minggu-minggu awal perang dengan kelompok pejuang Palestina Hamas di Gaza, meskipun faktanya sistem itu diketahui salah mengidentifikasi target potensial sebagai teroris. &amp;nbsp;&#13;
&#13;
Petugas yang memastikan pengambilan keputusan mengenai sasaran, mengatakan bahwa perannya dalam sistem ini hanya sebagai &amp;ldquo;stempel karet&amp;rdquo; untuk Lavender. Petugas itu mengatakan bahwa dia hanya membutuhkan waktu sekira 20 detik untuk memutuskan serangan berdasarkan rekomendasi dari Lavender. &amp;nbsp;&#13;
&#13;
Dilansir Gizmodo, sistem AI Lavender dilaporkan bekerja dengan menganalisis informasi yang dikumpulkan dari hampir seluruh 2,3 juta warga Palestina di Jalur Gaza &amp;ldquo;melalui sistem pengawasan massal,&amp;rdquo; dan menilai kemungkinan seseorang menjadi anggota Hamas dalam sistem peringkat yang tidak jelas. Setiap orang Palestina diberi peringkat 1 hingga 100 yang seharusnya menentukan seberapa besar kemungkinan mereka menjadi anggota kelompok pejuang tersebut.&amp;nbsp;&#13;
&#13;
&amp;ldquo;Lavender belajar mengidentifikasi karakteristik dari agen Hamas dan (Jihad Islam Palestina) yang diketahui, yang informasinya dimasukkan ke mesin sebagai data pelatihan, dan kemudian menemukan karakteristik yang sama &amp;ndash; juga disebut &amp;ldquo;fitur&amp;rdquo; &amp;ndash; di antara masyarakat umum, jelas sumber tersebut. Seseorang yang ditemukan memiliki beberapa ciri berbeda yang memberatkan akan mencapai peringkat tinggi, dan dengan demikian secara otomatis menjadi target pembunuhan potensial,&amp;rdquo; demikian dilaporkan +972.&amp;nbsp;&#13;
&#13;
Militer Israel memberikan &amp;ldquo;persetujuan menyeluruh&amp;rdquo; kepada petugas untuk menggunakan Lavender untuk menargetkan di Gaza menurut +972, namun tidak ada persyaratan untuk melakukan pemeriksaan menyeluruh tentang &amp;ldquo;mengapa mesin tersebut membuat pilihan tersebut atau untuk memeriksa data intelijen mentah yang digunakan AI itu.&amp;rdquo;&amp;nbsp;&#13;
&#13;
&amp;nbsp;&#13;
&#13;
&#13;
&#13;
Petugas yang memeriksa keputusan penargetan Lavender sebagian besar hanya memeriksa untuk memastikan bahwa targetnya adalah laki-laki, meskipun setidaknya 10% dari target tersebut kemungkinan tidak ada hubungannya dengan Hamas, menurut &amp;ldquo;pemeriksaan internal&amp;rdquo;. Tidak jelas bagaimana pemeriksaan internal tersebut dilakukan atau apakah persentasenya jauh lebih tinggi.&amp;nbsp;&#13;
&#13;
Sebagian besar target dibom di rumah mereka, menurut +972. Sistem otomatis lain yang digunakan bersama dengan Lavender, dijuluki &amp;ldquo;Where&amp;rsquo;s Daddy?&amp;rdquo; telah digunakan untuk menyerang sasaran di dalam rumah keluarga mereka.&amp;nbsp;&#13;
&#13;
&amp;ldquo;Kami tidak tertarik untuk membunuh anggota (Hamas) hanya ketika mereka berada di gedung militer atau terlibat dalam aktivitas militer,&amp;rdquo; kata salah satu petugas yang tidak disebutkan namanya kepada publikasi tersebut. &amp;nbsp;&#13;
&#13;
&amp;ldquo;Sebaliknya, IDF tanpa ragu mengebom rumah-rumah mereka, sebagai pilihan pertama. Jauh lebih mudah untuk mengebom rumah sebuah keluarga. Sistem ini dibangun untuk mencari mereka dalam situasi ini.&amp;rdquo;&amp;nbsp;&#13;
&#13;
Laporan baru ini juga mengklaim target yang diidentifikasi oleh Lavender hanyalah militan junior, yang berarti militer Israel lebih suka menggunakan amunisi terarah atau &amp;ldquo;bom bodoh&amp;rdquo;, agar tidak menyia-nyiakan bom mahal pada target yang relatif tidak penting. Ini menyebabkan banyaknya korban jiwa, tak jarang seluruh keluarga musnah akibat pengeboman, menurut +972.&amp;nbsp;&#13;
&#13;
Israel juga melonggarkan ambang batas jumlah warga sipil yang boleh dibunuh sebagai &amp;ldquo;kerusakan tambahan&amp;rdquo;.&amp;nbsp;&#13;
&#13;
Dilaporkan +972, dalam sebuah tindakan yang belum pernah terjadi sebelumnya, menurut dua sumber, tentara juga memutuskan pada minggu-minggu pertama perang bahwa, untuk setiap agen junior Hamas yang ditargetkan Lavender, diperbolehkan membunuh hingga 15 atau 20 warga sipil. &amp;nbsp;&#13;
&#13;
Sumber tersebut menambahkan, jika sasarannya adalah pejabat senior Hamas dengan pangkat komandan batalion atau brigade, maka tentara dalam beberapa kesempatan mengizinkan pembunuhan lebih dari 100 warga sipil dalam pembunuhan seorang komandan tunggal.&amp;nbsp;&#13;
&#13;
&amp;nbsp;&#13;
&#13;
&#13;
&#13;
Dalam sebuah pernyataan kepada The Guardian, IDF membantah menggunakan AI untuk menghasilkan target militer yang telah dikonfirmasi, dan mengatakan bahwa Lavender digunakan untuk &amp;ldquo;merujuk silang sumber-sumber intelijen, untuk menghasilkan lapisan informasi terkini mengenai operasi militer organisasi teroris.&amp;rdquo;&amp;nbsp;&#13;
&#13;
&amp;ldquo;IDF tidak menggunakan sistem kecerdasan buatan yang mengidentifikasi pelaku teroris atau mencoba memprediksi apakah seseorang adalah teroris,&amp;rdquo; tambah pernyataan itu. &amp;nbsp;&#13;
&#13;
&amp;ldquo;Sistem informasi hanyalah alat bagi analis dalam proses identifikasi target.&amp;rdquo;&amp;nbsp;&#13;
&#13;
Diperkirakan 33.000 warga Palestina telah terbunuh dalam kampanye Israel di Gaza, menurut kementerian kesehatan wilayah tersebut, sebagian besar dari mereka adalah warga sipil.&amp;nbsp;&amp;nbsp;&#13;
&#13;
Israel terus menghadapi pengawasan ketat atas tingginya angka kematian warga sipil dalam operasinya, yang menargetkan daerah pemukiman, rumah sakit, dan kamp pengungsi. IDF mengatakan Hamas sering melakukan aktivitas militer di wilayah sipil sebagai cara untuk menggunakan perisai manusia.&amp;nbsp;&#13;
&#13;
Israel melancarkan perang di Gaza setelah serangan teroris pada 7 Oktober 2023, yang menewaskan sekira 1.200 warga Israel dan menyebabkan Hamas menculik sekira 240 orang. Menurut PBB, lebih dari 32.600 warga Palestina telah terbunuh di Gaza sejak dimulainya perang, dan mayoritas diidentifikasi sebagai perempuan dan anak-anak.&amp;nbsp;&#13;
</description><content:encoded>JAKARTA &amp;ndash; Sebuah laporan baru mengungkap bahwa israel telah menggunakan sistem program kecerdasan buatan atau artificial intelligence (AI) yang bernama Lavender untuk membuat &amp;ldquo;daftar pembunuhan&amp;rdquo; terhadap puluhan ribu orang di Gaza. Daftar ini disebut bertanggung jawab atas serangan-serangan Israel yang menyebabkan tewasnya ribuan warga sipil di Gaza, termasuk anak-anak dan pekerja kemanusiaan.&amp;nbsp;&#13;
&#13;
Laporan yang diungkap oleh +972 Magazine dan Local Call, mengutip enam perwira intelijen Israel yang tidak disebutkan namanya, mengungkap bagaimana militer zionis &amp;ldquo;hampir sepenuhnya bergantung&amp;rdquo; pada Lavender selama minggu-minggu awal perang dengan kelompok pejuang Palestina Hamas di Gaza, meskipun faktanya sistem itu diketahui salah mengidentifikasi target potensial sebagai teroris. &amp;nbsp;&#13;
&#13;
Petugas yang memastikan pengambilan keputusan mengenai sasaran, mengatakan bahwa perannya dalam sistem ini hanya sebagai &amp;ldquo;stempel karet&amp;rdquo; untuk Lavender. Petugas itu mengatakan bahwa dia hanya membutuhkan waktu sekira 20 detik untuk memutuskan serangan berdasarkan rekomendasi dari Lavender. &amp;nbsp;&#13;
&#13;
Dilansir Gizmodo, sistem AI Lavender dilaporkan bekerja dengan menganalisis informasi yang dikumpulkan dari hampir seluruh 2,3 juta warga Palestina di Jalur Gaza &amp;ldquo;melalui sistem pengawasan massal,&amp;rdquo; dan menilai kemungkinan seseorang menjadi anggota Hamas dalam sistem peringkat yang tidak jelas. Setiap orang Palestina diberi peringkat 1 hingga 100 yang seharusnya menentukan seberapa besar kemungkinan mereka menjadi anggota kelompok pejuang tersebut.&amp;nbsp;&#13;
&#13;
&amp;ldquo;Lavender belajar mengidentifikasi karakteristik dari agen Hamas dan (Jihad Islam Palestina) yang diketahui, yang informasinya dimasukkan ke mesin sebagai data pelatihan, dan kemudian menemukan karakteristik yang sama &amp;ndash; juga disebut &amp;ldquo;fitur&amp;rdquo; &amp;ndash; di antara masyarakat umum, jelas sumber tersebut. Seseorang yang ditemukan memiliki beberapa ciri berbeda yang memberatkan akan mencapai peringkat tinggi, dan dengan demikian secara otomatis menjadi target pembunuhan potensial,&amp;rdquo; demikian dilaporkan +972.&amp;nbsp;&#13;
&#13;
Militer Israel memberikan &amp;ldquo;persetujuan menyeluruh&amp;rdquo; kepada petugas untuk menggunakan Lavender untuk menargetkan di Gaza menurut +972, namun tidak ada persyaratan untuk melakukan pemeriksaan menyeluruh tentang &amp;ldquo;mengapa mesin tersebut membuat pilihan tersebut atau untuk memeriksa data intelijen mentah yang digunakan AI itu.&amp;rdquo;&amp;nbsp;&#13;
&#13;
&amp;nbsp;&#13;
&#13;
&#13;
&#13;
Petugas yang memeriksa keputusan penargetan Lavender sebagian besar hanya memeriksa untuk memastikan bahwa targetnya adalah laki-laki, meskipun setidaknya 10% dari target tersebut kemungkinan tidak ada hubungannya dengan Hamas, menurut &amp;ldquo;pemeriksaan internal&amp;rdquo;. Tidak jelas bagaimana pemeriksaan internal tersebut dilakukan atau apakah persentasenya jauh lebih tinggi.&amp;nbsp;&#13;
&#13;
Sebagian besar target dibom di rumah mereka, menurut +972. Sistem otomatis lain yang digunakan bersama dengan Lavender, dijuluki &amp;ldquo;Where&amp;rsquo;s Daddy?&amp;rdquo; telah digunakan untuk menyerang sasaran di dalam rumah keluarga mereka.&amp;nbsp;&#13;
&#13;
&amp;ldquo;Kami tidak tertarik untuk membunuh anggota (Hamas) hanya ketika mereka berada di gedung militer atau terlibat dalam aktivitas militer,&amp;rdquo; kata salah satu petugas yang tidak disebutkan namanya kepada publikasi tersebut. &amp;nbsp;&#13;
&#13;
&amp;ldquo;Sebaliknya, IDF tanpa ragu mengebom rumah-rumah mereka, sebagai pilihan pertama. Jauh lebih mudah untuk mengebom rumah sebuah keluarga. Sistem ini dibangun untuk mencari mereka dalam situasi ini.&amp;rdquo;&amp;nbsp;&#13;
&#13;
Laporan baru ini juga mengklaim target yang diidentifikasi oleh Lavender hanyalah militan junior, yang berarti militer Israel lebih suka menggunakan amunisi terarah atau &amp;ldquo;bom bodoh&amp;rdquo;, agar tidak menyia-nyiakan bom mahal pada target yang relatif tidak penting. Ini menyebabkan banyaknya korban jiwa, tak jarang seluruh keluarga musnah akibat pengeboman, menurut +972.&amp;nbsp;&#13;
&#13;
Israel juga melonggarkan ambang batas jumlah warga sipil yang boleh dibunuh sebagai &amp;ldquo;kerusakan tambahan&amp;rdquo;.&amp;nbsp;&#13;
&#13;
Dilaporkan +972, dalam sebuah tindakan yang belum pernah terjadi sebelumnya, menurut dua sumber, tentara juga memutuskan pada minggu-minggu pertama perang bahwa, untuk setiap agen junior Hamas yang ditargetkan Lavender, diperbolehkan membunuh hingga 15 atau 20 warga sipil. &amp;nbsp;&#13;
&#13;
Sumber tersebut menambahkan, jika sasarannya adalah pejabat senior Hamas dengan pangkat komandan batalion atau brigade, maka tentara dalam beberapa kesempatan mengizinkan pembunuhan lebih dari 100 warga sipil dalam pembunuhan seorang komandan tunggal.&amp;nbsp;&#13;
&#13;
&amp;nbsp;&#13;
&#13;
&#13;
&#13;
Dalam sebuah pernyataan kepada The Guardian, IDF membantah menggunakan AI untuk menghasilkan target militer yang telah dikonfirmasi, dan mengatakan bahwa Lavender digunakan untuk &amp;ldquo;merujuk silang sumber-sumber intelijen, untuk menghasilkan lapisan informasi terkini mengenai operasi militer organisasi teroris.&amp;rdquo;&amp;nbsp;&#13;
&#13;
&amp;ldquo;IDF tidak menggunakan sistem kecerdasan buatan yang mengidentifikasi pelaku teroris atau mencoba memprediksi apakah seseorang adalah teroris,&amp;rdquo; tambah pernyataan itu. &amp;nbsp;&#13;
&#13;
&amp;ldquo;Sistem informasi hanyalah alat bagi analis dalam proses identifikasi target.&amp;rdquo;&amp;nbsp;&#13;
&#13;
Diperkirakan 33.000 warga Palestina telah terbunuh dalam kampanye Israel di Gaza, menurut kementerian kesehatan wilayah tersebut, sebagian besar dari mereka adalah warga sipil.&amp;nbsp;&amp;nbsp;&#13;
&#13;
Israel terus menghadapi pengawasan ketat atas tingginya angka kematian warga sipil dalam operasinya, yang menargetkan daerah pemukiman, rumah sakit, dan kamp pengungsi. IDF mengatakan Hamas sering melakukan aktivitas militer di wilayah sipil sebagai cara untuk menggunakan perisai manusia.&amp;nbsp;&#13;
&#13;
Israel melancarkan perang di Gaza setelah serangan teroris pada 7 Oktober 2023, yang menewaskan sekira 1.200 warga Israel dan menyebabkan Hamas menculik sekira 240 orang. Menurut PBB, lebih dari 32.600 warga Palestina telah terbunuh di Gaza sejak dimulainya perang, dan mayoritas diidentifikasi sebagai perempuan dan anak-anak.&amp;nbsp;&#13;
</content:encoded></item></channel></rss>
