Pasukan Robot Pembunuh 'Berotak AI' di Era Perang Berikutnya

Pasukan Robot Pembunuh 'Berotak AI' di Era Perang Berikutnya

Mereka bisa mengubah situasi medan perang. Mereka mesin yang memutuskan sendiri siapa yang akan dibunuh. Kemanusiaan makin terancam di ambang era baru peperangan.


Didorong oleh perkembangan pesat dalam kecerdasan buatan, platform senjata yang dapat mengidentifikasi, menargetkan, dan memutuskan untuk membunuh manusia sendiri — tanpa seorang perwira yang mengarahkan serangan atau tentara yang menarik pelatuk — dengan cepat mengubah masa depan konflik.

Secara resmi, mereka disebut sistem senjata otonom mematikan (HUKUM), tetapi kritikus menyebutnya robot pembunuh. Banyak negara, termasuk Amerika Serikat, Cina, Inggris, India, Iran, Israel, Korea Selatan, Rusia, dan Turki, telah banyak berinvestasi dalam pengembangan senjata semacam itu dalam beberapa tahun terakhir.

Sebuah laporan Perserikatan Bangsa-Bangsa menunjukkan bahwa drone Kargu-2 buatan Turki dalam mode otomatis penuh menandai awal zaman baru ini ketika mereka menyerang kombatan di Libya pada tahun 2020 di tengah konflik yang sedang berlangsung di negara itu.

Drone otonom juga memainkan peran penting dalam perang di Ukraina, di mana Moskow dan Kyiv telah mengerahkan senjata tanpa awak ini untuk menargetkan tentara dan infrastruktur musuh.

Kemunculan dan penyebaran mesin semacam itu mendorong perdebatan sengit di antara para ahli, aktivis, dan diplomat di seluruh dunia saat mereka bergulat dengan kemungkinan manfaat dan potensi risiko penggunaan robot, dan mempertimbangkan apakah dan bagaimana cara menghentikannya.

Namun dalam lanskap geopolitik yang semakin terpecah, dapatkah komunitas internasional mencapai konsensus tentang mesin-mesin ini? Apakah ancaman etika, hukum, dan teknologi yang ditimbulkan oleh senjata semacam itu membuatnya penting untuk dihentikan sebelum mereka mengambil alih medan perang? Apakah larangan menyeluruh layak dilakukan, atau apakah serangkaian peraturan merupakan pilihan yang lebih realistis? Al Jazeera mengajukan pertanyaan-pertanyaan ini kepada para ahli terkemuka di bidangnya.

Jawaban singkatnya: Larangan menyeluruh terhadap sistem senjata otonom sepertinya tidak akan terjadi dalam waktu dekat. Namun, semakin banyak suara - terutama dari Global South - menyerukan peraturan mereka, dan para ahli percaya bahwa tabu global semacam itu yang melarang penggunaan senjata kimia adalah mungkin. Kekuatan militer besar mungkin tertarik dengan potensi keuntungan medan perang yang bisa diberikan sistem seperti itu kepada mereka, tetapi tampaknya ada sedikit selera untuk mereka di luar pemerintah dan jenderal.

Pada akhir Maret, Yasmin Afina, rekan peneliti di Chatham House yang berbasis di London, menjelaskan kepada House of Lords, kamar kedua parlemen Inggris, bagaimana Badan Keamanan Nasional AS (NSA) pernah keliru mengidentifikasi seorang jurnalis Al Jazeera sebagai seorang kurir al-Qaeda. Pelabelan itu - yang juga mengakibatkan jurnalis tersebut dimasukkan ke dalam daftar pantauan AS - baru terungkap melalui dokumen yang dibocorkan pada tahun 2013 oleh Edward Snowden, mantan kontraktor NSA.

Sistem pengawasan semacam itu di balik insiden itu sendiri bukanlah “sistem senjata, tetapi memungkinkan untuk mematikan,” kata Afina dalam pernyataannya. “Jika Anda melibatkan target, jurnalis, itu benar-benar bertentangan dengan pertimbangan hukum humaniter internasional.”

Potensi LAWS memicu reaksi berantai dari peristiwa eskalasi membuat Toby Walsh, pakar AI di University of New South Wales di Sydney, Australia, khawatir.

“Kami tahu apa yang terjadi ketika kami menempatkan sistem komputer yang rumit satu sama lain dalam lingkungan yang tidak pasti dan kompetitif. Namanya pasar saham,” tulis Walsh dalam bukti tertulis yang diserahkan ke House of Lords.

“Satu-satunya cara untuk menghentikan putaran umpan balik yang berbahaya dan hasil yang tidak diinginkan adalah dengan menggunakan 'pemutus sirkuit'. Di pasar saham, kita cukup melepas transaksi ketika situasi seperti itu terjadi. Tapi kita tidak bisa melepas awal WW3”, tambahnya.

Itu tidak berarti para peneliti harus berhenti mengembangkan teknologi di balik sistem senjata otomatis, kata Walsh kepada Al Jazeera. Teknologi itu, kata dia, bisa membawa manfaat di bidang lain.

Misalnya, algoritme yang sama yang digunakan dalam sistem keselamatan mobil yang menghindari tabrakan dengan pejalan kaki akan "menjadi algoritme yang masuk ke drone otonom Anda yang mengidentifikasi kombatan, melacak mereka — dan itu hanya perubahan tanda untuk membunuh mereka bukan menghindarinya", dia berkata. Adalah “salah secara moral untuk menyangkal dunia” kesempatan untuk mengurangi kematian di jalan raya, bantahnya.

Sebaliknya, jawabannya mungkin terletak pada meniru “regulasi senjata kimia yang relatif berhasil,” kata Walsh.

Ketika senjata kimia digunakan, mereka menjadi berita utama di halaman depan dan memicu protes global. Konvensi Senjata Kimia PBB melarang pengembangan, produksi, penimbunan, dan penggunaannya. Itu, dikombinasikan dengan tabu internasional seputar senjata kimia, juga telah berhasil menghentikan perusahaan senjata besar untuk memproduksinya.

“Kami tidak dapat mengembalikan Pandora ke dalam kotak, tetapi langkah-langkah tersebut tampaknya telah membatasi penyalahgunaan senjata kimia di medan perang di seluruh dunia saat ini,” kata Walsh.

 
aljazeera, guardian

ZIDWORLD © 2023 Designed By JoomShaper

Please publish modules in offcanvas position.

{{ message }}