Medan Perang Senyap: Bagaimana Senjata Otonom Mengubah Wajah Perang Sebelum Aturannya Disepakati

28 Maret 2026

Medan Perang Senyap: Bagaimana Senjata Otonom Mengubah Wajah Perang Sebelum Aturannya Disepakati

Gambaran robot pembunuh biasanya ada di fiksi ilmiah—seorang prajurit humanoid dari logam yang berbaris ke medan perang. Namun, revolusi nyata dalam peperangan terjadi jauh lebih senyap. Bentuknya bukan cyborg ala Hollywood, melainkan perangkat lunak cerdas yang ditanamkan di dalam drone, rudal, dan sistem pertahanan. Jenis senjata otonom baru ini mampu berburu dan menyerang target tanpa kendali langsung manusia. Kini, senjata-senjata ini mulai beralih dari laboratorium ke garis depan. Perkembangan ini memaksa dunia menghadapi kenyataan yang belum siap diterima banyak orang: keputusan paling penting dalam perang mungkin akan segera dibuat bukan oleh jenderal, tetapi oleh algoritma.

Pergeseran itu sudah terjadi. Pada tahun 2021, sebuah laporan Perserikatan Bangsa-Bangsa tentang konflik di Libya menyebutkan bahwa drone Kargu-2 buatan Turki, sejenis amunisi berkeliaran, kemungkinan telah memburu dan "menyerang" tentara yang mundur dalam mode otonom penuh. Meskipun rinciannya masih diperdebatkan, insiden tersebut menandai titik balik yang potensial. Untuk pertama kalinya, sebuah mesin mungkin telah didokumentasikan membunuh manusia berdasarkan kecerdasan buatannya sendiri. Negara-negara militer besar, termasuk Amerika Serikat, Tiongkok, dan Rusia, menginvestasikan miliaran dolar dalam peperangan yang digerakkan oleh AI. Mereka yakin bahwa kecepatan sistem otonom akan memberikan keunggulan yang tak tertandingi. Sebuah AI dapat menganalisis data sensor, mengidentifikasi ancaman, dan meluncurkan serangan balasan dalam hitungan milidetik—sebuah siklus keputusan yang tidak dapat ditandingi oleh operator manusia.

Dorongan menuju otonomi didorong oleh logika kuat dari kebutuhan militer. Di era rudal hipersonik dan perang elektronik yang kompleks, negara-negara khawatir menjadi rentan jika sistem pertahanan mereka bergantung pada refleks manusia yang lambat. Argumen ini sering kali dibingkai dengan alasan keamanan. Para pendukungnya menyatakan bahwa sistem otonom bisa lebih presisi daripada tentara manusia, yang dapat mengalami kelelahan, ketakutan, dan kesalahan penilaian. Dengan menarik manusia dari pertempuran langsung, mereka berpendapat, kita dapat mengurangi korban di pihak kita sendiri. Alasan ini menciptakan momentum yang kuat, dan mungkin tidak dapat diubah lagi. Hal ini menciptakan dilema keamanan klasik: bahkan jika sebuah negara ragu untuk mengembangkan senjata ini, ia harus melakukannya karena takut musuh-musuhnya akan mendapatkan keunggulan yang menentukan.

Namun, perlombaan senjata teknologi ini membawa risiko besar yang jauh melampaui medan perang. Bahaya terbesarnya adalah potensi eskalasi bencana yang tidak disengaja. Simulasi dan permainan perang yang dilakukan oleh lembaga pemikir seperti RAND Corporation telah berulang kali menunjukkan bahwa ketika sistem otonom saling berhadapan, konflik dapat lepas kendali secepat kecepatan mesin. Pertikaian kecil di perbatasan dapat disalahartikan oleh algoritma yang saling bersaing. Hal ini dapat memicu reaksi berantai dari respons otomatis yang meletus menjadi perang skala penuh sebelum para diplomat sempat mengangkat telepon. Dalam lingkungan super cepat ini, ruang untuk pertimbangan, de-eskalasi, dan diplomasi oleh manusia lenyap.

Lebih jauh lagi, otonomi mematikan menciptakan kekosongan hukum dan etika. Seluruh kerangka hukum humaniter internasional—yang mengatur pelaksanaan perang—dibangun di atas dasar tanggung jawab manusia. Prinsip-prinsip seperti pembedaan (membedakan antara tentara dan warga sipil) dan proporsionalitas (memastikan serangan tidak berlebihan dibandingkan dengan tujuan militer) memerlukan penilaian moral yang kompleks dan sadar konteks. Tidak jelas apakah sebuah AI dapat benar-benar meniru hal ini. Jika senjata otonom melakukan kesalahan dan menyerang sekolah atau rumah sakit, siapa yang harus disalahkan? Apakah pemrogram yang menulis kodenya, komandan yang mengerahkan sistemnya, atau produsen yang membuatnya? "Celah akuntabilitas" ini mengancam akan membuat kejahatan perang menjadi masalah kesalahan perangkat lunak, tanpa ada yang benar-benar bertanggung jawab atas hilangnya nyawa tak berdosa.

Tantangan ini diperparah oleh ancaman penyebaran senjata. Meskipun sistem paling canggih saat ini dikembangkan oleh negara-negara adidaya, teknologi dasarnya menjadi lebih murah dan lebih mudah diakses. Prospek yang menakutkan adalah penyebaran gerombolan drone otonom ke aktor non-negara atau kelompok teroris. Dalam waktu dekat, sebuah organisasi kecil bisa saja memperoleh kemampuan untuk melancarkan serangan dengan ribuan drone kecil yang terkoordinasi yang dapat melumpuhkan pertahanan sebuah kota. Hal ini secara dramatis menurunkan hambatan untuk melakukan serangan yang memakan banyak korban, menciptakan ancaman keamanan global yang meresap dan terus-menerus.

Selama bertahun-tahun, para diplomat telah memperdebatkan masalah ini di Perserikatan Bangsa-Bangsa di Jenewa, tetapi kemajuannya sangat lambat. Koalisi global organisasi non-pemerintah, di bawah naungan "Kampanye untuk Menghentikan Robot Pembunuh," telah mendorong larangan preventif, mirip dengan perjanjian yang melarang senjata kimia dan biologi. Mereka berpendapat bahwa kendali manusia yang bermakna harus dipertahankan atas keputusan hidup dan mati. Di sisi lain, negara-negara militer besar menolak perjanjian yang mengikat, dan lebih memilih kode etik yang tidak jelas yang tidak akan membatasi pengembangan sistem ini. Hasilnya adalah kebuntuan yang berbahaya, di mana teknologi maju jauh lebih cepat daripada diplomasi.

Pengembangan senjata otonom merupakan salah satu perubahan paling mendasar dalam sejarah konflik, sebanding dengan penemuan bubuk mesiu atau bom atom. Ini bukan sekadar senjata baru, tetapi jenis aktor baru di medan perang—aktor yang tidak merasakan, tidak takut, atau mempertanyakan perintahnya. Perdebatan bukan lagi tentang apakah kita bisa mendelegasikan kekuatan mematikan kepada mesin, tetapi apakah kita seharusnya melakukannya. Jendela kesempatan untuk menetapkan aturan internasional yang jelas, menetapkan batasan yang tegas, dan memastikan umat manusia memegang kendali utama atas tindakan perang semakin sempit. Jika kita gagal bertindak, kita berisiko menciptakan masa depan di mana konflik dilancarkan dengan kecepatan dan skala yang berada di luar pemahaman dan kendali manusia, dengan konsekuensi yang mungkin tidak dapat kita ubah.

Publication

The World Dispatch

Source: Editorial Desk

Category: Conflict & War