• Andrieta R. Arifin

Penggunaan Kecerdasan Buatan dalam Senjata Menurut Hukum Humaniter Internasional

Updated: Sep 25


Era modern ini telah melahirkan banyak kemajuan inovatif untuk membantu manusia dalam kehidupan sehari-hari mereka. Salah satunya termasuk kecerdasan buatan (AI) yang merupakan bentuk teknologi yang semakin digunakan dan dikembangkan sejak kelahirannya di tahun 1950-an.


Istilah “kecerdasan” sendiri berarti “kemampuan untuk memperoleh dan menerapkan keterampilan dan pengetahuan yang berbeda untuk memecahkan masalah yang diberikan” dan penggunaan “kapasitas mental umum untuk menyelesaikan, bernalar, dan mempelajari berbagai situasi”. Sedangkan, kecerdasan buatan atau AI didefinisikan sebagai “teori dan pengembangan sistem komputer untuk melakukan tugas-tugas yang biasanya membutuhkan kecerdasan manusia”.


Dasar pengembangan AI dimulai pada tahun 1950 oleh matematikawan Inggris bernama Alan Turing, yang mengajukan pertanyaan: apakah mesin dapat berpikir seperti manusia, dan bagaimana? Turing pun menerbitkan sebuah makalah berjudul “Computing Machinery and Intelligence” dan menetapkan “Turing Test”, yang dirancang untuk menentukan apakah komputer itu “cerdas” dengan menguji apakah mereka dapat meniru input yang diberikan oleh manusia dan menghasilkan output yang seolah-olah juga berasal dari manusia, sehingga para pengguna tidak dapat mengidentifikasi bahwa pesan tersebut dibuat oleh mesin.


Sekarang, sekitar 70 tahun sejak itu, AI dapat melakukan lebih banyak hal—mulai dari mengenali suara seseorang dan menanggapi perintahnya, hingga mengendarai mobil tanpa campur tangan manusia. Kemampuan yang dimiliki AI untuk mengumpulkan informasi dan menghasilkan hasil terperinci yang bebas dari bias seperti emosi, kini manusia semakin bergantung padanya.


Perperangan adalah bidang lain yang semakin melibatkan penggunaan AI. Tahun lalu, Departemen Pertahanan AS mengusulkan bahwa $927 juta dari $718 miliar anggaran mereka didedikasikan untuk AI dan pembelajaran mesin (machine learning) untuk militer.


Tiongkok juga mengakui perkembangan ini, yang menyatakan bahwa negara-negara maju utama dunia “mengambil pengembangan AI sebagai strategi utama untuk meningkatkan daya saing nasional dan melindungi keamanan nasional”. Bahkan di dalam negara kecil seperti Singapura, mereka saat ini sedang berupaya memasukkan AI ke dalam struktur pertahanan mereka untuk “memaksimalkan efektivitas tempur dengan tenaga manusia minimum.”


Perkembangannya merajalela karena kontribusinya yang menjanjikan bagi bidang militer di masa depan, termasuk potensi bahwa pekerjaan bagi para tantara dapat berjalan dengan lebih aman. Contohnya, para tentara dapat dibantu dengan kemampuan AI untuk melihat dan mendeteksi benda-benda yang di luar kasat mata manusia, membantu personel membuat keputusan melalui analisis, meningkatkan akurasi dalam penargetan, dan banyak fungsi lainnya.


Walaupun memiliki banyak fungsi, AI tentunya juga memiliki keterbatasan. Pertama, AI belajar dan bertindak dari data yang diberikan—jika ada kekurangan atau keterbatasan data, ini akan berdampak pada hasil karena AI tidak dapat bertindak di luar data yang mereka terima.


Selain itu, mereka memiliki fungsi spesifik dan terbatas, yang berarti bahwa mereka mungkin dapat menghasilkan output hampir sempurna dalam bidang sempit mereka, tetapi tidak dapat melakukan sesuatu di luar itu. Masalah lain termasuk kurangnya informasi dan prediktabilitas dalam cara mereka memproses input dan menghasilkan output, dan tentu saja, ketidakmampuan mereka untuk berempati dan menilai situasi tertentu yang bersifat kasus per kasus, yang akan membutuhkan mereka untuk berfungsi dan membuat analisis di luar data terbatas yang mereka miliki.


Misalnya, AI tidak akan dapat menentukan apa yang dianggap sebagai serangan “proporsional”, atau apa yang disebut sebagai memberikan “tindakan pencegahan yang memadai”—dua prinsip hukum humaniter penting—karena tindakan yang diambil untuk memenuhi prinsip-prinsip ini akan tergantung pada apa yang sedang berlangsung di lapangan. Serangan yang termaksud proporsional di satu kejadian, belum tentu tergolong proporsional jika diterapkan di kala lain.


Kasus mengejutkan yang memperlihatkan kelemahan AI adalah penelitian yang dilakukan pada 2017 oleh sekelompok mahasiswa MIT yang melibatkan AI dari Google. Anehnya, ketika diperlihatkan kura-kura cetak 3D, AI itu mengidentifikasinya sebagai senapan.


Ironisnya, ketika mereka dapat menemukan atau mendeteksi hal-hal tertentu yang tidak mudah dilakukan manusia, mereka bisa jauh lebih mudah tertipu. Bayangkan betapa fatalnya jika AI dari senjata secara keliru mengidentifikasi sesuatu yang tidak seharusnya diserang sebagai tujuan militer, seperti dalam percobaan penyu 3D di atas.


Karena potensi kerusakan dan bahaya bagi kehidupan manusia, banyak ahli termasuk Elon Musk dan tiga pendiri perusahaan AI “Google DeepMind”, telah berjanji untuk tidak mengembangkan senjata AI yang dapat menciptakan hasil yang destruktif. Mereka dan ribuan ahli AI lainnya, telah menentang keberadaan senjata otomatis yang mengandalkan AI tanpa kendali manusia yang memadai dan terus-menerus memperingatkan publik akan dampaknya, baik secara moral atau pragmatis, dalam penggunaan senjata seperti itu.


Secara hukum, rezim hukum humaniter internasional (IHL) yang ada telah menciptakan sebuah “dasar” untuk penggunaan AI dalam peperangan. Misalnya, Pasal 36 Protokol Tambahan I ke Konvensi Jenewa (AP I) mewajibkan para pihak untuk menentukan apakah penggunaan senjata atau metode perang baru mereka akan dilarang oleh IHL atau hukum internasional terkait lainnya.


Sekalipun suatu negara bukan merupakan pihak dalam AP I, ini merupakan sebuah custom yang sepatutnya lazim dipatuhi negara. Namun, belum ada aturan atau konvensi khusus yang disepakati secara internasional tentang AI dalam senjata. Ketidakharmonisan dalam kesepakatan atau pemahaman tentang apa yang dapat digunakan dalam medan pertempuran AI dan berapa banyak intervensi manusia yang harus diterapkan dapat berakibat fatal.


Tidak hanya berbahaya karena AI yang tidak dapat sepenuhnya diprediksi, keterbatasan, dan kemungkinan kesalahannya, atau bahwa satu pihak dapat secara tidak adil mengalahkan yang lain dengan AI mereka yang jauh lebih terkembangkan dan menyebabkan kerusakan yang berlebihan, tetapi juga karena kurangnya kepastian hukum yang mungkin membebaskan manusia dari tanggung jawab mereka untuk mengontrol persenjataan AI ini.


Menurut beberapa pihak seperti Austria, Brasil, dan Chili, undang-undang baru untuk sistem teknologi baru ini diperlukan, tetapi pihak lain berpendapat bahwa IHL saat ini dan prinsip-prinsipnya sudah cukup.


Kita hidup di masa ketika penggunaan AI dalam pertempuran sudah menjadi kenyataan, dan rezim IHL saat ini masih tergolong “terbelakang” dengan perkembangan ini, meninggalkan kita dengan wilayah abu-abu dan pertanyaan yang masih belum terselesaikan.


Penting bagi pihak-pihak—tidak hanya para ilmuwan seperti Elon Musk, tetapi juga pejabat pemerintah—untuk mengumpulkan dan membahas masalah ini untuk memastikan bahwa teknologi ini digunakan secara bertanggung jawab dan tidak membahayakan warga sipil.


Sangat penting untuk ada pemahaman dan kesepakatan universal pada jenis dan tingkat kontrol manusia yang dibutuhkan saat menggunakan senjata dengan AI dan jenis senjata apa yang boleh digunakan sesuai dengan IHL. Mengutip Netta Goussac dari Komite Palang Merah Internasional (ICRC), “teknologi seperti AI dapat ‘menentukan bagaimana perang bisa dilawan’ tetapi hukum humaniter internasional lah yang membatasi bagaimana perang bisa berjalan.”

0 views
 

©2020 by Panah Kirana. Proudly created with Wix.com