banner large

Pentagon Ungkap Rencana Buat ‘AI Militer yang Bertanggung Jawab’

Comment
X
Share

Gambar untuk artikel berjudul Pentagon Ungkap Rencana Membuat 'AI Militer yang Bertanggung Jawab'  Lebih dari Sekedar Buzzword

Foto: AFP (Gambar Getty)

Pentagon berbaris maju dengan senjata perang AI… secara bertanggung jawab.

Minggu ini, Departemen Pertahanan merilis dokumen panjang 47 halaman yang menguraikan rencana militer untuk menerapkan prinsip-prinsip kecerdasan buatan yang bertanggung jawab, yang pada dasarnya berupaya mengintegrasikan AI dalam militer tanpa mengubah dunia menjadi neraka seperti Terminator. Padahal DoD dulu diuraikan sasaran AI etisnya pada tahun 2020, minggu ini Jalur Bertanggung Jawab menuju Pengembangan dan Percepatan AI mendokumentasikan merinci cara-cara sistematis yang direncanakan departemen untuk mewujudkan klaim-klaim itu dan mengangkatnya melampaui angan-angan belaka.

Dalam dokumen tersebut, Wakil Menteri Pertahanan Kathleen Hicks membela pengejaran militer terhadap teknologi AI, mengklaim musuh AS telah meningkatkan investasi AI mereka dengan cara yang “mengancam keamanan, perdamaian, dan stabilitas global.” Pentagon ingin menanggapi “ancaman” itu dengan jalaning up investasi di rumah.

“Untuk mempertahankan keunggulan militer kita di dunia yang kompetitif secara digital, Departemen Pertahanan (DoD) Amerika Serikat harus merangkul teknologi AI untuk mengimbangi ancaman yang berkembang ini,” tulis Hicks. “Memanfaatkan teknologi baru dengan cara yang sah, etis, bertanggung jawab, dan akuntabel adalah inti dari etos kami.”

Dokumen tersebut memberikan garis waktu tentang sikap Pentagon yang berkembang terhadap AI etis, mencatat bahwa departemen tersebut telah “mematangkan kerangka kerja etikanya untuk memperhitungkan karakteristik unik Al dan potensi konsekuensi yang tidak diinginkan.” Para peneliti di luar militer telah menunjukkan bahwa sistem AI dapat memperkuat bias budaya dan mendiskriminasi orang kulit berwarna.

Secara umum, pedoman baru ini, yang menambahkan tujuan terukur untuk masing-masing Departemen Pertahanan enam prinsip dasar AI yang bertanggung jawab, dimaksudkan untuk “mendapatkan kepercayaan,” dari anggota layanan dan masyarakat umum. Dokumen tersebut mendefinisikan kepercayaan ini sebagai “keadaan akhir yang diinginkan” yang akan memungkinkannya untuk terus maju dengan teknologi AI baru.

“Kepercayaan pada DoD Al akan memungkinkan Departemen untuk memodernisasi kemampuan perangnya di berbagai aplikasi tempur dan non-tempur, dengan mempertimbangkan kebutuhan internal dan eksternal DoD,” dokumen itu berbunyi, “Tanpa kepercayaan, pejuang dan para pemimpin tidak akan mempekerjakan Al secara efektif dan rakyat Amerika tidak akan mendukung penggunaan dan adopsi teknologi semacam itu secara berkelanjutan.” Departemen Pertahanan mengatakan juga ingin menerapkan penekanan kepercayaan itu pada interaksinya dengan negara lain juga dan mengatakan ingin menetapkan “norma internasional baru untuk penggunaan AI.”

Untuk itu, Morning Consult baru-baru ini pemilihan orang dewasa AS menunjukkan beragam pendapat terhadap kedudukan AI militer. Sekitar seperempat (26%) orang dewasa mengatakan mereka pikir militer AS lebih maju daripada China dalam AI dibandingkan dengan 29% yang sedikit lebih besar yang berpikir AS kurang maju.

Gambar untuk artikel berjudul Pentagon Ungkap Rencana Membuat 'AI Militer yang Bertanggung Jawab'  Lebih dari Sekedar Buzzword

Foto: Alex Wong (Gambar Getty)

Gizmodo berbicara dengan Hicks tentang filosofi Pentagon terhadap integrasi AI selama bulan Maret Perjalanan DoD ke California. Di sana, dia menekankan pentingnya mempertahankan pendekatan “manusia dalam lingkaran” di mana operator manusia masih memegang peran terakhir dalam memutuskan kapan sistem AI menjalankan tujuannya. Hicks menambahkan bahwa setiap aplikasi militer AI harus selaras dengan nilai-nilai AS, sebuah ungkapan yang secara diam-diam meyakinkan tetapi pada akhirnya ambigu.

“Sangat penting bagi kami untuk membangun ekosistem tepercaya yang tidak hanya meningkatkan kemampuan militer kami tetapi juga membangun kepercayaan dengan pengguna akhir, pejuang, publik Amerika, dan mitra internasional,” kata Hicks dalam sebuah pernyataan kepada Gizmodo, Kamis. “The Pathway menegaskan komitmen Departemen untuk bertindak sebagai organisasi yang mendukung AI yang bertanggung jawab.”

Laporan jalur AI DOD datang di tengah waktu ketegangan yang tampak di dalam jajaran dalam Pentagon. Nicolas Chaillan, chief software officer pertama Pentagon, mengundurkan diri secara dramatis setelah tiga tahun pada bulan Oktober, sebagian karena apa yang dilihatnya sebagai kegagalan AS untuk mengimbangi China. dalam sebuah wawancara dengan Waktu keuangan menyusul pengunduran dirinyaChaillan mengatakan ada “alasan bagus untuk marah” dengan kemampuan teknologi Pentagon.

“Kami tidak memiliki peluang bertarung yang bersaing melawan China dalam 15 hingga 20 tahun,” kata Chaillan. “Saat ini, itu sudah menjadi kesepakatan; itu sudah berakhir menurut saya. ”

Pentagon sejak itu menggantikan Chaillan dengan mantan kepala pembelajaran mesin Lyft, Craig Martell yang telah bergabung dengan departemen sebagai Chief Digital and Artificial Intelligence Officer. Martell akan kabarnya memainkan peran kunci dalam strategi AI Pentagon bergerak maju.

Kelompok Hak Asasi Manusia Gelisah Atas AI Militer

Tmeskipun itu semakin terlihat sebagai sebuah keniscayaan, penggunaan militer AI tetap diperdebatkan dengan hangat. Sementara kelompok aktivis seperti Human Rights Watch dan Amnesty International telah menyerukan larangan luas dari Persenjataan otonom berkemampuan AI, pendirian militer dan mantan industri teknologi kelas berat secara teratur mengandalkan, “bagaimana dengan argumen China,” untuk mendorong integrasi AI yang lebih dalam antara perusahaan AI komersial dan militer.

“Membiarkan mesin membuat keputusan hidup atau mati adalah serangan terhadap martabat manusia, dan kemungkinan akan mengakibatkan pelanggaran yang menghancurkan terhadap hukum perang dan hak asasi manusia,” kata Penasihat Senior Amnesty International untuk Militer, Keamanan dan Pemolisian dalam sebuah penyataan. “Ini juga akan mengintensifkan dehumanisasi digital masyarakat, mengurangi orang ke titik data untuk diproses. Kami membutuhkan perjanjian internasional yang kuat dan mengikat secara hukum untuk menghentikan proliferasi robot pembunuh.”

Salah satu suara paling keras yang menyerukan penggunaan AI militer yang lebih dalam berasal dari mantan CEO Google Eric Schmidt yang pada tahun 2019 ditugaskan oleh Presiden Trump saat itu untuk mengepalai Komisi Keamanan Nasional untuk AI, sebuah organisasi yang bertujuan untuk menghasilkan laporan panjang lebar untuk Presiden dan Kongres yang merinci metode dan strategi untuk memajukan AI dalam pertahanan nasional. Dalam laporannya, Schmidt berbicara kritis tentang apa yang dia lihat pita merah etika tertentu seputar penggunaan AI militer dan menyatakan keprihatinan bahwa “negara otoriter” seperti China “tidak akan dibatasi oleh pengujian ketat yang sama dan kode etik yang memandu militer AS.”

Sejauh ini, AS belum menunjukkan minat untuk memperlambat ekspansi AI-nya. Selama pertemuan PBB di Jenewa akhir tahun lalu, AS bergabung dengan negara-negara seperti Rusia, Cina, dan India sebagai salah satu dari segelintir negara.yaitu itu menolak instrumen yang mengikat secara hukum untuk membatasi pengembangan senjata otonom.

“Kurangnya hasil substantif pada konferensi peninjauan PBB adalah tanggapan yang sepenuhnya tidak memadai terhadap kekhawatiran yang diangkat oleh robot pembunuh,” kata Direktur Persenjataan Human Rights Watch Steve Goose dalam sebuah pernyataan. penyataan mengikuti pertemuan Jenewa. “Kegagalan pembicaraan diplomatik saat ini untuk merekomendasikan jalan ke depan pada robot pembunuh menunjukkan bahwa negara-negara perlu mengejar jalan yang berbeda untuk melarang sistem senjata ini. Dunia tidak bisa menunggu.”

Di sisi lain, setidaknya 30 negara sudah kabarnya menyuarakan dukungan untuk melarang sistem senjata otonom. Seruan untuk larangan senjata otonom itu bahkan mendapat dukungan dari Sekretaris Jenderal PBB António Guterres yang tahun lalu merilis sebuah pernyataan yang mengatakan sistem sinkronisasi harus dilarang di bawah hukum internasional.

“Mesin otonom dengan kekuatan dan keleluasaan untuk memilih target dan mengambil nyawa tanpa keterlibatan manusia secara politik tidak dapat diterima, menjijikkan secara moral dan harus dilarang oleh hukum internasional,” kata Guterres dalam 2019 penyataan.

Leave a Reply

Your email address will not be published.