Kecerdasan Data Generatif

Para ahli memutar mata ke AI Lords di Komite Sistem Senjata

Tanggal:

Para ahli dalam hukum teknologi dan perangkat lunak berselisih dengan House of Lords Inggris minggu ini tentang apakah secara teknis mungkin untuk menyerahkan tanggung jawab keputusan medan perang ke senjata yang digerakkan oleh AI.

Selama AI dalam sidang Komite Sistem Senjata pada hari Kamis, para Penguasa berjuang untuk menarik para ahli ke dalam gagasan bahwa hal itu pada akhirnya mungkin, atau diperkenalkan dengan hati-hati, tampaknya khawatir akan kehilangan landasan dalam pengenalan AI dalam peperangan.

Lord Houghton dari Richmond mengatakan panitia ingin merekomendasikan bagaimana kemajuan dalam beberapa jenis kerangka hukum.

Mantan Kepala Staf Pertahanan Angkatan Bersenjata Inggris itu meminta komentar apakah perbedaan dan proporsionalitas pada akhirnya dapat diberhentikan secara mandiri.

Profesor Christian Enemark, profesor hubungan internasional, University of Southampton, menjawab: "Hanya manusia yang dapat melakukan diskriminasi, hanya manusia yang dapat melakukan proporsionalitas, dan pemakaian otonom oleh entitas bukan manusia adalah omong kosong filosofis."

Lord Houghton menjawab: "Secara bertahap, mungkin kemajuan teknologi akan memajukan amplop di mana delegasi semacam itu dapat dibuat."

Pakar etika AI Laura Nolan, insinyur perangkat lunak utama dengan vendor perkakas keandalan Sistem Stanza, berpendapat bahwa keputusan medan perang oleh AI tidak dapat menilai proporsionalitas suatu tindakan.

โ€œAnda perlu mengetahui nilai militer strategis yang diantisipasi dari aksi tersebut dan tidak mungkin senjata dapat mengetahuinya,โ€ katanya. โ€œSenjata ada di lapangan, mungkin melihat beberapa gambar, semacam pembelajaran mesin dan hal-hal persepsi. Ia tidak tahu apa-apa. Itu hanya melakukan beberapa perhitungan, yang tidak benar-benar menawarkan hubungan apa pun dengan nilai militer.โ€

Nolan menambahkan: โ€œHanya komandan yang dapat mengetahui nilai militer karena nilai militer dari serangan tertentu tidak murni berdasarkan konflik itu, konteks lokal di lapangan. Ini konteks strategis yang lebih luas. Sangat tidak mungkin untuk meminta senjata di lapangan dan membuat keputusan itu.โ€

Taniel Yusef, peneliti tamu di Pusat Kajian Risiko Eksistensial Universitas Cambridge, mengatakan algoritme sederhana untuk mengklasifikasikan titik data yang mungkin mengidentifikasi target dapat terbukti salah mengira kucing sebagai anjing, misalnya.

โ€œKetika ini terjadi di lapangan, Anda akan memiliki orang-orang di lapangan yang mengatakan bahwa warga sipil ini terbunuh dan Anda akan memiliki laporan senjata yang memberi umpan balik [yang] melihat perhitungannya,โ€ katanya.

โ€œMatematika mengatakan itu adalah targetโ€ฆ itu adalah pangkalan militer karena matematika mengatakan demikian dan kami banyak tunduk pada matematika karena matematika sangat spesifik danโ€ฆ matematika akan benar.

โ€œAda perbedaan antara benar dan akurat. Ada perbedaan antara tepat dan akurat. Matematika akan benar karena dikodekan dengan benar, tetapi tidak akan benar di lapangan. Dan itu menakutkan saya karena tanpa instrumen yang mengikat secara hukum yang mengabadikan kontrol manusia yang berarti semacam itu dengan pengawasan pada akhirnya, itulah yang akan kami lewatkan.

โ€œSecara teknis tidak mungkin [untuk membuat penilaian tentang proporsionalitas] karena Anda tidak dapat mengetahui hasil dari suatu sistem [sampai] mencapai tujuan yang telah Anda kodekan, dan Anda tidak tahu bagaimana hasilnya.โ€

Rekan konservatif Lord Sarfraz menyela: "Suatu hari, saya melihat seekor anjing yang saya pikir adalah seekor kucing."

"Saya menganggap Anda tidak menembaknya," jawab Yusef. ยฎ

tempat_img

Intelijen Terbaru

tempat_img