Mi a Pentagon frissített szabályzata a gyilkos robotokkal kapcsolatban?

A Pentagon kiadott egy 3000.09 irányelvének frissítése, amely lefedi a kifejezést Autonómia a fegyverrendszerekben és mások hívnakgyilkos robotok.' A jelenlegi drónok, mint a légierő és a CIA MQ-9 aratógépek távirányítóval működtethetők: egy ember egy videó képernyő előtt ülve azonosítja a célpontokat a földön több ezer mérfölddel arrébb, célkeresztbe helyezi őket és elenged Hellfire rakéta vagy más fegyver. Az autonóm fegyverek különbözőek: saját maguk választják ki a célpontjaikat emberi beavatkozás nélkül. Egyértelmű szabályokra van szükség arra vonatkozóan, hogy mikor és hogyan használhatók fel, és az új irányelv egy lépéssel közelebb hozza ezeket.

Tíz évvel ezelőtt, amikor megjelent a 3000.09 első verziója, az autonóm fegyverek tudományos-fantasztikusnak tűntek. Most nagyon is valóságosak. Az ENSZ ezt állította A törökök által szállított drónok önállóan támadták a célpontokat 2020-ban Líbiában, Oroszország pedig most Ukrajnában telepíti a lármás lőszert autonóm képesség.

Sok aktivista, mint pl Kampány a gyilkos robotok megállítására, az autonóm fegyverek teljes betiltását akarják, ragaszkodva ahhoz, hogy minden távoli fegyver a hatálya alatt maradjon értelmes emberi kontroll mindenkor. Az ENSZ vitatja, hogyan hosszú éveken át irányítani az ilyen fegyvereket.

Amint azonban az új irányelv világossá teszi, a Pentagon egy másik irányvonalhoz ragaszkodik.

„A DoD következetesen ellenezte az „értelmes emberi irányítás” szabványát mind az autonóm rendszerek, mind az AI-rendszerek tekintetében.” Gregory Allen, az AI Governance projekt igazgatója Stratégiai és Nemzetközi Tanulmányok Központja, mondta nekem. „Az előnyben részesített DoD kifejezés az „emberi ítélőképesség megfelelő szintje”, ami azt a tényt tükrözi, hogy bizonyos esetekben – például autonóm megfigyelő repülőgépek és bizonyos fajta autonóm kiberfegyverek – az emberi irányítás megfelelő szintje alig vagy egyáltalán nincs. .”

Milyen autonóm fegyverek lennének engedélyezettek, milyen körülmények között? Allen úgy véli, hogy az irányelv korábbi változata annyira homályos volt, hogy eltántorította a fejlesztést ezen a területen.

„A zűrzavar annyira elterjedt volt – többek között egyes DoD magas rangú vezetők körében is –, hogy a tisztviselők tartózkodtak néhány olyan rendszer kifejlesztésétől, amelyeket nem csak a szabályzat engedélyez, hanem kifejezetten mentesített a vezetői felülvizsgálati kötelezettség alól” – mondja Allen.

Egyetlen fegyvert sem nyújtottak be az eredeti 3000.09-ben meghatározott autonóm fegyverekre vonatkozó felülvizsgálati eljárásnak a megjelenése óta eltelt tíz évben.

Allen írt egy esszé erről a CSIS számára tavaly négy olyan területet ír le, amelyeken dolgozni kell – az autonóm fegyverrendszerek formális meghatározása, elmondva, hogy mit jelent az „AI-képes” a politika számára, hogyan kezeli majd a felülvizsgálati folyamat a gépi tanulási modellek átképzését, és tisztázza, hogy milyen típusú fegyverekre van szükség. menjen keresztül a fáradságos felülvizsgálati folyamaton.

„A DoD mindegyiket megvalósította” – mondja Allen.

Elvileg ennek biztosítania kell azt, amit a DoD „erős és folyamatos elkötelezettség az iránt, hogy átlátható globális vezető szerepet töltsön be az autonóm rendszerek katonai felhasználására vonatkozó felelős politikák kialakításában”.

Vannak azonban olyan kiegészítések, amelyek kiskapunak tekinthetők, mint például a magas szintű felülvizsgálat alóli mentesség az olyan önálló fegyverek védelmére szolgáló drónok esetében, amelyek nem embereket céloznak („anyagellenes fegyverek”), és amelyek megengedettek a rakéták és más drónok célba vétele. és potenciálisan más rendszerek.

„A „védelem” szó rengeteg munkát végez” Zak Kallenborn, mondta nekem a George Mason Egyetem Schar School of Policy and Government szakpolitikai munkatársa. "Ha egy drón az ellenséges területen működik, szinte bármilyen fegyvert úgy lehet értelmezni, hogy "védi" a platformot."

Kallenborn azt is megjegyzi, hogy bár a ténylegesen autonóm fegyvereket, például a taposóaknákat már több mint egy évszázada használták, a táj gyorsan változik az AI és bizonyos gépi tanulás fejlődése miatt. Ezek olyan rendszereket hoztak létre, amelyek nagyon képesek, de technikailag törékeny – amikor kudarcot vallanak, látványosan kudarcot vallanak olyan módon, ahogyan azt például egyetlen ember sem tenné összetéveszti a teknőst puskával.

„Az AI-n keresztüli autonómia határozottan több figyelmet érdemel, tekintettel a jelenleg domináns megközelítések ridegségére és magyarázhatóságának hiányára” – mondja Kallenborn.

A frissítés nem nagy. De ez azt mutatja, hogy a Pentagon továbbra is elkötelezett a hatékony autonóm fegyverek kifejlesztése iránt, és azt a hitet, hogy képesek megfelelni a követelményeknek. a nemzetközi humanitárius jog — a polgári személyek megkülönböztetése a katonai személyzettől, a polgári személyek bántalmazásának elkerülése, és csak arányos és szükséges erő alkalmazása.

A kampányolók úgy vélik, hogy a mesterséges intelligencia nem rendelkezik a szükséges megértéssel ahhoz, hogy morális ítéleteket hozzon háborús időkben, és fennáll annak a veszélye, hogy egy olyan világot hoznak létre, ahol a háború automatizált, és az emberek már nem irányítják az irányítást. Mások szerint az amerikai hadsereg lesz felülmúlta az autonóm fegyverekkel rendelkező ellenfeleket kivéve, ha a mesterséges intelligencia taktikai szinten van beépítve, és ez a túl sok emberi részvétel lelassítja a katonai robotokat.

Az érvelés valószínűleg akkor is folytatódik, amikor az autonóm fegyverek megjelennek, és az eredményeket szorosan nyomon fogják követni. Akárhogy is, úgy tűnik, jönnek a gyilkos robotok.

Forrás: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/