A mesterséges intelligencia etika küzd a mesterséges intelligencia alapú autonóm fegyverrendszerek tüzes egy-két ütésével és az AI-vezérelt autonóm rendszerek kizsákmányolásával, amelyek ördögien fegyverzettek

Azok a csodálatos táncoló négylábú robotok.

Biztos vagyok benne, hogy láttad már azokat a vírusvideókat a négylábú robotrendszerekről, amelyek látszólag elragadó és kutyaszerető módon táncolnak és táncolnak. Úgy tűnik, örömmel látjuk ezeket a mesterséges intelligencia által vezérelt robotokat, amint átmásznak az akadályokon, és úgy tűnik, hogy finom támaszt nyernek, amikor dobozok tetején ülnek, vagy miután bizonytalanul a szekrények borult tetejére helyezték őket. Emberkezelőik időnként megbökik vagy lökdösik a hancúrozó négylábú robotokat, ami elkeserítően igazságtalannak tűnik, és könnyen felvidíthatja a haragot az elmés humanoidok durva bánásmódja miatt.

Kíváncsi vagyok, hogy láttad-e a nem túl vírusos, teljesen más kaliberű videókat.

Készülj fel.

Széles körben közzétettek olyan videókat, amelyek ugyanilyen négylábú robotokat mutatnak be, amelyeket ilyen vagy olyan erős fegyverekkel szereltek fel.

Például egy géppuskát vagy hasonló lőfegyvert szerelnek fel egy egyébként ismerős táncoló-táncoló robotra. Elektronikus kapcsolat van a négylábú robot és a fegyver tüzelőszerkezete között. A most felfegyverzett számítógépes járkáló eszköz a képen, amint odasétál oda, ahol egy telitalálat célpontot helyeztek el, és a géppuskát hevesen lövik a célpontra. A később részben megsemmisült célpont szögezése után a négylábú robot körbejárja a közeli akadályokat, és felsorakozik, hogy újra és újra megismételje ugyanazt a műveletet más új célpontokon.

Nem egészen olyan, mint amire számítottál. Ez minden bizonnyal elveszi azt a könnyedséget és viszonylagos örömöt, amikor őszintén nézzük, ahogy az ennivaló négylábú robotok teszik a dolgukat. Üdvözöljük a látszólagos rideg valóságban ártalmatlan autonóm rendszerek átalakítása vagy átalakítása éles fegyverzetté. Hatalmas erőfeszítéssel egyik napról a másikra egy megfontolt „fegyver nélküli” autonóm rendszert utólag felszerelhet, hogy tartalmazzon teljes fegyverzetet.

Bizonyos körülmények között szinte könnyű.

Meg fogom vitatni ezt a hevesen vitatott témát, és kitérek a felmerülő meglehetősen súlyos AI-etikai kétségekre. Utazást teszünk az autonóm rendszerek, a mesterséges intelligencia, az autonóm járművek, a fegyverzetek és a kapcsolódó etikus mesterséges intelligencia harci problémáinak sokaságába. A mesterséges intelligencia etikájával és az etikai AI-val kapcsolatos folyamatos és kiterjedt tudósításomat lásd az itt található link és a az itt található link, csak hogy néhányat említsek.

Kezdjük néhány alapvető zárókövvel.

A vita kedvéért fogadjuk el, hogy két fő módja van a fegyverekkel felfegyverzett autonóm rendszerek kategorizálásának:

1) Autonóm fegyverrendszerek (tervezés szerint)

2) Fegyverzett autonóm rendszerek (utólag is)

A két kategória között lényeges különbség van.

Először is definiálunk egy autonóm fegyverrendszer hogy a kezdetektől egy olyan számítógépes alkotás legyen, amelyet szándékosan fegyvernek szántak. A fejlesztők arra gondoltak, hogy fegyvert akarnak kitalálni. Kifejezett küldetésük fegyver előállítása. Tudták, hogy integráltan kombinálhatják a fegyvereket a legújabb autonóm rendszertechnológiákkal. Ez egy olyan fegyver, amely meglovagolja a csúcstechnológia hullámát, amely eléri az autonóm mozgást és az autonóm cselekvéseket (nemsokára részletesebben is kifejtem).

Ezzel szemben a második esetben az autonóm rendszerek kérdését fogjuk megvizsgálni, amelyeknek egyáltalán nincs különösebb hajlama a fegyverzetre. Ezek autonóm rendszerek, amelyeket más célokra fejlesztenek. Képzeljen el egy autonóm járművet, például egy önvezető autót, amely mindenki számára biztosít mobilitást, és segít csökkenteni az emberi vezetés és az ember által működtetett autók miatt bekövetkező több ezer halálos áldozatot (lásd a részletes beszámolómat nál nél az itt található link). Úgy tűnik, nem egy fegyvert kell figyelembe venni azoknak a jókedvű társadalmi erőfeszítéseknek, amelyek célja, hogy embereket szabadítsanak ki a volán mögül, és helyette mesterséges intelligenciát ültessenek a vezetőülésbe.

De ezek az ártalmatlan autonóm rendszerek felfegyverezhetők, ha az emberek ezt akarják.

Erre a második kategóriára akkor úgy hivatkozom fegyveres autonóm rendszerek. Az autonóm rendszert eredetileg és odaadóan egy feltehetően nem fegyveres célra alakították ki. Ennek ellenére az álmodozó altruista reményt valaki felborítja valahol, akinek eszébe jut, hogy ez a mesterkedés fegyverrel is bevethető. Az ennivalónak tűnő autonóm rendszer hirtelen halálos fegyverré vált azáltal, hogy valamilyen fegyveres képességet felcímkéztek (például a korábban említett négylábú kutyaszerű robotokat, amelyekhez géppuskát vagy hasonló lőfegyvert adtak). .

Sajnálatos módon a két kategória valamennyire ugyanarra a helyre kerül, nevezetesen az autonóm rendszereket potenciálisan halálos kimenetelű fegyverek hasznosítására.

Az ehhez a végponthoz való eljutás folyamata valószínűleg más lesz.

A fegyverként rögzített, teljesen felfegyverzett autonóm rendszerek esetében a fegyverkezési szempontok jellemzően elöl és középen helyezkednek el. Azt mondhatjuk, hogy az autonóm rendszer oldalai minden fontolóra vett fegyver sarokköve köré fonódnak. A fejlesztők gondolkodási folyamata némileg annak mentén halad, hogy egy fegyver hogyan tudja kihasználni az autonóm rendszerek megjelenését.

A másik nézőpont általában egyáltalán nem ez a gondolkodásmód. A fejlesztők a legkorszerűbb autonóm rendszert akarják levezetni, talán az emberiség jobbítása érdekében. Ezek a fejlesztők a legőszintébb szívüket és lelküket adták az autonóm rendszer létrehozásába. Ez a találmányuk lényege. Talán nem is gondolják, hogy bárki is bitorolja vagy felforgatja a csodálatosan hasznos eszközüket. Boldogan rajonganak az autonóm rendszer alakításával és előállításával kapcsolatos társadalmi előnyökért.

Tegyük fel, hogy egy bizonyos ponton harmadik felek rájönnek, hogy az autonóm rendszert át lehet alakítani fegyveressé. Lehet, hogy becsapják a fejlesztőket, hogy engedjék nekik az autonóm rendszert az állítólagos magasztos célok érdekében. A zárt ajtók mögött ezek a gonosztevők úgy döntenek, hogy alattomosan fegyverkezési képességet adnak az autonóm rendszerhez. Voilá, az ártatlanság nyílt fegyverré változott.

A dolgoknak nem kell így haladniuk.

Talán azt mondták a fejlesztőknek, hogy egy ártatlan autonóm rendszert fejlesztenek ki, de az erőfeszítéseket finanszírozók vagy irányítók más célokat tűztek ki maguk elé. Lehet, hogy az autonóm rendszer törekvése valóban ártatlanul indult be, de aztán, amikor ki kellett fizetni a számlákat, a vezetés felmondott egy finanszírozási forrással, amely aljas okokból akarja az autonóm rendszereket. Egy másik lehetőség az, hogy a fejlesztők tudták, hogy a későbbi felhasználás fegyverkezésre is szolgálhat, de úgy gondolták, hogy átkelnek azon a megrázó hídon, amikor vagy ha valaha is felmerül. Stb.

Sok-sok különböző út létezik arra vonatkozóan, hogy mindez hogyan játszódik le.

Érdekes lehet, hogy a korábbi hasábjaimban leírtam, hogy a mesterséges intelligencia etikájával kapcsolatos tudatosság növekszik a kettős felhasználású a kortárs AI elemei, lásd az itt található link. Hadd röviden felgyorsítsalak.

Egy jóra képzelt mesterséges intelligencia rendszer néha a rossz szélére kerülhet, talán néhány meglehetősen egyszerű változtatás révén, és ennek megfelelően kettős felhasználásúnak tekintik. A közelmúltban a hírekben szerepelt egy mesterséges intelligencia rendszer, amelyet olyan vegyi anyagok felfedezésére építettek, amelyek gyilkosok lehetnek, és a fejlesztők azt akarták, hogy elkerüljük az ilyen rosszul kigondolt vegyszereket, vagy óvakodjunk azoktól. Kiderült, hogy a mesterséges intelligencia némileg könnyen módosítható, hogy odaadóan feltárja ezeket a gyilkos vegyszereket, és így potenciálisan lehetővé tegye a rosszfiúknak, hogy megtudják, milyen vegyi anyagokat kell kitalálni a mélységes gonosz terveikhez.

Az autonóm rendszerek bizonyíthatóan illeszkedhetnek ebbe a kettős felhasználású körbe.

Bizonyos mértékig ezért olyan kulcsfontosságú téma a mesterséges intelligencia etika és az etikai AI. A mesterséges intelligencia etika előírásai éberségre késztetnek bennünket. Az AI-technológusokat időnként a technológia foglalkoztatja, különösen a csúcstechnológiák optimalizálása. Nem feltétlenül veszik figyelembe a nagyobb társadalmi következményeket. A mesterséges intelligencia etikai gondolkodásmódja, és ennek szerves része a mesterséges intelligencia fejlesztéséhez és terepviszonyához elengedhetetlen a megfelelő AI létrehozásához, beleértve (talán meglepő vagy ironikus módon) annak értékelését, hogy a mesterséges intelligencia etikáját hogyan alkalmazzák a cégek.

A mesterséges intelligencia etikai előírásainak általános alkalmazása mellett felvetődik az a kérdés, hogy kellene-e törvények szabályozni az AI különféle felhasználásait. Szövetségi, állami és helyi szinten új törvényeket kötnek ki, amelyek a mesterséges intelligencia kidolgozásának körét és jellegét érintik. Az ilyen törvények kidolgozására és elfogadására irányuló erőfeszítések fokozatosak. A mesterséges intelligencia etika legalábbis megfontolt állomásként szolgál, és bizonyos mértékig bizonyos mértékig közvetlenül beépül az új törvényekbe.

Legyen tudatában annak, hogy egyesek határozottan azzal érvelnek, hogy nincs szükségünk új törvényekre, amelyek lefedik az AI-t, és a meglévő törvényeink elegendőek. Valójában arra figyelmeztetnek, hogy ha bevezetünk néhány mesterséges intelligencia-törvényt, akkor az aranylúd alá fogjuk szorítani a hatalmas társadalmi előnyöket kínáló mesterséges intelligencia fejlődését.

Az autonómia és a fegyver, mint két előírás

Van egy jelmondat, amellyel néhányan figyelmeztetnek mindenféle fegyveres autonóm rendszerre, amelyeket közösen alkotnak meg vágóbotok.

Ez egy további szempontot vet fel, amelyet át kell gondolnunk.

Egy autonóm fegyverrendszerben és/vagy egy önálló fegyveres rendszerben halálos vagy gyilkos robotnak kell lennie?

Egyesek azt állítják, hogy határozottan megtehettük volna nem halálos fegyveres autonóm rendszerek is. Ebből a szempontból tehát mélységesen helytelennek tűnik az olyan kifejezések használata, mint a vágóbotok vagy a gyilkos robotok. Egy nem halálos változat feltehetően képes lenne elfojtani vagy előidézni a nem halálos következményeket. Az ilyen rendszerek nem ölnek, hanem kisebb sérülést okozó képességgel bírnak. Ne becsüljük túl a képességeinket, mondják azok, akik ragaszkodnak ahhoz, hogy nem kell elfoglalnunk egy nyílt gyilkológép-trópust.

Így lehet, hogy ezt kapjuk:

  • Halálos autonóm fegyverrendszerek
  • Halálos autonóm rendszerek, amelyeket felfegyvereztek
  • Nem halálos, autonóm fegyverrendszerek
  • Nem halálos autonóm rendszerek, amelyeket felfegyvereztek

Természetesen az ellenérv az, hogy minden olyan autonóm rendszer, amelyet felfegyvereztek, úgy tűnik, megvan a lehetőség a halálozás birodalmába való becsúszásra, még akkor is, ha állítólag csak nem halálos alapon való használatra tervezték. A nem halálostól a halálossá váláshoz vezető két lépést gyorsan meg kell tenni, ha már kézbe vett egy fegyvert egy autonóm rendszer közepette. Nehezen tudnál vaskalapos garanciát nyújtani arra vonatkozóan, hogy a nem halálos ember nem jut be a halálos arénába (bár néhányan ezt próbálják megtenni, matematikai látszat szerint).

Mielőtt sokkal jobban belemennénk az autonóm rendszerek és fegyverzetek átfogó témájába, hasznos lehet rámutatni valami másra is, amely bár talán nyilvánvaló, nem feltétlenül áll a szemünk előtt.

Itt is van:

  • Van egy mesterséges intelligencia szempont, amely az autonóm rendszer szerves része
  • Ennek az egyenletnek fegyverrel kapcsolatos oldala van
  • Az AI is összefügghet a fegyverekkel

Csomagoljuk ki.

Feltételezzük, hogy a mai autonóm rendszerek megkövetelik a mesterséges intelligenciát, mint az autonóm szempontok előidézésének mögöttes számítógépes eszközét. Ezt azért említem meg, mert megpróbálhatnád azzal érvelni, hogy esetleg nem mesterséges intelligenciával kapcsolatos technológiákat és technikákat használunk az autonóm rendszerek létrehozására, ami bár igaz, de egyre kevésbé tűnik valószínűnek. Alapvetően a mesterséges intelligencia általában nagyobb szintű autonómiát tesz lehetővé, és a legtöbben ennek megfelelően kihasználják a mesterséges intelligencia csúcstechnológiáját.

Rendben, tehát van egy mesterséges intelligencia-alapú képességünk, amely valamilyen módon az autonóm rendszerbe van beépítve, és az autonóm rendszer irányítására és vezérlésére szolgál.

Alapszabályként tartsa ezt a keze ügyében.

Nyilvánvalónak tűnik, hogy szükségünk van valamilyen fegyverzetre, különben miért tárgyaljuk itt az autonóm rendszerek témáját és a fegyverek. Tehát igen, nyilvánvalóan létezik ilyen vagy olyan fegyver.

Nem fogok belemenni a használható fegyverek típusába. Egyszerűen lecserélhetsz bármilyen fegyvert, ami eszedbe jut. Lehet, hogy vannak pontos fegyverek. Lehetnek tömegorientált pusztító fegyverek. Ez lehet valami golyóval vagy lövedékkel. Lehet, hogy vegyi anyagokat vagy atomi illékony összetevőket tartalmaz. A lista végtelen.

A további szempont az, hogy a mesterséges intelligencia összefügg-e a fegyverekkel vagy sem. Lehet, hogy a mesterséges intelligencia csak egy körre viszi a fegyvert. A fegyvert lőtt négylábú robot esetében talán egy olyan ember lövi el a fegyvert, akinek távirányítója van a fegyver kioldásához csatlakoztatva. A kutyaszerű robot egy jelenetet navigál, majd egy távoli emberen múlik, hogy meghúzza a ravaszt.

Másrészt az MI lehet a ravaszt lehúzója. Az AI-t arra tervezték, hogy ne csak navigáljon és manőverezzen, hanem a fegyvert is aktiválja. Ebben az értelemben a mesterséges intelligencia A-tól Z-ig mindent megtesz. Nem függ egy távoli embertől, hogy a dolgok fegyveres oldalát végrehajtsa. Az AI erre van programozva.

Hogy tisztázzuk a fegyveres autonóm rendszerek ezen használati esetét, a következő lehetőségek állnak rendelkezésünkre:

  • Autonóm rendszer: Az AI teljesen önállóan működteti az autonóm rendszert
  • Autonóm rendszer: A mesterséges intelligencia működteti az autonóm rendszert, de a hurokban lévő ember is beavatkozhat
  • Fegyverzet: Távoli ember irányítja a fegyvert (az AI nem)
  • Fegyverzet: A mesterséges intelligencia irányítja a fegyvert, de a hurokban lévő ember is beavatkozhat
  • Fegyverzet: A mesterséges intelligencia a fegyvert teljesen egyedül működteti

Korábban már kitértem az emberi hurokban való létezés variációira az autonóm rendszerekkel és az autonóm járművekkel kapcsolatban, ld. az itt található link.

Ha megnézi azokat a szórakoztató videókat a táncoló és ágaskodó négylábú robotokról, általában azt feltételezik, hogy olyan robotok, amelyeket kizárólag az MI irányít navigációra (hát, ez a szokás vagy a megfelelő etikett a mélyen elfoglaltak között). ezekbe a kérdésekbe). Ezt is joggal feltételezheti. Persze ezt nem tudod biztosan. Lehetséges, hogy egy távoli emberi kezelő irányítja a robotokat. Lehetőség van arra is, hogy a mesterséges intelligencia elvégzi a vezetés egy részét, és egy távoli emberi kezelő is megteszi, esetleg segíti a mesterséges intelligenciát, ha a robot nehéz helyzetbe kerül, és nem tud számításilag kiszámítani, hogy milyen életképes módot tudjon kiszabadítani.

A lényeg az, hogy az AI és az autonóm rendszerek és a fegyverzet összekeverésének számos íze létezik. Vannak, akiknek olyan mesterséges intelligencia van, amely az autonóm rendszert futtatja, de a fegyvereket nem. Egy ember talán távolról irányítja a fegyvert. Egy másik szempont, hogy a fegyverzetet esetleg előzetesen aktiválják, és az autonóm rendszer szállítja az aktivált fegyvert, így az AI önmagában nem vett részt közvetlenül a fegyver kioldásában, hanem szállítójárműként működött. És lehet, hogy a mesterséges intelligencia egy közmondásos mestere, és az autonóm rendszer szempontjainak teljes skáláját a fegyverhasználatban is végrehajtja.

Válassz egyet.

Eközben kérjük, tudd, hogy az ember a hurokban nagyon fontos tényező az erről a témáról szóló vitákban.

Egyesek szerint az a választóvonal, hogy ha a mesterséges intelligencia célzást és lövöldözést végez (vagy bármit is jelent a fegyver), akkor az egész készlet és a caboodle átment a nem-nincs földre. Ez látszólag különbözik a hagyományos „tűz és felejts el” fegyverektől, amelyek előre megcélzott, ember által meghatározott választékkal rendelkeznek, mint például egy járőröző drón, amelynek rakétája készen áll arra, hogy kilőjön egy olyan célpontot. már ember választotta.

Egyesek csodálkoznak azon, hogy a fegyveres autonóm rendszerek miért nem tartalmaznak mindig embert a hurokban az autonóm rendszer aktívan folyamatban lévő folyamata során. Úgy tűnik, jobban járnánk, ha szigorú követelmény az lenne, hogy minden ilyen fegyveres autonóm rendszernek rendelkeznie kell egy emberrel a hurokban, akár az autonóm rendszer működéséhez, akár a fegyverzet működtetéséhez (vagy mindkettőhöz) . Egy feltételezett biztos és szilárd emberi kéz megtartása ebben a mesterséges intelligencia keverékben teljesen okosnak tűnhet.

Készüljön fel az okok hosszú listájára, hogy ez miért nem feltétlenül kivitelezhető.

Vegye figyelembe ezeket a nehézségeket:

  • Előfordulhat, hogy az ember a hurokban nem elég gyors ahhoz, hogy időben reagáljon
  • Előfordulhat, hogy a hurokban lévő ember nem rendelkezik elegendő információval a kötelességtudó válaszadáshoz
  • Előfordulhat, hogy a Human-in-the-loop nem elérhető a szükséges időben
  • Előfordulhat, hogy az ember a hurokban bizonytalan, és nem cselekszik, amikor szükséges
  • A hurokban lévő ember meghozhatja a „rossz” döntést (viszonylag)
  • Előfordulhat, hogy a hurokban lévő ember nem érhető el a rendszerből a szükséges időben
  • A hurokban lévő ember összezavarodhat és túlterhelt lehet
  • Stb.

Kétségtelenül nagy a kísértés, hogy megnézze az emberi gyengeségek és korlátok listáját, majd arra az ünnepélyes következtetésre jut, hogy nyilvánvalóan ésszerű kivágni a hurokban lévő embert, és helyette mindig mesterséges intelligenciát használni. Ez vagy kizárhatja az ember a hurokban, vagy az AI képes felülírni a beágyazott humán-in-the-loop tervezést. Tekintse meg elemzésemet arról, hogy a mesterséges intelligencia és a hurokban lévő ember közötti nézeteltérések hogyan vezethetnek bizonytalan helyzetekhez. az itt található link.

Gyakran előfordul, hogy az ilyen, valós idejű, emberközpontú hátrányok lekicsinylő listája önmagában marad, és azt a tartós benyomást hagyja, hogy a mesterséges intelligencia valamiképpen ugrásszerű, sokkal bölcsebb választás, mint az ember a hurokban. . Ne ess ebbe az alattomos csapdába. Kijózanító kompromisszumokról van szó.

Vegye figyelembe az AI következő következményeit:

  • A mesterséges intelligencia hibába ütközhet, ami tévedést okozhat
  • Lehet, hogy a mesterséges intelligencia túlterhelt, és nem reagál
  • Az AI fejlesztői hibákat tartalmazhat, amelyek szabálytalan viselkedést okoznak
  • A mesterséges intelligencia megsérülhet a beültetett gonosztevő vírussal
  • Az AI-t valós időben átvehetik a kiberhackerek
  • A mesterséges intelligencia a bonyolultság miatt kiszámíthatatlannak tekinthető
  • Az AI számításilag „rossz” döntést hozhat (viszonylag)
  • Stb.

Bízom benne, hogy láthatja, hogy vannak kompromisszumok a hurokban lévő ember használata és a kizárólag az AI-ra támaszkodás között. Abban az esetben, ha arra vágyik, hogy azt javasolja, hogy a kész megoldás mindkettő használata, csak szeretném hangsúlyozni, hogy mindkét világból kihozhatja a legjobbat, de mindkét világból a legrosszabbat is. Ne gondolja, hogy mindig és biztosan ez lesz mindkét világ legjobbja.

Valószínűleg meglepett az AI fent felsorolt ​​egyik hátránya, különösen az, hogy az AI kiszámíthatatlan. Megszoktuk azt hinni, hogy az AI-nak szigorúan logikusnak és matematikailag pontosnak kell lennie. Így arra is számíthat, hogy az AI teljesen kiszámítható lesz. Pontosan tudnunk kell, mit fog tenni az AI. Időszak, a történet vége.

Sajnálom, hogy szétrobbant a léggömb, de ez a kiszámíthatóság mítosza téves elnevezés. A mai mesterséges intelligencia mérete és összetettsége gyakran olyan mocsok, amelyek dacolnak azzal, hogy tökéletesen kiszámíthatók. Ez látható az Ethical AI-felháborodásban a gépi tanulás (ML) és a mély tanulás (DL) mai felhasználásairól. Kicsit rövidebben elmagyarázom.

Érdemes lehet megnézni a legújabb elemzésemet a közelgő tendenciákról, amelyek célja ellenőrizhető és matematikailag bizonyíthatóan helyes AI-rendszerek biztosítása a legújabb mesterségesintelligencia-biztonsággal az itt található link.

Kérődződni az Útszabályokon

Említettem a célpontok és a célzás fogalmát, ami a terminológia meglehetősen terhelt darabja, amely kiemelt figyelmet érdemel.

Ezen elgondolkodhatunk:

  • Célpontok, amelyek emberek
  • Célpontok, amelyek nem emberek, hanem élőlények
  • Tulajdonként értelmezett célok

Tegyük fel, hogy van egy autonóm rendszerünk, amelyet felfegyvereztek. Az AI az autonóm rendszer irányítására szolgál, és fegyverekhez használják. A mesterséges intelligencia A-tól Z-ig mindent megtesz. Nincs előírás a hurokban lévő emberre. A célzás szempontjából az AI fogja kiválasztani a célokat. Nincs olyan előzetes célzás, amelyet emberek határoztak volna meg. Ehelyett az AI-t úgy programozták, hogy általánosságban megállapítsa, vannak-e emberek, akiket meg kell célozni (talán ellenséges akciókat, bizonyos egyenruhákat stb. keres).

Velem ez idáig?

Nagyjából ez a forgatókönyv okozza a legnagyobb felháborodást a fegyveres autonóm rendszerekkel kapcsolatban.

A kinyilvánított aggodalom az, hogy a mesterséges intelligencia (legalább) három olyan dolgot tesz, amelyet nem szabadna megtennie:

  • Az embereket célozza meg célpontként
  • Célzás humán-in-the-loop használata nélkül
  • Potenciálisan kiszámíthatatlanul viselkedikly

Figyeljük meg, hogy a mesterséges intelligencia kiszámíthatatlansága miatti aggodalmakra utalnak. Lehetséges, hogy bár az AI-t bizonyos típusú emberek megcélzására programozták, a mesterséges intelligencia programozása nem az, aminek gondoltuk, és a mesterséges intelligencia végül a „barátságokat” célozza meg azokon kívül, amelyeket az AI-nak „ellenségesnek” kellett volna értelmeznie. ” (vagy talán helyette). Ezen túlmenően, még ha úgy döntünk is, hogy beépítjük az ember a hurokban való rendelkezését, a mesterséges intelligencia kiszámíthatatlansága azt jelentheti, hogy amikor az MI-nek konzultálnia kell a hurokban lévő emberrel, akkor nem sikerül. így és minden emberi beavatkozás nélkül cselekszik.

Érdekelheti, hogy a Vöröskereszt Nemzetközi Bizottsága (ICRC) három pontból álló átfogó álláspontot kínált az autonóm fegyverrendszerekkel kapcsolatban, amely kidolgozza az ilyen típusú aggályokat (az ICRC webhelye szerint):

1. „Kifejezetten szabályozni kell a kiszámíthatatlan autonóm fegyverrendszereket ki, különösen válogatás nélküli hatásaik miatt. Ezt a legjobban az olyan autonóm fegyverrendszerek betiltásával lehetne elérni, amelyeket úgy terveztek vagy használnak, hogy hatásukat nem lehet kellőképpen megérteni, előre jelezni és megmagyarázni."

2. „Etikai megfontolások fényében az emberiség védelme és a nemzetközi humanitárius jogi szabályok betartása a civilek és a harcosok védelmére vonatkozóan, ki kell zárni az autonóm fegyverrendszerek emberi célú felhasználását. Ezt a legjobban az olyan autonóm fegyverrendszerek betiltásával lehetne elérni, amelyeket személyek elleni erőszak alkalmazására terveztek vagy használnak."

3. „A civilek és a polgári objektumok védelme, a nemzetközi humanitárius jog szabályainak betartása és az emberiség védelme érdekében szabályozni kell a nem tiltott autonóm fegyverrendszerek tervezését és használatát, többek között a következők kombinációjával: korlátozza a célpont típusait, például olyan tárgyakra korlátozva, amelyek természetüknél fogva katonai célok; a felhasználás időtartamára, földrajzi hatályára és mértékére vonatkozó korlátok, beleértve az emberi megítélés és ellenőrzés lehetővé tételét egy adott támadással kapcsolatban; felhasználási helyzetekre vonatkozó korlátok, például olyan helyzetekre korlátozva őket, ahol civilek vagy polgári objektumok nincsenek jelen; raz ember-gép interakció követelményei, különösen a hatékony emberi felügyelet, valamint az időben történő beavatkozás és deaktiválás biztosítása érdekében.

Ehhez kapcsolódóan az Egyesült Nemzetek Szervezete (ENSZ) a genfi ​​egyes hagyományos fegyverekről szóló egyezményen (CCW) keresztül tizenegy, nem kötelező erejű vezérelvet határozott meg a halálos autonóm fegyverekre vonatkozóan, az interneten közzétett hivatalos jelentés szerint (beleértve a vonatkozó nemzetközi humanitárius szervezetekre való hivatkozásokat is). törvény vagy IHL-kikötések):

a) A nemzetközi humanitárius jog továbbra is teljes mértékben alkalmazandó valamennyi fegyverrendszerre, beleértve a halálos kimenetelű autonóm fegyverrendszerek lehetséges fejlesztését és használatát;

(b) Fenn kell tartani az emberi felelősséget a fegyverrendszerek használatával kapcsolatos döntésekért, mivel az elszámoltathatóság nem ruházható át a gépekre. Ezt a fegyverrendszer teljes életciklusa során figyelembe kell venni;

c) Az ember-gép interakciónak, amely különféle formákat ölthet, és a fegyver életciklusának különböző szakaszaiban valósulhat meg, biztosítania kell, hogy a halálos autonóm fegyverrendszerek területén a feltörekvő technológiákon alapuló fegyverrendszerek lehetséges felhasználása megfelelő legyen. az alkalmazandó nemzetközi jognak, különösen az IHL-nek való megfelelés. Az ember-gép interakció minőségének és mértékének meghatározásakor számos tényezőt figyelembe kell venni, beleértve a műveleti környezetet, valamint a fegyverrendszer egészének jellemzőit és képességeit;

d) Az alkalmazandó nemzetközi joggal összhangban biztosítani kell az elszámoltathatóságot a CCW keretében kialakuló bármely fegyverrendszer kifejlesztéséért, telepítéséért és használatáért, beleértve az ilyen rendszereknek a felelős emberi parancsnoki és irányítási láncon belüli működtetését;

e) Az államok nemzetközi jog szerinti kötelezettségeivel összhangban egy új fegyver, eszköz vagy hadviselési módszer tanulmányozása, fejlesztése, beszerzése vagy elfogadása során meg kell határozni, hogy annak alkalmazása bizonyos vagy minden körülmények között nemzetközi jog tiltja;

f) A halálos, autonóm fegyverrendszerek, a fizikai biztonság, a megfelelő nem fizikai biztosítékok (beleértve a hackelés vagy adathamisítás elleni kiberbiztonságot) területén feltörekvő technológiákon alapuló új fegyverrendszerek fejlesztése vagy beszerzése során fennáll a terrorista csoportok általi megszerzés kockázata. és figyelembe kell venni a proliferáció kockázatát;

g) A kockázatértékelésnek és a kockázatcsökkentő intézkedéseknek a feltörekvő technológiák tervezési, fejlesztési, tesztelési és telepítési ciklusának részét kell képezniük bármely fegyverrendszerben;

h) A nemzetközi humanitárius jognak és más vonatkozó nemzetközi jogi kötelezettségeknek való megfelelés érdekében mérlegelni kell az újonnan megjelenő technológiák alkalmazását a halálos, autonóm fegyverrendszerek területén;

(i) A lehetséges politikai intézkedések kidolgozása során nem szabad antropomorfizálni a halálos kimenetelű autonóm fegyverrendszerek területén megjelenő új technológiákat;

j) A CCW keretében megbeszélések és esetleges politikai intézkedések nem akadályozhatják az intelligens autonóm technológiák békés célú felhasználásának előrehaladását vagy az azokhoz való hozzáférést;

k) A CCW megfelelő keretet kínál a halálos, autonóm fegyverrendszerek területén megjelenő új technológiák kérdésének kezeléséhez az Egyezmény céljainak és céljainak összefüggésében, amely egyensúlyt kíván teremteni a katonai szükségszerűség és a humanitárius megfontolások között.

A kínos helyzet, amelyben találjuk magunkat

Ezek a különféle háborús törvények, a fegyveres konfliktusok törvényei vagy az IHL (Nemzetközi Humanitárius Törvények) létfontosságú és mindig ígéretes útmutatóként szolgálnak annak mérlegeléséhez, hogy mit tehetnénk az autonóm rendszerek megjelenésével kapcsolatban, amelyek felfegyverkeznek, akár záróköves tervezéssel vagy utólagos módszerekkel.

Őszintén kívánhatjuk, hogy a halálos fegyverekkel ellátott autonóm rendszerek tilalmát szigorúan és engedelmesen betartsák. A probléma az, hogy sok mozgásteret ravaszul találni a legőszintébb kitiltások között. Ahogy mondani szokás, a szabályokat meg kell szegni. Fogadhat, hogy ahol a dolgok laza-libák, a riffraff kiszűri a hiányosságokat, és megpróbál kacsintgatva kikerülni a szabályokat.

Íme néhány lehetséges kiskapu, amelyet érdemes megfontolni:

  • Nem halálos állítások. Készít nem halálos autonóm fegyverrendszerek (látszólag rendben van, mert kívül esik a tilalom határán), amiket aztán egy fillérrel halálossá változtathatsz (csak az utolsó pillanatban leszel túl a tilalomon).
  • Csak az autonóm rendszer követelései. Tartsa be a tilalmat azáltal, hogy ne készítsen halálos célú autonóm rendszereket, eközben pedig tegyen annyi előrelépést a mindennapi autonóm rendszerek kidolgozásában, amelyek (még) nincsenek felfegyverkezve, de amelyeket egy aprócska utólagos felszereléssel fegyveressé lehet tenni.
  • Nem integrált egyként állítások. Alkosson autonóm rendszereket, amelyek egyáltalán nincsenek felfegyverkezve, és ha eljön az ideje, háton fegyverzeteket úgy, hogy megpróbáljon hevesen érvelni amellett, hogy két különálló elemről van szó, és ezért azt állíthatja, hogy nem esnek a minden az egyben rubrikájába autonóm fegyverrendszer vagy unokatestvére.
  • Azt állítja, hogy nem autonóm. Készíts egy olyan fegyverrendszert, amely nem tűnik önálló képességűnek. Hagyjon teret ebben a feltehetően nem autonóm rendszerben az AI-alapú autonómia kiesésére. Ha szükséges, csatlakoztassa az autonómiát, és máris gurulhat (addig úgy tűnik, nem szegte meg a tilalmat).
  • Más

Rengeteg más kifejezett nehézség is felmerül a halálos autonóm fegyverrendszerek teljes betiltásával kapcsolatban. Kitérek még néhányra.

Egyes szakértők azzal érvelnek, hogy a tilalom nem különösebben hasznos, és ehelyett szabályozási rendelkezéseknek kell lenniük. Az ötlet az, hogy ezek a mesterségek megengedettek lesznek, de szigorúan ellenőrzik őket. A törvényes felhasználások sorát fektetik le, a célzás törvényes módjait, a képességek törvényes típusait, a törvényes arányosságot és hasonlókat.

Véleményük szerint az egyenes tiltás olyan, mintha homokba dugná a fejét, és úgy tesz, mintha a szobában lévő elefánt nem is létezne. Ez az érvelés azonban felforralja a vért azoknak, akik szembeszállnak azzal az érvvel, hogy a tilalom bevezetésével drámai módon csökkentheti az egyébként effajta rendszerek követésére irányuló kísértést. Persze vannak, akik fitogtatják a tilalmat, de legalábbis remélhetőleg a többség nem. Ezután a hencegőkre összpontosíthatja a figyelmét, és nem kell mindenkire szétszórnia a figyelmét.

Körbe-körbe mennek ezek a viták.

Egy másik gyakran feljegyzett aggodalom, hogy még ha a jó betartja is a tilalmat, a rossz nem. Ez a jót silány testhelyzetbe hozza. A rosszaknak lesz ilyen fegyveres autonóm rendszerük, a jóknak pedig nem. Amint kiderül, hogy a rosszaknak van, már késő lesz, hogy utolérjék a jókat. Röviden, az egyetlen okos dolog, hogy felkészüljünk a tűz elleni küzdelemre.

Létezik a klasszikus elrettentési vita is. Ha a jó választás a fegyveres autonóm rendszerek létrehozása, akkor ez felhasználható arra, hogy elriassza a rosszakat attól, hogy vitába keveredjenek. Vagy a jók jobban fel vannak fegyverkezve, és így elriasztják a rosszakat, vagy a jók akkor lesznek készen, amikor a rosszak esetleg leleplezik, hogy titokban mindvégig ezeket a rendszereket dolgozták ki.

Ezekkel a számlálókkal szemben az, hogy fegyveres autonóm rendszerek létrehozásával fegyverkezési versenyt folytat. A másik oldal is ugyanerre törekszik majd. Még ha technológiailag nem is képesek újból létrehozni ilyen rendszereket, most képesek lesznek ellopni a „jók” terveit, visszafejteni a csúcstechnológiát, vagy leutánozni bármit, amit beváltnak látnak. a munka elvégzésének módja.

Aha, néhány visszavágás, mindez a konfliktusok csökkenéséhez vezethet a kölcsönösség látszatával. Ha az A oldal tudja, hogy a B oldalon vannak a halálos autonóm rendszerű fegyverek, és a B oldal tudja, hogy az A oldal rendelkezik velük, akkor lehet, hogy szorosan ülnek, és nem érnek ütéseket. Ennek megvan a kölcsönösen biztosított pusztulás (MAD) jellegzetes aurája.

És így tovább.

A mesterséges intelligencia az autonómiában

Győződjünk meg arról, hogy a mai mesterséges intelligencia természetét illetően egy oldalon vagyunk.

Ma nincs olyan mesterséges intelligencia, amely érző lenne. Nálunk ez nincs. Nem tudjuk, hogy az érző mesterséges intelligencia lehetséges lesz-e. Senki sem tudja pontosan megjósolni, hogy elérjük-e az érző MI-t, és azt sem, hogy az érző mesterséges intelligencia valamilyen csodálatos módon spontán módon létrejön-e számítógépes kognitív szupernóva formájában (általában szingularitásnak nevezik, lásd tudósításomat itt: az itt található link).

A mesterséges intelligencia azon típusa, amelyre összpontosítok, a ma létező nem érző MI-ből áll. Ha vadul akarnánk spekulálni arról érző AI, ez a vita gyökeresen más irányba mehet. Egy érző mesterséges intelligencia állítólag emberi minőségű lenne. Figyelembe kell vennie, hogy az érző mesterséges intelligencia az ember kognitív megfelelője. Sőt, mivel egyes feltételezések szerint szuperintelligens AI-val rendelkezünk, elképzelhető, hogy az ilyen mesterséges intelligencia okosabb lehet, mint az emberek (a szuperintelligens AI lehetőségének feltárásához lásd a tudósítás itt).

Maradjunk inkább a földön, és vegyük figyelembe a mai számítástechnikai, nem érző MI-t.

Vegye észre, hogy a mai mesterséges intelligencia nem képes az emberi gondolkodással egyenrangú módon „gondolkodni”. Amikor Alexával vagy Sirivel kommunikál, a társalgási képességek hasonlónak tűnhetnek az emberi képességekhez, de a valóság az, hogy számítási jellegű, és hiányzik az emberi megismerés. A mesterséges intelligencia legújabb korszaka széles körben alkalmazta a gépi tanulást (ML) és a mély tanulást (DL), amelyek kihasználják a számítási mintaillesztést. Ez olyan mesterséges intelligencia-rendszerekhez vezetett, amelyek emberszerű hajlamokat mutatnak. Eközben manapság nincs olyan mesterséges intelligencia, amely a józan észnek látszana, és az emberi gondolkodás kognitív csodáiból sem.

Legyen nagyon óvatos a mai mesterséges intelligencia antropomorfizálásával.

Az ML/DL a számítási mintaillesztés egyik formája. A szokásos megközelítés az, hogy egy döntési feladatról adatokat gyűjt össze. Az adatokat betáplálja az ML/DL számítógépmodellekbe. Ezek a modellek matematikai mintákat keresnek. Miután megtalálta az ilyen mintákat, ha igen, az AI rendszer ezeket a mintákat fogja használni, amikor új adatokkal találkozik. Az új adatok bemutatásakor a „régi” vagy történelmi adatokon alapuló mintákat alkalmazzák az aktuális döntés meghozatalához.

Azt hiszem, sejtheti, hová vezet ez. Ha az emberek, akik a mintaszerű döntéseket hozták, nemkívánatos elfogultságokat alkalmaztak, akkor valószínű, hogy az adatok ezt finom, de jelentős mértékben tükrözik. A Machine Learning vagy a Deep Learning számítási mintaillesztés egyszerűen megpróbálja matematikailag utánozni az adatokat ennek megfelelően. A mesterséges intelligencia által kialakított modellezésben önmagában semmi sem látszik a józan észnek vagy más érző szempontoknak.

Ezenkívül az AI-fejlesztők sem tudják, mi történik. Az ML/DL rejtélyes matematikája megnehezítheti a most rejtett torzítások kiszűrését. Joggal remélhető és elvárható, hogy a mesterséges intelligencia fejlesztői teszteljék a potenciálisan eltemetett torzításokat, bár ez bonyolultabb, mint amilyennek látszik. Jó esély van arra, hogy még viszonylag kiterjedt tesztelés mellett is lesznek torzítások az ML/DL mintaillesztési modelljeibe.

Használhatná némileg a híres vagy hírhedt közmondást, a szemetet a szemét kiszállításáról. A helyzet az, hogy ez inkább a torzításokhoz hasonlít, amelyek alattomos módon beszivárognak az AI-ba merülő torzítások miatt. Az AI algoritmus-döntéshozatala (ADM) axiomatikusan megterhelődik egyenlőtlenségekkel.

Nem jó.

Ezzel a hozzáadott alapozó háttérrel ismét az autonóm rendszerek és a fegyverkezés témája felé fordulunk. Korábban láttuk, hogy az AI belép az autonóm rendszerkomponensbe, és beléphet a fegyverkezési komponensbe is. A mai mesterséges intelligencia nem érző. Ezt érdemes megismételni, és kiemelem, hogy további betekintést nyújtsak ezekbe a kérdésekbe.

Tekintsünk meg néhány forgatókönyvet, hogy meglássuk, ez mennyire fontos szempont. Egy pillanatra kitérek a háborús orientációról ebben a témában, és bemutatom, hogyan hat át sok más társadalmi közegbe. Erősítse meg magát ennek megfelelően.

Egy mesterséges intelligencia-alapú autonóm rendszer, mint például egy autonóm jármű, aminek azt mondjuk, semmi köze a fegyverekhez, utat tör magának egy normál területen. Egy ember jön, hogy használja az autonóm járművet. A személy egy előre sejtő fegyverrel van felfegyverkezve. Tegyük fel, hogy ebben a konkrét forgatókönyvben a vita kedvéért az illetőnek valami kellemetlen van a fejében. A személy beszáll az autonóm járműbe (fegyverét magánál hordva, elrejtve vagy nem rejtve, mindkét esetben).

Az autonóm jármű a lovas által kért úti cél felé halad. Ebben az esetben a mesterséges intelligencia egyszerűen programozottan szállítja ezt az utast az egyik felszállási helyről a kijelölt úticélra, ugyanúgy, ahogyan ezt tette minden nap több tucat vagy több száz utazás során.

Ha ez egy emberi sofőr és egy ember által vezetett jármű lett volna, feltehetően van némi esély arra, hogy az emberi sofőr rájön, hogy az utas felfegyverkezve van, és úgy tűnik, hogy rossz szándékai vannak. Az emberi sofőr megtagadhatja a jármű vezetését. Vagy az emberi sofőr a rendőrségre hajthat. Esetleg az emberi sofőr megpróbálhatja leigázni a felfegyverzett utast (esetről számoltak be), vagy eltántorítja az utast a fegyver használatától. Elég bonyolult, és számtalan variáció létezhet. Nehéz lenne azt állítani, hogy egyetlen helyes válasz létezik egy ilyen szorult helyzet megoldására. Sajnos a helyzet bosszantó és nyilvánvalóan veszélyes.

Az AI ebben az esetben valószínűleg nem lesz programozva az ilyen lehetőségek bármelyikére. Röviden, a felfegyverzett utas használhatja fegyverét, mégpedig az autonóm járműből, a vezetési út során. A mesterséges intelligencia vezetési rendszere tovább halad, az autonóm jármű pedig tovább halad az utas megadott kijelölése felé (feltéve, hogy az úti cél egyébként nem tekinthető határon kívülinek).

A legtöbb kortárs mesterséges intelligencia vezetési rendszer számítási szempontból csak az úttestre koncentrálna, nem pedig a versenyző erőfeszítéseire.

A dolgok ennél rosszabbra fordulhatnak.

Tegyük fel, hogy valaki egy csomó élelmiszert át akar szállítani egy olyan helyre, ahol extra élelmiszert szállítanak a rászorulóknak. A személy autonóm járművet kér, és az élelmiszeres táskákat a jármű hátsó ülésére helyezi. Nem mennek el az útra, csupán az autonóm járművet használják, hogy kiszállítsák nekik az élelmiszeres zacskókat.

Tökéletesen jónak tűnik.

Képzeld el, hogy egy ostoba ember inkább valamilyen fegyverkezést helyez el az autonóm járműben, ahelyett, hogy a bolti táskák békésebb fogalma lenne. Szerintem sejtheti, mi történhet. Ez olyan aggodalom, amelyre többször is buzdítottam hasábjaimban, és előre figyelmeztettem, hogy előbb, mint utóbb meg kell birkózni vele.

Az egyik felkínált válasz az ilyen típusú forgatókönyvekre az, hogy talán minden autonóm jármű programozható úgy, hogy kamerái és egyéb érzékelői segítségével megpróbálja észlelni, hogy a potenciális utas felfegyverkez-e és aljas szándékai vannak-e. Lehet, hogy az AI-t erre programozzák. Vagy a mesterséges intelligencia elektronikusan és hangtalanul riasztja a távoli emberi kezelőt, aki a kamerákon keresztül vizuálisan és egyéb módon megvizsgálja az utast, és esetleg kapcsolatba lép vele. Mindez egy összetett és potenciálisan kezelhetetlen férgek dobozának része, amely súlyos adatvédelmi problémákat és számos egyéb lehetséges etikus mesterséges intelligencia aggályt vet fel. Lásd tudósításomat itt: az itt található link.

Egy másik, némileg hasonló alternatíva, hogy az AI tartalmaz valamilyen beágyazott etikai programozást, amely megpróbálja lehetővé tenni az AI számára, hogy etikai vagy morális ítéleteket hozzon, amelyek általában az emberi döntéshozók számára vannak fenntartva. Megvizsgáltam a mesterséges intelligencia-beágyazott számítási etikai prognosztikátorokat, ld. az itt található link és a az itt található link.

Visszatérve egy csatatéri forgatókönyvhöz, képzeld el, hogy egy halálos autonóm fegyverrendszer cirkál a harci zóna fölött. Az AI működteti az autonóm rendszert. Az MI működteti a fegyvereket a fedélzeten. Korábban elképzeltük annak lehetőségét, hogy az MI-t úgy programozzák, hogy ellenségesnek tűnő mozgásokat vagy más, érvényes harcosnak tekintett emberi célpontok jeleit keresse.

Kell-e ugyanannak a mesterséges intelligenciának lennie valamiféle etikai-orientált komponensnek, amely arra törekszik, hogy számítástechnikailag megvizsgálja, mit tehet a hurokban lévő ember, és bizonyos értelemben cselekszik a hurokban lévő ember helyett?

Egyesek azt mondják, hogy igen, folytassuk ezt. Vannak, akik rémülten hátrálnak, és azt mondják, hogy ez vagy lehetetlen, vagy más módon sérti az emberiség szentségét.

Még egy doboz féreg.

Következtetés

Azok számára, akiket érdekel ez a téma, még sok mindenről van szó.

Gyorsan ízelítőt adok egy gyötrő rejtvényből.

Általában azt várjuk, hogy az embert végső soron felelősségre vonják azért, ami a háború alatt történik. Ha a mesterséges intelligencia egy autonóm fegyverrendszert vezérel, vagy egy autonóm rendszert, amelyet valószínűleg felfegyvereztek, és ez a rendszer olyasmit tesz a csatatéren, amiről úgy gondolják, hogy ez lelkiismeretlenség, akkor kit vagy mit okolhatunk ezért?

Azzal érvelhet, hogy az AI-t felelősségre kell vonni. De ha igen, mit jelent ez pontosan? A mai mesterséges intelligenciát még nem tekintjük a jogi személyiség megtestesítőjének, lásd magyarázatomat itt az itt található link. Az AI esetében nem kell a farkát a szamárra tűzni. Talán, ha a mesterséges intelligencia egy napon érzővé válik, megpróbálhatja megtenni. Addig ez egy kicsit elérhető (plusz, hogy milyen büntetések vagy következmények vonatkoznának az AI-ra, lásd az elemzésemet itt: az itt található link és a az itt található link, például).

Ha nem a mesterséges intelligencia az elszámoltatható gyanúsított, akkor természetesen azt mondhatjuk, hogy bármilyen ember vagy emberek kitalálták az MI-t, felelősségre kell vonni. Megteheti ezt, ha a mesterséges intelligencia csupán egy autonóm rendszert futtatott, és jön néhány ember, amely fegyverkezéssel párosult? Utánajársz az AI-fejlesztőknek? Vagy azok, akik telepítették az AI-t? Vagy csak a fegyveres színész?

Bízom benne, hogy azt gondolja, hogy kiadós vitám során csak a jéghegy csúcsát érintettem meg.

Egyelőre menjünk előre, és fejezzük be ezt a diskurzust. Talán emlékszel arra, hogy John Lyly benne volt Euphues: A szellemesség anatómiája 1578-ban emlékezetesen kijelentette, hogy szerelemben és háborúban minden igazságos.

Gondolt volna az autonóm fegyverrendszerek megjelenésére és a fegyveres autonóm rendszerek megjelenésére?

Ezt minden bizonnyal a fejünk tetejére kell helyeznünk, azonnal.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- fegyverrendszerek-és-az-ai-vezérelt-autonóm-rendszerek-kizsákmányolása, amelyek-ördögien-fegyverzett/