A mesterséges intelligencia etika és a mesterséges intelligencia törvényei kemény kérdéseket tesznek fel az új ígéretről a táncoló robotgyártók által, mondván, hogy megakadályozzák az AI-fegyverkezést

Valószínűleg a múlt héten láthatta a hírekben, vagy észrevette a közösségi médiában, hogy egyes robotgyártók ígéretet tettek az általános célú robotok mesterséges intelligencia-fegyverzésének elkerülésére. Egy pillanat múlva végigvezetem a részleteken, szóval ne aggódjon, ha nem értette a dolgot.

Az erre a kijelentésre adott reakció gyors volt, és – mint az polarizált társadalmunkban szokásos – egyszerre volt dicsérő és időnként gúnyosan kritikus vagy egyenesen csúnyán szkeptikus.

Ez egy mese két világról.

Az egyik világban egyesek azt mondják, hogy pontosan erre van szükségünk felelős AI robot fejlesztők nyilatkozni.

Hála istennek, hogy a helyes oldalon áll egy olyan kérdésben, amely fokozatosan láthatóbbá és aggasztóbbá válik. Azok az aranyos táncoló robotok nyugtalanítóak, mert nagyon könnyű újraindítani őket, hogy fegyvereket hordozzanak, és a legrosszabb módokon is használhatók legyenek (ezt saját maga is ellenőrizheti a közösségi médiában, és rengeteg videó mutat be gépfegyverrel felfegyverzett táncoló robotokat és egyéb fegyverzet).

Az érem másik oldala szerint az úgynevezett zálogjog nem más, mint marketing vagy PR fogás (mellékjegyzetként: ismeri valaki a zálog és az adomány közötti különbséget?). Mindenesetre a kételkedők arra buzdítanak, hogy ez féktelen erényjelzés a táncoló robotokkal összefüggésben. Bizonyára érdemes és komolyan megfontolni azt a siránkozást, hogy az általános célú robotokat fel lehet fegyverezni, bár pusztán annak állítása, hogy a gyártó nem fogja megtenni, valószínűleg üres ígéret, egyesek ragaszkodnak hozzá.

Mindent egybevetve, az egész ügy a mesterséges intelligenciával kapcsolatos etikai és mesterséges intelligenciajogi megfontolások igen jelentős részét veti fel. Alaposan kibontjuk a témát, és meglátjuk, hogy ez egy etikai és jogi AI-mocsár kettős csapása. A mesterséges intelligencia etikájával és a mesterséges intelligencia törvényével kapcsolatos folyamatos és kiterjedt tudósításomat lásd az itt található link és a az itt található link, csak hogy néhányat említsek.

A beszélgetés során hivatkozni fogok a mesterséges intelligencia fegyverkezésének veszélyeivel kapcsolatos korábbi elemzéseimre is, például az itt végzett mélyreható értékelésemre. az itt található link. Érdemes lehet egy pillantást vetni arra a diskurzusra a kulisszák mögötti további részletekért.

Nyílt levél, amely felnyit egy doboz férget

Kezdjük ezt az elemzést az Open Letter alapos, lépésről lépésre történő feltárásával, amelyet hat viszonylag jól ismert, fejlett robotgyártó nemrégiben tett közzé, nevezetesen a Boston Dynamics, a Clearpath Robotics, az ANYbotics, az Agility Robotics, az Open Robotics és a Unitree. Összességében arra tippelek, hogy főként a Boston Dynamics robotokat láttad, például azokat, amelyek négykézláb mászkálnak. Úgy néznek ki, mintha kutyaszerűek lennének, és élvezzük, ha látjuk őket, ahogy kóborolnak.

Ahogy már korábban és többször is figyelmeztettem, az ilyen „táncoló” robotok használata a nagyközönség meggyőzésére arról, hogy ezek a robotok aranyosak és imádnivalóak, sajnálatos módon félrevezető, és az antropomorfizálásuk bőséges buktatóiba vezet. Kezdünk úgy gondolni ezekre az edzett fém- és műanyagdarabokra, mintha egy bújós, hűséges kutyával egyenértékűek lennének. Az a hajlandóságunk, hogy elfogadjuk ezeket a robotokat, a biztonság és a bizonyosság hamis érzésén alapszik. Persze, pénzt kell keresni, és ennek esélyét növeli a táncoló robotok körüli felvonulás, de ez sajnálatos módon figyelmen kívül hagyja vagy látszólag eltakarja azt a tényt, hogy ezek a robotok robotok, és hogy a robotokat irányító mesterséges intelligencia hibásan is kitalálható. vagy félremegy.

Vegyük fontolóra a mesterséges intelligencia ezen következményeit (részlet a mesterséges intelligencia fegyverkezéséről szóló cikkemből, amely a következő helyen található: az itt található link):

  • A mesterséges intelligencia hibába ütközhet, ami tévedést okozhat
  • Lehet, hogy a mesterséges intelligencia túlterhelt, és nem reagál
  • Az AI fejlesztői hibákat tartalmazhat, amelyek szabálytalan viselkedést okoznak
  • A mesterséges intelligencia megsérülhet a beültetett gonosztevő vírussal
  • Az AI-t valós időben átvehetik a kiberhackerek
  • A mesterséges intelligencia a bonyolultság miatt kiszámíthatatlannak tekinthető
  • Az AI számításilag „rossz” döntést hozhat (viszonylag)
  • Stb.

Ezek olyan pontok a mesterséges intelligencia tekintetében, amely olyan típusú, amelyet eredetileg a megfelelő dolog megtételére terveztek.

Ezen megfontolásokon túlmenően bele kell foglalnia a kezdetektől fogva rossz dolgok végzésére kialakított AI-rendszereket is. Lehet olyan mesterséges intelligencia, amelyet jótékony célokra készítettek, gyakran emlegetnek AI For Good. Olyan mesterséges intelligencia is lehet, amelyet szándékosan rossz célokra készítettek, ún AI For Bad. Továbbá lehet AI For Good amely elrontott vagy válássá változott AI For Bad.

Egyébként ennek semmi köze ahhoz, hogy a mesterséges intelligencia érzővé válik, amit azért említek meg, mert egyesek folyton azt kiabálják, hogy a mai mesterséges intelligencia vagy érző, vagy az érzővé válás küszöbén áll. Nem úgy. Ezeket a mítoszokat szétszedem az elemzésem során az itt található link.

Győződjön meg arról, hogy a mai mesterséges intelligencia természetét illetően egy oldalon vagyunk.

Ma nincs olyan mesterséges intelligencia, amely érző lenne. Nálunk ez nincs. Nem tudjuk, hogy az érző mesterséges intelligencia lehetséges lesz-e. Senki sem tudja pontosan megjósolni, hogy elérjük-e az érző MI-t, és azt sem, hogy az érző mesterséges intelligencia valamilyen csodálatos módon spontán módon létrejön-e számítógépes kognitív szupernóva formájában (általában szingularitásnak nevezik, lásd tudósításomat itt: az itt található link).

A mesterséges intelligencia azon típusa, amelyre fókuszálok, a mai nem érző MI-ből áll. Ha vadul akarnánk spekulálni az érző mesterséges intelligencia kapcsán, akkor ez a vita gyökeresen más irányba haladhat. Egy érző mesterséges intelligencia állítólag emberi minőségű lenne. Figyelembe kell vennie, hogy az érző mesterséges intelligencia az ember kognitív megfelelője. Sőt, mivel egyesek feltételezik, hogy szuperintelligens AI-val rendelkezünk, elképzelhető, hogy az ilyen mesterséges intelligencia végül okosabb lesz, mint az emberek (a szuperintelligens AI lehetőségének feltárásához lásd a tudósítás itt).

Nyomatékosan javaslom, hogy tartsuk a dolgokat a földön, és vegyük figyelembe a mai számítástechnikai, nem érző MI-t.

Vegye észre, hogy a mai mesterséges intelligencia nem képes az emberi gondolkodással egyenrangú módon „gondolkodni”. Amikor Alexával vagy Sirivel kommunikál, a társalgási képességek hasonlónak tűnhetnek az emberi képességekhez, de a valóság az, hogy számítási jellegű, és hiányzik az emberi megismerés. A mesterséges intelligencia legújabb korszaka széles körben alkalmazta a gépi tanulást (ML) és a mély tanulást (DL), amelyek kihasználják a számítási mintaillesztést. Ez olyan mesterséges intelligencia-rendszerekhez vezetett, amelyek emberszerű hajlamokat mutatnak. Eközben manapság nincs olyan mesterséges intelligencia, amely a józan észnek látszana, és az emberi gondolkodás kognitív csodáiból sem.

Legyen nagyon óvatos a mai mesterséges intelligencia antropomorfizálásával.

Az ML/DL a számítási mintaillesztés egyik formája. A szokásos megközelítés az, hogy egy döntési feladatról adatokat gyűjt össze. Az adatokat betáplálja az ML/DL számítógépmodellekbe. Ezek a modellek matematikai mintákat keresnek. Miután megtalálta az ilyen mintákat, ha igen, az AI rendszer ezeket a mintákat fogja használni, amikor új adatokkal találkozik. Az új adatok bemutatásakor a „régi” vagy történelmi adatokon alapuló mintákat alkalmazzák az aktuális döntés meghozatalához.

Azt hiszem, sejtheti, hová vezet ez. Ha az emberek, akik a mintaszerű döntéseket hozták, nemkívánatos elfogultságokat alkalmaztak, akkor valószínű, hogy az adatok ezt finom, de jelentős mértékben tükrözik. A Machine Learning vagy a Deep Learning számítási mintaillesztés egyszerűen megpróbálja matematikailag utánozni az adatokat ennek megfelelően. A mesterséges intelligencia által kialakított modellezésben önmagában semmi sem látszik a józan észnek vagy más érző szempontoknak.

Továbbá előfordulhat, hogy az AI-fejlesztők sem tudják, mi történik. Az ML/DL rejtélyes matematikája megnehezítheti a mára rejtett torzítások kiszűrését. Joggal remélhető és elvárható, hogy a mesterséges intelligencia fejlesztői teszteljék a potenciálisan eltemetett torzításokat, bár ez bonyolultabb, mint amilyennek látszik. Jó esély van arra, hogy még viszonylag kiterjedt tesztelés mellett is lesznek torzítások az ML/DL mintaillesztési modelljeibe.

Használhatná némileg a híres vagy hírhedt közmondást, a szemetet a szemét kiszállításáról. A helyzet az, hogy ez inkább a torzításokhoz hasonlít, amelyek alattomos módon beszivárognak az AI-ba merülő torzítások miatt. Az AI algoritmus-döntéshozatala (ADM) axiomatikusan megterhelődik egyenlőtlenségekkel.

Nem jó.

Mindez különösen jelentős AI etikai vonatkozásaival rendelkezik, és praktikus ablakot kínál a levont tanulságokba (még mielőtt az összes lecke megtörténne), amikor a mesterséges intelligencia törvénybe iktatásáról van szó.

A mesterséges intelligencia etikai előírásainak általános alkalmazása mellett felvetődik az a kérdés, hogy kellene-e törvények szabályozni az AI különféle felhasználásait. Szövetségi, állami és helyi szinten új törvényeket kötnek ki, amelyek a mesterséges intelligencia kidolgozásának körét és jellegét érintik. Az ilyen törvények kidolgozására és elfogadására irányuló erőfeszítések fokozatosak. A mesterséges intelligencia etika legalábbis megfontolt állomásként szolgál, és bizonyos mértékig bizonyos mértékig közvetlenül beépül az új törvényekbe.

Legyen tudatában annak, hogy egyesek határozottan azzal érvelnek, hogy nincs szükségünk az AI-t lefedő új törvényekre, és a meglévő törvényeink elegendőek. Előre figyelmeztetik, hogy ha bevezetünk néhány ilyen mesterséges intelligencia-törvényt, akkor megöljük az aranylibát azáltal, hogy visszaszorítjuk a mesterséges intelligencia fejlődését, amely óriási társadalmi előnyöket kínál.

Az előző rovatokban bemutattam az AI-t szabályozó törvények kidolgozására és elfogadására irányuló különféle nemzeti és nemzetközi erőfeszítéseket, ld. az itt található link, például. Kitértem a különféle nemzetek által azonosított és elfogadott különféle mesterséges intelligencia-etikai elvekre és irányelvekre is, beleértve például az Egyesült Nemzetek erőfeszítéseit, mint például az UNESCO mesterségesintelligencia-etikai készletét, amelyet közel 200 ország fogadott el, lásd az itt található link.

Íme egy hasznos kulcslistája az AI-rendszerekre vonatkozó etikus AI-kritériumokról vagy -jellemzőkről, amelyeket korábban alaposan megvizsgáltam:

  • Átláthatóság
  • Igazságosság és méltányosság
  • Nem rosszindulat
  • Felelősség
  • Adatvédelem
  • Jótékonyság
  • Szabadság és autonómia
  • Bízzon
  • Fenntarthatóság
  • Méltóság
  • Szolidaritás

A mesterséges intelligencia fejlesztőinek komolyan kellene használniuk ezeket a mesterséges intelligencia etikai elveit, valamint azokat, amelyek irányítják az AI-fejlesztési erőfeszítéseket, és még azokat is, amelyek végső soron az AI-rendszerek karbantartását és karbantartását végzik.

Az összes érdekelt fél a mesterséges intelligencia fejlesztésének és használatának teljes életciklusa során beletartozik az etikus mesterséges intelligencia elfogadott normáihoz. Ez egy fontos kiemelés, mivel a szokásos feltevés az, hogy „csak a kódolók” vagy az AI-t programozók kötelesek betartani az AI etikai elveit. Amint azt korábban hangsúlyoztuk, egy falura van szükség a mesterséges intelligencia kidolgozásához és használatához, és ehhez az egész falunak ismernie kell a mesterséges intelligencia etikai előírásait, és be kell tartania azokat.

Most, hogy megalapoztam a nyílt levélben való részvételt, készen állunk a belemerülésre.

A nyílt levél hivatalos tárgya a következő:

  • "Nyílt levél a robotiparnak és közösségeinknek, az általános célú robotokat nem szabad fegyverezni” (az online közzététel szerint).

Eddig jó.

A cím szinte fagylaltnak és almás pitének tűnik. Hogyan vitathatná ezt bárki is, mint egy hajdani felhívást az AI robot fegyveresítésének elkerülésére?

Olvasson tovább, hogy lássa.

Először is, megfontolandó takarmányként álljon itt a nyílt levél hivatalos kezdő bekezdése:

  • „A világ vezető vállalatai közé tartozunk, amelyek elkötelezettek a fejlett mobil robotika új generációinak a társadalomba való bevezetése iránt. Ezek az új generációs robotok elérhetőbbek, könnyebben kezelhetők, autonómabbak, megfizethetőbbek és alkalmazkodóbbak, mint a korábbi generációk, és képesek olyan helyekre navigálni, amelyek korábban nem voltak elérhetők az automatizált vagy távvezérlésű technológiák számára. Hiszünk abban, hogy a fejlett mobil robotok nagy hasznot hoznak a társadalomnak, mint az iparban dolgozó munkatársak és az otthonunkban élő társak” (az online közzététel szerint).

Az ilyen típusú robotok megjelenésének napos oldala az, hogy számos nagyszerű előnnyel számolhatunk. Semmi kétség felőle. Lehet, hogy otthonában van egy robot, amely képes elvégezni azokat a Jetson-szerű tevékenységeket, mint például a ház takarítása, mosogatás és egyéb háztartási feladatok. Fejlett robotjaink lesznek gyárakban és gyártó létesítményekben való használatra. A robotok szűk helyekre mászhatnak vagy manőverezhetnek, például amikor egy épület összedől, és emberéletek forognak kockán a megmentésért. Stb.

Félretéve, érdekes lehet a Tesla AI-napról szóló, közelmúltbeli szemkritikus tudósításom, amelyen Elon Musk néhány járó robotot a Tesla és a társadalom jövőjeként ábrázolt, lásd az itt található link.

Vissza a szóban forgó témához. Amikor komolyan beszélünk a táncoló robotokról vagy a sétáló robotokról, figyelmesen figyelembe kell vennünk a kompromisszumokat vagy a teljes ROI-t (Return on Investment) az AI használatából. Nem szabad megengednünk, hogy túlzottan elragadjuk magunkat az előnyökben, amikor költségekkel is számolni kell.

Egy csillogó új játéknak meglehetősen éles szélei lehetnek.

Mindez egy fontos, de kissé hallgatag kérdésre sarkall, hogy a mesterséges intelligencia felfegyverzésének problémája részben a mesterséges intelligencia autonóm tevékenység felé való előrehaladásának köszönhető. Általában arra számítottunk, hogy a fegyvereket általában ember működteti. Az ember dönti el, hogy tüzel-e vagy beveszi-e a fegyvert. Feltehetően felelősségre vonhatjuk ezt az embert tetteikért.

Az autonóm működésre tervezett mesterséges intelligencia, amelyre rá lehet csalni, látszólag eltávolítaná az embert a körből. A mesterséges intelligencia ezután algoritmikusan olyan számítási döntéseket hoz, amelyek az emberek megöléséhez vagy sérüléséhez vezethetnek. A mesterséges intelligencia feletti ellenőrzés hiányával kapcsolatos nyilvánvaló aggodalmak mellett az a kétség, hogy nehéz időnk lesz felelősséget róni az AI tevékenységeiért. Nincs emberünk, aki nyilvánvaló felbujtónk.

Tisztában vagyok vele, hogy egyesek úgy vélik, hogy egyszerűen és közvetlenül a mesterséges intelligencia felelősségét kell vállalnunk tetteiért, mintha a mesterséges intelligencia elérte volna az érzéket, vagy más módon megkapta volna a jogi személyiséget (lásd tudósításomat a jogi személyiség elnyeréséről szóló vitákról itt: az itt található link). Ez egyelőre nem fog menni. Az AI-t azokhoz az emberekhez kell nyomon követnünk, akik kitalálták vagy létrehozták. Kétségtelenül megpróbálnak jogilag kibújni a felelősség alól azzal, hogy megpróbálják azt állítani, hogy az AI túllépett azon, amit elképzeltek. Ez egy növekvő vita, amellyel foglalkoznunk kell (lásd az AI-törvény írásaimat, hogy betekintést nyerjen a vitás kérdésekbe).

Az Egyesült Nemzetek Szervezete (ENSZ) a genfi ​​egyes hagyományos fegyverekről szóló egyezmény (CCW) révén tizenegy, nem kötelező erejű vezérelvet határozott meg a halálos autonóm fegyverekre vonatkozóan, az interneten közzétett hivatalos jelentés szerint (beleértve a vonatkozó nemzetközi humanitárius jogra vagy az IHL-kikötésekre való hivatkozásokat is). , beleértve:

a) A nemzetközi humanitárius jog továbbra is teljes mértékben alkalmazandó valamennyi fegyverrendszerre, beleértve a halálos kimenetelű autonóm fegyverrendszerek lehetséges fejlesztését és használatát;

(b) Fenn kell tartani az emberi felelősséget a fegyverrendszerek használatával kapcsolatos döntésekért, mivel az elszámoltathatóság nem ruházható át a gépekre. Ezt a fegyverrendszer teljes életciklusa során figyelembe kell venni;

c) Az ember-gép interakciónak, amely különféle formákat ölthet, és a fegyver életciklusának különböző szakaszaiban valósulhat meg, biztosítania kell, hogy a halálos autonóm fegyverrendszerek területén a feltörekvő technológiákon alapuló fegyverrendszerek lehetséges felhasználása megfelelő legyen. az alkalmazandó nemzetközi jognak, különösen az IHL-nek való megfelelés. Az ember-gép interakció minőségének és mértékének meghatározásakor számos tényezőt figyelembe kell venni, beleértve a műveleti környezetet, valamint a fegyverrendszer egészének jellemzőit és képességeit;

d) Az alkalmazandó nemzetközi joggal összhangban biztosítani kell az elszámoltathatóságot a CCW keretében kialakuló bármely fegyverrendszer kifejlesztéséért, telepítéséért és használatáért, beleértve az ilyen rendszereknek a felelős emberi parancsnoki és irányítási láncon belüli működtetését;

e) Az államok nemzetközi jog szerinti kötelezettségeivel összhangban egy új fegyver, eszköz vagy hadviselési módszer tanulmányozása, fejlesztése, beszerzése vagy elfogadása során meg kell határozni, hogy annak alkalmazása bizonyos vagy minden körülmények között nemzetközi jog tiltja;

f) A halálos, autonóm fegyverrendszerek, a fizikai biztonság, a megfelelő nem fizikai biztosítékok (beleértve a hackelés vagy adathamisítás elleni kiberbiztonságot) területén feltörekvő technológiákon alapuló új fegyverrendszerek fejlesztése vagy beszerzése során fennáll a terrorista csoportok általi megszerzés kockázata. és figyelembe kell venni a proliferáció kockázatát;

g) A kockázatértékelésnek és a kockázatcsökkentő intézkedéseknek a feltörekvő technológiák tervezési, fejlesztési, tesztelési és telepítési ciklusának részét kell képezniük bármely fegyverrendszerben;

h) A nemzetközi humanitárius jognak és más vonatkozó nemzetközi jogi kötelezettségeknek való megfelelés érdekében mérlegelni kell az újonnan megjelenő technológiák alkalmazását a halálos, autonóm fegyverrendszerek területén;

(i) A lehetséges politikai intézkedések kidolgozása során nem szabad antropomorfizálni a halálos kimenetelű autonóm fegyverrendszerek területén megjelenő új technológiákat;

j) A CCW keretében megbeszélések és esetleges politikai intézkedések nem akadályozhatják az intelligens autonóm technológiák békés célú felhasználásának előrehaladását vagy az azokhoz való hozzáférést;

k) A CCW megfelelő keretet kínál a halálos, autonóm fegyverrendszerek területén megjelenő új technológiák kérdésének kezeléséhez az Egyezmény céljainak és céljainak összefüggésében, amely egyensúlyt kíván teremteni a katonai szükségszerűség és a humanitárius megfontolások között.

Ezek és más különféle háborús és fegyveres konfliktusok törvényei vagy az IHL (Nemzetközi Humanitárius Törvények) létfontosságú és mindig ígéretes útmutatóként szolgálnak annak mérlegeléséhez, hogy mit tehetnénk az autonóm rendszerek megjelenésével kapcsolatban, amelyek fegyveresek, akár zárókövekkel. tervezéssel vagy utólagos módszerekkel.

Egyesek szerint határozottan be kellene tiltanunk azokat az AI autonóm rendszereket, amelyek fegyverezhetők. Ez így van, a világnak le kell tennie a lábát, és határozottan követelnie kell, hogy az AI autonóm rendszereket soha ne fegyverezzék fel. Teljes tilalmat kell elrendelni. Vége a történetnek. Pont, pont.

Nos, őszintén kívánhatjuk, hogy a halálos fegyverekkel ellátott autonóm rendszerek tilalmát szigorúan és engedelmesen betartsák. A probléma az, hogy a legőszintébb tiltások bármelyikén ravasz módon sok mozgástér található. Ahogy mondani szokás, a szabályokat meg kell szegni. Fogadhat, hogy ahol a dolgok laza-libák, a riffraff kiszűri a hiányosságokat, és megpróbál kacsintgatva kikerülni a szabályokat.

Íme néhány lehetséges kiskapu, amelyet érdemes megfontolni:

  • Nem halálos állítások. Készítsen nem halálos, autonóm fegyverrendszereket (látszólag rendben van, mivel a tilalom határán kívül esik), amelyeket aztán egy fillérrel halálossá változtathat (csak az utolsó pillanatban lesz túl a tilalomon).
  • Csak az autonóm rendszer követelései. Tartsa be a tilalmat azáltal, hogy ne készítsen halálos célú autonóm rendszereket, eközben pedig tegyen annyi előrelépést a mindennapi autonóm rendszerek kidolgozásában, amelyek (még) nincsenek felfegyverkezve, de amelyeket egy aprócska utólagos felszereléssel fegyveressé lehet tenni.
  • Nem integrált egyként állítások. Alkosson autonóm rendszereket, amelyek egyáltalán nincsenek felfegyverkezve, és ha eljön az ideje, háton fegyverzeteket úgy, hogy megpróbáljon hevesen érvelni amellett, hogy két különálló elemről van szó, és ezért azt állíthatja, hogy nem tartoznak a többfunkciós rendszer rubrikájába. autonóm fegyverrendszer vagy unokatestvére.
  • Azt állítja, hogy nem autonóm. Készíts egy olyan fegyverrendszert, amely nem tűnik önálló képességűnek. Hagyjon teret ebben a feltehetően nem autonóm rendszerben az AI-alapú autonómia kiesésére. Ha szükséges, csatlakoztassa az autonómiát, és máris gurulhat (addig úgy tűnik, nem szegte meg a tilalmat).
  • Más

Rengeteg más kifejezett nehézség is felmerül a halálos autonóm fegyverrendszerek teljes betiltásával kapcsolatban. Kitérek még néhányra.

Egyes szakértők azzal érvelnek, hogy a tilalom nem különösebben hasznos, és ehelyett szabályozási rendelkezéseknek kell lenniük. Az ötlet az, hogy ezek a mesterségek megengedettek lesznek, de szigorúan ellenőrzik őket. A törvényes felhasználások sorát fektetik le, a célzás törvényes módjait, a képességek törvényes típusait, a törvényes arányosságot és hasonlókat.

Véleményük szerint az egyenes tiltás olyan, mintha homokba dugná a fejét, és úgy tesz, mintha a szobában lévő elefánt nem is létezne. Ez az érvelés azonban felforralja a vért azoknak, akik szembeszállnak azzal az érvvel, hogy a tilalom bevezetésével drámai módon csökkentheti az egyébként effajta rendszerek követésére irányuló kísértést. Persze vannak, akik fitogtatják a tilalmat, de legalábbis remélhetőleg a többség nem. Ezután a hencegőkre összpontosíthatja a figyelmét, és nem kell mindenkire szétszórnia a figyelmét.

Körbe-körbe mennek ezek a viták.

Egy másik gyakran feljegyzett aggodalom, hogy még ha a jók be is tartják a tilalmat, a rosszak nem. Ez a jót silány testhelyzetbe hozza. A rosszaknak lesz ilyen fegyveres autonóm rendszerük, a jóknak pedig nem. Amint kiderül, hogy a rosszaknak van, már késő lesz, hogy utolérjék a jókat. Röviden, az egyetlen okos dolog, hogy felkészüljünk a tűz elleni küzdelemre.

Létezik a klasszikus elrettentési vita is. Ha a jó választás a fegyveres autonóm rendszerek létrehozása, akkor ez felhasználható arra, hogy elriassza a rosszakat attól, hogy vitába keveredjenek. Vagy a jók jobban fel vannak fegyverkezve, és így eltántorítják a rosszakat, vagy a jók akkor lesznek készen, amikor a rosszak esetleg leleplezik, hogy mindvégig titokban ezeket a rendszereket dolgozták ki.

Ezekkel a számlálókkal szemben az, hogy fegyveres autonóm rendszerek létrehozásával fegyverkezési versenyt folytat. A másik oldal is ugyanerre törekszik majd. Még ha technológiailag nem is képesek újból létrehozni ilyen rendszereket, most képesek lesznek ellopni a „jók” terveit, visszafejteni a csúcstechnológiát, vagy leutánozni bármit, amit beváltnak látnak. a munka elvégzésének módja.

Aha, néhány visszavágás, mindez a konfliktusok csökkenéséhez vezethet a kölcsönösség látszatával. Ha az A oldal tudja, hogy a B oldal rendelkezik a halálos autonóm rendszerű fegyverekkel, és a B oldal tudja, hogy az A oldal rendelkezik velük, akkor lehet, hogy szorosan ülnek, és nem érnek ütéseket. Ennek megvan a kölcsönösen biztosított pusztulás (MAD) jellegzetes aurája.

És így tovább.

Közelről nézve a második bekezdést

Már sokat foglalkoztunk itt, és eddig csak a nyílt levél első vagy kezdő bekezdését vettük figyelembe (összesen négy bekezdés van).

Ideje egy pillantást vetni a második bekezdésre, tessék:

  • „Mint minden új, új képességeket kínáló technológia esetében, a fejlett mobil robotok megjelenése is lehetőséget ad a visszaélésekre. A megbízhatatlan emberek felhasználhatják őket polgári jogok megsértésére vagy mások fenyegetésére, ártására vagy megfélemlítésére. Az egyik különösen aggályos terület a fegyverkezés. Meggyőződésünk, hogy a távolról vagy autonóm módon működtetett, a nyilvánosság számára széles körben elérhető és korábban elérhetetlen helyekre navigálásra képes robotokhoz való fegyverek hozzáadása, ahol az emberek élnek és dolgoznak, új kárveszélyt és súlyos etikai problémákat vet fel. Ezeknek az újonnan alkalmas robotoknak a fegyveres alkalmazásai a technológiába vetett közbizalmat is rontják, oly módon, hogy rontják a társadalom számára nyújtott óriási előnyöket. Ezen okok miatt nem támogatjuk fejlett mobilitású, általános célú robotjaink fegyveresítését. Azok számára, akik a múltban beszéltünk erről a témáról, és akik először foglalkoznak ezzel a kérdéssel, most újból sürgetőnek érezzük, hogy az elmúlt hónapokban egyre nagyobb aggodalomra ad okot a közvélemény azon kis száma miatt, akik láthatóan nyilvánosságra hozták rögtönzésüket. a kereskedelemben kapható robotok fegyveresítésére irányuló erőfeszítések” (az online közzététel szerint).

A második bekezdés elolvasása után remélem, láthatja, hogyan kerül előtérbe a mesterséges intelligencia fegyverkezéséről szóló korábbi diskurzusom.

Nézzünk meg néhány további pontot.

Némileg kétségbeejtő egy bizonyos megfogalmazási szempont, amely egyeseket felkavart, hogy a narratíva hangsúlyozni látszik, hogy a „megbízhatatlan emberek” visszaélhetnek ezekkel az AI-robotokkal. Igen, valóban, lehet, hogy rossz emberek vagy gonosztevők olyan aljas cselekedeteket hajtanak végre, amelyek „visszaélnek” az AI-robotokkal.

Ugyanakkor, amint arra a vita elején rámutattunk, azt is világossá kell tennünk, hogy maga a mesterséges intelligencia elromolhat, valószínűleg beágyazott hibák vagy hibák és más hasonló komplikációk miatt. A kifejezett aggodalma az, hogy csak annak esélyét hangsúlyozzuk megbízhatatlan emberek az, hogy úgy tűnik, figyelmen kívül hagy más kedvezőtlen lehetőségeket. Bár a legtöbb mesterségesintelligencia-vállalat és -kereskedő nem hajlandó beismerni, az AI-rendszerekkel kapcsolatos problémák tömkelege alááshatja az autonóm rendszerek biztonságát és megbízhatóságát. A mesterséges intelligencia biztonságáról és a szigorú és bizonyítható biztosítékok szükségességéről szóló ismertetésemet lásd az itt található link, Például.

Egy másik figyelemre méltó pont, amely a nyílt levelet vizsgálók között felmerült, magában foglalja azt az állítást, amely szerint az AI-robotokkal kapcsolatos közbizalom aláaknázása következhet be.

Ez egyrészt jogos állítás. Ha mesterséges intelligencia-robotokat használnak arra, hogy gonosz ajánlatokat tegyenek, akkor fogadhat, hogy a közönség eléggé be fog szállni. Amikor a közvélemény felpörög, fogadni lehet, hogy a törvényhozók belevágnak az előretörésbe, és olyan törvényeket akarnak életbe léptetni, amelyek korlátozzák az AI-robotokat és az AI-robotokat. Ez viszont megbéníthatja a mesterséges intelligencia robotikai ipart, ha a törvények mindenre kiterjednek, és leállítják az AI-robotok előnyeit magában foglaló erőfeszítéseket. Bizonyos értelemben a babát is ki lehet dobni a fürdővízzel (régi kifejezés, valószínűleg megérdemli, hogy nyugdíjas legyen).

Az is nyilvánvaló kérdés, hogy az AI-robotok iránti közbizalom csökkenésének elkerülésére vonatkozó állítás némileg öncélú hitvallás-e, vagy mindannyiunk javát szolgálja (lehet mindkettő?).

Te döntesz.

Most elérkezünk a Nyílt levél különösen húsos részéhez:

  • „Ígérjük, hogy nem fogjuk fegyveressé tenni a fejlett mobilitású általános célú robotjainkat vagy az általunk fejlesztett szoftvereket, amelyek lehetővé teszik a fejlett robotikát, és nem támogatunk másokat ebben. Ha lehetséges, gondosan felülvizsgáljuk ügyfeleink tervezett alkalmazásait, hogy elkerüljük az esetleges fegyverkezést. Azt is vállaljuk, hogy feltárjuk azon technológiai jellemzők fejlesztését, amelyek mérsékelhetik vagy csökkenthetik ezeket a kockázatokat. Az egyértelműség kedvéért, nem vitatjuk a meglévő technológiákat, amelyeket a nemzetek és kormányzati szerveik saját maguk védelmére és törvényeik betartására használnak” (az online közzététel szerint).

Ezt ki tudjuk csomagolni.

Ülj le és készülj fel ennek megfelelően.

Készen állsz egy tüzes polarizációra?

A kedvező oldalon néhányan hangosan beharangozzák, hogy ezek az AI robotgyártók ilyen ígéretet tesznek. Úgy tűnik, hogy ezek a robotgyártók szerencsére arra törekednek majd, hogy ne fegyverezzék fel „fejlett mobilitású általános célú” robotjaikat. Ezenkívül a nyílt levél azt mondja, hogy nem támogatnak másokat, akik így tesznek.

A kritikusok azon tűnődnek, vajon valami okos szócsinálás folyik-e.

Például hol kezdődik és hol végződik a „haladó mobilitás”? Ha egy robotgyártó a egyszerű- A mobilitási AI robot nem egy fejlett robot (ami a technikus zsargon egy definiálatlan darabja), ez ki lesz zárva a hatóköréből nem fegyveres legyen? Így láthatóan rendben van az egyszerű mobilitású AI-robotok fegyveresítése, amennyiben nem ún. fejlett.

Ugyanez vonatkozik az általános célú robotok megfogalmazására is. Ha egy mesterséges intelligencia robotot kifejezetten fegyverkezésre terveztek, és ezért nem, akkor mondjuk a Általános rendeltetésű robot, ez életképes kizárást jelent a hatályból?

Lehet civakodni ezekkel a civakodásokkal, és hevesen vitatkozni amellett, hogy ez csak egy nyílt levél, nem pedig egy ötven oldalas jogi dokumentum, amely minden zeg-zugát kifejti.

Ezzel elérkeztünk ahhoz a látszólag makroszintű kétségbeeséshez, amelyet egyesek kifejeznek. Lényegében mit jelöl a „zálogjog”?

Egyesek azt kérdezik, hol a marhahús?

Az a cég, amely ilyen fogadalmat tesz, látszólag anélkül teszi ezt, hogy valódi részesedése lenne a játékban. Mi történik azzal a céggel, ha bármely cég vezetősége, aki aláírja ezt a fogadalmat, úgy dönt, hogy nem tartja be a továbbiakban a fogadalmat? A vezetőket rövidesen bedobják? Bezárja-e a cég, és elnézést kér a fogadalom megszegéséért? Stb.

Amennyire ebből következtethetünk, a zálogjog megszegéséért nincs különösebb büntetés vagy büntetés.

Azzal érvelhet, hogy fennáll a hírnév károsodásának lehetősége. Előfordulhat, hogy egy zálogköteles cég döcög a piacon, mert olyan fogadalmat tett, amelyet már nem tartott be. Természetesen ez azt is feltételezi, hogy az emberek emlékezni fognak arra, hogy a fogadalmat megtették. Azt is feltételezi, hogy a zálogszegést valamilyen módon észlelni fogják (egyértelműen valószínűtlennek tűnik, hogy egy cég mindent elmond, ha megteszi). A fogadalmat megszegőt ki kellene hívni, de egy ilyen probléma puszta zajgá válhat a mesterséges intelligencia robotika gyártóiról szóló hírek folyamatos szökőárjában.

Tekintsünk egy másik szöget, ami felmerült.

Egy zálogköteles céget felvásárol egy nagyobb cég. A nagyobb cég úgy dönt, hogy a fejlett mobilitású, általános célú robotokat mesterséges intelligencia fegyveres változataivá alakítja.

Ez a fogadalom megszegése?

A nagyobb cég ragaszkodik ahhoz, hogy ez nem szabálysértés, mivel ők (a nagyobb cég) soha nem tett ígéretet. Eközben az ártalmatlan mesterséges intelligencia-robotok, amelyeket a kisebb cég állított össze és fejlesztett ki, látszólag a legönzetlenebb szándékkal, szinte egyik napról a másikra fegyveressé változnak.

Valahogy aláássa a fogadalmat, bár azt mondhatnánk, hogy a kisebb cég nem tudta, hogy ez egyszer megtörténik. Komolyan teljesítették vágyukat. Az nem volt befolyásuk, hogy a nagyobb vásárló cég mit választ.

Vannak, akik azt is felteszik, hogy van-e ebben jogi felelősség.

Egy zálogköteles cég néhány hónap múlva úgy dönt, hogy nem fogja teljesíteni a fogadalmat. Szívük megváltozott. Beperelhető-e a cég azért, mert feladta az általa tett fogadalmat? Ki perelne be? Mi lenne a per alapja? Egy rakás jogi probléma merül fel. Ahogy mondani szokták, szinte bárkit beperelhetsz, de az, hogy győzed-e, az teljesen más kérdés.

Gondold ezt másképp. Egy zálogjogot adó cég lehetőséget kap arra, hogy igazán nagy üzletet kössön, hogy eladja a fejlett mobilitású általános célú robotjait egy hatalmas cégnek, amely hajlandó fizetni a robotok megszerzéséért. Ez egyike azoknak az egyszeri, millió dolláros vásárlási ügyleteknek.

Mit tegyen az AI robotikai cég?

Ha a mesterséges intelligencia robotika zálogjogot adó céget nyilvánosan forgalmazzák, akkor szinte bizonyosan az eladásra törekednének (ugyanez elmondható egy magántulajdonban lévő cégről is, bár nem egészen). Képzelje el, hogy a zálogköteles cég attól tart, hogy a vevő megpróbálja fegyverrel felfegyverezni a robotokat, bár tegyük fel, hogy nincs ilyen vita. Csak pletykák szerint a vevő megteheti.

Ennek megfelelően a zálogjogot adó cég belefoglalja az engedélyezésbe, hogy a robotokat ne fegyverezze fel. A vevő megtagadja ezt a nyelvet, és eláll a vásárlástól.

Mekkora nyereségtől menekült el az ígéretet adó AI robotikai cég?

Van-e olyan pont, ahol a belső haszon felülmúlja az engedélyezési korlátozás követelményének beépítését (vagy esetleg jogilag úgy fogalmazva a korlátozást, hogy lehetővé tegye a mozgásteret és az üzletet)? Úgy gondolom, hogy látja a nehézségeket. Rengeteg ilyen forgatókönyv könnyen elképzelhető. A kérdés az, hogy ennek a zálognak lesz-e foga. Ha igen, milyen fogak?

Röviden, amint a vita elején említettük, egyesek fel vannak erősítve, hogy ilyen típusú zálogjogot tesznek, míg mások halványabb képet alkotnak arról, hogy a zálog megtartja-e a vizet.

Továbbmegyünk.

A fogadalom megszerzése

A nyílt levél negyedik és utolsó bekezdése ezt mondja:

  • „Megértjük, hogy elkötelezettségünk önmagában nem elegendő e kockázatok teljes körű kezelésére, ezért felszólítjuk a döntéshozókat, hogy működjenek együtt velünk e robotok biztonságos használatának előmozdítása és a visszaélések megtiltása érdekében. Arra is felszólítunk minden szervezetet, fejlesztőt, kutatót és felhasználót a robotikai közösségben, hogy tegyenek hasonló ígéreteket, hogy nem építenek, nem engedélyeznek, nem támogatnak fegyvereket, illetve nem teszik lehetővé az ilyen robotokhoz való felszerelést. Meggyőződésünk, hogy ezeknek a technológiáknak az emberiség számára nyújtott előnyei jóval meghaladják a visszaélés kockázatát, és izgatottak vagyunk a fényes jövő előtt, amelyben az emberek és a robotok egymás mellett dolgoznak, hogy megbirkózzanak a világ kihívásaival” (az online közzététel szerint).

A Nyílt levélnek ez az utolsó része több további elemet is tartalmaz, amelyek haragot váltottak ki.

A politikai döntéshozók megkeresése lehet jól megfontolt vagy meggondolatlan, egyesek szerint. Előfordulhat, hogy olyan döntéshozókat kaphat, akik nem jártasak ezekben a kérdésekben, hogy aztán meghozzák a klasszikus sietve ítéletet, és olyan törvényeket és rendeleteket dolgozzanak ki, amelyek bitorolják az AI-robotok fejlődését. A korábban elmondottak szerint az AI-robotok fejlődését előrevivő innováció talán megszakad vagy elakad.

Jobb biztos abban, hogy tudja, mit kér, mondják a kritikusok.

Természetesen az ellenérv az, hogy a narratíva egyértelműen kimondja, hogy a politikai döntéshozóknak együtt kell működniük az AI robotikai cégekkel, hogy kitalálják, hogyan lehet feltehetően ésszerűen létrehozni ilyen törvényeket és szabályozásokat. Az ellenérv ellentéte az, hogy a döntéshozókat úgy tekinthetik, mint akik a mesterséges intelligencia robotikai döntéshozók felé néznek, ha kielégítik szeszélyeiket. Az ellenérv ellentéte az, hogy természetesen szükségszerű azokkal együtt dolgozni, akik ismerik a technológiát, különben az eredmény potenciálisan rosszindulatú lesz. Stb.

Talán civakodó alapon egyesek gyomorégést kaptak azon a vonalon, amely arra szólít fel mindenkit, hogy tegyen hasonló ígéreteket, hogy nem csatolva fegyverzet a fejlett mobilitású általános célú robotokig. A kulcsszó ott a szó csatolva. Ha valaki olyan mesterséges intelligencia-robotot készít, amely magában foglalja vagy zökkenőmentesen beágyazza a fegyvereket, úgy tűnik, ez megkerüli a csatolva valami. Most már látható, hogy valaki hevesen érvel, hogy a fegyver nincs rögzítve, az teljesen az AI robot része. Lépj túl rajta – kiáltják fel –, mi nem tartozunk ennek a fogadalomnak a hatálya alá, és egyébként akár azt is mondhatták volna, hogy igen.

Ez újabb panaszt vet fel a zálog ragadásának hiányával kapcsolatban.

Egy cég vagy egyáltalán bárki, aki úgy dönt, hogy megteszi ezt a fogadalmat, bármikor kijelentheti-e, hogy nem vállalja, hogy ezt kívánja tenni, bármilyen okból is?

Úgy látszik.

Sokat tréfálkoznak a fogadalmak megtételével és azzal kapcsolatban, hogy milyen vonzerőt kölcsönöznek nekik.

Következtetés

Jaj, mondhatni, ezek a cégek, amelyek megpróbálják a helyes dolgot tenni, egyre dobbantják, hogy a helyes dolgot próbálják megtenni.

Mi lett a világunkból?

Bárkinek, aki ilyen fogadalmat tesz, meg kell adni a kétséget, amit szenvedélyesen fenntarthat. Kilépnek a nyilvános szférába, hogy merész és létfontosságú hozzájárulást tegyenek. Ha elkezdjük becsmérelni őket ezért, az biztosan ront a helyzeten. Senki nem akar majd ilyen fogadalmat tenni. A cégek és mások meg sem próbálják. Elrejtőznek, és nem figyelmeztetik a társadalmat arról, hogy ezek a drága táncoló robotok milyen veszélyessé válhatnak.

A szkeptikusok azt hirdetik, hogy a társadalom bölcselkedésének módja más lépésekkel jár, mint például a hancúrozó, táncoló mesterséges intelligencia-robotok bemutatásának fantáziadús cselekményének elhagyása. Vagy legalábbis kiegyensúlyozottabbá tegye. Például ahelyett, hogy pusztán a szeretett, háziállatokhoz hűséges kutyákat utánozná, szemléltesse, hogy a táncoló robotok miként hasonlíthatnak a vad, dühös farkasokhoz, amelyek tétovázás nélkül képesek darabokra tépni az embereket.

Ez több figyelmet kap, mint a fogadalmak, könyörögnek.

A fogadalmak kétségtelenül nagy rejtélyt jelenthetnek.

Ahogy Mahatma Gandhi ékesszólóan kijelentette: „Bármilyen kifejezett is a fogadalom, az emberek a saját céljuknak megfelelően fordítják és csavarják a szöveget.”

Talán, hogy felemelő megjegyzéssel zárja, Thomas Jefferson ezt mondta a fogadalmakról: „Kölcsönösen megígérjük egymásnak életünket, vagyonunkat és szent becsületünket.”

Ha a mesterséges intelligencia robotokról, autonómiájukról, fegyverzetükről és hasonlókról van szó, végül mindannyian együtt leszünk ebben. Kölcsönös fogadalmunknak legalább az kell lennie, hogy ezeket az ügyeket az élen fogjuk tartani, igyekszünk megtalálni a módját, hogy megbirkózzunk ezekkel az előrelépésekkel, és valahogy megtaláljuk az utat becsületünk, vagyonunk és életünk biztosításához.

Megfogadhatjuk ezt?

Remélem.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- a robotgyártók azt mondják, hogy elkerülik a fegyverezést/