A mesterséges intelligencia etika birkózik az elkerülhetetlen mesterséges intelligencia-balesetekkel, ami az autonóm önvezető autókra is rábukkan

Ismersz esetleg valakit, aki különösen balesetveszélyes?

Úgy tűnik, mindannyian.

Talán az a típus, aki hajlamos rácsúszni egy banánhéjra, vagy felborítani egy értékes vázát a nappaliban. Emberi mágnesként vonzzák az ilyen vagy olyan baleseteket. Annyira rossz lehet, hogy időnként még a közelükben is undorodsz. Megkaphatja a baljós túlcsordulást, vagy elszenvedheti valamelyik kellemetlen balesetük dicstelen következményeit.

De talán túlságosan kemények vagyunk, amikor azt sugalljuk, hogy bárki hajlamosabb a balesetekre, mint mások. Felhozható az érv, hogy bármelyikünkkel történhetnek balesetek. Mindannyian ki vannak téve annak a lehetőségnek, hogy balesetet kövessünk el vagy keveredjünk bele. Közülünk a legjobbak is.

Halmozjunk fel a vitára egy további bosszantó kérdést.

Elkerülhetetlenek a balesetek?

Más szóval, bármennyire is igyekszünk megelőzni a baleseteket, elválaszthatatlanul az lehet, hogy ennek ellenére még mindig van esély és a végső bizonyosság arra, hogy balesetek bekövetkeznek. Törekedhet arra, hogy megvédje a világot a balesetektől. Ez kétségtelenül körültekintőnek tűnik. De így vagy úgy, a balesetek még mindig felütik csúnya fejüket.

Ahogy mondani szokták, a balesetek várnak.

Hasznos lehet tisztázni, hogy mit jelent az, hogy valamilyen eseményt megfelelően balesetnek neveznek. A szokásos szótári definíció szerint a baleset olyan váratlanul és nem szándékosan bekövetkező esemény, amelynek szerencsétlen következménye van, ami a kár vagy sérülés látszatából áll.

Óvatosan bontsa ki ezt a meghatározást.

Az említett eset váratlan. Ez azt jelenti, hogy nem vettük észre, hogy maga a baleset bekövetkezik.

Az említett eset nem szándékos. Ez azt sugallja, hogy ki kell zárnunk azokat a körülményeket, amikor valaki szándékosan akarta az incidenst megtörténni. Ha egy tréfás banánhéjat tesz a padlóra, ahol tudja, hogy egy szerencsétlen és gyanútlan ártatlan lép, akkor nehéz lenne azt állítani, hogy a benne megbotló személy balesetet szenvedett. Ehelyett becsapták őket, és alattomos módon csapdába vezették őket.

A meghatározásban szerepel az a kritérium is, hogy az eredmény szerencsétlen. Ennek fényében egy balesetnek rossz eredményhez kell vezetnie. Az a személy, aki véletlenül feldöntött egy vázát, megrepedt, és valószínűleg javíthatatlanul megrongálta az ízletes tárgyat. A váza tulajdonosát megsérti az értékvesztés. Aki belefutott a vázába, most talán a tulajdonosnak tartozik a veszteséggel. Adja az ég, hogy a váza eltörése miatt bárkit megvágjanak vagy letörjenek.

Az egyenlő egyensúly érdekében érdemes megjegyezni, hogy vannak úgynevezett „jó” balesetek is. Egy személy egy baleset következtében nagy vagyonba kerülhet, vagy más létfontosságú hasznot halmozhat fel. Az egyik leggyakrabban emlegetett példa Sir Alexander Fleming és a penicillin elismert felfedezése. A történet úgy szól, hogy kissé hanyag volt a laboratóriumában, és kéthetes nyaralásáról hazatérve az egyik kultúrtányérján penészgombát talált. Állítólag ezt mondta az üggyel kapcsolatban: „Az ember néha megtalálja azt, amit nem keres. Amikor 28. szeptember 1928-án hajnal után felébredtem, biztosan nem terveztem, hogy az összes orvostudományt forradalmasítom azzal, hogy felfedezem a világ első antibiotikumát vagy baktériumölőjét. De azt hiszem, pontosan ezt tettem.”

A kedvező baleseteket félretesszük, és itt a szomorú balesetekre koncentrálunk. A balesetek homlokráncolt arcú változata az, amikor ezek a kedvezőtlen következmények különösen életveszélyesek vagy megterhelő következményekkel járhatnak. Amennyire lehetséges, azokat a negatív baleseteket, amelyeket minimalizálni szeretnénk (és természetesen a felfelé irányuló baleseteket, amelyeket maximalizálni szeretnénk, ha ez megvalósítható, bár a mosolygós arcváltozattal egy későbbi rovatban foglalkozom).

Szeretném kicsit átfogalmazni a korábbi, a balesetek elkerülhetetlenségére vonatkozó kérdést. Eddig is felhívtuk a figyelmünket azokra a balesetekre, amelyek egy egyedi személy esetében fordulnak elő. Kétségtelen, hogy a balesetek egyszerre sok embert érinthetnek. Ez különösen akkor fordulhat elő, ha az emberek egy ilyen vagy olyan összetett rendszerben merülnek el.

Készüljön fel a korábban lebegtetett kérdés egy változatára.

Elkerülhetetlenek a rendszerbalesetek?

Ezen kellene átgondolnunk.

Tegyük fel, hogy a gyári padlót autóalkatrészek gyártására helyezték ki. A gyárat tervezők mondjuk rendkívül aggódnak az esetlegesen bekövetkező munkásbalesetek miatt. A gyári dolgozóknak mindig sisakot kell viselniük. A gyárban táblák figyelmeztetnek, hogy vigyázzanak a balesetekre és legyenek körültekintőek a munkája során. Mindenféle óvintézkedést megtesznek a balesetek elkerülése érdekében.

Ebben a rendszerben remélhetjük, hogy soha senkit nem ér baleset. Hisz abban, hogy nulla esélye van a balesetnek? Merem azt sugallni, hogy egyetlen józan gondolkodó sem fogadna arra, hogy ebben az esetben a baleset esélye nulla. Lehet, hogy nagyon kicsi az esélye annak, hogy egy baleset megtörténjen, de még mindig tudjuk és feltételezzük, hogy az összes óvintézkedés ellenére még mindig fennáll egy csekély kockázata annak, hogy baleset történjen.

Mindez arra a gondolatra utal, hogy egy kellően összetett rendszerben kénytelenek vagyunk hinni abban, hogy balesetek továbbra is előfordulnak, függetlenül attól, hogy mennyire igyekszünk megelőzni őket. Vonakodva támaszkodunk abba a kikötésbe, hogy a rendszerbalesetek valóban elkerülhetetlenek. Egy ilyen kaliberű grandiózus kijelentés tartalmazhat egy figyelmeztetést, hogy a rendszernek olyan bonyolultságúnak kell lennie, hogy lényegében lehetetlen minden alapot lefedni a balesetek teljes megelőzése érdekében.

Most szépen lépésről lépésre megismerkedhetett a balesetek széles körben körvonalazott elméletével, amelyet normál baleseteknek vagy normál balesetek elméletének (NAT) nevezhetünk. Íme egy praktikus leírás a kutatóktól, akik megvizsgálták ezt az elképzelést: „Elég nagy léptékben minden rendszer „szokásos baleseteket” produkál. Ezek elkerülhetetlen balesetek, amelyeket az összetettség, az alkatrészek összekapcsolása és a lehetséges károk kombinációja okoz. A normál baleset abban különbözik a gyakoribb alkatrész-meghibásodásoktól, hogy a normál balesethez vezető események és kölcsönhatások nem érthetők a rendszer kezelői számára” (ahogyan az „Az AI hibák megértése és elkerülése: gyakorlati útmutató”, Robert Williams és Roman Yampolskiy, filozófiák folyóirat).

Az ok, amiért elhoztalak téged az ún normál balesetek az, hogy ezt az elméletet gondosan alkalmaznunk kell valamire, ami fokozatosan és elkerülhetetlenül mindenütt jelen van társadalmunkban, nevezetesen a mesterséges intelligencia (AI) megjelenésére.

Vágjunk bele ebbe.

Vannak, akik hamisan feltételezik, hogy a mesterséges intelligencia tökéletes lesz. A mesterséges intelligencia rendszerek nem követnek el hibákat, és nem sodornak minket bajba – járják a találgatásokat. Csak annyit kell tennie, hogy az AI-fejlesztők elég jó munkát végeznek, és íme, az AI soha nem fog semmi olyat tenni, ami véletlennek vagy balesetet okozónak tekinthető.

Nem olyan gyorsan ehhez a hipotetikus hithez. Ha hajlandó vásárolni az elmélet normál balesetek, minden lényegesen bonyolult MI elkerülhetetlenül balesetet okoz. Függetlenül attól, hogy a mesterséges intelligencia-fejlesztők mennyit késő esti trükközéssel próbálnak megelőzni egy balesetet, a mesterséges intelligencia valamikor biztosan belekeveredik egy balesetbe. Így omlik össze a süti. És nincs nyugalom, ha a kiömlött tejben sírunk emiatt.

Gondolkodjon el a mesterséges intelligencia összemosásán és annak fogalmi alapelvein normál balesetek.

Képzeld el, hogy van egy mesterséges intelligencia-rendszerünk, amely irányítja a nukleáris fegyvereket. Az AI gondosan kidolgozott. Minden elképzelhető csekket és egyensúlyt kódoltak az AI-rendszerbe. Biztonságban vagyunk egy mesterséges intelligencia-alapú balesettől? Azok, akik támogatják a normál baleseti nézőpontot, azt mondanák, hogy nem vagyunk olyan biztonságban, mint azt feltételeznénk. Tekintettel arra, hogy a mesterséges intelligencia valószínűleg különösen összetett, egy normális baleset csendben vár odabent, hogy valamikor megjelenjen, talán a lehető legrosszabb pillanatban.

Ezeknek a kényes kérdéseknek és kétségnek a lényege az, hogy észben kell lennünk, hogy a mesterséges intelligencia biztosan balesetekkel terhelt, és az emberiségnek valami ésszerű és proaktív intézkedést kell tennie a felmerülő veszélyek ellen. Amint azt egy-két pillanat múlva látni fogja, ez egy fenyegető megfontolás a mesterséges intelligencia használatánál, és a mesterséges intelligencia etika és az Ethical AI területe meglehetősen sokat birkózik azon, hogy mit tegyen. A mesterséges intelligencia etikájával és az etikai AI-val kapcsolatos folyamatos és kiterjedt tudósításomat lásd az itt található link és a az itt található link, csak hogy néhányat említsek.

Mielőtt lemennénk egy nyúllyukba, győződjünk meg arról, hogy egy oldalon vagyunk az AI természetével kapcsolatban. Ma nincs olyan mesterséges intelligencia, amely érző lenne. Nálunk ez nincs. Nem tudjuk, hogy az érző mesterséges intelligencia lehetséges lesz-e. Senki sem tudja pontosan megjósolni, hogy elérjük-e az érző MI-t, és azt sem, hogy az érző mesterséges intelligencia valamilyen csodálatos módon spontán módon létrejön-e számítógépes kognitív szupernóva formájában (általában szingularitásnak nevezik, lásd tudósításomat itt: az itt található link).

A mesterséges intelligencia azon típusa, amelyre összpontosítok, a ma létező nem érző MI-ből áll. Ha vadul akarnánk spekulálni arról érző AI, ez a vita gyökeresen más irányba mehet. Egy érző mesterséges intelligencia állítólag emberi minőségű lenne. Figyelembe kell vennie, hogy az érző mesterséges intelligencia az ember kognitív megfelelője, aki tanácsot ad. Sőt, mivel egyes feltételezések szerint szuperintelligens AI-val rendelkezünk, elképzelhető, hogy az ilyen mesterséges intelligencia okosabb lehet az embernél (a szuperintelligens AI lehetőségének feltárásához lásd: a tudósítás itt). Mindannyian elmondták, hogy ezek a forgatókönyvek felgyorsítanák a forrás értékelését.

Maradjunk inkább a földön, és vegyük figyelembe a mai számítástechnikai, nem érző MI-t.

Vegye észre, hogy a mai mesterséges intelligencia nem képes az emberi gondolkodással egyenrangú módon „gondolkodni”. Amikor Alexával vagy Sirivel kommunikál, a társalgási képességek hasonlónak tűnhetnek az emberi képességekhez, de a valóság az, hogy számítási jellegű, és hiányzik az emberi megismerés. A mesterséges intelligencia legújabb korszaka széles körben alkalmazta a gépi tanulást (ML) és a mély tanulást (DL), amely kihasználja a számítási mintaillesztést. Ez olyan mesterséges intelligencia-rendszerekhez vezetett, amelyek emberszerű hajlamokat mutatnak. Eközben manapság nincs olyan mesterséges intelligencia, amely a józan észnek látszana, és az emberi gondolkodás kognitív csodáiból sem.

Talán tudatában van annak, hogy amikor a mesterséges intelligencia legújabb korszaka beindult, hatalmas lelkesedés támadt az iránt, amit egyesek ma úgy hívnak. AI For Good. Sajnos ennek a tomboló izgalomnak a nyomában kezdtünk tanúi lenni AI For Bad. Például a különféle mesterséges intelligencia-alapú arcfelismerő rendszerekről kiderült, hogy faji és nemi előítéleteket tartalmaznak, amelyeket itt tárgyaltam. az itt található link.

Erőfeszítések, amelyek ellen harcolni kell AI For Bad aktívan zajlanak. A hangoskodáson kívül jogi A jogsértések megfékezésére irányuló törekvések jelentős erőfeszítéseket tesznek a mesterséges intelligencia etikájának elfogadása felé, hogy helyrehozzák a mesterséges intelligencia aljasságát. Az elképzelés az, hogy el kell fogadnunk és támogatnunk kell a kulcsfontosságú etikai mesterségesintelligencia-elveket a mesterséges intelligencia fejlesztése és terjesztése érdekében, ezzel aláásva AI For Bad és egyidejűleg hirdeti és hirdeti a jobbat AI For Good.

Ehhez kapcsolódóan én annak híve vagyok, hogy a mesterséges intelligencia megpróbálja a mesterséges intelligencia problémáinak megoldásának részeként használni a tüzet tűzzel oltva ilyen gondolkodásmódban. Például beágyazhatunk Ethical AI összetevőket egy mesterséges intelligencia rendszerbe, amely figyeli, hogy a többi AI hogyan csinálja a dolgokat, és így potenciálisan valós időben megragadja a diszkriminatív erőfeszítéseket. az itt található link. Lehetne egy külön mesterséges intelligencia-rendszer is, amely egyfajta AI-etikai monitorként működik. A mesterséges intelligencia rendszer felügyelőként szolgál annak nyomon követésére és észlelésére, ha egy másik mesterséges intelligencia az etikátlan szakadékba kerül (lásd az ilyen képességekről szóló elemzésemet itt: az itt található link).

Mindent egybevetve az az általános remény, hogy a mesterséges intelligencia etikai előírásainak felismerésével legalább növelni tudjuk a társadalmi tudatosságot azzal kapcsolatban, hogy a mesterséges intelligencia mire képes jótékonyan és károsan is. Kiterjedten tárgyaltam a mesterséges intelligencia etikai alapelveinek különféle kollektív elemzéseit, beleértve a kutatók által kidolgozott halmazt, amely számos nemzeti és nemzetközi AI etikai tétel lényegét vizsgálta és sűrítette a „The Global Landscape Of AI Ethics Guidelines” című cikkben (megjelent. ban ben Természet), és amit tudósításom a címen vizsgál az itt található link, ami ehhez a trapézkő listához vezetett:

  • Átláthatóság
  • Igazságosság és méltányosság
  • Nem rosszindulat
  • Felelősség
  • Adatvédelem
  • Jótékonyság
  • Szabadság és autonómia
  • Bízzon
  • Fenntarthatóság
  • Méltóság
  • Szolidaritás

Amint azt közvetlenül sejtheti, rendkívül nehéz lehet az ezen alapelvek mögött meghúzódó sajátosságok meghatározása. Még ennél is keményebb dió az a törekvés, hogy ezeket a tág alapelveket valami teljesen kézzelfoghatóvá és kellően részletezetté alakítsák ahhoz, hogy az AI-rendszerek kidolgozásakor felhasználhatók legyenek. Könnyű összességében egy kis kézzel integetni arról, hogy mik is az AI etikai előírásai, és hogyan kell azokat általában betartani, míg az AI kódolásánál sokkal bonyolultabb a helyzet, ha a valódi guminak kell lennie, amely találkozik az úttal.

Az AI-etikai elveket az AI-fejlesztőknek kell alkalmazniuk, az AI-fejlesztési erőfeszítéseket irányítókkal együtt, sőt még azokkal is, amelyek végső soron az AI-rendszerek karbantartását és karbantartását végzik. Az összes érdekelt fél a mesterséges intelligencia fejlesztésének és használatának teljes életciklusa során beletartozik az etikus mesterséges intelligencia elfogadott normáihoz. Ez egy fontos kiemelés, mivel a szokásos feltevés az, hogy „csak a kódolóknak” vagy az AI-t programozóknak kell betartani az AI-etika fogalmait. Amint korábban említettük, egy falura van szükség a mesterséges intelligencia kidolgozásához és elindításához, és ehhez az egész falunak ismernie kell a mesterséges intelligencia etikai előírásait, és be kell tartania azokat.

Előfordulhat, hogy hozzá kell adnunk a dicsért AI-etikai listákat, amelyeket kifejezetten figyelembe kell vennünk, és nyílt lépéseket kell tennünk az AI-alapúak megelőzése vagy legalábbis erőteljes mérséklése érdekében. normál balesetek ez előfordulhat. Az AI-t fejlesztőknek mindent meg kell tenniük ezen a téren. Az AI-t alkalmazóknak is hasonlóképpen kell eljárniuk. Azoknak, akik mesterséges intelligenciát használnak, vagy valamilyen módon ki vannak téve annak, óvatosnak kell lenniük, és óvakodniuk kell a látszólag bekövetkező mesterséges intelligencia-balesetek lehetőségétől.

Csábító lehet azt gondolni, hogy elegendő óvintézkedést lehet beépíteni az MI-be ahhoz, hogy a balesetek esélye nullára csökkenjen. Azok számára, akik technikusok, a szokásos hübrisz az, hogy ha egy technológia problémát okozhat, akkor egy másik technológia biztosan megoldja a problémát. Csak dobáljon egyre több technológiát, amíg a probléma meg nem szűnik.

Nos, azok, akik tanulmányozták a rendszer-orientált baleseteket, hajlamosak nem értenek egyet, és udvariasan visszavágnak a feltételezett technikus nagyképűségre a svájci sajtmodell (SCM) néven ismert álláspont mellett: „Az SCM-ben a biztonsági rétegek a svájci sajt modelljeként vannak modellezve. lyukakkal ellátott sajt, amely minden egyes biztonsági réteg gyenge pontját jelenti. Idővel a lyukak megváltoztatják alakjukat és mozognak. Végül, függetlenül attól, hogy hány szelet sajt (biztonsági réteg) van, a lyukak egy vonalba kerülnek, lehetővé téve az egyenes lövést az összes sajtszeleten (baleset történik)” (a korábban Robert Williams és Roman Yampolskiy által idézett cikk szerint) ).

Nem akarok belemerülni ebbe az oldalsó érintésbe, hogy van-e garantált mód a mesterséges intelligencia programozására úgy, hogy teljesen és mindig elkerülje a baleset lehetőségét. Mindenféle matematikai és számítási bizonyítási megközelítést kipróbálnak. Úgy gondolom, ésszerű és tisztességes kijelenteni, hogy ma nem rendelkezünk skálázható munkamódszerrel, sem olyan technológiával, amely ilyen nulla esélyt garantálhatna, ráadásul határozottan át vagyunk nyerve a rengeteg mesterséges intelligencia tonnányijával, amelyet ámulatba ejtenek. biztosan tudom, hogy nem igyekezett betartani az ilyen gyakorlatokat. Ez utóbbi pont döntő fontosságú, mivel még ha ki is tudunk hozni valamit egy mesterséges intelligencialaborban, ennek a folyamatban lévő, vad és gondtalan mesterséges intelligencia-erõfeszítések millióira méretezése, amelyek továbbra is megjelennek, egy csomó probléma, és nem valószínû, hogy megoldják, még akkor sem, ha egy számítógépes bizonyítógép ezüstérmet jelent. golyó létezett.

Egy másik pont, amelyet véleményem szerint érdemes röviden megemlíteni, az a mesterséges intelligencia, amely rosszindulatú emberi cselekvők eredményeként nemkívánatos cselekedeteket hajt végre. Nem fogom ezeket az eseteket az AI-balesetek birodalmába helyezni. Ne feledje, hogy a nyitó beszélgetés azt sugallta, hogy a baleset szótári meghatározása szerint egy baleset eseménye nem szándékos természet. Ha egy emberi kiberbűnnek sikerül rávennie egy mesterséges intelligencia rendszert rossz dolgokra, akkor azt nem minősítem balesetnek. Bízom benne, hogy egyetért ezzel a feltételezéssel.

Felmerül egy érdekes kérdés, hogy a különféle mesterséges intelligencia nemkívánatos cselekedetei közül mennyi tulajdonítható pusztán mesterséges intelligencia-balesetnek, szemben egy kiberbűnöző csaló cselekedetével. Egyes létező MI-események jelentési adatbázisai szerint úgy tűnik, hogy az MI-balesetek gyakrabban történnek, mint a rosszindulatú incidensek, bár ezt a felfogást tetemes adag sóval kell kezelni. Ezt azért mondom, mert nagy a kísértés, hogy ne jelentsük, ha egy mesterséges intelligencia-rendszert megtámadtak, és talán valamivel hajlandóbbak legyünk jelenteni, ha mesterséges intelligencia-baleset történik.

Van egy rendkívül fontos figyelmeztetés, amelyet meg kell vitatni az AI-balesetekkel kapcsolatban.

Az „AI-balesetek” kifejezés használata általában nem kívánatos, és meglehetősen zűrzavart fog okozni mindannyiunk számára, vagyis az egész társadalom számára. Amikor egy emberi balesetet szenved, gyakran megvonjuk a vállunkat, és együtt érzünk azzal, akit a baleset érte. Úgy tűnik, hogy a „baleset” szót úgy kezeljük, mintha az azt jelenti, hogy senki sem felelős a történtekért.

Vegyük például az autóbalesetet. Az egyik autó szélesre lendül a jobb kanyarban, és véletlenül nekiütközik egy másik autónak, amely egyenesen haladt előre. Basszus, ez csak egy baleset volt, és véletlenül történt. Azok, akik nem vettek részt az incidensben, talán elengedik a dolgot, ha az eseményt pusztán egy megtörtént balesetnek nevezik.

Viszont van egy olyan érzésem, hogy ha az elütött autóban ülne, nem lenne olyan szimpatikus a túl széles kanyart meghajtó sofőrnek. Az Ön véleménye minden bizonnyal az lenne, hogy a másik sofőr tetves sofőr volt, és vagy egy látszólag törvénytelen vagy oktalan vezetési cselekedet vezetett az autóbalesethez. Azzal, hogy „balesetnek” titulálják az incidenst, az elakadt sofőr most némileg hátrányos helyzetbe került, hiszen a jelek szerint mindez nem a sofőr kezén keresztül, hanem a véletlenül történt.

Valójában a „baleset” szó olyannyira tele van különböző jelentésekkel, hogy az autóbalesetekkel kapcsolatos kormányzati statisztikák általában autóbalesetként vagy autóbalesetként emlegetik az ügyet, nem pedig az autóbalesetek kifejezést. Úgy tűnik, hogy egy autóbaleset vagy egy autóbaleset nem befolyásolja az incidens kialakulását. Eközben az „autóbaleset” megfogalmazása már-már arra késztet bennünket, hogy ez a sors furcsasága, vagy valahogy kívülálló az emberiség kezén.

Bőségesen láthatja, hogyan jelenik meg ez a konnotációs megfontolás az AI-balesetek kapcsán. Nem akarjuk, hogy a mesterséges intelligencia fejlesztői a konnotációs pajzs mögé bújjanak, hogy az AI véletlenül kárt okozott valakinek. Ugyanez vonatkozik az AI-t alkalmazókra is. Érvelhetnénk, hogy az „AI-balesetek” megfogalmazása az MI szinte antropomorfizálása, amely félrevezeti a társadalmat, és lehetővé teszi, hogy az AI színfalai mögött tartózkodó emberek elkerüljék a felelősségre vonást. Az emberek mesterséges intelligenciájáért felelőssé tételének növekvő fontosságáról szóló vitámat a következő címen olvashatja el ez a link itt és a ez a link itt.

A továbbiakban a mesterséges intelligencia-balesetek jelmondatát fogom használni, de vonakodva teszem, és csak azért, mert ez a hagyományos módon utal erre a jelenségre. Az a próbálkozások, hogy ezt másképpen fogalmazzák meg, sajnálatos módon dagadtabbak és nem olyan könnyen olvashatók. Kérjük, ügyeljen arra, hogy a hívószót úgy értelmezze, hogy ne kelljen másfelé néznie, és ne vegye észre, hogy a mesterséges intelligencia hátterében álló emberek vétkesek, ha a mesterséges intelligencia balul sül el.

Annak szemléltetésére, hogy a mesterséges intelligencia balesetet okozóként való emlegetése valószínűsíthető zavart vagy félrevezető vonatkozásait szolgálja, visszatérhetünk a váza feldöntésével kapcsolatos megjegyzéseimhez. Tekintsük ezt a példát az MI-re: „Ez a probléma azokhoz a dolgokhoz kapcsolódik, amelyeket az AI véletlenül vagy közömbösen követ el. Egy vázát felborító takarítórobot jó példa erre. Az összetett környezetekben annyiféle „váza” van, hogy nem valószínű, hogy minden mellékhatásért büntetést tudunk beprogramozni” (Robert Williams és Roman Yampolskiy tanulmánya szerint).

Egy háztartásban használatba vett mesterséges intelligencia-rendszer, majd „véletlenül” feldönt egy vázát, úgy tűnik, azt sugallja, hogy senkit sem szabad hibáztatni a mesterséges intelligencia e káros hatásáért. Ez csak egy baleset volt, sajnálatos módon lehet kifogásolni. Másrészt joggal fel kell tennünk a kérdést, hogy az AI rendszert miért nem úgy programozták, hogy általánosságban kezelje a váza körülményeit. Még ha a mesterséges intelligencia fejlesztői nem is számítottak arra, hogy egy váza önmagában az észlelhető objektumok hatókörébe tartozik, akkor is megkérdőjelezhetjük, hogy miért nem volt valami átfogó objektumkerülés, amely megakadályozta volna, hogy az AI rendszer felboruljon. váza (így az AI bevallottan nem minősíti a vázát vázának, de mégis elkerülhette volna, hogy elkerülendő észlelhető tárgy legyen).

Megjósoltam és továbbra is azt jósolom, hogy fokozatosan egy hatalmas jogi csata felé haladunk az olyan mesterséges intelligencia-rendszerek megjelenésével kapcsolatban, amelyek „MI-balesetekbe” kerülnek, és valamilyen kárt okoznak. Ez idáig a társadalom nem reagált jelentős mértékben a mesterséges intelligencia jogi visszaszorítására, amely a piacra lapátolt, és akár szándékosan, akár nem szándékosan káros következményekkel jár. Napjaink mesterséges intelligenciájának kocsija, amely a félkész mesterségesintelligencia-gyártók és a mesterséges intelligencia bevezetését sietve végrehajtó emberek aranylázává vált, jelenleg szerencsés helyzetben van, és viszonylag érintetlen marad a polgári perek és büntetőeljárások terén.

Előbb-utóbb jön a mesterséges intelligencia okozta jogi visszhang.

Továbblépve, hogyan próbáljunk megbirkózni az úgynevezett mesterséges intelligencia-balesetek elkerülhetetlenségével?

Az egyik dolog, amit azonnal tehetünk, hogy megpróbáljuk előre jelezni, hogyan történhetnek mesterséges intelligencia-balesetek. A mesterséges intelligencia-balesetek előrejelzésével legalább olyan eszközöket találhatunk ki, amelyekkel csökkenthetjük őket, vagy minimalizálhatjuk bekövetkezésük valószínűségét. Ezenkívül megkísérelhetjük védőkorlátok elhelyezését, hogy ha mesterséges intelligencia-baleset történik, csökkenjen a demonstratív károsodás esélye.

A korábban idézett kutatási cikkben leírt tényezők hasznos halmaza Az AI-kudarcok megértése és elkerülése: Gyakorlati útmutató ezeket a tulajdonságokat tartalmazza (a kutatási cikkből idézve):

  • Az a rendszer, amelyre az AI kimenetei hatással vannak.
  • Időkésleltetés a mesterséges intelligencia kimenetei és a nagyobb rendszer között, a rendszer megfigyelhetősége, az emberi figyelem szintje és a kezelők azon képessége, hogy kijavítsák az MI hibáit.
  • Az AI által vezérelt rendszerek rosszindulatú használata által lehetséges legnagyobb kár.
  • A komponensek összekapcsolása az AI közelében és az interakciók összetettsége.
  • A mesterséges intelligencia és más alkalmazott technológiák, valamint a rendszer energiaszintjének ismerethiánya.

E kiélezett vita ezen a pontján fogadni mernék, hogy néhány szemléltető példára vágyik, amelyek még jobban megvilágíthatják az MI-balesetek témáját. Van egy különleges és biztosan népszerű példasor, amely közel áll a szívemhez. Látod, a mesterséges intelligencia szakértőjeként, beleértve az etikai és jogi következményeket is, gyakran kérnek fel olyan reális példák azonosítására, amelyek bemutatják a mesterséges intelligencia etikai dilemmáit, hogy könnyebben megragadható legyen a téma némileg elméleti jellege. Az egyik legemlékezetesebb terület, amely élénken mutatja be ezt az etikus AI-problémát, az AI-alapú, valódi önvezető autók megjelenése. Ez praktikus használati esetként vagy példaként szolgál a témával kapcsolatos bőséges vitához.

Íme, egy figyelemre méltó kérdés, amelyen érdemes elgondolkodni: A mesterséges intelligencia-alapú valódi önvezető autók megjelenése felvilágosít-e valamit az úgynevezett mesterséges intelligencia-balesetek megjelenéséről, és ha igen, mit mutat be ez?

Engedjen meg egy pillanatra, hogy kibontsa a kérdést.

Először is vegye figyelembe, hogy egy igazi önvezető autóban nincs emberi vezető. Ne feledje, hogy az igazi önvezető autókat mesterséges intelligencia vezetési rendszer vezeti. Nincs szükség emberi sofőrre a volánnál, és arra sem, hogy ember vezesse a járművet. Az autonóm járművekről (AV-k) és különösen az önvezető autókról szóló kiterjedt és folyamatos tájékoztatásért lásd az itt található link.

Szeretném még jobban tisztázni, mit kell érteni, amikor valódi önvezető autókra utalok.

Az önvezető autók szintjének megértése

Tisztázva, az igazi önvezető autók azok, ahol az AI teljesen önállóan vezeti az autót, és nincs emberi segítség a vezetési feladat során.

Ezek a vezető nélküli járművek 4-es és 5-ös szintnek minősülnek (lásd a magyarázatomat a következő helyen). ez a link itt), míg az olyan autókat, amelyekhez emberi vezető szükséges a vezetési erőfeszítések közös megosztására, általában 2. vagy 3. szinten tekintik. A vezetési feladatot közösen megosztó autók leírása félig autonóm, és általában különféle automatizált bővítmények, amelyeket ADAS-nak (Advanced Driver-Assistance Systems) neveznek.

Még nincs igazi önvezető autó az 5-ös szinten, és még azt sem tudjuk, hogy ez elérhető lesz-e, és azt sem, hogy mennyi időbe telik eljutni odáig.

Eközben a 4. szintű erőfeszítések fokozatosan próbálnak némi vonóerőt szerezni nagyon szűk és szelektív közúti próbák révén, bár vita folyik arról, hogy ezt a tesztelést önmagában engedélyezni kell-e (mindannyian életre-halálra menő tengerimalacok vagyunk egy kísérletben autópályáinkon és mellékutainkon zajlanak, egyesek azt állítják, lásd tudósításomat itt ez a link itt).

Mivel a félig autonóm autókhoz emberi sofőrre van szükség, az ilyen típusú autók elfogadása nem különbözik nyilvánvalóan a hagyományos járművek vezetésénél, tehát önmagában nincs sok új, hogy ezekkel a témákkal foglalkozzanak (bár, amint látni fogja) egy pillanat alatt a következő pontok általában alkalmazandók).

A félig autonóm autók esetében fontos, hogy a nyilvánosságot figyelmeztessék az utóbbi időben felmerülő zavaró tényezőkre, nevezetesen arra, hogy azoknak az emberi járművezetőknek ellenére, akik folyamatosan videókat tesznek közzé, hogy maguk alszanak a 2. vagy 3. szintű autó kormányához , mindannyian el kell kerülnünk, hogy félrevezetjük azt a hitet, hogy a sofőr félig autonóm autó vezetése közben elvonhatja figyelmét a vezetési feladatról.

Te vagy a felelős a jármű vezetési tevékenységeiért, függetlenül attól, hogy mekkora mennyiségű automatizálást lehet 2. vagy 3. szintre dobni.

Önvezető autók és mesterséges intelligencia események

A 4. és 5. szintű valódi önjáró járműveknél nem vezethet embervezető a vezetési feladatba.

Minden utas utas lesz.

Az AI vezet.

Azonnal megvitatandó szempont azzal a ténnyel jár, hogy a mai mesterséges intelligencia-vezetési rendszerekben részt vevő mesterséges intelligencia nem érző. Más szavakkal, az AI összességében számítógépes programozás és algoritmusok összessége, és bizonyosan nem képes ugyanúgy érvelni, mint az emberek.

Miért van ez a hangsúly arra, hogy az AI nem érzékeny?

Mivel szeretném aláhúzni, hogy az AI hajtórendszer szerepének tárgyalásakor nem tulajdonítok emberi tulajdonságokat az AI-nek. Felhívjuk figyelmét, hogy manapság folyamatos és veszélyes tendencia van az AI antropomorfizálására. Lényegében az emberek emberi szerű érzékenységet tulajdonítanak a mai mesterséges intelligenciának, annak ellenére, hogy tagadhatatlan és vitathatatlan tény, hogy ilyen AI még nem létezik.

Ezzel a pontosítással elképzelheti, hogy az AI vezetési rendszer valahogy nem fogja „tudni” a vezetés szempontjait. A vezetést és mindazt, amit ez magában foglal, be kell programozni az önvezető autó hardverének és szoftverének részeként.

Merüljünk el abban a számtalan szempontban, amelyek eljátszanak ebben a témában.

Először is fontos felismerni, hogy nem minden AI önvezető autó egyforma. Minden autógyártó és önvezető technológiai cég alkalmazza a hozzáállását az önvezető autók kidolgozásához. Emiatt nehéz átfogó kijelentéseket tenni arról, hogy az AI-meghajtórendszerek mit fognak tenni vagy nem.

Továbbá, ha azt állítják, hogy az AI meghajtó rendszer nem végez bizonyos dolgokat, ezt később a fejlesztők megelőzhetik, akik valójában erre programozzák a számítógépet. Lépésről lépésre az AI meghajtó rendszereket fokozatosan fejlesztik és bővítik. A meglévő korlátozás ma már nem létezik a rendszer későbbi iterációjában vagy verziójában.

Bízom benne, hogy ez elegendő litániai figyelmeztetést ad ahhoz, hogy alátámasszam azt, amit most el fogok mondani.

Most készen állunk arra, hogy mélyen elmerüljünk az önvezető autók és az úgynevezett mesterséges intelligencia-balesetek megjelenésével járó Ethical AI-lehetőségek terén.

Képzelje el, hogy egy mesterséges intelligencia-alapú önvezető autó halad a környék utcáin, és úgy tűnik, hogy biztonságosan vezet. Eleinte különös figyelmet szentelt minden egyes alkalommal, amikor sikerült megpillantania az önvezető autót. Az autonóm jármű az elektronikus szenzorokból álló állványával tűnt ki, amely videokamerákat, radaregységeket, LIDAR eszközöket és hasonlókat tartalmazott. Sok hét után az önvezető autóval körbejárta a közösséget, most alig veszi észre. Ami Önt illeti, ez csak egy újabb autó az amúgy is forgalmas közutakon.

Nehogy azt higgye, lehetetlen vagy valószínűtlen megismerni az önvezető autók látását, sokszor írtam arról, hogy az önvezető autók kipróbálásának körébe tartozó helyszínek fokozatosan hozzászoktak a felpörkölt járművekhez. A helyiek közül sokan végül áttértek a szájtátva tátott, elragadtatott bámészkodásról az unalom kiterjedt ásítására, hogy szemtanúi legyenek a kanyargó önvezető autóknak.

Valószínűleg a fő ok, amiért most észreveszik az autonóm járműveket, az az irritáció és az elkeserítő tényező. A könyv szerinti mesterséges intelligencia-vezetési rendszerek gondoskodnak arról, hogy az autók betartsák az összes sebességkorlátozást és a KRESZ szabályait. Hagyományos, ember által hajtott autóikkal hektikus embervezetők időnként felháborodnak, amikor a szigorúan törvénytisztelő AI-alapú önvezető autók mögött ragadnak.

Ez az, amit mindannyiunknak meg kell szoknunk, jogosan vagy helytelenül.

Vissza a mesénkhez.

Egy napon az önvezető autó balesetet szenved.

Jobbra kanyarodás közben a mesterséges intelligencia vezetési rendszere szélesre lendítette az autonóm járművet, és egy ember által hajtott autónak ütközött. Az ember által vezetett autó egyenesen haladt előre a megfelelő forgalmi sávban. Az emberi sofőrnek nem volt különösebb lehetősége arra, hogy kanyarodjon vagy elkerülje az ütközést. Ráadásul az önvezető autó nem figyelmeztette vagy jelezte volna, hogy széles körben jobbra kanyarodik.

Ez baleset?

Minden bizonnyal kijelenthetjük, hogy az AI-baleset körébe tartozik. Ennek az állításnak az az alapja, hogy az önvezető autó volánjánál mesterséges intelligencia vezetési rendszer volt. Valahogy, bármilyen okból, az AI úgy döntött, hogy széles lengést hajt végre jobbra kanyarodáskor. Az eredmény oda vezetett, hogy az önvezető autó elütött egy ember által vezetett autót.

Idézzük fel a korábbi vitát a „baleset” szóhoz kapcsolódó konnotációkkal kapcsolatban, és nézzük meg, hogyan jelennek meg az ilyen felhangok ebben a forgatókönyvben. Ne feledje továbbá, hogy megbeszéltük azt az esetet, amikor egy emberi sofőr széles jobbra kanyarodott, és belerohan egy embertársa által vezetett autóba. Felismertük, hogy az az elképzelés, hogy ez a cselekmény „baleset”, félrevezető és zavaró. Az emberi sofőr, aki a nagy lendületet meghajtotta, elbújhatott a gondolat mögé, hogy csak véletlenül vagy a sors szeszélyéből történt baleset.

Ahelyett, hogy „AI-balesetként” jelölnénk meg a forgatókönyvet, ha az MI-alapú önvezető autó szélesre megy, és elüti az ember által vezetett autót, talán azt kellene mondanunk, hogy autóbalesetről vagy autóütközésről van szó, amelyben önvezető autó is történt. vezető autót és egy ember által vezetett autót. Ekkor eltekinthetünk attól a homályos zűrzavartól, hogy ez a megismerhetetlen eszközök véletlensége.

Ön szerint mi lenne a lakosság reakciója az esetre?

Nos, ha az autógyártó vagy az önvezető technológiai cég ragaszkodik ahhoz, hogy az ügyet balesetnek minősítsék, akkor talán kikerülhetik a közösség esetleges visszahatásait. A balesetekkel kapcsolatos rokonszenv érzése valószínűleg átáradna az adott körülményre. Ha többet szeretne megtudni arról, hogyan reagálnak a városok, megyék és államok vezetői az AI autonóm járművekkel kapcsolatos incidensekre, olvassa el az általam közösen vezetett Harvard-tanulmány vitáját, amelyet a következő helyen ismertettek: az itt található link.

Ha a helyzetet egyértelműen autóbalesetként vagy autóütközésként írják le, akkor ez talán lehetővé teszi annak felismerését, hogy valaki vagy valami okolható az incidensért. A térdrángó reakció az lehet, hogy az MI-t kell felelőssé tenni. A helyzet az, hogy amíg nem döntünk úgy, hogy a mesterséges intelligenciát jogi személynek látszóként felkenjük, vagy ha valaha is úgy döntünk, hogy a mesterséges intelligencia önmagában nem terheli a felelősséget (lásd a mesterséges intelligenciáról és a jogi személyiségről szóló vitámat itt: az itt található link).

Megvizsgálhatjuk a mesterséges intelligencia vezetési rendszerét, hogy kitaláljuk, mi vezetett a látszólag nem megfelelő vezetéshez és az azt követő autóbalesethez. Ez azonban nem jelenti azt, hogy az AI-t felelősségre vonják. A felelős felek közé tartoznak az AI-fejlesztők, az önvezető autó flottaüzemeltetője és mások. Másokat is bevonok, mert fennáll annak a lehetősége, hogy részben a várost tehetjük felelőssé annak a saroknak a kialakításáért, ahol a fordulat történt. Ezenkívül tegyük fel, hogy egy gyalogos kirohan a kanyarból, és az AI vezetési rendszer úgy döntött, hogy elkerüli a személyt, és mégis belekeveredett az autóbalesetbe.

És így tovább.

Következtetés

Szeretnénk tudni, hogy az AI mit számol számításilag, és mire volt programozva. A mesterséges intelligencia a kódolt módon csinálta? Lehet, hogy a mesterséges intelligencia hibát vagy hibát talált a programozásban, ami nem mentegeti a műveleteket, de inkább rávilágít arra, hogyan következett be az összeomlás.

Milyen AI védőkorlátokat programoztak az AI vezetési rendszerébe? Ha lettek volna védőkorlátok, akkor azt szeretnénk kideríteni, hogy miért nem akadályozták meg az autóbalesetet. Lehet, hogy a mesterséges intelligencia vezetési rendszere inkább leállhatott volna, mintsem hogy beforduljon. Szeretnénk tudni, hogy a mesterséges intelligencia milyen alternatívákat értékelt számításilag az incidens során.

Amellett, hogy rátérünk az adott incidens mélyére, egy másik jogos kérdés az, hogy az AI vezetési rendszernek van-e hibája vagy más olyan beágyazott aspektusa, amely hasonló típusú káros cselekedeteket hajt végre. Lényegében ez az incidens árulkodó jele lehet a továbbiaknak. Hogyan használták fel a vezetési helyzetek számítógépes szimulációit az ilyen típusú mesterséges intelligencia-vezetési rendszer ösztönzésére? Volt elegendő közúti vezetési teszt ahhoz, hogy kiderítse az AI-problémákat, amelyek az autóbalesethez vezethettek?

Ez a forgatókönyv rávilágít egy vitatott rejtvényre, amely az AI-alapú önvezető autók megjelenése előtt áll.

Ez így megy.

Egyrészt a társadalom vágya az önvezető autók mielőbbi bevezetésére annak reményében, hogy az AI vezetési rendszerek ugyanolyan biztonságosak vagy esetleg biztonságosabbak lesznek, mint az emberi vezetők. Csak az Egyesült Államokban jelenleg közel 40,000 2.5 ember hal meg évente autóbalesetben és körülbelül XNUMX millió embersérülés. Az elemzések azt sugallják, hogy ezeknek az autóbaleseteknek egy jelentős része emberi mulasztásra vezethető vissza, mint például az ittas vezetés, a figyelemzavaros vezetés stb. (lásd az ilyen statisztikákkal kapcsolatos értékelésemet itt az itt található link).

Az AI vezetési rendszerek nem fognak ittasan vezetni. Nem lesz szükségük pihenésre, és nem fognak elkopni a volánnál. Az a feltételezés, hogy az önvezető autók életképes közlekedési eszközzé tételével csökkenthetjük az emberi vezetők számát. Ez viszont azt jelenti, hogy összességében csökkentjük az autóbalesetekből származó éves halálos áldozatok és sérülések számát.

Egyes szakértők azt mondták, hogy nulla halálos áldozattal és nulla sérüléssel járunk majd, és ezek az önvezető autók állítólag összetörhetetlenek lesznek, de ez egy teljesen abszurd és teljesen hamis elvárás. Elmagyaráztam, hogy ez miért olyan hamis az itt található link.

Mindenesetre tegyük fel, hogy lesz bizonyos számú autóbaleset, amibe az önvezető autók is belekeverednek. Tételezzük fel azt is, hogy ezek az autóbalesetek bizonyos számú halálesetekkel és sérülésekkel járnak. Az a kérdés, amely felett aggodalomra ad okot, az, hogy társadalomként hajlandóak vagyunk-e egyáltalán eltűrni az ilyen eseteket. Egyesek azt mondják, hogy ha csak egy haláleset vagy egy sérülés történik valódi önvezető autók következtében, akkor az egész készletet és kaboodle-t be kell zárni.

Az ellentétes álláspont az, hogy ha a megmentett életek csökkentik az éves számokat, akkor továbbra is ösztönöznünk kell az önvezető autók megjelenését, és nem kell ilyen logikátlan módon reagálnunk. El kell fogadnunk azt az előfeltevést, hogy bizonyos számú haláleset és sérülés továbbra is fennáll, még az önvezető autók esetében is, de be kell látnunk, hogy ha csökken az éves szám, az azt sugallja, hogy jó úton járunk.

Természetesen egyesek azzal érvelnek, hogy ne legyenek önvezető autók a közútjainkon mindaddig, amíg azokat kiterjedt és kimerítő számítógépes szimulációk eredményeként, vagy zárt pályás magántesztek eredményeként nem engedélyezték ilyen használatra. Az ellenérv az, hogy az önvezető autók beindításának egyetlen járható és leggyorsabb módja a közutak használata, és hogy az önvezető autók bevezetésében bekövetkező késedelmek egyébként tovább folytathatják az ember által vezetett autók ütközésének szörnyű számát. Hasznosabban foglalkoztam ezzel a vitával a hasábjaimban, és arra buzdítom az olvasókat, hogy nézzék meg ezeket a vitákat, hogy teljes mértékben megértsék az ellentmondásos kérdés nézőpontját.

Most zárjuk le a dolgokat.

AI balesetek fognak történni. Ellen kell állnunk annak a késztetésnek, hogy egy mesterséges intelligencia balesetet látszólagosnak tekintsünk véletlen és ergo hamisan hagyja, hogy a készítők és az AI-t alkalmazók kategorikusan lekerüljenek a horogról.

Van még egy csavar, amelyet a nap utolsó izgalmas gondolataként hagyok meg.

A komikus Dane Cook állítólag ezt a viccet mesélte el az autóbalesetekkel kapcsolatban: „Pár napja autóbalesetet szenvedtem. Nem az én hibám. Még ha nem is a te hibádból, a másik kiszáll az autóból, és úgy néz rád, mintha a te hibád lenne: Miért álltál meg a piros lámpánál, és hagytad, hogy elüsselek 80-al?”

A csavar az a lehetőség, ahol egy MI-rendszer úgy dönthet, hogy ragaszkodik ahhoz, hogy amikor az adott mesterségesintelligencia-baleset történik, az MI azt állítja, hogy az esemény az ember hibája volt, és minden bizonnyal nem az MI hibája. Mellesleg, ez nagymértékben igaz lehet, és az ember megpróbálhatja bűnbakká tenni az MI-t azzal, hogy azt állítja, hogy az AI hibája.

Vagy az MI megpróbálja bűnbakká tenni az embert.

Tudja, az általunk kidolgozott mesterséges intelligencia trükkös lehet, akár véletlenül, akár nem.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-invitably-of-ai-accidents-which-looms-over-autonomous-self- autókat is vezetni/