Az etikus mesterséges intelligencia ambiciózusan abban a reményben, hogy a mesterséges intelligencia magától tanulja meg az etikus viselkedést, például az önálló önvezető autók mesterséges intelligenciájánál

Arisztotelész híresen kijelentette, hogy az elme nevelése a szív nevelése nélkül egyáltalán nem nevelés.

Ezt az éleslátó megjegyzést úgy is értelmezheti, hogy azt sugallja, hogy az etika és az erkölcsi viselkedés megismerése rendkívül létfontosságú az emberiség számára. A klasszikus természet kontra nevelés vitában fel kell tennünk a kérdést, hogy etikai szokásainkból mennyi az ösztönösen honos, míg mennyit tanulunk meg életünk során. A kisgyermekek figyelmesek embertársaikra, és feltehetően a látottak és hallottak alapján szűrik le etikai alapjaikat. Ugyanez mondható el a tinédzserekről. A nyitott gondolkodású felnőttek számára a mindennapi világ megtapasztalása nyomán ők is tovább alkalmazkodnak és fejlődnek etikus gondolkodásukban.

Természetesen az is, hogy valakit kifejezetten etikára tanítsunk, a kurzushoz tartozik. Az emberek kötelesek megismerni az etikai módszereket azáltal, hogy részt vesznek a témával foglalkozó órákon, vagy esetleg elmennek az őket érdeklő eseményekre és gyakorlatokra. Az etikai értékek egyértelműen azonosíthatók és megoszthatók, hogy segítsenek másoknak saját etikai struktúrájuk kialakításában. Ezenkívül az etika finoman elrejthető a történetekben vagy más oktatási módokban, amelyek végső soron üzenetet hordoznak arról, hogy miből áll az etikus viselkedés.

Úgy tűnik, hogy az emberek átitatják az etikát.

Mi a helyzet a mesterséges intelligenciával (AI)?

Tudom, hogy egy ilyen kérdés furcsának tűnhet. Minden bizonnyal azt várjuk az emberektől, hogy magukba foglalják az etikát, és az erkölcsi kódex némileg látszatával járják végig az életet. Ez egy egyszerű és nyilvánvaló tény. Másrészt úgy tűnik, hogy egy gép vagy számítógép nem illeszkedik ugyanabba a vonatkoztatási keretbe. A zsigerek reakciója lehet, hogy messziről jött vagy furcsa dolog az AI-t az etikai és erkölcsi kódexek megtestesítőjének tekinteni.

A legjobb, amit tehetünk az AI-val kapcsolatban, hogy úgy alakítjuk ki, hogy ne térjen el az etikus viselkedéstől. A mesterséges intelligencia fejlesztői és a mesterséges intelligencia fejlesztői felelősek azért, hogy a tervezett és megvalósított mesterséges intelligencia már megfeleljen az etikai előírásoknak. Úgyszólván a kapun kívül az MI-nek már érintetlennek kell lennie, és etikailag teljesen megfelelő kitalációnak kell lennie.

Biztosan igaza van, ha azt gondolja, hogy az AI-rendszereket valóban úgy kell kialakítani, hogy már teljes mértékben illeszkedjenek az etikai alapokhoz. A társadalom nagyon izgatott volt, amikor először megjelent a mesterséges intelligencia-rendszerek legújabb hulláma, és úgy tűnt, hogy bebizonyította, hogy egy olyan korszakot élünk, AI For Good. A mesterséges intelligencia a világ számos legnagyobb kihívást jelentő problémájának megoldásában segítene. A technológia fejlődését arra használták fel, hogy az emberi képességeket kognitív-szerű eszközökkel egészítsék ki, bár engedjék meg, hogy hangsúlyozzam, hogy még nincs értelmes mesterséges intelligencia, és nem tudjuk, hogy az érző mesterséges intelligencia megvalósul-e.

A mesterséges intelligencia világra vitelére irányuló rohanás problémája fokozatosan felfedte a mesterséges intelligencia csúnya alját. AI For Bad. Rengeteg főcím jelent meg az AI-rendszerekről, amelyek az algoritmikus döntéshozatalt (ADM) használják, amely tele van torzításokkal és egyenlőtlenségekkel. Ráadásul a kortárs mesterséges intelligencia nagy része az átláthatóság hiányától szenved, megmagyarázhatatlan a számítási döntések magyarázata tekintetében, gyakran hiányzik a méltányosság, és lehetővé tette egyesek számára, hogy az MI-re mutogatva eltereljék emberi felelősségüket.

Írásaimban széles körben foglalkoztam az etikus MI-vel és az AI etikájával, többek között az itt található link és a az itt található link, csak hogy néhányat említsek.

Hogy lehet AI For Bad ha kimondott konstrukciónak vesszük, hogy az AI-t a kezdetektől fogva meg kell alkotni, hogy elkerüljük az etikátlan cselekedeteket?

A válasz sokrétű.

Először is, sok mesterségesintelligencia-fejlesztő és AI-val foglalkozó vállalat maga is tanácstalan a mesterséges intelligencia kialakításának fontosságáról, hogy az etikai határokon belül maradjon. A koncepció egyáltalán nincs a radarjukon. A gyors pénzkeresés vonzereje arra késztet néhányat, hogy minden olyan vad mesterséges intelligencia-gondolatot hajtsanak végre, amelyet szándékosan akarnak előállítani. Nem kell semmilyen etikai dolgot kitalálni. Csak építse meg az AI-t, és kezdje el.

Másodszor, vannak olyan mesterséges intelligencia készítői, amelyek az etikai következmények egyenes tudatát ékesítik, de nyíltan lekicsinylik vagy figyelmen kívül hagyják az etikus mesterséges intelligencia szempontjait. Az egyik gyakori perspektíva a technikusok klasszikus mantrája, amelynek célja a gyors és gyakran kudarc. Csak folytasd az iterációt, amíg a dolgok remélhetőleg megfelelően rendeződnek. Sajnálatos módon kicsi az esélye annak, hogy a mesterséges intelligencia etikájának szisztematikus és átgondolt beépítése beletartozzon ezekbe a gyors ütemű mesterséges intelligencia erőfeszítésekbe. Az etikus mesterséges intelligencia felé vezető vezetés megerősítésének szükségességét itt tárgyalom az itt található link.

Harmadszor, sok homály van azzal kapcsolatban, hogy milyen etikus védőkorlátokat kell figyelembe venni az AI kidolgozásakor. Természetesen manapság számos AI etikai irányelv létezik, lásd a tudósításomat itt az itt található link, bár ezeket a praktikus elméleti előírásokat nehéz szükségszerűen konkrétumokra váltani egy adott épülő mesterséges intelligenciarendszerre vonatkozóan. Jeleztem, hogy lassan látni fogunk olyan mesterséges intelligencia-építő eszközök és módszerek megjelenését, amelyek magukban foglalják az etikus mesterséges intelligencia kódolási gyakorlatait is, amelyek segítenek megszüntetni az absztrakt szempontok és a közmondásos „gumi-meets-the-road” szempontok közötti szakadékot.

Negyedszer, az itt található hangsúly szerint feltárjuk a mesterséges intelligencia érintett esetét, amely még ha kezdetben etikai határokon belül épült is fel, később a használat során a feltételezett etikailag kódolt paramétereken túl kanyarog.

Ki kell csomagolnunk.

A mai mesterséges intelligencia nagy része a gépi tanulást (ML) és a mély tanulást (DL) használja. Ezek számítási mintaillesztési technikák és technológiák. Általában az az elképzelés, hogy sok releváns adatot gyűjt össze ahhoz, hogy a mesterséges intelligencia bármire képes legyen, ezeket az adatokat betáplálja a kiválasztott számítási mintaillesztőbe, és a mintaillesztés matematikailag megpróbál hasznos mintákat találni. Ne feledje, hogy ennek a mesterséges intelligenciának nincs érzéke (ami megint csak nem létezik). És nincs benne semmi józan ész. Ez mind matematika és számítás.

Előfordulhat, hogy az ML/DL-be betáplált adatok már tele vannak torzításokkal és egyenlőtlenségekkel. Ebben az esetben nagy az esély arra, hogy a számítási mintaillesztés ugyanazokat a hajlamokat fogja utánozni. Ha olyan adatokat ad meg, amelyek előnyben részesítik az egyik fajt a másikkal szemben, vagy az egyik nemet részesítik előnyben a másikkal szemben, akkor nagy az esélye annak, hogy a mintaillesztés ehhez a felfedezett mintához fog illeszkedni.

Egy nagy probléma az ilyen típusú rögzítéssel, hogy nehéz dolgunk lehet rájönni, hogy a minták az adatok ezen aspektusán alapulnak. A bonyolult és bonyolult matematika meglehetősen problémássá teheti az ilyen talált minták feltárását. Még az AI tesztelése sem feltétlenül fedi fel ezeket a tendenciákat, az alkalmazott tesztek tartományától és mélységétől függően.

Tételezzük fel tehát, hogy MI-rendszert épített fel, és úgy végezte el a házi feladatát, hogy először megpróbálta elkerülni a már meglévő torzításokkal rendelkező adatok használatát. Ezután, miután a gépi tanulást és a mély tanulást elvégezték, tesztelte az eredményeket, hogy lássa, nem keletkezett-e valamilyen torzítás vagy egyenlőtlenség. Tételezzük fel, hogy nem találsz ilyen kellemetlen hajlamokat.

Mindent egybevetve, most zöld utat kapott az AI használatba vétele. Az emberek elkezdik használni az MI-t, és valószínűleg azt feltételezik, hogy etikailag helyes. A fejlesztők is ezt gondolják. A mesterséges intelligenciát előállító cég ezt gondolja. Elmegyünk mindannyian.

Íme, mi történhet.

Valószínűleg aktiválódik egy olyan torzítás sejtése, amelyet az eredeti adatokban nem találtak meg, és amelyet nem észleltek az AI tesztelése során. Talán ez csak ritkán fordul elő. Azt hiheti, hogy amíg ritka, addig minden rendben van. Kétlem azonban, hogy az említett elfogultságnak kiszolgáltatottak hajlandóak lennének így látni a dolgokat. Merem állítani, hogy a mesterséges intelligencia rendszere és azok, akik megfogalmazták, következményekkel fognak szembesülni, akár a jogi bíróságokon, akár a társadalmi vélemények nyitott bíróságán.

Egy másik változat az a közmondás, hogy vesz egy hüvelyk és megragad egy mérföldet. A sejtés kezdetben kicsi lehet. A mesterséges intelligencia használata során előfordulhat, hogy az MI-t úgy alakították ki, hogy a dolgok előrehaladtával megváltozzon. Ez a fajta „tanulás” vagy „öntanulás” nagyon hasznos lehet. Ahelyett, hogy az emberi mesterséges intelligencia fejlesztőitől folyamatosan módosítsák és módosítsák az AI-rendszert, az AI önmagában készült. Nincs késés, nincs drága munkaerő stb.

Ennek a praktikus önbeállításnak az a hátránya, hogy a tinta egyre nagyobbra emelkedhet az AI általi használat keretein belül. Míg az elfogultság szűk kis sarokban lehetett, most teret kapott a bővítésre. A mesterséges intelligencia nem tűnik úgy, hogy ez „hibás”, és pusztán számításilag kiterjeszti azt, ami úgy tűnik, hogy működik.

Ha ettől feláll a haj a fején, akkor le kell ülnie a következő változathoz.

Tegyük fel, hogy a torzítás kezdettől fogva nem létezett, és minden megalapozott meggyőződésünk, hogy az AI teljesen torzításmentes. Szerencsénk volt, vagy véletlenül szisztematikusan megbizonyosodtunk arról, hogy az adatokban sehol nem volt torzítás, és egyik sem a számítási mintaillesztésből származott. A megkönnyebbült sóhaj ellenére az AI használat közben módosulhat. Pandora ajtaja megnyílik, és az MI úgy dönt, hogy számítási módszerrel a mesterséges intelligencia bármely tevékenysége során észlelt torzítások felé irányul.

A mesterséges intelligencia egy újonnan felfedezett elfogultságot emészt fel, és senki sem bölcsebb, hogy megtörtént. Jaj, létrehoztunk egy szörnyet, egy igazi Frankensteint.

Hogyan lehet ezt a megjelenést megakadályozni vagy legalábbis jelezni?

Az egyik egyre inkább elterjedt megközelítés abból áll, hogy az AI-ba egy etikai gyűjtőkomponenst építenek be. A mesterséges intelligencia úgy készült, hogy magában foglalja az etikus AI elemeket. Ezek az elemek azután figyelik vagy figyelik a mesterséges intelligencia többi részét, miközben az AI idővel alkalmazkodik. Amikor úgy tűnik, hogy a mesterséges intelligencia túllépett a beprogramozott etikai előírásokon, az Ethical AI megpróbálja végrehajtani ezeket a módosításokat, vagy figyelmezteti a fejlesztőket, hogy valami elromlott.

Megpróbálhatja programozni ezt az Ethical AI felügyeleti kapacitást, és remélheti, hogy érvényesülni fog, amíg az AI használatban van.

Egy másik, kissé ellentmondásos szempont a gépi tanulás és a mély tanulás alkalmazása az etikus mesterséges intelligencia szempontjainak az AI-rendszerbe való betanítására.

Mondd mi?

Igen, a talán nem szokványos koncepció az, hogy ahelyett, hogy egy emberi programozó közvetlenül kódolna egy sor mesterséges intelligencia etikai előírást, az MI úgy van kialakítva, hogy megpróbálja „tanulni” azokat. Emlékezzünk vissza, röviden megjegyeztem, hogy az ML/DL használata jellemzően az adatok algoritmusokba való betáplálásán alapul, és számítási mintaillesztés történik. A millió dolláros kérdés az, hogy ugyanazt a mechanizmust alkalmazhatjuk-e az etikai értékek beillesztésére egy mesterséges intelligencia rendszerébe.

Feltételezem, hogy ezt a beszélgetésemhez tudnád hasonlítani, amely arról szól, hogy az emberek hogyan ismerik fel az etikai elveket, bár kérem, ne antropomorfizálja a mai mesterséges intelligenciát az emberi gondolkodáshoz hasonlíthatóként (nem az, és ezt a buzdítást hamarosan megismétlem). A mesterséges intelligencia „veleszületetten” programozható etikai AI-előírásokkal. Vagy a mesterséges intelligencia „megtanulhatja” az etikus mesterséges intelligencia előírásait. Természetesen mindkettőt megteheti, amit máshol is tárgyaltam, lásd az itt található link.

Szánjon egy pillanatot, hogy elgondolkozzon azon a megdöbbentőnek tűnő elképzelésen, hogy a mesterséges intelligencia „tanulhat” etikát, és ezért feltehetően betartja az etikus viselkedést.

Ezek a kutatók egy olyan mesterséges intelligencia-rendszer példáját használják fel, amely meghatározza a kívánt hőmérsékletet egy házban, hogy illusztrálják, hogyan működhet ez: „Először mindössze egy hétig „megfigyelte” a különböző háztartásokban élő emberek viselkedését, és következtetéseket vont le preferenciáikról. Ezután egy mozgásérzékelő szenzor segítségével megállapította, hogy van-e valaki otthon. Amikor a ház üres volt, az intelligens termosztát nagy energiatakarékos üzemmódba lépett; Amikor az emberek otthon voltak, a termosztát az igényeiknek megfelelően állította be a hőmérsékletet. Ez a termosztát egyértelműen megfelel az etikai bot két követelményének, bár nagyon egyszerű. Felméri az emberek preferenciáit, és rákényszeríti azokat a fűtési és hűtési rendszer vezérlőire. Felmerülhet a kérdés, mi köze ennek a társadalmi erkölcsi értékekhez. Ez a termosztát lehetővé teszi, hogy az eltérő értékekkel rendelkező emberek az általuk preferált hőmérsékleti beállításokat állítsák be. Az otthon lakóinak nem kell minden nap visszaállítaniuk a termosztátot jövés-menéskor. Ez az egyszerű etikai bot a közösség teljes energialábnyomát is csökkenti” (Amitai Etzioni és Oren Etzioni „AI Assisted Ethics” című tanulmánya szerint a kötetben Etika és információs technológia).

Mielőtt tovább ásnék az etikus viselkedést „megtanuló” mesterséges intelligencia fordulatait, szeretnék még valamit elmondani az AI állapotáról.

Az AI a következő lehetséges állapotokból állhat:

1. Napjaink nem érző sima régi mesterséges intelligencia

2. Emberi minőségű érző AI (még nincs ilyen)

3. Szuperintelligens érző mesterséges intelligencia (a 2. helyen túl)

A meglévő állapotra fogok összpontosítani, amely nem érző, sima, régi mesterséges intelligencia. Az Ethical MI-ről olvasottak nagy része időnként lefedi az érző MI-t, ezért erősen spekulatív. Azt mondom, hogy ez spekuláció, mert senki sem tudja a szamár farkát rászegni, hogy milyen értelmes mesterséges intelligencia lesz. Még messzebb van az emberi minőségi érző mesterséges intelligencia birodalmán a sokat emlegetett szuperintelligens AI. Rengeteg sci-fi történet és kétely szól arról, hogy a mesterséges intelligencia ezen ízei hogyan dönthetnek úgy, hogy rabszolgává teszik az emberiséget, vagy talán egyszerűen eltörölnek minket. Ezt az AI egzisztenciális kockázatának nevezik. Időnként a dilemmát az MI katasztrofális kockázataként is megfogalmazzák.

Egyesek azt állítják, hogy mindaddig rendben leszünk, amíg a mesterséges intelligenciát a ma létező, nem érző, egyszerű, régi mesterséges intelligencia mellett tartjuk. Tételezzük fel, hogy nem tudjuk elérni az érző mesterséges intelligenciát. Képzeld el, hogy bármennyire is próbálunk érző mesterséges intelligenciát létrehozni, ez nem sikerül. Azt is tegyük fel a vita kedvéért, hogy az érző mesterséges intelligencia nem valami titokzatos spontán folyamat eredményeként jön létre.

Nem vagyunk biztosak abban, hogy ez a kisebb kaliberű mesterséges intelligencia, amely a mesterséges intelligencia elképzelt egyetlen lehetséges fajtája, használatban lesz?

Nem igazán.

Valószínűleg ugyanazok az általános problémák merülnek fel. Nem azt állítom, hogy a mesterséges intelligencia „gondolja” magát, hogy el akarjon pusztítani minket. Nem, a közönséges, nem érző mesterséges intelligencia csupán olyan hatalmi pozíciókba kerül, amelyek az önpusztításba keverednek. Például a nem érző mesterséges intelligenciát tömegpusztító fegyverekbe helyezzük. Ezek az autonóm fegyverek nem képesek gondolkodni. Ugyanakkor az embereket nem tartják teljesen a hurokban. Ennek eredményeként a mesterséges intelligencia, mint az autonóm automatizálás egy formája, véletlenül katasztrofális következményekkel jár, akár emberi parancs, akár hiba vagy hiba, akár beültetett gonoszság, vagy olyan önbeállítások révén, amelyek lefelé vezetik a dolgokat. csúnya út stb.

Azt állítom, hogy a mesterséges intelligencia etikai problémája mindhárom AI által meghatározott állapot esetében fennáll, nevezetesen, hogy AI etikai problémáink vannak a nem érző, egyszerű MI-vel, és az érző MI-vel, amely vagy csupán emberi szintű, vagy a kinyújtott AI-val, amely eléri az AI-t. az elismert szuperintelligencia szint.

Tekintettel erre a kijózanító kijelentésre, biztosan vitatkozhatunk az etikai problémák nagyságáról és nehézségeiről az MI minden egyes szintjén. A szokásos álláspont az, hogy a mesterséges intelligencia etikai nehézségei kevésbé áthidalhatatlanok a nem érző mesterséges intelligencia esetében, keményebbek az érző ember-egyenlőség szintjén, és igazi fejvakaró az érző szuperintelligens mesterséges intelligencia szakaszában.

Minél jobb a mesterséges intelligencia, annál súlyosabbá válik az AI etikai problémája.

Talán ez a természet sérthetetlen törvénye.

Visszatérve a mai mesterséges intelligencia középpontjába, a mesterséges intelligencia etikus viselkedésének „tanulására” való törekvése a kortárs gépi tanulás és a mélytanulás révén tele van aggályokkal és trükkös problémákkal. Tegyük fel, hogy a mesterséges intelligencia nem tudja összegyűjteni a kívánt etikai előírásokat? Honnan tudhatjuk biztosan, hogy megbukott-e? Továbbá, a mesterséges intelligencia-rendszer más részei felülírhatják-e a kiszűrt etikai konstrukciókat? Tegyük hozzá, hogy ha a mesterséges intelligencia menet közben igazodik, a módosítások elvékonyíthatják az etikai szempontokat, vagy akaratlanul is túlterhelhetik azokat.

Tovább rontja a helyzetet, hogy a „tanulás” oda vezethet, hogy a mesterséges intelligencia valóban etikátlan viselkedésre száll. Míg azt gondoltuk, hogy helyesen járunk el azzal, hogy az AI-t az etikusság felé kényszerítjük, kiderült, hogy az AI inkább az etikátlan szempontok miatt csúszott a mintaillesztésbe. Beszéljünk a saját lábunk lövéséről, ez teljesen megtörténhet.

A vita ezen a pontján lefogadom, hogy szeretne néhány további valós példát, amelyek rávilágíthatnak arra, hogy az MI az etika „tanulása” miként alkalmazható a mai mesterséges intelligenciára (a termosztátos példa ízletes teaserén kívül).

Örülök, hogy megkérdezted.

Van egy különleges és biztosan népszerű példasor, amely közel áll a szívemhez. Látod, a mesterséges intelligencia szakértőjeként, beleértve az etikai és jogi következményeket is, gyakran kérnek fel olyan reális példák azonosítására, amelyek bemutatják a mesterséges intelligencia etikai dilemmáit, hogy könnyebben megragadható legyen a téma némileg elméleti jellege. Az egyik legemlékezetesebb terület, amely élénken mutatja be ezt az etikus AI-problémát, az AI-alapú, valódi önvezető autók megjelenése. Ez praktikus használati esetként vagy példaként szolgál a témával kapcsolatos bőséges vitához.

Íme, egy figyelemre méltó kérdés, amelyen érdemes elgondolkodni: A mesterséges intelligencia-alapú valódi önvezető autók megjelenése rávilágít-e bármire is arról, hogy az AI képes „megtanulni” az etikus mesterséges intelligencia előírásait, és ha igen, mit mutat ez be?

Engedjen meg egy pillanatra, hogy kibontsa a kérdést.

Először is vegye figyelembe, hogy egy igazi önvezető autóban nincs emberi vezető. Ne feledje, hogy az igazi önvezető autókat mesterséges intelligencia vezetési rendszer vezeti. Nincs szükség emberi sofőrre a volánnál, és arra sem, hogy ember vezesse a járművet. Az autonóm járművekről (AV-k) és különösen az önvezető autókról szóló kiterjedt és folyamatos tájékoztatásért lásd az itt található link.

Szeretném még jobban tisztázni, mit kell érteni, amikor valódi önvezető autókra utalok.

Az önvezető autók szintjének megértése

Tisztázásképpen: az igazi önvezető autók azok, amelyekben az AI teljes egészében egyedül hajtja az autót, és a vezetési feladat során nincs emberi segítség.

Ezek a vezető nélküli járművek 4-es és 5-ös szintnek minősülnek (lásd a magyarázatomat a következő helyen). ez a link itt), míg az olyan autókat, amelyekhez emberi vezető szükséges a vezetési erőfeszítések közös megosztására, általában 2. vagy 3. szinten tekintik. A vezetési feladatot közösen megosztó autók leírása félig autonóm, és általában különféle automatizált bővítmények, amelyeket ADAS-nak (Advanced Driver-Assistance Systems) neveznek.

Még nem létezik egy valódi önvezető autó az 5. szinten, amelyet még csak nem is tudunk, hogy ezt el lehet-e érni, és hogy mennyi ideig tart is eljutni oda.

Eközben a 4. szintű erőfeszítések fokozatosan próbálnak némi vonóerőt szerezni nagyon szűk és szelektív közúti próbák révén, bár vita folyik arról, hogy ezt a tesztelést önmagában engedélyezni kell-e (mindannyian életre-halálra menő tengerimalacok vagyunk egy kísérletben autópályáinkon és mellékutainkon zajlanak, egyesek azt állítják, lásd tudósításomat itt ez a link itt).

Mivel a félig autonóm autókhoz emberi sofőrre van szükség, az ilyen típusú autók elfogadása nem különbözik nyilvánvalóan a hagyományos járművek vezetésénél, tehát önmagában nincs sok új, hogy ezekkel a témákkal foglalkozzanak (bár, amint látni fogja) egy pillanat alatt a következő pontok általában alkalmazandók).

A félig autonóm autók esetében fontos, hogy a nyilvánosságot figyelmeztessék az utóbbi időben felmerülő zavaró tényezőkre, nevezetesen arra, hogy azoknak az emberi járművezetőknek ellenére, akik folyamatosan videókat tesznek közzé, hogy maguk alszanak a 2. vagy 3. szintű autó kormányához , mindannyian el kell kerülnünk, hogy félrevezetjük azt a hitet, hogy a sofőr félig autonóm autó vezetése közben elvonhatja figyelmét a vezetési feladatról.

Te vagy a felelős a jármű vezetési tevékenységeiért, függetlenül attól, hogy mekkora mennyiségű automatizálást lehet 2. vagy 3. szintre dobni.

Önvezető autók és etikus mesterséges intelligencia-oltás

A 4. és 5. szintű valódi önjáró járműveknél nem vezethet embervezető a vezetési feladatba.

Minden utas utas lesz.

Az AI vezet.

Azonnal megvitatandó szempont azzal a ténnyel jár, hogy a mai mesterséges intelligencia-vezetési rendszerekben részt vevő mesterséges intelligencia nem érző. Más szavakkal, az AI összességében számítógépes programozás és algoritmusok összessége, és bizonyosan nem képes ugyanúgy érvelni, mint az emberek.

Miért van ez a hangsúly arra, hogy az AI nem érzékeny?

Mivel szeretném aláhúzni, hogy az AI hajtórendszer szerepének tárgyalásakor nem tulajdonítok emberi tulajdonságokat az AI-nek. Felhívjuk figyelmét, hogy manapság folyamatos és veszélyes tendencia van az AI antropomorfizálására. Lényegében az emberek emberi szerű érzékenységet tulajdonítanak a mai mesterséges intelligenciának, annak ellenére, hogy tagadhatatlan és vitathatatlan tény, hogy ilyen AI még nem létezik.

Ezzel a pontosítással elképzelheti, hogy az AI vezetési rendszer valahogy nem fogja „tudni” a vezetés szempontjait. A vezetést és mindazt, amit ez magában foglal, be kell programozni az önvezető autó hardverének és szoftverének részeként.

Merüljünk el abban a számtalan szempontban, amelyek eljátszanak ebben a témában.

Először is fontos felismerni, hogy nem minden AI önvezető autó egyforma. Minden autógyártó és önvezető technológiai cég alkalmazza a hozzáállását az önvezető autók kidolgozásához. Emiatt nehéz átfogó kijelentéseket tenni arról, hogy az AI-meghajtórendszerek mit fognak tenni vagy nem.

Továbbá, ha azt állítják, hogy az AI meghajtó rendszer nem végez bizonyos dolgokat, ezt később a fejlesztők megelőzhetik, akik valójában erre programozzák a számítógépet. Lépésről lépésre az AI meghajtó rendszereket fokozatosan fejlesztik és bővítik. A meglévő korlátozás ma már nem létezik a rendszer későbbi iterációjában vagy verziójában.

Bízom benne, hogy ez elegendő litániai figyelmeztetést ad ahhoz, hogy alátámasszam azt, amit most el fogok mondani.

Most készen állunk arra, hogy mélyrehatóan foglalkozzunk az önvezető autókkal és az etikus mesterséges intelligencia lehetőségeivel, azzal a szemöldökkeltő állítással, hogy képesek vagyunk rávenni a mesterséges intelligenciát arra, hogy önmagában „tanuljon” az etikus viselkedésről.

Használjunk egy könnyen érthető példát. Egy mesterséges intelligencia-alapú önvezető autó halad a környék utcáin, és úgy tűnik, hogy biztonságosan vezet. Eleinte különös figyelmet szentelt minden egyes alkalommal, amikor sikerült megpillantania az önvezető autót. Az autonóm jármű az elektronikus szenzorokból álló állványával tűnt ki, amely videokamerákat, radaregységeket, LIDAR eszközöket és hasonlókat tartalmazott. Sok hét után az önvezető autóval körbejárta a közösséget, most alig veszi észre. Ami Önt illeti, ez csak egy újabb autó az amúgy is forgalmas közutakon.

Nehogy azt higgye, lehetetlen vagy valószínűtlen megismerni az önvezető autók látását, gyakran írtam arról, hogy az önvezető autók kipróbálásának körébe tartozó helyszínek fokozatosan hozzászoktak a felpörkölt járművekhez, lásd az elemzésemet itt ez a link itt. A helyiek közül sokan végül áttértek a szájtátva tátott, elragadtatott bámészkodásról az unalom kiterjedt ásítására, hogy szemtanúi legyenek a kanyargó önvezető autóknak.

Valószínűleg a fő ok, amiért most észreveszik az autonóm járműveket, az az irritáció és az elkeserítő tényező. A könyv szerinti mesterséges intelligencia-vezetési rendszerek gondoskodnak arról, hogy az autók betartsák az összes sebességkorlátozást és a KRESZ szabályait. Hagyományos, ember által hajtott autóikkal hektikus embervezetők időnként felháborodnak, amikor a szigorúan törvénytisztelő AI-alapú önvezető autók mögött ragadnak.

Ez az, amit mindannyiunknak meg kell szoknunk, jogosan vagy helytelenül.

Vissza a mesénkhez. Egy napon tegyük fel, hogy egy önvezető autó a városban halad, és olyan helyzetbe kerül, amikor egy gyalogos arra vár, hogy átkeljen az úton. Tételezzük fel, hogy a gyalogos önmagában nem rendelkezik elsőbbséggel. Egy ember által vezetett autó elhaladhat a gyalogos mellett, és ez teljesen legális. Hasonlóképpen, a mesterséges intelligencia vezetési rendszere törvényesen képes elhaladni a várakozó gyalogos mellett.

Annak eldöntése, hogy megáll-e, és átengedi-e a gyalogost az utca túloldalán, a vezető saját belátása szerint dönthet, függetlenül attól, hogy emberi vezetőről vagy mesterséges intelligenciáról van szó.

Biztos vagyok benne, hogy számtalanszor találkozott már ilyen helyzettel. Lehet, hogy siet, ezért ne álljon meg, hogy átengedje a gyalogost. Egy másik alkalommal bőven van ideje eljutni az úticélhoz, ezért úgy dönt, hogy megáll, és hagyja, hogy a várakozó átsétáljon az utcán. A hangulatod és az adott körülmények határozzák meg, hogy mit választasz.

Ebben a forgatókönyvben semmi sem tűnik szokatlannak vagy bosszantónak.

Mielőtt megvizsgálnám a dolgok mesterséges intelligenciájának oldalát, érdemes tudni, hogy a gyalogosok utcán való átkelését lehetővé tévő diszkréciónak ezt a sajátos szempontját alaposan tanulmányozták. A kutatók megállapították, hogy időnként a járművezető választása nyilvánvalóan faji vagy nemi előítéleteken múlhat. Egy emberi sofőr megmérettetheti a várakozó gyalogost, és úgy dönthet, hogy engedélyezi a személynek az átkelést, mivel ez látszólag a vezető belső elfogultságai alapján történik. Az, hogy a sofőr egyáltalán észreveszi-e, hogy ezt teszi, folyamatban lévő kutatás kérdése. Lásd tudósításomat itt: ez a link itt.

Elkészítettem a terepet annak felderítésére, hogy egy mesterséges intelligencia vezetési rendszere mit tehet a gyalogátkelőhelyeken.

A mesterséges intelligencia hagyományos programozása azt eredményezheti, hogy a mesterséges intelligencia fejlesztői úgy döntenek, hogy az AI vezetési rendszert mindig leállítják, és átengedik a gyalogost. Ez etikailag helyes vagy civil dolognak tűnik. Az önvezető autó a várakozó emberhez fordul, aki át akar kelni az utcán.

Bátran merem állítani, ha utasként ül az önvezető autóban, és a mesterséges intelligencia mindig megállt minden szabadon várakozó gyalogos előtt, akkor megőrülhet. Előfordulhat, hogy az élelmiszerboltba vezető gyors utazása sokszor tovább tart. Ne feledje azt is, hogy nem azokra a gyalogosokra gondolunk, akiknek áhítatos törvényes elsőbbségi joguk van az átkelésre, mivel ezekben az esetekben feltehetően már be van programozva a mesterséges intelligencia, hogy mindig engedélyezze. Csak a diszkrecionális körülményekre koncentrálunk.

Több árnyoldala is van ennek a nyilatkozatnak, miszerint mindig meg kell állni, hogy átengedje a szabad gyalogosokat az utcán.

Az AI-alapú önvezető autókat gyártók azt akarják, hogy az emberek üljenek bennük. Az ötlet az, hogy önvezető autókkal csökkenthetjük az éves autóbalesetek számát, amelyek jelenleg évente körülbelül 40,000 2.5 halálos áldozatot és XNUMX millió sérülést okoznak csak az Egyesült Államokban. ez a link itt. E tiszteletreméltó társadalmi cél mellett az autógyártók és az önvezető technológiai gyártók azt remélik, hogy mesterséges intelligencia alkotásaikból pénzt is kereshetnek, természetesen.

Ezt azért hozom fel, mert az emberek úgy dönthetnek, hogy nem ülnek önvezető autókban, ha az AI vezetési rendszer olyan dolgokat tesz, szükségtelenül végül elhalasztják az utazásokat. Bármely hétköznapi ember azt gondolná, hogy ha emberi sofőrt választana, az utazás gyorsabb lehet, és ha egy mesterséges intelligencia önvezető autót választ egy utazáshoz, az nagyon alacsonyra kerülhet a választási listán. Ez viszont azt jelentené, hogy az autóbalesetek számát nem csökkentjük a kívánt módon, és azt is, hogy a gyártók esetleg veszteségesnek találnák termékeiket.

Az érvek ezen halmaza ismeretében arra gondolhat, hogy a mesterséges intelligencia soha nem állhat le, amikor egy gyalogos át akar kelni az utcán. Csak programozza be a mesterséges intelligencia vezetési rendszerét, hogy bármit tegyen, ami szigorúan törvényes. Ha nincs törvényi előírás a gyalogos átengedésére, akkor kemény szerencse a várakozó gyalogosnak. Talán a személynek egy olyan átkelőhelyhez kellene eljutnia, amely jogalapot ad arra, hogy a mesterséges intelligencia megállítsa az önvezető autót.

El tudod képzelni ezt a felháborodást?

A városodban élők fokozatosan rájönnek, hogy az AI önvezető autók soha nem engedik át a gyalogosokat. Az az átkozott ingerült mesterséges intelligencia! Mintha a mesterséges intelligencia az emberek felé ütné az orrát. Rossz modorú kölykök a semmirekellő automatizálásból. Mindezek tetejébe képzeljük el, hogy vannak dokumentált körülmények, amikor a gyalogosoknak égetően át kell menniük, és az AI egyáltalán nem áll meg.

Eközben az emberi sofőrök készségesen megálltak, hogy a „kétségbeesett” emberek biztonságosan átjussanak az utcára.

A felháborodás eredményeként a mesterséges intelligencia önvezető autóit a továbbiakban nem látják szívesen az Ön helyének utcáin és mellékútjain. A város vezetői által kiadott engedélyeket visszavonják. A hálátlan vadállatok eltüntetése az utakról az énekhang.

Rendben, úgy tűnik, a szikla és a kemény hely között vagyunk. Az AI-nak nem szabad mindig átengednie a szabadon választott gyalogost (ne mindig álljon meg). A mesterséges intelligencia nem mindig akadályozhatja meg a szabadon választott gyalogos átkelőhelyét (ne mindig közelítsen rá). Mit kell tenni?

A kézenfekvő válasz az lenne, ha beprogramozzuk az AI-t, hogy diszkrecionális módon működjön.

Arra kérem Önt, hogy fontolja meg az ADM-et (algoritmikus döntéshozatal), amelyből ennek állnia kell. Megpróbálja-e a mesterséges intelligencia felismerni a gyalogos természetét, és a felismert jellemzőket alapul venni annak eldöntéséhez, hogy megállítsa-e az önvezető autót vagy sem? Lehet, hogy valaki idősebbnek néz ki a választás módja. De vajon kialakulóban van-e az életkor szerinti diszkrimináció? Stb.

Lehetséges, hogy az AI vezetési rendszer úgy van programozva, hogy a nappali órákban megálljon, és soha ne álljon meg éjszaka. A logika valószínűleg az, hogy az önvezető autóban közlekedők számára biztonságosabb, ha az autonóm jármű nappal leáll, de nem az esti szerencsétlenebb órákban.

Ez talán értelmesen hangzik. A probléma részben a gyalogosok elvárásai lesznek. Íme, mire gondolok. A gyalogosok azt látják, hogy az AI önvezető autók tetszőleges átkelőhely miatt állnak meg, ami nappal történik. A gyalogosok nem tudják, hogy a mesterséges intelligencia milyen kritériumok alapján dönt a megállásra. Egyes gyalogosok azt feltételezik, hogy a mesterséges intelligencia mindig leáll (nem veszik észre, hogy a nappali és az éjszakai fény az igazi meghatározó). Ennek eredményeként azok a gyalogosok, akik azt hiszik, hogy az önvezető autó mindig meg fog állni, kockáztatnak és elkezdenek átkelni, amikor a mesterséges intelligencia vezetési rendszerének egyáltalán nincs célja, hogy megálljon (ami az AI valószínűleg megállna, ha a gyalogos behajt az utcára, bár ez nehézkes lehet, és a fizika kizárhatja, hogy a mesterséges intelligencia megállítsa az önvezető autót, hogy ne üsse el a látszólag „tévedő” gyalogost).

Tételezzük fel, hogy a mesterséges intelligencia fejlesztői és az önvezető autókat a városodban összeállító és forgalomba hozó cégek nem biztosak abban, hogyan lehetne felgyorsítani az AI-t ebben a kérdésben.

Úgy döntenek, hogy az egész területről gyűjtött adatok alapján „megtanítják” az MI-t. Kiderült, hogy rengeteg városra szerelt kamera van, amely rögzítette az autók jövés-menését a településen. Ezek az adatok számos olyan esetet mutatnak be, amikor a gyalogosok saját belátásuk szerint akarnak átkelni az utcán. Az összes adatot egy Machine Learning és Deep Learning rendszerbe táplálják be, hogy levonják az adott jogrendszerben szokásosnak tekintett adatokat.

Képezzük-e az MI-t arra, amit a helyi etikai szokások bemutatnak?

Más szóval, ha egy adott városban inkább megállni és átengedni a szabad gyalogosokat, amint azt az emberi járművezetők cselekedetei igazolják, akkor az ML/DL számításilag valószínűleg ezt a mintát alkalmazná. Az MI-t ezután hasonlóra képeznék ki. A másik véglet, ha az emberi vezetők ritkán állnak meg, az AI potenciálisan levonná ezt a „leckét” az adatok számítási elemzéséből. A mesterséges intelligencia úgy fog működni, mint az emberek.

Az állítás az, hogy az emberek etikus viselkedését rögzítik az adatok, és hogy az MI ugyanazokat az etikai előírásokat fogja átitatni számítási elemzéssel. Egy etikus ezt általában az etika közösségi megközelítéseként írja le. A közösség közös értékei tükröződnek a közösség egészének erőfeszítéseiben.

Ez józan megoldásnak tűnhet.

Sajnos sok buktató van.

Az egyik talán nyilvánvaló probléma az, hogy az emberi sofőrök esetleg már gyakorolnak valamilyen elfogultságot a megállás vagy meg nem állás választása során (amint azt korábban említettük). Az AI ezután ezeknek az elfogultságoknak a másolója lesz. Azt akarjuk, hogy ez így legyen?

Gondolj egy másik problémára. Tegyük fel, hogy az emberi sofőrök nem fogadják el könnyen az AI önvezető autók működését. Csak azért, mert az emberi sofőrök tegyük fel, hogy hajlandóak voltak megállni, ez nem feltétlenül feltételezhető az önvezető autókról. Lehetséges, hogy az emberi sofőröket idegesítik a mesterséges intelligencia önvezető autói, amelyek folyamatosan megállnak a diszkrecionális gyalogosok előtt, bár ugyanez megtörténik az emberi vezetők kezével, de úgy tűnik, ez nem zavarja az emberi vezetőket.

Amellett, hogy zavaró, megidézheti annak lehetőségét is, hogy az emberi vezetők véletlenül hátrahajtanak egy önvezető autót. Ha egy embervezető nem számított arra, hogy az önvezető autó megáll a gyalogos előtt, és ha az ember által vezetett autó közvetlenül az önvezető autó mögött van, akkor súlyos eltérések adódhatnak az elvárások között. Az AI vezetési rendszer leállítja az önvezető autót. Az emberi sofőr nem számított erre a lépésre. Az emberi sofőr nekicsapódik az önvezető autónak. Sérülések, esetleg halálesetek következnek.

Szándékosan felhívtam a figyelmet az emberi károk lehetőségére.

Az utcán átkelő gyalogos első pillantásra triviális kérdésnek tűnhet. Úgy tűnik, hogy senki sem sérülhet meg attól, hogy a mesterséges intelligencia melyik módszert választja, hogy megállja-e vagy sem. Rossz! Fennáll az esély, hogy elgázolják a gyalogost. Fennáll az esély, hogy egy ember által vezetett autó beleütközik az önvezető autóba. Az ember által vezetett autó vezetője és utasai megsérülhetnek. Az önvezető autóban lévő versenyzők megsérülhetnek. A lehetséges emberi károsodás további permutációi könnyen elképzelhetők.

Következtetés

Ha már az emberi károkról beszélünk, adok még valamit, hogy felkavarja az elméjét ezen az etikus mesterséges intelligencia rejtvényen.

Egy hír beszámolt arról, hogy egy férfi autóval behajtott egy kereszteződésbe, és erre zöld lámpát kapott. Egy másik ember által vezetett autó a kereszteződés piros lámpája mellett döntött, és illegálisan és nem biztonságosan akadálytalanul bement a kereszteződésbe, azzal fenyegetve, hogy leüti a jogszerűen haladó autót.

A sofőr azt mondta az újságíróknak, hogy választania kell, hogy elkapja az ütközést, vagy elfordítja az autót, hogy elkerülje az ütközést, de gyalogosok voltak a közelben, és a kanyarodás veszélyeztetheti őket. Mit csinálnál? Dönthet úgy, hogy elüti ez a fenyegető autó, és élve elmondhatja a történetet. Vagy megpróbálhatja elkerülni, hogy eltalálják, de közben esetleg elgázolják az ártatlan gyalogosokat.

Napi vezetésünk nagy része ilyen, etikailag óriási és azonnali döntéseket hoz. Hosszasan tárgyaltam ezt, valamint az élet-halál vezetési döntéseket a híres vagy egyesek szerint hírhedt troliproblémával kapcsolatban, lásd a kifejtésemet itt: az itt található link.

Cserélje le az emberi vezetőt ebben a forgatókönyvben egy mesterséges intelligencia vezetői rendszerre.

Mit akarsz, hogy az AI csináljon?

Ez egy zavarba ejtő kérdés.

Az egyik megközelítés az, hogy az AI-t úgy programozzák, hogy határozottan pusztán egyenesen haladó vezetési műveleteket hajtson végre, így számításilag nem is veszik figyelembe az egyéb lehetőségeket, például a valószínű ütközéstől való elkanyarodást. Arra számítok, hogy az önvezető autókban utazók fel lesznek háborodva, amikor rájönnek, hogy az AI-t nem arra tervezték, hogy mást tegyen, mint a találatot. Perekre és felhajtásra lehet számítani.

Egy másik megközelítés az lenne, ha megpróbálnánk úgy programozni az MI-t, hogy figyelembe vegye a különféle lehetőségeket. Ki hozhatja létre az ADM-et, amely eldönti, hogy az AI vezetési rendszer melyik irányba haladjon? Úgy tűnik, hogy a mesterséges intelligencia fejlesztőinek megengedése, hogy önállóan hozzanak ilyen súlyos döntéseket, rengeteg aggodalommal jár.

Megpróbálhatja hagyni, hogy a mesterséges intelligencia „tanuljon” a napi közlekedési helyzetek által gyűjtött emberi vezetési adatokból. Ez hasonló a gyalogátkelőhelyek dilemmájához és a korábban javasolt ötlethez, hogy az összegyűjtött adatok felhasználásával a mesterséges intelligencia összeszedje a helyi etikai szokásokat. Számos figyelmeztetés van ezzel kapcsolatban, például, hogy a felfedezett ML/DL minták megfelelőek-e vagy sem, stb.

Arra is figyelmeztettem, hogy a mesterséges intelligencia valószínűleg etikátlan viselkedést fog kiszűrni, az érintett etikai szokásoktól függően. Tegyük fel például, hogy az AI valahogy egy számítási mintára landolt, hogy mindig a gyalogosokat célozza meg, amikor egy másik autó azzal fenyeget, hogy elüti az önvezető autót.

Hú, vigyázzatok a gyalogosokra, kész célpontok lesztek.

Ideje most lezárni a vitát, és ezt egy lelkesítő utolsó gondolattal megtenni.

Talán tisztában van vele, hogy Isaac Asimov 1950-ben javasolta „A robotika három törvényét”, és a mai napig rajongunk ezekért a kihirdetett szabályokért. Noha a szabályok könnyen betarthatónak tűnnek, például az, hogy egy mesterséges intelligencia-rendszer vagy robot nem árthat az embernek, és nem engedheti meg, hogy az ember kárt tegyen, sok olyan döntő árnyalat van, amely ezt bonyolulttá és időnként tarthatatlanná teszi, lásd az elemzésemet. nál nél az itt található link.

Mindenesetre itt van még valami, amiről Asimov is ismert, bár kevésbé: „Soha ne hagyd, hogy az erkölcsi érzéked akadályozza a helyes cselekvést.”

Az etikus mesterséges intelligencia esetében, amelyet mindannyian remélünk megalkotni, szem előtt kell tartanunk, hogy a mesterséges intelligencia etikája nem biztos, hogy olyan lesz, mint amire számítottunk, és hogy a mesterséges intelligencia valamilyen módon mégis meg kell tennie azt, ami helyes. Asimov jól mondta. Arisztotelész jóval korábban úgy tűnt, hogy meglehetősen hasonló érzelmeken gondolkodott.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- az önvezető-autonóm autók esete/