A mesterséges intelligencia etikai és autonóm rendszerekre vonatkozó tanulságai abból a legutóbbi Alaska Airlines járatból származnak, ahol a pilóta és a másodpilóta nem értett egyet a felszállás előtt, és hirtelen úgy döntött, hogy taxizik vissza a terminálra, és külön utakat járt

A légitársaságok mostanában elég sokat szerepeltek a hírekben.

A nyári repülési válságban vagyunk. A fáradt és csalódott utasok mindenféle repülési fennakadással és a légitársaságok menetrendi torzulásával találják szembe magukat. A járatok váratlanul törlődnek. A járatok késnek. Az utasok füstje. Sajnos sok olyan eset volt, amikor az utasok hagyták kitörni ezeket a bosszankodásokat, és sajnálatos módon túl sok vírusvideót láttunk fej-fej ellentétekről és néha ökölcsapásokról.

Ritkábban értesülünk a pilóta és a másodpilóta közötti vitákról, amelyek a pilótafülkében merülhetnek fel.

Ez elég meglepetés.

Valójában természetesen megdöbbenünk, ha arra gondolunk, hogy a pilóta és a másodpilóta komoly nézeteltérést tapasztalhat a repülés bármely szakaszában. Ha a nézeteltérés abban áll, hogy melyik kávémárka a legjobb, akkor feltételezésünk szerint ez nem hatna bele a repülőgép repülésével járó munkabe. Ők ketten egyszerűen vállat vonnak, hogy nem ismerik egymást egy repülés szempontjából irrelevánsnak tűnő témában. Professzionális viselkedésük és hosszú távú pilótaképzésük beindulna, és a hangsúlyt a repülési részletekre irányítanák.

Gondoljunk azonban arra, amikor a szakmai nézeteltérés közbelép.

Röviden megosztok Önnel egy széles körben közzétett hírt egy nemrégiben történt esetről, ami egy USA-beli repülés során történt, és a pilótafülkében állítólagos szakmai nézeteltérés volt.

Ezt elsősorban azért idézzük itt, hogy feltárhassunk egy kapcsolódó témát, amely nagy jelentőséggel bír a mesterséges intelligencia (AI) megjelenése szempontjából. Tudod, nem csak az emberek közötti szakmai nézeteltérésnek lehet egy formája az ember-ember közötti nézeteltérésben, hanem valami hasonló előfordulhat a mesterséges intelligencia elfogadása közepette is, és ebből következően az ember és az MI közötti szakmai nézeteltérések. . Mindenféle AI-etikai megfontolás felmerül. A mesterséges intelligencia etikájával és a mesterséges intelligencia etikai kérdéseivel kapcsolatos kiterjedt és folyamatos tudósításomat lásd az itt található link és a az itt található link, csak hogy csak néhányat említsünk.

Készüljön fel egy lenyűgöző mesére.

Amint arról nemrég a hírekben beszámoltunk, egy „szakmai nézeteltérés” esete nyilvánvalóan az Alaska Airline Washingtonból San Franciscóba tartó járata során keletkezett. A hírek szerint a járat eltávolodott a kaputól, és az aszfalton várta a taxizási és felszállási engedélyt. Vihar volt, ami több mint másfél órás késéshez vezetett. Kiderült, hogy a gép végül megfordult, és visszaindult a kapuhoz, amiről az utasok egy része általában azt gondolhatta, hogy egyszerűen viharral kapcsolatos biztonsági óvintézkedés volt.

Különböző tweetek alapján úgy tűnik, hogy a pilóta és a másodpilóta valamiféle kilátáson kívüli viszálykodásba keveredett a pilótafülkében töltött idő alatt, és valahogy arra a következtetésre jutottak, hogy a legmegfontoltabb megközelítés az lenne, ha a járatot átmossák és visszatérnek a terminálba. . A tweetek azt sugallták, hogy a kapitány és az első tiszt láthatóan nem tud kijönni egymással. A légitársaság később közleményt adott ki, hogy a helyzet sajnálatos (a helyzetet önmagában nem részletezték vagy magyarázták), a két repülőtisztet a vezetőség értékelte és alkalmasnak találta a repülésre, személyzetet cseréltek, és a repülés végül megtörtént. és később elérte San Franciscót.

Bizonyos értelemben, ha a pilóta és a másodpilóta között szakmai nézeteltérés alakult ki, például abban, hogy a gép megfelelően készen áll-e a repülésre, vagy a viharon való átrepülés kockázata megfelelő biztonsági tartományon belül van-e, ezeket az utasokat meg kell könnyíteni, és hálás, hogy a gép visszakerült a kapuhoz. Jobb biztonságban lenni, mint sajnálni. A további késések megéri a feltételezett kockázatok csökkentését egy durva vagy kedvezőtlen repülőúttal.

Néhányan meglepődhetnek azon, hogy ilyen szakmai nézeteltérés alakulhat ki.

Talán hamis benyomásunk van, hogy minden, ami a pilótafülkében történik, teljesen precíz és jól megírt. Az emberi mérlegelés minden formáját látszólag kicsavarták a folyamatból. Igényes és alaposan kiszámított térképek alapján a repülést vagy szabad folytatni, vagy nem. Nem lehet nézeteltérés, ha úgy gondolják, hogy az egész készlet és a kabát a tények és számok cáfolhatatlan számításán alapul.

Ez nem a dolog teljes igazsága. Persze van egy csomó protokoll és mindenféle fékek és ellensúlyok, de ez nem szorítja ki az emberi ítélőképesség csekély részét. A pilóták és másodpilóták még mindig gyakorolják az emberi ítélőképességet. Szerencsére ezt az emberi ítéletet az évek repülése csiszolja. Valószínű, hogy egy kereskedelmi utasszállító repülőgép pilótája és másodpilótája rendelkezik korábbi repülési tapasztalattal, és készségesen kihasználja sokéves mélyreható érvelését és ítélőképességét a repülésirányítóknál.

Tekintettel az emberi ítélőképesség jelentős szerepére, logikusan sejthetjük, hogy a pilóta és a másodpilóta időnként szakmai nézeteltérésbe kerül. A legtöbbször feltehetően nagyon kevés ilyen nézeteltérés van. A pilóta és a másodpilóta a mindennapi repülésekhez valószínűleg jól illeszkedik az idő túlsúlyához. Csak akkor számíthatunk feszültebb súrlódásra, ha egy repülési forgatókönyv túllép a hagyományos határokon.

Ha erős nézeteltérés van a kettő között, akkor azt merem állítani, hogy azt szeretnénk, ha ezt kivonnák.

Képzeljünk el egy olyan helyzetet, amikor a pilóta erősen tovább akar lépni, de a másodpilóta túl nagy kockázatot észlel. Pusztán a másodpilóta kapcsolata a pilótával nem tűnik kívánatosnak. A másodpilóta egy ellenőrző és ellenőrző eszköz ahhoz, amit a pilóta gondolhat. Azok számára, akik azt akarják, hogy egy másodpilóta bezárja a száját, és pusztán ész nélkül cselekedjen a pilóta utasításai szerint, nos, ez nem túl nagy megnyugvás. A másodpilóta nem egyszerűen egy tartalék „pilóta”, amely csak akkor lép be a képbe, ha a pilóta teljesen cselekvőképtelen. Ez félreérthető a pilóta és a másodpilóta értékét a pilótafülkében.

Van ennek a másik oldala is.

Vegyük fontolóra egy pilóta esetét, aki nem hiszi el, hogy a repülésnek folytatódnia kell, és közben a másodpilóta azon kapkod, hogy felkeljen a levegőbe. Akkor mit? A várt hierarchia szerint a pilóta hagyományosan felülmúlja a másodpilótát. Az elsődleges felelős szerepe a pilótát a nagyobbikká teszi, mint ami egyébként valamelyest egyenlő. Normális esetben a pilóta általános repülési idővel rendelkezik, mint a másodpilóta, és a másodpilóta hierarchikusan a pilóta kívánságainak kell megfelelnie (ha az ésszerű határokon belül van).

Mindenesetre azt hiszem, mindannyian egyetértünk abban, hogy a repülés mellőzése biztosan kevésbé kockázatos, mint a repülés mellett. Amint a gép felkerült a levegőbe, a kockázati szintek óriásiak ahhoz képest, mintha egy átlagos stabil talajon lennénk. Egy szokásos kereskedelmi járat, amely egyszerűen visszagurul a terminálhoz anélkül, hogy felszállna a levegőbe, meglehetősen barátságos megoldás lenne a repülés megkezdésével kapcsolatos heves vitákra.

Váltsunk sebességet, és használjuk ezt a pörgős hírt egy teljesen más, de összehasonlítható célra.

Fokozatosan elterjednek közöttünk az AI-alapú autonóm rendszerek. Néha a mesterséges intelligencia irányítja a műsort. A mesterséges intelligencia A-tól Z-ig mindent megtesz, és ezt úgy is értelmezhetjük, hogy ez teljesen autonóm vagy majdnem az AI. Más esetekben előfordulhat olyan mesterséges intelligencia, amely kölcsönhatásba lép a hurokban lévő emberrel, és bizonyos mértékig úgy van programozva, hogy támaszkodjon rá.

Szeretnék egy mesterséges intelligencia-alapú autonóm vagy félautonóm rendszerre koncentrálni, amelynek kezdettől fogva ember van a hurokban. A mesterséges intelligencia és az ember szándékosan össze vannak nyomva, és állítólag párhuzamosan működnek egymással. Ők csoportok egy adott feladat elvégzésében. A mesterséges intelligencia önmagában nem jár el a feladattal. Az AI-nak kölcsönhatásba kell lépnie a kijelölt emberrel a hurokban.

Ezt a jellemzést azért hoztam fel, hogy megkülönböztessem azoktól a helyzetektől, amelyekben a hurokban lévő embert opcionális szempontnak tekintik. Lényegében az AI szabad kezet kap. Ha a mesterséges intelligencia úgy dönt, hogy az embert használja, akkor tegye meg. Nincs követelmény, hogy a mesterséges intelligencia megérintse a bázist a kijelölt emberrel, vagy kéz a kézben dolgozzon vele. Az elemzések, amelyekről most beszélni fogok, minden bizonnyal erre vonatkoznak választható interakciós elrendezés, de ebben a beszélgetésben nem kifejezetten erre vezetek.

Oké, van valamiféle feladatunk, amelyen egy ember és egy mesterséges intelligencia együtt fog dolgozni, egymástól elválaszthatatlanul. Absztrakt értelemben az egyik ülésen ember ül, a másikon pedig egy mesterséges intelligencia rendszer ül. Ezt pofátlanul mondom, mert nem korlátozzuk ezt a vitát például egy robotra, amelyik valójában egy széken ül. Metaforikusan utalok arra az elképzelésre, hogy a mesterséges intelligencia valahol részt vesz a feladatban, és az ember is. Fizikailag a hollétük nem különösebben létfontosságú a megbeszélés szempontjából.

Lehet, hogy nem biztos abban, hogy mikor merülhet fel ilyen körülmény.

Easy-peasy.

A későbbiekben az önvezető járművek és az önvezető autók megjelenéséről fogok beszélni. Az autonómia bizonyos szintjein a mesterséges intelligenciának és az embernek együtt kell működnie. Lehet, hogy a mesterséges intelligencia vezeti az autót, és kérheti, hogy az ember vegye át a vezetési vezérlést. Lehet, hogy az ember vezeti az autót, és aktiválja az AI-t, hogy átvegye az irányítást. Felváltva állnak a vezetési vezérlőknél.

Ezen túlmenően egyes terveknél a mesterséges intelligencia alapvetően mindig aktív (vagy hacsak nincs kikapcsolva), így az AI mindig készenlétben van. Ezenkívül a mesterséges intelligencia közvetlenül beavatkozhat, akár az ember kérése nélkül is, a kialakuló helyzettől függően. Tegyük fel például, hogy az ember úgy tűnik, elaludt a volánnál. Mivel az ember látszólag nem tudja aktiválni az MI-t (mert az ember alszik), az AI programozható úgy, hogy átvegye az irányítást az embertől.

Egyes tervek az AI-t és az embereket kettős vezetési megközelítésbe hozzák. Az AI vezet, az ember pedig vezet. Vagy, ha úgy tetszik, az ember vezet, és a mesterséges intelligencia is vezet. Mindegyikük vezeti a járművet. Ezt azokhoz a speciálisan szerelt autókhoz hasonlítom, amelyeket esetleg használt a sofőrképzés során, és két szett vezetési vezérlő volt a járműben, egy a tanuló sofőrnek és egy a vezetési oktatónak.

Ez csak egy példa egy olyan környezetre, amelyben a mesterséges intelligencia és az emberek közösen dolgozhatnak egy feladaton. Mindenféle lehetőség létezik. Más típusú autonóm járművek is hasonlóképpen kidolgozhatók, például repülőgépek, drónok, merülők, felszíni hajók, vonatok és így tovább. Nem csak a jármű- és közlekedési beállításokat kell figyelembe vennünk. Képzelje el az orvosi területet és a műtéteket, amelyeket egy orvos és egy mesterséges intelligencia rendszer közösen végez. A lista végtelen.

Szinte úgy érzem, hogy a klasszikusan felháborító viccre utalok egy emberről és egy mesterséges intelligenciáról, akik együtt sétálnak be egy bárba. Ez nagyon nevetséges azoknak, akik szeretik az AI-t.

Komolyan, térjünk vissza egy ember és egy AI-rendszer fókuszába, amely együtt dolgozik egy adott feladaton. Először is szeretném elkerülni az AI antropomorfizálását, amit mindvégig hangsúlyozni fogok. Az AI nem érző. Kérjük, tartsa ezt szem előtt.

Itt van amin érdemes elgondolkodni: A kijelölt ember a hurokban mindig teljes egyetértésben lesz a közösen létrehozott mesterséges intelligencia segítségével?

Bármilyen összetett feladat esetén valószínűtlennek tűnik, hogy az ember és a mesterséges intelligencia teljesen és mindig teljesen egymásra talál. Az ember bizonyos esetekben valószínűleg nem ért egyet az MI-vel. Ezt a feltételezést egészen a bankig vihetjük.

Szeretném, ha ezt a talán meglepő lehetőséget is mérlegelné: A mesterséges intelligencia mindig teljes egyetértésben lesz egy kijelölt emberrel a hurokban?

Ismételten, bármilyen összetett feladat esetén teljesen elképzelhetőnek tűnik, hogy a mesterséges intelligencia bizonyos esetekben nem lesz összhangban az emberekkel. Ha már arra az elképzelésre hajlik, hogy a mesterséges intelligencia mindig téved, míg az embereknek mindig igaza van, akkor bölcs dolog lenne újragondolni ezt az elhamarkodott következtetést. Képzeljen el egy olyan autót, amelyben ember és mesterséges intelligencia együttesen vezeti a félig autonóm járművet. Az ember egy téglafal felé kormányoz. Miért? Nem tudjuk, lehet, hogy az ember részeg, vagy elaludt, de azt tudjuk, hogy a téglafalnak ütközni nem jó ötlet, ha minden más egyenlő. Az AI észlelheti a közelgő katasztrófát, és megpróbálhat elterelni a közelgő akadálytól.

Mindent egybevetve fennáll annak a lehetősége, hogy az MI és az ember nem ért egyet egymással. A másik módja annak, hogy ugyanezt elmondhassuk, hogy az emberek és a mesterséges intelligencia nem értenek egyet egymással. Megjegyzendő, hogy nem szeretném, ha a mesterséges intelligencia és az ember versus ember és AI szekvenciája bármit is sugallna a nézeteltérés irányára vagy valószínűségére vonatkozóan.

A két munkás, egy ember és egy mesterséges intelligencia, nem ért egyet egymással.

Előzetesen kijelenthetnénk, hogy valahányszor nézeteltérés történik egy adott MI és egy adott ember között, akkor előre kijelenthetjük, hogy az ember az MI felett. Ennek ellenére a szemléltető példám a téglafalba tartó autóról eltántorít bennünket attól, hogy az embernek mindig szükségszerűen igaza lesz.

Ezzel szemben dönthetnénk úgy, hogy előzetesen kijelenthetjük, hogy ha nézeteltérés merül fel, akkor előzetesen meg kell állapítanunk, hogy a mesterséges intelligencia igaza van, az ember pedig téved. Ez sem egy értelmesen általánosítható rendelkezés. Képzeljünk el egy autót, amelyben a mesterséges intelligencia valamilyen beágyazott szoftverhibával rendelkezik, és az AI megpróbálja leterelni a járművet az útról és az árokba. Feltéve, hogy minden más egyenlő, az embernek képesnek kell lennie arra, hogy legyőzze ezt a mesterséges intelligencia vezetési tevékenységét, és megakadályozza a jármű leszállását a vízmosóban.

Tegyünk erről egy gyors összefoglalót:

  • Egy ember a hurokban mindig teljes egyetértésben lesz az MI-vel? Válasz: Nem.
  • A mesterséges intelligencia mindig teljes egyetértésben lesz a hurokban lévő emberrel? Válasz: Nem.
  • A hurokban lévő embernek mindig igaza lesz az MI-hez képest? Válasz: Nem feltétlenül.
  • A mesterséges intelligencia mindig igaza lesz a hurokban lévő emberhez képest? Válasz: Nem feltétlenül.

Minden bizonnyal beállíthatja, hogy az AI alapértelmezés szerint a „rossz” vagy gyengébb fél legyen, és ezért mindig az emberre bízza, ha nézeteltérés merül fel. Hasonlóképpen beállíthatja az MI-t úgy, hogy feltételezze, hogy a mesterséges intelligencia „helyesnek” minősül, amikor egy ember nem ért egyet az MI-vel. Szeretném tisztázni, hogy ezt programozottan is megtehetjük, ha akarjuk. Én azonban azt állítom, hogy általában ez nem mindig lesz így. Biztosan vannak olyan beállítások, amelyekben nem tudjuk előre, hogy a mesterséges intelligencia „helyes”, vagy az ember „igaza” abban a tekintetben, hogy egy adott feladattal kapcsolatos nézeteltérés esetén az egyik vagy a másik mellett dönt.

Egy nagyon fontos és rendkívül bonyolult kérdéshez vezettelek.

Mit tegyünk, ha szakmai nézeteltérés alakul ki a hurokban lévő ember és a mesterséges intelligencia között (vagy ennek megfelelően úgy is fogalmazhatunk, hogy az AI és a humán ember között)?

Ne próbálja kitérni a kérdés elől.

Egyesek azzal érvelhetnek, hogy ez soha nem fog megtörténni, de ahogy az autóval kapcsolatos példámban kifejtettem, ez biztosan megtörténhet. Egyesek azzal érvelhetnek, hogy az ember nyilvánvalóan felsőbbrendű, és minden nézeteltérés győztese legyen. Az én példám az autóról és a téglafalról leüti azt. Vannak olyan mesterséges intelligencia hívei, akik ragaszkodhatnak ahhoz, hogy a mesterséges intelligencia legyen a győztes, mivel látszólag legyőzték az emberi érzelmeket és a véletlenszerű, homályos gondolkodású emberek önfejű gondolkodását. A másik példám, amely az árokba tartó autóval jár, ismét aláásta ezt az állítást.

A való világban a mesterséges intelligencia és az emberek nem fognak egyetérteni, még akkor sem, ha szándékosan összehozzák őket egy közösen vállalt feladat elvégzése érdekében. Meg fog történni. Nem dughatjuk a fejünket a homokba, és nem tehetünk úgy, mintha ez meg sem történik.

Láttuk, hogy a gépet vezető emberek nyilvánvalóan nézeteltérésbe keveredtek. Szerencsére megegyeztek abban, hogy nem értenek egyet, úgy tűnik. Visszahozták a gépet a terminálhoz. Találtak módot a nézeteltérés kezelésére. A nézeteltérésük megoldása jól sikerült, ahhoz képest, hogy esetleg a pilótafülkében ökölbe csaptak volna, vagy esetleg a levegőbe repültek volna, és továbbra is harciasak lettek volna egymással. Ez egy szomorú forgatókönyv, amely tarthatatlan, és hálásak lehetünk, hogy nem történt meg.

Engedjék meg, hogy felsoroljam a mesterséges intelligencia és a humán hurokban (vagy a humán hurokban és mesterséges intelligencia) nézeteltérések megoldásának különféle módjait:

  • A mesterséges intelligencia és az összefogott ember megoldja a dolgokat (barátságosan vagy sem)
  • Alapértelmezés szerint az ember érvényesül az MI-vel szemben
  • A mesterséges intelligencia alapértelmezés szerint érvényesül az emberrel szemben
  • Alapértelmezés szerint más előre meghatározott rögzített felbontás érvényesül
  • Harmadik fél embert hurkoltak be, és az ő jelzésük érvényesül a felekkel szemben
  • A harmadik féltől származó mesterséges intelligencia hurkolt, és annak jelzése érvényesül a felekkel szemben
  • A harmadik fél ember felváltja a meglévő embert, a dolgok újra mennek
  • A harmadik féltől származó mesterséges intelligencia felváltja a meglévő mesterséges intelligenciát, és a dolgok újból folytatódnak
  • Harmadik féltől származó ember váltja fel a meglévő mesterséges intelligenciát, a dolgok újra folytatódnak (most már emberről emberre)
  • A harmadik féltől származó mesterséges intelligencia felváltja a meglévő embert, a dolgok újraindulnak (most AI-től AI-ig)
  • Más

Ezeket bőven érdemes kicsomagolni.

Mielőtt még rátérnénk az AI és az emberi nézeteltérések kezelésének hátterében rejlő vad és gyapjas megfontolásokra, vázoljunk fel néhány további alapvetést a mélyen lényeges témákról. Röviden bele kell merülnünk a mesterséges intelligencia etikájába, és különösen a Machine Learning (ML) és a Deep Learning (DL) megjelenésébe.

Lehet, hogy homályosan tisztában vagy vele, hogy manapság az egyik leghangosabb hang a mesterséges intelligencia területén és még az AI területén kívül is az etikus mesterséges intelligencia nagyobb látszatának követelése. Vessünk egy pillantást arra, hogy mit jelent a mesterséges intelligencia etikájára és az Ethical AI-ra hivatkozni. Ezen felül megvizsgáljuk, mire gondolok, amikor a gépi tanulásról és a mély tanulásról beszélek.

A mesterséges intelligencia etikájának egy bizonyos szegmense vagy része, amely a médiában nagy figyelmet kapott, a mesterséges intelligencia, amely nemkívánatos elfogultságokat és egyenlőtlenségeket mutat. Talán tudatában van annak, hogy amikor a mesterséges intelligencia legújabb korszaka beindult, hatalmas lelkesedés támadt az iránt, amit egyesek ma úgy hívnak. AI For Good. Sajnos ennek a tomboló izgalomnak a nyomában kezdtünk tanúi lenni AI For Bad. Például a különféle mesterséges intelligencia-alapú arcfelismerő rendszerekről kiderült, hogy faji és nemi előítéleteket tartalmaznak, amelyeket itt tárgyaltam. az itt található link.

Erőfeszítések, amelyek ellen harcolni kell AI For Bad aktívan zajlanak. A hangoskodáson kívül jogi A jogsértések megfékezésére irányuló törekvések jelentős erőfeszítéseket tesznek a mesterséges intelligencia etikájának elfogadása felé, hogy helyrehozzák a mesterséges intelligencia aljasságát. Az elképzelés az, hogy el kell fogadnunk és támogatnunk kell a kulcsfontosságú etikai mesterségesintelligencia-elveket a mesterséges intelligencia fejlesztése és terjesztése érdekében, ezzel aláásva AI For Bad és egyidejűleg hirdeti és hirdeti a jobbat AI For Good.

Ehhez kapcsolódóan én annak híve vagyok, hogy a mesterséges intelligencia megpróbálja a mesterséges intelligencia problémáinak megoldásának részeként használni a tüzet tűzzel oltva ilyen gondolkodásmódban. Például beágyazhatunk Ethical AI összetevőket egy mesterséges intelligencia rendszerbe, amely figyeli, hogy a többi AI hogyan csinálja a dolgokat, és így potenciálisan valós időben megragadja a diszkriminatív erőfeszítéseket. az itt található link. Lehetne egy külön mesterséges intelligencia-rendszer is, amely egyfajta AI-etikai monitorként működik. A mesterséges intelligencia rendszer felügyelőként szolgál annak nyomon követésére és észlelésére, ha egy másik mesterséges intelligencia az etikátlan szakadékba kerül (lásd az ilyen képességekről szóló elemzésemet itt: az itt található link).

Rövid időn belül megosztok veled néhány átfogó alapelvet, amelyek az AI etikájának hátterében állnak. Rengeteg ilyen lista lebeg itt-ott. Mondhatnánk, hogy még nincs egyetlen lista az egyetemes vonzerőről és az egyetértésről. Ez a sajnálatos hír. A jó hír az, hogy legalább vannak könnyen elérhető mesterséges intelligencia etikai listák, és általában meglehetősen hasonlóak. Mindent egybevetve ez arra utal, hogy az okolt konvergencia egyfajta formája révén megtaláljuk az utat az AI-etika általános közös vonása felé.

Először is tekintsünk át röviden néhány általános etikai mesterséges intelligencia előírást, hogy bemutassuk, minek kell létfontosságú szempontnak lennie bárki számára, aki mesterséges intelligenciát készít, dolgozik vagy használ.

Például, ahogy azt a Vatikán a Róma felhívás a mesterséges intelligencia etikájára és amint azt alaposan kifejtettem itt az itt található link, ez az általuk azonosított hat elsődleges AI etikai elv:

  • Átláthatóság: Elvileg az AI-rendszereknek magyarázhatónak kell lenniük
  • Befogadás: Minden ember szükségleteit figyelembe kell venni, hogy mindenki részesülhessen, és minden egyén számára a lehető legjobb feltételeket kínálhassuk önkifejezéshez és fejlődéshez.
  • Felelősség: Az MI használatát tervezőknek és alkalmazóknak felelősségteljesen és átláthatóan kell eljárniuk
  • Pártatlanság: Ne alkosson vagy cselekedjen elfogultság szerint, ezzel óvva a méltányosságot és az emberi méltóságot
  • Megbízhatóság: Az AI-rendszereknek megbízhatóan kell működniük
  • Biztonság és adatvédelem: Az AI-rendszereknek biztonságosan kell működniük, és tiszteletben kell tartaniuk a felhasználók magánéletét.

Amint azt az Egyesült Államok Védelmi Minisztériuma (DoD) kijelentette A mesterséges intelligencia használatának etikai alapelvei és amint azt alaposan kifejtettem itt az itt található link, ez a hat elsődleges AI etikai alapelvük:

  • Felelős: A DoD személyzete megfelelő szintű ítélőképességet és gondosságot gyakorol, miközben felelős marad az AI-képességek fejlesztéséért, telepítéséért és használatáért.
  • Igazságos: A minisztérium szándékos lépéseket tesz az AI-képességek nem szándékos torzításának minimalizálása érdekében.
  • Nyomon követhető: A minisztérium mesterséges intelligencia-képességeit úgy fejlesztik és alkalmazzák, hogy az érintett személyzet megfelelő ismeretekkel rendelkezzen az AI-képességekre vonatkozó technológiáról, fejlesztési folyamatokról és működési módszerekről, beleértve az átlátható és auditálható módszereket, adatforrásokat, valamint a tervezési eljárást és dokumentációt.
  • Megbízható: A minisztérium mesterséges intelligencia-képességeinek kifejezett, jól meghatározott felhasználási területei lesznek, és az ilyen képességek biztonsága, biztonsága és hatékonysága tesztelés és szavatosság tárgyát képezi a meghatározott felhasználási módokon belül, teljes életciklusuk során.
  • Kormányozható: A minisztérium megtervezi és megtervezi a mesterséges intelligencia képességeit, hogy teljesítsék a tervezett funkcióikat, miközben képesek lesznek észlelni és elkerülni a nem kívánt következményeket, valamint képesek lekapcsolni vagy deaktiválni a nem szándékos viselkedést tanúsító telepített rendszereket.

Megvitattam a mesterséges intelligencia etikai elveinek különféle kollektív elemzéseit is, beleértve a kutatók által kidolgozott halmazt, amely számos nemzeti és nemzetközi AI etikai tétel lényegét vizsgálta és sűrítette a „The Global Landscape Of AI Ethics Guidelines” című cikkben (megjelent. ban ben Természet), és amit tudósításom a címen vizsgál az itt található link, ami ehhez a trapézkő listához vezetett:

  • Átláthatóság
  • Igazságosság és méltányosság
  • Nem rosszindulat
  • Felelősség
  • Adatvédelem
  • Jótékonyság
  • Szabadság és autonómia
  • Bízzon
  • Fenntarthatóság
  • Méltóság
  • Szolidaritás

Amint azt közvetlenül sejtheti, rendkívül nehéz lehet az ezen alapelvek mögött meghúzódó sajátosságok meghatározása. Még ennél is keményebb dió az a törekvés, hogy ezeket a tág alapelveket valami teljesen kézzelfoghatóvá és kellően részletezetté alakítsák ahhoz, hogy az AI-rendszerek kidolgozásakor felhasználhatók legyenek. Könnyű összességében egy kis kézzel integetni arról, hogy mik is az AI etikai előírásai, és hogyan kell azokat általában betartani, míg az AI kódolásánál sokkal bonyolultabb a helyzet, ha a valódi guminak kell lennie, amely találkozik az úttal.

Az AI-etikai elveket az AI-fejlesztőknek kell alkalmazniuk, az AI-fejlesztési erőfeszítéseket irányítókkal együtt, sőt még azokkal is, amelyek végső soron az AI-rendszerek karbantartását és karbantartását végzik. Az összes érdekelt fél a mesterséges intelligencia fejlesztésének és használatának teljes életciklusa során beletartozik az etikus mesterséges intelligencia elfogadott normáihoz. Ez egy fontos kiemelés, mivel a szokásos feltevés az, hogy „csak a kódolóknak” vagy az AI-t programozóknak kell betartani az AI etikai elveit. Amint korábban említettük, egy falura van szükség a mesterséges intelligencia kidolgozásához és elindításához, és ehhez az egész falunak ismernie kell a mesterséges intelligencia etikai előírásait, és be kell tartania azokat.

Győződjünk meg arról is, hogy a mai mesterséges intelligencia természetét illetően egy oldalon vagyunk.

Ma nincs olyan mesterséges intelligencia, amely érző lenne. Nálunk ez nincs. Nem tudjuk, hogy az érző mesterséges intelligencia lehetséges lesz-e. Senki sem tudja pontosan megjósolni, hogy elérjük-e az érző MI-t, és azt sem, hogy az érző mesterséges intelligencia valamilyen csodálatos módon spontán módon létrejön-e számítógépes kognitív szupernóva formájában (általában szingularitásnak nevezik, lásd tudósításomat itt: az itt található link).

A mesterséges intelligencia azon típusa, amelyre összpontosítok, a ma létező nem érző MI-ből áll. Ha vadul akarnánk spekulálni arról érző AI, ez a vita gyökeresen más irányba mehet. Egy érző mesterséges intelligencia állítólag emberi minőségű lenne. Figyelembe kell vennie, hogy az érző mesterséges intelligencia az ember kognitív megfelelője. Sőt, mivel egyes feltételezések szerint szuperintelligens AI-val rendelkezünk, elképzelhető, hogy az ilyen mesterséges intelligencia okosabb lehet, mint az emberek (a szuperintelligens AI lehetőségének feltárásához lásd a tudósítás itt).

Maradjunk inkább a földön, és vegyük figyelembe a mai számítástechnikai, nem érző MI-t.

Vegye észre, hogy a mai mesterséges intelligencia nem képes az emberi gondolkodással egyenrangú módon „gondolkodni”. Amikor Alexával vagy Sirivel kommunikál, a társalgási képességek hasonlónak tűnhetnek az emberi képességekhez, de a valóság az, hogy számítási jellegű, és hiányzik az emberi megismerés. A mesterséges intelligencia legújabb korszaka széles körben alkalmazta a gépi tanulást (ML) és a mély tanulást (DL), amelyek kihasználják a számítási mintaillesztést. Ez olyan mesterséges intelligencia-rendszerekhez vezetett, amelyek emberszerű hajlamokat mutatnak. Eközben manapság nincs olyan mesterséges intelligencia, amely a józan észnek látszana, és az emberi gondolkodás kognitív csodáiból sem.

Az ML/DL a számítási mintaillesztés egyik formája. A szokásos megközelítés az, hogy egy döntési feladatról adatokat gyűjt össze. Az adatokat betáplálja az ML/DL számítógépmodellekbe. Ezek a modellek matematikai mintákat keresnek. Miután megtalálta az ilyen mintákat, ha igen, az AI rendszer ezeket a mintákat fogja használni, amikor új adatokkal találkozik. Az új adatok bemutatásakor a „régi” vagy történelmi adatokon alapuló mintákat alkalmazzák az aktuális döntés meghozatalához.

Azt hiszem, sejtheti, hová vezet ez. Ha az emberek, akik a mintaszerű döntéseket hozták, nemkívánatos elfogultságokat alkalmaztak, akkor valószínű, hogy az adatok ezt finom, de jelentős mértékben tükrözik. A Machine Learning vagy a Deep Learning számítási mintaillesztés egyszerűen megpróbálja matematikailag utánozni az adatokat ennek megfelelően. A mesterséges intelligencia által kialakított modellezésben önmagában semmi sem látszik a józan észnek vagy más érző szempontoknak.

Ezenkívül az AI-fejlesztők sem tudják, mi történik. Az ML/DL rejtélyes matematikája megnehezítheti a most rejtett torzítások kiszűrését. Joggal remélhető és elvárható, hogy a mesterséges intelligencia fejlesztői teszteljék a potenciálisan eltemetett torzításokat, bár ez bonyolultabb, mint amilyennek látszik. Jó esély van arra, hogy még viszonylag kiterjedt tesztelés mellett is lesznek torzítások az ML/DL mintaillesztési modelljeibe.

Használhatná némileg a híres vagy hírhedt közmondást, a szemetet a szemét kiszállításáról. A helyzet az, hogy ez inkább a torzításokhoz hasonlít, amelyek alattomos módon beszivárognak az AI-ba merülő torzítások miatt. Az AI algoritmus-döntéshozatala (ADM) axiomatikusan megterhelődik egyenlőtlenségekkel.

Nem jó.

Térjünk vissza az AI és az ember közötti nézeteltérésekre.

Korábban jeleztem, hogy ezek a nézeteltérés-megoldási stratégiák:

  • A mesterséges intelligencia és az összefogott ember megoldja a dolgokat (barátságosan vagy sem)
  • Alapértelmezés szerint az ember érvényesül az MI-vel szemben
  • A mesterséges intelligencia alapértelmezés szerint érvényesül az emberrel szemben
  • Alapértelmezés szerint más előre meghatározott rögzített felbontás érvényesül
  • Harmadik fél embert hurkoltak be, és az ő jelzésük érvényesül a felekkel szemben
  • A harmadik féltől származó mesterséges intelligencia hurkolt, és annak jelzése érvényesül a felekkel szemben
  • A harmadik fél ember felváltja a meglévő embert, a dolgok újra mennek
  • A harmadik féltől származó mesterséges intelligencia felváltja a meglévő mesterséges intelligenciát, és a dolgok újból folytatódnak
  • Harmadik féltől származó ember váltja fel a meglévő mesterséges intelligenciát, a dolgok újra folytatódnak (most már emberről emberre)
  • A harmadik féltől származó mesterséges intelligencia felváltja a meglévő embert, a dolgok újraindulnak (most AI-től AI-ig)
  • Más

Ideje ezeket kicsomagolni.

Először is gondoljon arra, hogy ez az egész szakmai nézeteltérések.

A szakmai nézeteltérés lazán definíció szerint a munkával kapcsolatos feladattal kapcsolatos nézeteltérés.

Például egy nézeteltérés, amely a pilóta és a másodpilóta között merül fel azzal kapcsolatban, hogy folytassa-e a viharral szembesülő repülést, ésszerűen szakmai nézeteltérésnek minősíthető. Ezzel szemben a heves nézeteltérés abban a kérdésben, hogy a pilóta melyik kávémárkát támogatja, szemben a másodpilóta által kedvelt márkával, ebben a konkrét összefüggésben könnyen besorolható a nem szakmai nézeteltérések közé.

Természetesen, ha egy nem szakmai nézeteltérés szakmai nézeteltéréssé fajul, végső soron a nem szakmai nézeteltérés érdekelhet bennünket, mint a szakmai nézeteltérés feltételezett forrása vagy szikra. Képzeld el, hogy a pilóta és a másodpilóta keserűen vitatkozik azon, hogy melyik kávémárka a legjobb, ami aztán sajnálatos módon repülésspecifikus aggályokba (szójátékba) csap át, például fel kell-e szállni vagy sem.

Másodszor, szem előtt kell tartanunk a szakmai nézeteltérés mértékét.

Talán a pilóta és a másodpilóta, vagy enyhe nézeteltérés a repüléssel kapcsolatban. Nem vitatkoznak egymással, és csupán a felszállás előnyeit és hátrányait fontolgatják. Ez nem az a kaliber vagy nagyságrendű szakmai nézeteltérés, amelyet itt általában figyelembe veszünk. A helyzet az lehet, hogy a szakmai nézeteltérés átmeneti, és mindkét fél szívélyesen, vagy legalábbis időben kidolgozza a megoldást. Általában a szakmai nézeteltérések középpontjában azok állnak, amelyek látszólag megoldhatatlanok, és a két fél rendíthetetlenül nézeteltérésben van.

Harmadszor, általában valami komolynak kell lennie ahhoz, hogy ezek az irányelvek életbe léphessenek.

A repülés vagy nem repülés választása határozottan élet-halál típusú döntés, ha a repülés veszélyben van egy vihar miatt, vagy ha a repülőgép nem teljesen felkészült az ilyen utazásra. Ez komoly üzlet. A kevésbé kiható szakmai nézeteltérésekre továbbra is alkalmazhatjuk az irányelveket, bár lehet, hogy ez jobban zavar, mint érdemes.

Oké, a szempontjaink a következők:

  • A nézeteltérés elsősorban szakmai jellegű, nem pedig valami nem szakmai jellegű
  • A nézeteltérés tartós jellegű, és nem csupán átmeneti vagy más módon könnyen megoldható
  • A nézeteltérés súlyos következményeket vetít előre, és általában hatásos kimenetelű
  • A felek vitatkoznak, és megoldhatatlannak tűnnek

Tekintsük most meg közelebbről az általam javasolt irányelveket vagy megközelítéseket az ilyen szakmai nézeteltérések kezelésére.

A mesterséges intelligencia és az összefogott ember megoldja a dolgokat (barátságosan vagy sem)

A felsorolást azzal az egyértelmű lehetőséggel kezdem, hogy a mesterséges intelligencia és az ember a hurokban képes feloldani egymás között a szakmai nézeteltéréseket. Úgy tűnik, talán a két ember, a pilóta és a másodpilóta esete illusztrálja ezt a fajta körülményt. Valahogy úgy döntöttek, hogy visszatérnek a terminálhoz, és külön utakat járnak. Elképzelhető, hogy egy mesterséges intelligencia rendszer és egy ember képes olyan megoldási megközelítést kitalálni, amely általában mindkét fél számára kielégítő, és így az ügy kielégítően lezárult.

Alapértelmezés szerint az ember érvényesül az MI-vel szemben

A mesterséges intelligencia felállításakor beprogramozhatunk egy szabályt, amely szerint a hurokban lévő ember mindig érvényesül, ha szakmai nézeteltérés merül fel. Ez lenne a kifejezetten kódolt alapértelmezett. Megengedhetünk valamilyen felülírást is, minden esetre, bár az állandó szabály az lesz, hogy az ember győz.

A mesterséges intelligencia alapértelmezés szerint érvényesül az emberrel szemben

A mesterséges intelligencia felállításakor beprogramozhatunk egy szabályt, amely szerint a mesterséges intelligencia mindig érvényesül az emberrel szemben, ha szakmai nézeteltérés merül fel. Ez a kifejezetten kódolt alapértelmezett. Minden esetre megengedhetünk valamilyen felülírást is, bár az állandó szabály az lesz, hogy a mesterséges intelligencia érvényesül.

Alapértelmezés szerint más előre meghatározott rögzített felbontás érvényesül

A mesterséges intelligencia beállításakor beprogramozhatunk egy olyan szabályt, amely szerint valamilyen más előre meghatározott fix felbontás érvényesül, ha szakmai nézeteltérés merül fel a hurokban lévő emberrel. Az ember a hurokban alapértelmezés szerint nem érvényesül. Az AI alapértelmezés szerint nem érvényesül. Van még néhány előre meghatározott állásfoglalás. Például előfordulhat, hogy feldobnak egy érmét, ami alapján eldöntik, hogy a két fél közül melyiket tartják a helyes útnak. Ez nyilvánvalóan meglehetősen önkényesnek tűnik; így egy másik példa az lenne, hogy egy speciális szabály lép életbe, amely a két fél bemeneti adatai alapján számít ki egy értéket, és döntetlenre jut az eredményre.

Harmadik fél embert hurkoltak be, és az ő jelzésük érvényesül a felekkel szemben

Szakmai nézeteltérés esetén szabály lehet, hogy egy harmadik felet, aki egy ember, hívják meg és hurkolják be a környezetbe, hogy döntsenek a nézeteltérés megoldásáról. A mesterséges intelligencia úgy van programozva, hogy elhalasztja a harmadik féltől származó ember döntéseit. A hurokban lévő embert előzetesen megtanították arra, hogy ha ilyen helyzet adódik, akkor ők is a harmadik fél emberre utaljanak. Félretéve, valószínűleg arra számíthat, hogy a hurokban lévő ember szoronghat attól, hogy csatlakozzon ahhoz, amit a harmadik fél ember dönt, ha a döntés nem egyezik a hurokban lévő ember testhelyzettel.

A harmadik féltől származó mesterséges intelligencia hurkolt, és annak jelzése érvényesül a felekkel szemben

Szakmai nézeteltérés esetén szabály lehet, hogy egy másik AI-rendszerű harmadik felet hívnak meg és hurkolnak be a beállításba, hogy döntést hozzanak a nézeteltérés megoldásáról. Az eredeti mesterséges intelligencia úgy van programozva, hogy a harmadik féltől származó mesterséges intelligencia döntéseihez igazodjon. A hurokban lévő embert előzetesen utasították arra, hogy ha ilyen helyzet adódik, ők is a harmadik féltől származó mesterséges intelligenciára utasítsanak. Félretéve, valószínűleg arra számíthat, hogy a hurokban lévő ember szoronghat attól, hogy csatlakozzon ahhoz, amit a harmadik fél AI dönt, ha a döntés nem egyezik a hurokban lévő ember testhelyzettel.

A harmadik fél ember felváltja a meglévő embert, a dolgok újra mennek

Szakmai nézeteltérés esetén a hurokban lévő embert egy harmadik fél váltja fel, aki ember, és ettől kezdve a hurokban lévő ember lesz. Azt az embert, aki a feladat eredeti embere volt, már nem tekintjük az adott feladat részének. Nyitott szempont, hogy egyébként mi lesz a most lecserélt emberrel a hurokban, de azt mondjuk, hogy a munkafeladatban már nincs folyamatos szerepük.

A harmadik féltől származó mesterséges intelligencia felváltja a meglévő mesterséges intelligenciát, és a dolgok újból folytatódnak

Szakmai nézeteltérés esetén az MI-t egy harmadik féltől származó mesterséges intelligencia váltja fel, és ezentúl ez lesz az adott munkafeladathoz használt AI. Az eredetileg a feladathoz használt mesterséges intelligencia már nem számít az adott feladat részének. Nyitott szempont, hogy egyébként mi lesz a most lecserélt MI-vel, de azt mondjuk, hogy az AI-nak már nincs folyamatos szerepe a munkafeladatban.

Harmadik féltől származó ember váltja fel a meglévő mesterséges intelligenciát, a dolgok újra folytatódnak (most már emberről emberre)

Szakmai nézeteltérés esetén az MI-t egy harmadik fél emberrel helyettesítik, aki számára az adott személy mostantól a munkacsoportban dolgozó fél lesz, akit a szóban forgó munkavégzéshez használnak. Az eredetileg a feladathoz használt mesterséges intelligencia már nem számít az adott feladat részének. Nyitott szempont, hogy egyébként mi lesz a most lecserélt MI-vel, de azt mondjuk, hogy az AI-nak már nincs folyamatos szerepe a munkafeladatban. Röviden, ez most egy két fél embertől-emberig végzett feladattá válik.

A harmadik féltől származó mesterséges intelligencia felváltja a meglévő embert, a dolgok újraindulnak (most AI-től AI-ig)

Szakmai nézeteltérés esetén a hurokban lévő embert egy harmadik féltől származó mesterséges intelligencia váltja fel, és ezentúl ez a mesterséges intelligencia lesz az előző humán in-the-loop kitöltése. Azt az embert, aki a feladat eredeti embere volt, már nem tekintjük az adott feladat részének. Nyitott szempont, hogy egyébként mi lesz a most lecserélt emberrel a hurokban, de azt mondjuk, hogy a munkafeladatban már nincs folyamatos szerepük. Röviden, ez most egy kétoldalú AI-to-MI lesz a feladat elvégzésére.

Más

Más változatok is kidolgozhatók a szakmai nézeteltérések kezelésére, de itt bemutattunk néhány kulcskövet.

Hogyan dönthetjük el, hogy ezek közül a megközelítések közül melyik lesz a megfelelő egy adott helyzetben?

Sokféle probléma merül fel egy ilyen választás során. Vannak technológiai megfontolások. Vannak üzleti megfontolások. Vannak jogi és etikai megfontolások.

Bizonyos mértékig ezért olyan kulcsfontosságú téma a mesterséges intelligencia etika és az etikai AI. A mesterséges intelligencia etika előírásai éberségre késztetnek bennünket. Az AI-technológusokat időnként a technológia foglalkoztatja, különösen a csúcstechnológiák optimalizálása. Nem feltétlenül veszik figyelembe a nagyobb társadalmi következményeket. A mesterséges intelligencia etikai gondolkodásmódja, és ennek szerves része a mesterséges intelligencia fejlesztéséhez és terepviszonyához elengedhetetlen a megfelelő AI létrehozásához, beleértve (talán meglepő vagy ironikus módon) annak értékelését, hogy a mesterséges intelligencia etikáját hogyan alkalmazzák a cégek.

A mesterséges intelligencia etikai előírásainak általános alkalmazása mellett felvetődik az a kérdés, hogy kellene-e törvények szabályozni az AI különféle felhasználásait. Szövetségi, állami és helyi szinten új törvényeket kötnek ki, amelyek a mesterséges intelligencia kidolgozásának körét és jellegét érintik. Az ilyen törvények kidolgozására és elfogadására irányuló erőfeszítések fokozatosak. A mesterséges intelligencia etika legalábbis megfontolt állomásként szolgál, és bizonyos mértékig bizonyos mértékig közvetlenül beépül az új törvényekbe.

Legyen tudatában annak, hogy egyesek határozottan azzal érvelnek, hogy nincs szükségünk az AI-t lefedő új törvényekre, és a meglévő törvényeink elegendőek. Valójában előre figyelmeztetnek arra, hogy ha bevezetünk néhány mesterséges intelligencia-törvényt, akkor megöljük az aranylibát, ha visszaszorítjuk a mesterséges intelligencia fejlődését, amely óriási társadalmi előnyökkel jár.

Ennek a súlyos vitának a pillanatában lefogadom, hogy néhány szemléltető példára vágyik, amelyek bemutathatják ezt a témát. Van egy különleges és biztosan népszerű példasor, amely közel áll a szívemhez. Látod, a mesterséges intelligencia szakértőjeként, beleértve az etikai és jogi következményeket is, gyakran kérnek fel olyan reális példák azonosítására, amelyek bemutatják a mesterséges intelligencia etikai dilemmáit, hogy könnyebben megragadható legyen a téma némileg elméleti jellege. Az egyik legemlékezetesebb terület, amely élénken mutatja be ezt az etikus AI-problémát, az AI-alapú, valódi önvezető autók megjelenése. Ez praktikus használati esetként vagy példaként szolgál a témával kapcsolatos bőséges vitához.

Íme, egy figyelemre méltó kérdés, amelyen érdemes elgondolkodni: A mesterséges intelligencia-alapú valódi önvezető autók megjelenése felvilágosít valamit az AI és az emberi nézeteltérések megoldásáról, és ha igen, mit mutat ez be?

Engedjen meg egy pillanatra, hogy kibontsa a kérdést.

Először is vegye figyelembe, hogy egy igazi önvezető autóban nincs emberi vezető. Ne feledje, hogy az igazi önvezető autókat mesterséges intelligencia vezetési rendszer vezeti. Nincs szükség emberi sofőrre a volánnál, és arra sem, hogy ember vezesse a járművet. Az autonóm járművekről (AV-k) és különösen az önvezető autókról szóló kiterjedt és folyamatos tájékoztatásért lásd az itt található link.

Szeretném még jobban tisztázni, mit kell érteni, amikor valódi önvezető autókra utalok.

Az önvezető autók szintjének megértése

Tisztázva, az igazi önvezető autók azok, ahol az AI teljesen önállóan vezeti az autót, és nincs emberi segítség a vezetési feladat során.

Ezek a vezető nélküli járművek 4-es és 5-ös szintnek minősülnek (lásd a magyarázatomat a következő helyen). ez a link itt), míg az olyan autókat, amelyekhez emberi vezető szükséges a vezetési erőfeszítések közös megosztására, általában 2. vagy 3. szinten tekintik. A vezetési feladatot közösen megosztó autók leírása félig autonóm, és általában különféle automatizált bővítmények, amelyeket ADAS-nak (Advanced Driver-Assistance Systems) neveznek.

Még nincs igazi önvezető autó az 5-ös szinten, és még azt sem tudjuk, hogy ez elérhető lesz-e, és azt sem, hogy mennyi időbe telik eljutni odáig.

Eközben a 4. szintű erőfeszítések fokozatosan próbálnak némi vonóerőt szerezni nagyon szűk és szelektív közúti próbák révén, bár vita folyik arról, hogy ezt a tesztelést önmagában engedélyezni kell-e (mindannyian életre-halálra menő tengerimalacok vagyunk egy kísérletben autópályáinkon és mellékutainkon zajlanak, egyesek azt állítják, lásd tudósításomat itt ez a link itt).

Mivel a félig autonóm autókhoz emberi sofőrre van szükség, az ilyen típusú autók elfogadása nem különbözik nyilvánvalóan a hagyományos járművek vezetésénél, tehát önmagában nincs sok új, hogy ezekkel a témákkal foglalkozzanak (bár, amint látni fogja) egy pillanat alatt a következő pontok általában alkalmazandók).

A félig autonóm autók esetében fontos, hogy a nyilvánosságot figyelmeztessék az utóbbi időben felmerülő zavaró tényezőkre, nevezetesen arra, hogy azoknak az emberi járművezetőknek ellenére, akik folyamatosan videókat tesznek közzé, hogy maguk alszanak a 2. vagy 3. szintű autó kormányához , mindannyian el kell kerülnünk, hogy félrevezetjük azt a hitet, hogy a sofőr félig autonóm autó vezetése közben elvonhatja figyelmét a vezetési feladatról.

Te vagy a felelős a jármű vezetési tevékenységeiért, függetlenül attól, hogy mekkora mennyiségű automatizálást lehet 2. vagy 3. szintre dobni.

Önvezető autók és AI-Versus-Human nézeteltérés

A 4. és 5. szintű valódi önjáró járműveknél nem vezethet embervezető a vezetési feladatba.

Minden utas utas lesz.

Az AI vezet.

Azonnal megvitatandó szempont azzal a ténnyel jár, hogy a mai mesterséges intelligencia-vezetési rendszerekben részt vevő mesterséges intelligencia nem érző. Más szavakkal, az AI összességében számítógépes programozás és algoritmusok összessége, és bizonyosan nem képes ugyanúgy érvelni, mint az emberek.

Miért van ez a hangsúly arra, hogy az AI nem érzékeny?

Mivel szeretném aláhúzni, hogy az AI hajtórendszer szerepének tárgyalásakor nem tulajdonítok emberi tulajdonságokat az AI-nek. Felhívjuk figyelmét, hogy manapság folyamatos és veszélyes tendencia van az AI antropomorfizálására. Lényegében az emberek emberi szerű érzékenységet tulajdonítanak a mai mesterséges intelligenciának, annak ellenére, hogy tagadhatatlan és vitathatatlan tény, hogy ilyen AI még nem létezik.

Ezzel a pontosítással elképzelheti, hogy az AI vezetési rendszer valahogy nem fogja „tudni” a vezetés szempontjait. A vezetést és mindazt, amit ez magában foglal, be kell programozni az önvezető autó hardverének és szoftverének részeként.

Merüljünk el abban a számtalan szempontban, amelyek eljátszanak ebben a témában.

Először is fontos felismerni, hogy nem minden AI önvezető autó egyforma. Minden autógyártó és önvezető technológiai cég alkalmazza a hozzáállását az önvezető autók kidolgozásához. Emiatt nehéz átfogó kijelentéseket tenni arról, hogy az AI-meghajtórendszerek mit fognak tenni vagy nem.

Továbbá, ha azt állítják, hogy az AI meghajtó rendszer nem végez bizonyos dolgokat, ezt később a fejlesztők megelőzhetik, akik valójában erre programozzák a számítógépet. Lépésről lépésre az AI meghajtó rendszereket fokozatosan fejlesztik és bővítik. A meglévő korlátozás ma már nem létezik a rendszer későbbi iterációjában vagy verziójában.

Remélem, ez elegendő kitételt biztosít ahhoz, hogy alátámassza azt, amit mondani készülök.

A teljesen autonóm járművek esetében előfordulhat, hogy nincs esély arra, hogy szakmai nézeteltérés alakuljon ki az ember és a mesterséges intelligencia között, mivel az a lehetőség, hogy nincs ember a hurokban. Sok mai önvezető autógyártó törekvése az, hogy az emberi vezetőt teljesen eltávolítsák a vezetési feladat alól. A jármű nem is tartalmaz majd ember által hozzáférhető vezetési vezérlőket. Ebben az esetben egy emberi sofőr, ha jelen van, nem tud részt venni a vezetési feladatban, mivel nem fér hozzá semmilyen vezetési vezérlőhöz.

Egyes teljesen autonóm járművek esetében egyes kialakítások továbbra is lehetővé teszik az ember számára, hogy a hurokban legyen, bár az embernek egyáltalán nem kell elérhetőnek lennie, vagy egyáltalán nem kell részt vennie a vezetési folyamatban. Így az ember is részt vehet a vezetésben, ha ezt akarja. A mesterséges intelligencia azonban soha nem függ az embertől a vezetési feladatok elvégzésében.

A félig autonóm járművek esetében kéz a kézben kapcsolat van az emberi vezető és a mesterséges intelligencia között. Az emberi vezető teljesen átveheti a vezetési vezérlést, és lényegében megakadályozhatja az AI-t abban, hogy részt vegyen a vezetésben. Ha az emberi vezető vissza akarja állítani a mesterséges intelligenciát a vezető szerepbe, megteheti, bár ez néha arra kényszeríti az embert, hogy feladja a vezetési vezérlőket.

A félig autonóm működés másik formája azt jelentené, hogy az emberi vezető és a mesterséges intelligencia csapatmunkában dolgoznak együtt. Az AI vezet, az ember pedig vezet. Együtt vezetnek. Lehet, hogy a mesterséges intelligencia az emberre bízza magát. Lehet, hogy az ember belenyugszik az MI-be.

A mesterséges intelligencia vezetési rendszere és a hurokban lévő emberi sofőr bizonyos pillanatokban „szakmai nézeteltéréshez” juthat az adott vezetési feladatot illetően.

Annak szemléltetésére, hogy a szakmai nézeteltérések kezelésének néhány fent említett szabályának végrehajtása milyen kihívást jelenthet, fontolja meg egy harmadik fél ember meghívásának esetét, hogy lépjen be az ügybe, és javasoljon döntést a megoldatlan probléma megoldására.

Tegyük fel, hogy egy autógyártó vagy önvezető technológiai cég gondoskodott arról, hogy a távoli emberi kezelők hozzáférjenek a flottájukon belüli járművek vezérléséhez. Az emberi kezelő valamilyen távoli irodában vagy hasonló környezetben ül. Számítógépes rendszeren keresztül az önvezető autóba betöltött kamerákhoz és egyéb érzékelőeszközökhöz hozzáférve megtekinthetik a vezetési jelenetet. Számukra ez majdnem olyan, mintha egy online videojátékot játszanának, bár természetesen a valós körülményeknek súlyos következményei lehetnek.

Egy mesterséges intelligencia rendszer és egy emberi sofőr az autóban egy félig autonóm járművet hajtanak végig egy hosszú autópályán. Az AI hirtelen árokba akar terelni. Az emberi sofőr nem akarja ezt megtenni. Mindketten a vezetési vezérlők felett dumálnak.

Hogyan lesz ez megoldva?

Talán előre bevezethettük volna, hogy mindig az ember nyer. Tételezzük fel azonban, hogy úgy döntöttünk, hogy nem tesszük ezt.

Előzetesen bevezethettük volna, hogy az MI mindig nyer. Tételezzük fel, hogy úgy döntöttünk, hogy nem tesszük ezt. Összességében egyetlen szabályt sem fogadtunk el, azon kívül, hogy megengedjük, hogy egy harmadik fél beavatkozzon, és megoldjon bármilyen érdemi jellegű szakmai nézeteltérést.

Ebben a használati esetben az AI és a volánnál ülő emberi sofőr harcol a vezetési vezérlőkért. Ezt mondjuk a távoli emberi kezelőnek (a mi harmadik fél emberünknek) továbbítják. A távoli emberi kezelő megvizsgálja, mi történik, és úgy dönt, hogy elkanyarodik az árokból, látszólag elhárítva azt, amit az MI próbált tenni. Ugyanakkor tegyük fel, hogy a távoli emberi kezelő a szembejövő forgalomba kormányoz, amit talán sem a mesterséges intelligencia, sem az autóban tartózkodó emberi sofőr nem akart megtenni.

A lényeg az, hogy a szabály végrehajtásának módja az, hogy a harmadik fél emberi operátor képes teljesen felülírni az AI-t és a hurokban lévő embert is. Hogy ez jó eredményt fog-e hozni, az biztosan nem biztos.

Ezt a példát arra fogom használni, hogy kiemeljek néhány további meglátást ezekről a kérdésekről.

Nem tételezheti fel azt a pimasz feltételezést, hogy pusztán azért, mert e szabályok valamelyikét bevezetik, a megoldott nézeteltérés eredménye szükségszerűen garantált jó eredmény. Lehet, hogy nem. Nincs olyan vaskalapos, mindig megfelelő szabály, amelyet ki lehetne választani.

Ezután előfordulhat, hogy e szabályok némelyike ​​nem megvalósítható.

Gondoljunk csak arra a példára, amikor a távoli emberi kezelő beavatkozik, amikor az AI és az emberi vezető veszekedik a vezetési vezérlők felett. Sok másodpercbe telhet, amíg a távoli emberi kezelő rájön, mi történik. Addigra a jármű már az árokban kötött ki, vagy más káros következményekkel járhatott. Tegyük fel továbbá, hogy a jármű helye kizárja a távoli hozzáférést, például olyan helyen, ahol nincs hálózati elektronikus kapcsolat. Vagy lehet, hogy a jármű hálózati funkciói nem működnek az adott pillanatban.

Amint láthatja, a szabály papíron furcsán nézhet ki, bár a szabály tényleges használatba vétele nagyon nehéz vagy nagyon véletlenszerű megközelítés lehet. Tekintse meg kritikus szemmel foglalkozó tudósításomat az autonóm járművek és önvezető autók távoli kezelőjéről itt az itt található link.

Szeretnék röviden kitérni egy másik kapcsolódó témára, amellyel egy hamarosan megjelenő elemzésben részletesebben is ki fogok térni.

Az autonóm járművekkel és a félig autonóm önvezető autókkal kapcsolatos egyik növekvő aggodalom az ún. Forró burgonya szindróma.

Itt az üzlet.

Egy AI vezetőrendszer és egy ember együtt vezetnek. Súlyos helyzet áll elő. Az AI-t úgy programozták, hogy kiessen a vezetési feladatból, és átadja a dolgokat az embernek, ha egy szörnyű pillanat következik be. Ez talán „ésszerűnek” tűnik annyiban, hogy úgy tűnik, hogy arra a szabályra hivatkozunk, hogy az emberi lény az alapértelmezett „győztes” minden esetleges szakmai nézeteltérésben.

De lehet, hogy a mesterséges intelligencia lemorzsolódása aljasabb vagy alattomosabb célokat szolgál. Lehetséges, hogy az autógyártó vagy az önvezető technológiai cég nem akarja, hogy az ő mesterséges intelligenciáját tekintsék a „hibás félnek”, amikor egy autóbaleset bekövetkezik. Annak érdekében, hogy látszólag elkerülje az ilyen beszorulást, az MI hirtelen átadja a vezérlést az embernek. Voila, az ember most feltehetően teljes mértékben felelős a járműért.

A lényeg az, hogy tegyük fel, hogy a mesterséges intelligencia elvégzi ezt az átadást, mondjuk egy másodperccel van hátra az összeomlás előtt.

Valóban lenne az embernek rendelkezésre álló ideje, hogy elkerülje a balesetet?

Valószínűleg nem.

Tegyük fel, hogy a mesterséges intelligencia elvégzi az átadást néhány ezredmásodperc vagy nanoszekundum hátralévő részében. Merem állítani, hogy az embernek gyakorlatilag nulla esélye van arra, hogy bármit is tegyen a baleset megelőzése érdekében.

Az autógyártó vagy az önvezető autógyártó cég szemszögéből megpróbálhatnak úgy viselkedni, mintha a kezük tiszta lenne, amikor egy ilyen autóbaleset bekövetkezik. Az autót egy ember vezette. Nem az MI vezette az autót. Az egyetlen „logikus” következtetés az lenne, hogy az ember hibás, a mesterséges intelligencia pedig teljesen feddhetetlen.

Ez egy edény.

Erről részletesebben fogok beszélni egy következő rovatban.

Következtetés

Szakmai nézeteltérések lesznek.

Nehéz elképzelni olyan összetett feladatot, amelyben két fél együtt látja el a feladatot, és amelynél soha nem merülnének fel szakmai nézeteltérések. Ez egy fantáziaországnak vagy legalábbis nagy ritkaságnak tűnik.

Manapság rengeteg emberközi szakmai nézeteltérés tapasztalható, amelyekre napi szinten békésen és ésszerűen kitalálják az állásfoglalásokat így vagy úgy. Valójában gyakran szándékosan alakítunk ki helyzeteket, hogy elősegítsük és felszínre hozzuk a szakmai nézeteltéréseket. Azt lehet vitatkozni, hogy ez azt a híres bölcsességet mutatja be, miszerint néha két fej jobb, mint egy.

Ahogy a mesterséges intelligencia egyre elterjedtebbé válik, sok mesterséges intelligencia az emberhez vagy embertől mesterséges intelligenciához két fél feladatvégzője lesz, és lesznek szakmai nézeteltérések az fog bekövetkezni. A lusta megközelítés az, hogy mindig ragaszkodunk az emberhez. Lehet, hogy nem ez a legmegfelelőbb megközelítés. Lehet, hogy az AI a jobb választás. Vagy a többi fent említett szabály józan megközelítés lehet.

Gyakran ismétlődik az a bölcs mondás, hogy általában mindannyiunknak meg kell tudnia érteni, hogy nem értünk egyet, bár ha a vezetékről van szó, néha egy nézeteltérést egyértelműen meg kell oldani, különben az adott ügy elmondhatatlan szerencsétlenséghez vezet. Nem hagyhatjuk, hogy egy nézeteltérés csak úgy elsorvadjon a szőlőben. Lehet, hogy az idő a lényeg, és életek foroghatnak kockán.

Egyértelmű követelmény bizonyos körültekintő eszközökkel a nézeteltérések megoldására, még ha nem is feltétlenül elfogadható módon, beleértve azt is, amikor a mesterséges intelligencia és a hurokban lévő ember nem lát sem szemtől-szemtől, sem bájtról bájtra.

Bízom benne, hogy nem fog egyetérteni ezzel a teljesen elfogadható érveléssel.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lesssons-gleaned-from-that-recent-alaska-airlines-flight-where- a pilóta és a másodpilóta nem értett egyet a felszállás előtt, és hirtelen úgy döntött, hogy visszataxizik a terminálhoz, és külön-külön mennek/