A mesterséges intelligencia etika azt mondja, hogy a mesterséges intelligenciát különösen akkor kell alkalmazni, ha az emberi előítéletek bővelkednek

Az embereknek meg kell ismerniük a korlátaikat.

Emlékezhetsz a korlátaink megismeréséről szóló, hasonló híres mondatra, amelyet Piszkos Harry karaktere mondott ki az 1973-as filmben. Magnum Force (Clint Eastwood színész emlékezetes szerepében, Harry Callahan felügyelőként). Az általános elképzelés az, hogy néha hajlamosak vagyunk figyelmen kívül hagyni saját korlátainkat, és ennek megfelelően belemerülünk a forró vízbe. Legyen szó hübriszről, egocentrikusságról vagy egyszerűen vakok a saját képességeinkre, az az előírás, hogy tisztában legyünk hajlamainkkal és hiányosságainkkal, és azokat kifejezetten figyelembe vegyük, nagyon ésszerű és hasznos.

Adjunk egy új csavart a bölcs tanácshoz.

A mesterséges intelligencia (AI) megismerte korlátait.

Mit értek a tisztelt hívószó ezen változata alatt?

Kiderült, hogy a kezdeti rohanás, hogy a modern kor mesterséges intelligenciáját a világ problémáinak reményteljes megoldásaként használhassák, beszennyezte és teljesen elsárosította az a felismerés, hogy a mai mesterséges intelligencia meglehetősen súlyos korlátokkal rendelkezik. Elmentünk a felemelő szalagcímekről AI For Good és egyre inkább belemerültünk AI For Bad. Tudja, sok mesterséges intelligencia-rendszert fejlesztettek ki és alkalmaztak mindenféle nemkívánatos faji és nemi előítélettel, és számtalan más ilyen megdöbbentő egyenlőtlenséggel.

A mesterséges intelligencia etikájával és az etikai AI-val kapcsolatos kiterjedt és folyamatos írásaimat lásd az itt található link és a az itt található link, csak hogy néhányat említsek.

Az ezekben a mesterséges intelligencia-rendszerekben felfedezett torzítások nem azok a „szándékos” típusúak, amelyeket az emberi viselkedésnek tulajdonítanánk. Ezt annak hangsúlyozására mondom, hogy a mai mesterséges intelligencia nem érző. A harsogó címek ellenére, amelyek mást sugallnak, egyszerűen nincs olyan mesterséges intelligencia, amely a közelébe érne az értelmesnek. Ráadásul nem tudjuk, hogyan tegyük az AI-t az érzéki zárójelbe, ráadásul senki sem tudja biztosan megmondani, hogy valaha is elérjük-e a mesterséges intelligencia érzékét. Talán egyszer megtörténik, vagy talán nem.

Tehát a lényeg az, hogy nem rendelhetünk különösebben szándékot ahhoz a fajta mesterséges intelligenciához, amellyel jelenleg rendelkezünk. Ennek ellenére bőségesen rendelhetünk szándékot azokhoz, akik mesterséges intelligencia rendszereket készítenek. Egyes mesterséges intelligencia-fejlesztők nincsenek tisztában azzal a ténnyel, hogy olyan mesterséges intelligencia-rendszert dolgoztak ki, amely kellemetlen és valószínűleg illegális elfogultságokat tartalmaz. Eközben más mesterséges intelligencia-fejlesztők ráébrednek, hogy elfogultságokat vezetnek be mesterséges intelligencia-rendszereikbe, és ezt potenciálisan szándékos jogsértő módon teszik.

Akárhogy is, az eredmény továbbra is méltatlan és valószínűleg jogellenes.

Erőteljes erőfeszítések folynak a mesterséges intelligencia etikai alapelvei kihirdetésére, amelyek felvilágosítják a mesterséges intelligencia fejlesztőit, és megfelelő útmutatást adnak az AI-rendszereikbe való torzítások elkerüléséhez. Ez kettősebb módon segít. Először is, azoknak, akik mesterséges intelligenciát készítenek, többé nem lesz kész mentségük arra, hogy egyszerűen nem voltak tisztában azzal, hogy milyen előírásokat kell követni. Másodszor, azokat, akik eltérnek az etikus mesterséges intelligencia feltételeitől, könnyebben elkapják és megmutatják, hogy elkerülik azt, amit előre figyelmeztettek, hogy tegyenek és ne tegyenek.

Szánjunk egy percet arra, hogy röviden áttekintsünk néhány kulcsfontosságú etikai mesterséges intelligencia előírást, hogy bemutassuk, mire kell gondolniuk a mesterséges intelligencia-építőknek, és mi az, amit szigorúan vállalniuk kell az AI-etikai álláspontjuk alapján.

Amint azt a Vatikán a Róma felhívás a mesterséges intelligencia etikájára és amint azt alaposan kifejtettem itt az itt található link, ez az általuk azonosított hat elsődleges AI etikai elv:

  • Átláthatóság: Elvileg az AI-rendszereknek magyarázhatónak kell lenniük
  • Befogadás: Minden ember szükségleteit figyelembe kell venni, hogy mindenki részesülhessen, és minden egyén számára a lehető legjobb feltételeket kínálhassuk önkifejezéshez és fejlődéshez.
  • Felelősség: Az MI használatát tervezőknek és alkalmazóknak felelősségteljesen és átláthatóan kell eljárniuk
  • Pártatlanság: Ne alkosson vagy cselekedjen elfogultság szerint, ezzel óvva a méltányosságot és az emberi méltóságot
  • Megbízhatóság: Az AI-rendszereknek megbízhatóan kell működniük
  • Biztonság és adatvédelem: Az AI-rendszereknek biztonságosan kell működniük, és tiszteletben kell tartaniuk a felhasználók magánéletét.

Amint azt az Egyesült Államok Védelmi Minisztériuma (DoD) kijelentette A mesterséges intelligencia használatának etikai alapelvei és amint azt alaposan kifejtettem itt az itt található link, ez a hat elsődleges AI etikai alapelvük:

  • Felelős: A DoD személyzete megfelelő szintű ítélőképességet és gondosságot gyakorol, miközben felelős marad az AI-képességek fejlesztéséért, telepítéséért és használatáért.
  • Igazságos: A minisztérium szándékos lépéseket tesz az AI-képességek nem szándékos torzításának minimalizálása érdekében.
  • Nyomon követhető: A minisztérium mesterséges intelligencia képességeit úgy fejlesztik és alkalmazzák, hogy az érintett személyzet megfelelő ismeretekkel rendelkezzen az AI-képességekre vonatkozó technológiáról, fejlesztési folyamatokról és működési módszerekről, beleértve az átlátható és auditálható módszereket, adatforrásokat, valamint a tervezési eljárást és dokumentációt.
  • Megbízható: A minisztérium mesterséges intelligencia-képességeinek kifejezett, jól meghatározott felhasználási területei lesznek, és az ilyen képességek biztonsága, biztonsága és hatékonysága tesztelés és szavatosság tárgyát képezi a meghatározott felhasználási módokon belül, teljes életciklusuk során.
  • Kormányozható: A minisztérium megtervezi és megtervezi a mesterséges intelligencia képességeit, hogy teljesítsék a tervezett funkcióikat, miközben képesek lesznek észlelni és elkerülni a nem kívánt következményeket, valamint képesek lekapcsolni vagy deaktiválni a nem szándékos viselkedést tanúsító telepített rendszereket.

Megvitattam a mesterséges intelligencia etikai elveinek különféle kollektív elemzéseit is, beleértve a kutatók által kidolgozott halmazt, amely számos nemzeti és nemzetközi AI etikai tétel lényegét vizsgálta és sűrítette a „The Global Landscape Of AI Ethics Guidelines” című cikkben (megjelent. ban ben Természet), és amit tudósításom a címen vizsgál az itt található link, ami ehhez a trapézkő listához vezetett:

  • Átláthatóság
  • Igazságosság és méltányosság
  • Nem rosszindulat
  • Felelősség
  • Adatvédelem
  • Jótékonyság
  • Szabadság és autonómia
  • Bízzon
  • Fenntarthatóság
  • Méltóság
  • Szolidaritás

Amint azt közvetlenül sejtheti, rendkívül nehéz lehet az ezen elvek mögött rejlő konkrétumok meghatározása. Még ennél is keményebb dió az a törekvés, hogy ezeket a tág alapelveket valami teljesen kézzelfoghatóvá és kellően részletezetté alakítsák ahhoz, hogy az AI-rendszerek kidolgozásakor felhasználhatók legyenek. Könnyű összességében egy kis kézzel integetni arról, hogy mik az AI etikai előírásai, és hogyan kell azokat általában betartani, miközben sokkal bonyolultabb a helyzet, ha az AI kódolásnak valódi guminak kell lennie, amely találkozik az úttal.

Az AI etikai elveit az AI-fejlesztőknek kell alkalmazniuk, az AI-fejlesztési erőfeszítéseket irányítókkal együtt, sőt még azokkal is, amelyek végső soron az AI-rendszerek karbantartását és karbantartását végzik. Az összes érdekelt fél a mesterséges intelligencia fejlesztésének és használatának teljes életciklusa során beletartozik az etikus mesterséges intelligencia elfogadott normáihoz. Ez egy fontos kiemelés, mivel a szokásos feltevés az, hogy „csak a kódolók” vagy az AI-t programozók kötelesek betartani az AI etikai elveit. Kérjük, vegye figyelembe, hogy a mesterséges intelligencia kidolgozásához és használatához egy falura van szükség. Amihez az egész falunak résen kell lennie a mesterséges intelligencia etikájával kapcsolatban.

Mindenesetre, most, hogy rájöttem, hogy a mesterséges intelligencia torzításokat tartalmazhat, talán mindannyian egyetértünk ezzel a két nyilvánvaló ténnyel:

1. Az embereknek számos nemkívánatos elfogultsága lehet, és ezek alapján cselekedhetnek

2. A mesterséges intelligencia számos nemkívánatos torzítással rendelkezhet, és képes ezekre az elfogultságokra hatni

Kissé utálom az embereket az MI-vel szemben ebben a kontextusban, mivel ez valahogy azt sugallhatja, hogy a mesterséges intelligencia érzéki képessége az emberekével egyenértékű. Ez biztosan nem így van. Rövidesen visszatérek a mesterséges intelligencia antropomorfizálásával kapcsolatos aggodalmakra egy kicsit később ebben a vitában.

Melyik a rosszabb, az emberek, akik nem kívánatos elfogultságot mutatnak, vagy a mesterséges intelligencia, amely ezt teszi?

Merem állítani, hogy a kérdés az egyik ilyen nehéz döntést jelenti. Ez a közmondás szerint a két rossz közül a kisebbik, vitatkozhatnánk. Szeretnénk, ha az emberek nem testesítenének meg nemkívánatos elfogultságot. Azt kívánjuk továbbá, hogy még ha az embereknek is vannak nemkívánatos elfogultságai, ne cselekedjenek ezek alapján. Ugyanezt találóan elmondhatjuk az AI-ról is. Szeretnénk, ha a mesterséges intelligencia nem ágyazna be nemkívánatos torzításokat, és még ha vannak is ilyen belsőleg kódolt torzítások, az AI legalább ne lépne fel rájuk.

Bár a kívánságok nem feltétlenül vezetik a világot (az én elemzésemhez az ún. AI kívánságteljesítés a társadalom egészében, lásd az itt található link).

Oké, nyilvánvalóan azt akarjuk, hogy az emberek ismerjék a korlátaikat. Fontos felismerni, ha nem kívánatos elfogultságai vannak. Ugyanilyen fontos, hogy megpróbáljuk megakadályozni, hogy ezek a nemkívánatos elfogultságok beépüljenek tetteibe és döntéseibe. A vállalkozások manapság mindenféle megközelítést kipróbálnak, hogy megóvják alkalmazottaikat a kellemetlen előítéletek szörnyű buktatóitól. Speciális képzésben részesülnek az alkalmazottak arról, hogyan végezzék munkájukat etikus módon. A folyamatokat az alkalmazottak köré alakítják, hogy figyelmeztessék őket, ha úgy tűnik, hogy etikátlan erkölcsöket tanúsítanak. Stb.

Az emberekkel és a rossz előítéletekkel való megbirkózás másik módja az emberi alapú munka automatizálása lenne. Igen, egyszerűen távolítsa el az embert a hurokból. Ne engedje meg, hogy egy ember döntéshozatali feladatot lásson el, és feltehetően már nincsenek elhúzódó aggodalmai az emberi magatartással kapcsolatban a kellemetlen elfogultságokkal kapcsolatban. Nincs ember, és így a lehetséges emberi torzítások problémája megoldódni látszik.

Ezt azért hozom fel, mert egy fokozatos és hatalmas elmozdulásnak vagyunk tanúi az AI algoritmusos döntéshozatali (ADM) módon történő alkalmazása felé. Ha egy emberi dolgozót mesterségesintelligencia-val helyettesíthet, akkor nagy valószínűséggel számos előnnyel jár majd. Amint már említettük, többé nem aggódna az adott emberi munkás (aki már nem végzi el ezt a munkát) emberi elfogultságai miatt. Valószínű, hogy a mesterséges intelligencia összességében olcsóbb lesz a hosszú távú időhorizonthoz képest. Eltekint az összes többi válogatott nehézségtől, amely az emberi munkásokkal együtt jár. Stb.

Úgy tűnik, hogy egy javaslat, amely egyre nagyobb teret nyer, a következő: Amikor megpróbálja eldönteni, hogy hol helyezze el a legjobban a mesterséges intelligenciát, először azokra a beállításokra nézzen, amelyek már eleve nemkívánatos emberi előítéletekkel járnak a dolgozók részéről, és amelyek esetében ezek az előítéletek alávágnak vagy más módon túlzottan megnehezítik bizonyos döntéshozatali feladatokat.

A lényeg az, hogy körültekintőnek tűnik, ha a mesterséges intelligencia-befektetések terén a legtöbb pénzt hozná ki, ha kifejezetten olyan emberi döntéshozatali feladatokat céloz meg, amelyeket nehéz ellenőrizni a nemkívánatos torzítások infúziójának szemszögéből. Távolítsa el az emberi munkásokat ebben a szerepkörben. Cserélje ki őket AI-ra. A feltételezés az, hogy a mesterséges intelligencia nem tartalmaz ilyen kedvezőtlen torzításokat. Emiatt elfogyaszthatja és eheti is a süteményét, vagyis vállalhatja a döntési feladatokat, és ezt megteheti a nem kívánatos elfogultságok etikai és jogi kísértete nélkül.

Ha ezt megjegyzi, a ROI (befektetésarányos megtérülés) valószínűleg oktalan választássá teszi az AI alkalmazását.

Ez általában így megy.

Tekintse át cégét, és próbálja azonosítani azokat a döntéshozatali feladatokat, amelyek hatással vannak az ügyfelekre. Ezen feladatok közül melyek a legvalószínűbb, hogy nem megfelelően befolyásolják, ha a dolgozók nemkívánatos elfogultságokat testesítenek meg? Ha már megpróbálta megfékezni ezeket az elfogultságokat, talán hagyja, hogy a dolgok úgy álljanak, ahogy vannak. Másrészt, ha az elfogultságok folyamatosan megjelennek, és a kiküszöbölésük erőfeszítése megterhelő, fontolja meg néhány idevágó mesterséges intelligencia beiktatását ebbe a szerepbe. Ne tartsa a dolgozókat a keverékben, mert felülírhatják az MI-t, vagy visszaszoríthatják az AI-t a nemkívánatos elfogultságok szakadékába. Győződjön meg arról is, hogy a mesterséges intelligencia hozzáértően tudja végrehajtani a feladatot, és Ön megfelelően megragadta a munka elvégzéséhez szükséges döntéshozatali szempontokat.

Öblítsük le és ismételjük meg.

Tisztában vagyok vele, hogy ez egyértelmű elképzelésnek tűnik, bár tisztában kell lenni azzal, hogy az emberi munkások mesterséges intelligenciával való helyettesítése számos módon könnyen balul sülhet el. Sok vállalat készen állt az ilyen intézkedések megtételére, és nem mérlegelte, hogyan tegye ezt. Ennek eredményeként gyakran sokkal rosszabbat csináltak, mint amennyire a kezükben volt.

Szeretném tisztázni és hangsúlyozni, hogy az AI nem csodaszer.

Ha már itt tartunk, van egy óriási gond az állítólagos elfogulatlan mesterségesintelligencia látszólagos kidobásának tisztaságával kapcsolatban. A baj az, hogy lehet, hogy pusztán a nemkívánatos torzítások egyik halmazát helyettesíti egy másikkal. A korábbi jelzések szerint a mesterséges intelligencia tartalmazhat nemkívánatos torzításokat, és képes ezekre a torzításokra reagálni. Az a pimasz feltételezés, hogy az elfogult embereket elfogulatlan MI-re cseréljük, még nem minden.

Röviden, a következő az üzlet, ha az ügyet szigorúan az elfogultsági tényezők alapján vizsgáljuk:

  • Az AI-nak nincsenek kedvezőtlen előítéletei, ezért az AI-alapú ADM könnyen telepíthető
  • A mesterséges intelligencia ugyanolyan rossz előítéletekkel rendelkezik, mint a lecserélt emberek, ezért az AI-alapú ADM aggasztó.
  • A mesterséges intelligencia új, nem kívánatos elfogultságokat vezet be a lecserélt emberekén kívül, és ennek megfelelően valószínűleg rontja a dolgokat.
  • A mesterséges intelligencia eleinte jónak tűnik, majd fokozatosan rossz előítéletekké ingadozik
  • Más

Röviden kibonthatjuk ezeket a lehetőségeket.

Az első az idealizált változata annak, ami megtörténhet. Az AI-nak nincsenek kedvezőtlen előítéletei. Helyére helyezi az AI-t, és kiválóan végzi a munkáját. Jó neked! Természetesen remélhető, hogy valamilyen ügyesen kezelte az emberi munkások elköltözését az MI-bevonás miatt.

A második esetben a mesterséges intelligenciát a helyére helyezi, és felfedezi, hogy az MI ugyanazokat a nemkívánatos elfogultságokat mutatja, mint az emberi munkások. Hogy lehet ez? Ebbe a csapdába esés gyakori módja a gépi tanulás (ML) és a mély tanulás (DL) használata, amely azon összegyűjtött adatokon alapul, hogy a szerepet betöltő emberek korábban hogyan hozták meg döntéseiket.

Engedjen meg egy pillanatra, hogy elmagyarázzam.

Az ML/DL a számítási mintaillesztés egyik formája. A szokásos megközelítés az, hogy egy döntési feladatról adatokat gyűjt össze. Az adatokat betáplálja az ML/DL számítógépmodellekbe. Ezek a modellek matematikai mintákat keresnek. Miután megtalálta az ilyen mintákat, ha igen, az AI rendszer ezeket a mintákat fogja használni, amikor új adatokkal találkozik. Az új adatok bemutatásakor a „régi” vagy történelmi adatokon alapuló mintákat alkalmazzák az aktuális döntés meghozatalához.

Szerintem sejtheti, hová vezet ez. Ha az emberek, akik évek óta végzik ezt a munkát, nemkívánatos elfogultságokat alkalmaznak, akkor valószínű, hogy az adatok ezt finoman, de jelentős mértékben tükrözik. A Machine Learning vagy a Deep Learning számítási mintaillesztés egyszerűen megpróbálja matematikailag utánozni az adatokat ennek megfelelően. A modellezésnek önmagában nincs látszata a józan észnek vagy más érző szempontoknak.

Továbbá előfordulhat, hogy az AI-fejlesztők sem tudják, mi történik. A rejtélyes matematika megnehezítheti a ma már rejtett torzítások kiszűrését. Joggal remélhető és elvárható, hogy a mesterséges intelligencia fejlesztői teszteljék a potenciálisan eltemetett torzításokat, bár ez bonyolultabb, mint amilyennek látszik. Jó esély van arra, hogy még viszonylag kiterjedt tesztelés mellett is lesznek torzítások az ML/DL mintaillesztési modelljeibe.

Mindent egybevetve előfordulhat, hogy visszatér az elsőhöz. Az emberek ugyanazok a nemkívánatos előítéletei most számításilag tükröződnek az AI-rendszerben. Nem számoltad fel az elfogultságokat.

Ami még rosszabb, kevésbé valószínű, hogy észreveszi, hogy a mesterséges intelligencia torzításokkal rendelkezik. Emberek esetében általában óvakodhat attól, hogy az emberekben vannak nemkívánatos elfogultságok. Ez alap elvárás. Az AI használata elhiteti a vezetőket, hogy az automatizálás teljesen megszüntette az emberi elfogultság minden fajtáját. Így beállítják magukat, hogy lábon lőtték magukat. Megszabadultak azoktól az emberektől, akiknek látszólag rossz előítéletei vannak, helyükre olyan mesterséges intelligencia került, amelyről úgy gondolták, hogy nincs ilyen torzítás, és most mégis használatba vették az AI-t, amely tele van a már ismert torzításokkal.

Ez igazán keresztbe ejtheti a dolgokat. Előfordulhat, hogy eltávolított más, az emberi munkásokkal használt védőkorlátokat, amelyeket azért hoztak létre, hogy észleljék és megakadályozzák a már előre látható emberi előítéleteket. Az AI most szabad kezet kapott. Semmi sincs a helyén, hogy felfogja, mielőtt cselekszik. A mesterséges intelligencia ekkor elkezdheti vezetni Önt az elfogult cselekvések hatalmas felhalmozódásának nehéz útjára.

Ön pedig abban a kínos és talán felelősségteljes testhelyzetben van, amelyet valaha tudott az elfogultságokról, és most megengedte, hogy ezek az elfogultságok pusztítást végezzenek. Talán egy dolog, hogy még soha nem találkoztunk ilyen kellemetlen torzításokkal, és aztán hirtelen a mesterséges intelligencia elindítja őket. Megpróbálhatja ezt a „ki sejtette volna” típusú zavaró tényezővel mentegetni (talán nem túl meggyőzően). De ha most olyan mesterséges intelligenciát állítottunk be, amely ugyanazokat a rosszindulatú, elfogult cselekedeteket hajtja végre, mint korábban, akkor a kifogásai egyre ritkábbak és halványabbak.

Ennek egy csavarja azt jelenti, hogy az AI olyan nemkívánatos torzításokat mutat, amelyekkel korábban nem találkoztak, amikor az emberek a feladatot végezték. Mondhatnánk, hogy ezt talán nehezebb megakadályozni, mivel olyan „új” torzításokból áll, amelyeket a cég korábban nem keresett. Végül azonban a kifogások nem biztos, hogy megkönnyebbülnek. Ha a mesterséges intelligencia rendszer etikátlan és törvénytelen területre is bemerészkedett, előfordulhat, hogy a libája megsült.

Egy másik szempont, amelyet szem előtt kell tartani, az, hogy a mesterséges intelligencia jól indulhat, majd behatol a nemkívánatos torzításokba. Ez különösen akkor valószínű, ha a gépi tanulást vagy a mély tanulást folyamatosan használják az AI naprakészen tartása érdekében. Függetlenül attól, hogy az ML/DL valós időben működik, vagy rendszeresen frissít, figyelni kell arra, hogy az AI esetleg feldolgoz-e olyan adatokat, amelyek most torzításokat tartalmaznak, és amelyek korábban nem voltak jelen.

Azok a vezetők, akik azt hiszik, hogy egy varázspálcával hadonászva ingyen ebédet kapnak, hogy az elfogult emberi munkásokat mesterséges intelligenciára cseréljék, nagyon durva ébredés vár rájuk. Tekintse meg a vezetőket az AI etika előírásaival való felhatalmazásának fontosságáról szóló beszélgetésemet itt az itt található link.

A vita ezen a pontján lefogadom, hogy szeretne néhány valós példát, amelyek bemutathatják azt a rejtélyt, hogy az emberi nemkívánatos torzításokat mesterségesintelligencia-alapú nemkívánatos torzításokkal kell helyettesíteni (vagy sem).

Örülök, hogy megkérdezted.

Van egy különleges és biztosan népszerű példasor, amely közel áll a szívemhez. Látod, a mesterséges intelligencia szakértőjeként, beleértve az etikai és jogi következményeket is, gyakran kérnek fel olyan reális példák azonosítására, amelyek bemutatják a mesterséges intelligencia etikai dilemmáit, hogy könnyebben megragadható legyen a téma némileg elméleti jellege. Az egyik legemlékezetesebb terület, amely élénken mutatja be ezt az etikus AI-problémát, az AI-alapú, valódi önvezető autók megjelenése. Ez praktikus használati esetként vagy példaként szolgál a témával kapcsolatos bőséges vitához.

Íme, egy figyelemre méltó kérdés, amelyen érdemes elgondolkodni: A mesterséges intelligencia-alapú, valódi önvezető autók megjelenése felvilágosít-e valamit az AI nemkívánatos torzításairól, és ha igen, mit mutat ez be?

Engedjen meg egy pillanatra, hogy kibontsa a kérdést.

Először is vegye figyelembe, hogy egy igazi önvezető autóban nincs emberi vezető. Ne feledje, hogy az igazi önvezető autókat mesterséges intelligencia vezetési rendszer vezeti. Nincs szükség emberi sofőrre a volánnál, és arra sem, hogy ember vezesse a járművet. Az autonóm járművekről (AV-k) és különösen az önvezető autókról szóló kiterjedt és folyamatos tájékoztatásért lásd az itt található link.

Szeretném még jobban tisztázni, mit kell érteni, amikor valódi önvezető autókra utalok.

Az önvezető autók szintjének megértése

Tisztázásképpen: az igazi önvezető autók azok, amelyekben az AI teljes egészében egyedül hajtja az autót, és a vezetési feladat során nincs emberi segítség.

Ezek a vezető nélküli járművek 4-es és 5-ös szintnek minősülnek (lásd a magyarázatomat a következő helyen). ez a link itt), míg az olyan autókat, amelyekhez emberi vezető szükséges a vezetési erőfeszítések közös megosztására, általában 2. vagy 3. szinten tekintik. A vezetési feladatot közösen megosztó autók leírása félig autonóm, és általában különféle automatizált bővítmények, amelyeket ADAS-nak (Advanced Driver-Assistance Systems) neveznek.

Még nem létezik egy valódi önvezető autó az 5. szinten, amelyet még csak nem is tudunk, hogy ezt el lehet-e érni, és hogy mennyi ideig tart is eljutni oda.

Eközben a 4. szintű erőfeszítések fokozatosan próbálnak némi vonóerőt szerezni nagyon szűk és szelektív közúti próbák révén, bár vita folyik arról, hogy ezt a tesztelést önmagában engedélyezni kell-e (mindannyian életre-halálra menő tengerimalacok vagyunk egy kísérletben autópályáinkon és mellékutainkon zajlanak, egyesek azt állítják, lásd tudósításomat itt ez a link itt).

Mivel a félig autonóm autókhoz emberi sofőrre van szükség, az ilyen típusú autók elfogadása nem különbözik nyilvánvalóan a hagyományos járművek vezetésénél, tehát önmagában nincs sok új, hogy ezekkel a témákkal foglalkozzanak (bár, amint látni fogja) egy pillanat alatt a következő pontok általában alkalmazandók).

A félig autonóm autók esetében fontos, hogy a nyilvánosságot figyelmeztessék az utóbbi időben felmerülő zavaró tényezőkre, nevezetesen arra, hogy azoknak az emberi járművezetőknek ellenére, akik folyamatosan videókat tesznek közzé, hogy maguk alszanak a 2. vagy 3. szintű autó kormányához , mindannyian el kell kerülnünk, hogy félrevezetjük azt a hitet, hogy a sofőr félig autonóm autó vezetése közben elvonhatja figyelmét a vezetési feladatról.

Te vagy a felelős a jármű vezetési tevékenységeiért, függetlenül attól, hogy mekkora mennyiségű automatizálást lehet 2. vagy 3. szintre dobni.

Önvezető autók és mesterséges intelligencia, rossz előítéletekkel

A 4. és 5. szintű valódi önjáró járműveknél nem vezethet embervezető a vezetési feladatba.

Minden utas utas lesz.

Az AI vezet.

Azonnal megvitatandó szempont azzal a ténnyel jár, hogy a mai mesterséges intelligencia-vezetési rendszerekben részt vevő mesterséges intelligencia nem érző. Más szavakkal, az AI összességében számítógépes programozás és algoritmusok összessége, és bizonyosan nem képes ugyanúgy érvelni, mint az emberek.

Miért van ez a hangsúly arra, hogy az AI nem érzékeny?

Mivel szeretném aláhúzni, hogy az AI hajtórendszer szerepének tárgyalásakor nem tulajdonítok emberi tulajdonságokat az AI-nek. Felhívjuk figyelmét, hogy manapság folyamatos és veszélyes tendencia van az AI antropomorfizálására. Lényegében az emberek emberi szerű érzékenységet tulajdonítanak a mai mesterséges intelligenciának, annak ellenére, hogy tagadhatatlan és vitathatatlan tény, hogy ilyen AI még nem létezik.

Ezzel a pontosítással elképzelheti, hogy az AI vezetési rendszer valahogy nem fogja „tudni” a vezetés szempontjait. A vezetést és mindazt, amit ez magában foglal, be kell programozni az önvezető autó hardverének és szoftverének részeként.

Merüljünk el abban a számtalan szempontban, amelyek eljátszanak ebben a témában.

Először is fontos felismerni, hogy nem minden AI önvezető autó egyforma. Minden autógyártó és önvezető technológiai cég alkalmazza a hozzáállását az önvezető autók kidolgozásához. Emiatt nehéz átfogó kijelentéseket tenni arról, hogy az AI-meghajtórendszerek mit fognak tenni vagy nem.

Továbbá, ha azt állítják, hogy az AI meghajtó rendszer nem végez bizonyos dolgokat, ezt később a fejlesztők megelőzhetik, akik valójában erre programozzák a számítógépet. Lépésről lépésre az AI meghajtó rendszereket fokozatosan fejlesztik és bővítik. A meglévő korlátozás ma már nem létezik a rendszer későbbi iterációjában vagy verziójában.

Bízom benne, hogy ez elegendő litániai figyelmeztetést ad ahhoz, hogy alátámasszam azt, amit most el fogok mondani.

Most készen állunk arra, hogy mélyen elmerüljünk az önvezető autók és az Ethical AI lehetőségek terén, amelyek magukban foglalják a mesterséges intelligencia és a nemkívánatos torzítások feltárását.

Használjunk egy könnyen érthető példát. Egy mesterséges intelligencia-alapú önvezető autó halad a környék utcáin, és úgy tűnik, hogy biztonságosan vezet. Eleinte különös figyelmet szentelt minden egyes alkalommal, amikor sikerült megpillantania az önvezető autót. Az autonóm jármű az elektronikus szenzorokból álló állványával tűnt ki, amely videokamerákat, radaregységeket, LIDAR eszközöket és hasonlókat tartalmazott. Sok hét után az önvezető autóval körbejárta a közösséget, most alig veszi észre. Ami Önt illeti, ez csak egy újabb autó az amúgy is forgalmas közutakon.

Nehogy azt higgye, lehetetlen vagy valószínűtlen megismerni az önvezető autók látását, gyakran írtam arról, hogy az önvezető autók kipróbálásának körébe tartozó helyszínek fokozatosan hozzászoktak a felpörkölt járművekhez, lásd az elemzésemet itt ez a link itt. A helyiek közül sokan végül áttértek a szájtátva tátott, elragadtatott bámészkodásról az unalom kiterjedt ásítására, hogy szemtanúi legyenek a kanyargó önvezető autóknak.

Valószínűleg a fő ok, amiért most észreveszik az autonóm járműveket, az az irritáció és az elkeserítő tényező. A könyv szerinti mesterséges intelligencia-vezetési rendszerek gondoskodnak arról, hogy az autók betartsák az összes sebességkorlátozást és a KRESZ szabályait. Hagyományos, ember által hajtott autóikkal hektikus embervezetők időnként felháborodnak, amikor a szigorúan törvénytisztelő AI-alapú önvezető autók mögött ragadnak.

Ez az, amit mindannyiunknak meg kell szoknunk, jogosan vagy helytelenül.

Vissza a mesénkhez.

Kiderült, hogy két méltatlan aggodalomra ad okot az egyébként ártalmatlan és általánosan üdvözölt mesterségesintelligencia-alapú önvezető autók, konkrétan:

a. A közösség egészében aggodalomra ad okot, hogy a mesterséges intelligencia az önvezető autókat kóborolja, hogy felvegye a fuvarokat.

b. Az is egyre növekvő kérdés, hogy a mesterséges intelligencia hogyan bánik az elsőbbségi joggal nem rendelkező gyalogosokkal

Eleinte a mesterséges intelligencia az egész városban barangolta az önvezető autókat. Bárki, aki fuvart akart kérni az önvezető autóban, lényegében egyenlő eséllyel érkezett. Fokozatosan a mesterséges intelligencia kezdett elsősorban az önvezető autókat a város egyetlen részében tartani. Ez a rész nagyobb pénzt keresett, és az AI-rendszert úgy programozták, hogy megpróbálja maximalizálni a bevételeket a közösségben való használat részeként.

A város elszegényedett részein a közösség tagjai ritkábban tudtak önvezető autóból ülni. Ennek az az oka, hogy az önvezető autók távolabb voltak, és a terület magasabb bevételű részén roamoltak. Amikor a város távoli részéből érkezett kérés, minden közelebbi helyről érkező kérés, amely valószínűleg a város „megbecsült” részében volt, magasabb prioritást kapott. Végül a gazdagabb városrészen kívül szinte lehetetlen volt önvezető autóhoz jutni, elkeserítően azok számára, akik a ma erőforráshiányos vidékeken éltek.

Azt állíthatja, hogy az AI nagyjából a proxy-alapú megkülönböztetés egy formájára szállt rá (amit gyakran közvetett diszkriminációnak is neveznek). Az AI-t nem arra programozták, hogy elkerülje azokat a szegényebb környékeket. Ehelyett „megtanulta” ezt az ML/DL használatával.

A helyzet az, hogy a telekocsi-megosztó emberi sofőrök arról ismertek, hogy ugyanezt teszik, bár nem feltétlenül kizárólag a pénzkereseti szempont miatt. A telekocsit használó emberi sofőrök között voltak olyanok, akiknek nem volt hajlandó lovasokat felvenni a város bizonyos részein. Ez egy kissé ismert jelenség volt, és a város megfigyelési megközelítést vezetett be, hogy elkapja az embervezetőket, akik ezt teszik. Az emberi sofőrök bajba kerülhetnek, ha kellemetlen kiválasztási gyakorlatokat hajtanak végre.

Feltételezték, hogy az AI soha nem fog beleesni ugyanilyen futóhomokba. Nem állítottak fel speciális felügyeletet annak nyomon követésére, hogy az AI-alapú önvezető autók merre haladnak. Csak miután a közösség tagjai panaszkodni kezdtek, a város vezetői rájöttek, mi történik. Ha többet szeretne megtudni az önvezető járművek és az önvezető autók ilyen típusú városi problémáiról, tekintse meg tudósításomat itt: ez a link itt és amely egy Harvard által vezetett tanulmányt ír le, amelynek társszerzője voltam a témában.

A mesterséges intelligencia-alapú önvezető autók barangolási vonatkozásainak ez a példája jól illusztrálja azt a korábbi jelzést, amely szerint előfordulhatnak olyan helyzetek, amelyekben az emberekben nemkívánatos elfogultságok lépnek fel, és amelyekre ellenőrzéseket vezetnek be, és hogy az ezeket az emberi vezetőket felváltó mesterséges intelligencia skóciai marad. ingyenes. Sajnos a mesterséges intelligencia fokozatosan belemerülhet a hasonló torzításokba, és ezt megfelelő védőkorlát nélkül teheti meg.

A másik példa az, hogy az AI meghatározza, hogy megálljon-e a várakozó gyalogosok számára, akiknek nincs elsőbbsége az utcán való átkeléshez.

Ön kétségtelenül vezetett, és olyan gyalogosokkal találkozott, akik arra vártak, hogy átkeljenek az utcán, de nem volt elsőbbségük ehhez. Ez azt jelentette, hogy szabadon dönthetett arról, hogy megálljon-e, és átengedje-e őket. Továbbléphet anélkül, hogy átengedné őket, és továbbra is betarthatja a törvényes vezetési szabályokat.

Az arra vonatkozó tanulmányok, hogy az emberi sofőrök hogyan döntenek arról, hogy megállnak-e vagy nem állnak meg az ilyen gyalogosok esetében, azt sugallják, hogy néha az emberi járművezetők nem kívánatos elfogultságok alapján választanak. Előfordulhat, hogy egy emberi sofőr a gyalogosra figyel, és úgy dönt, hogy nem áll meg, még akkor is, ha megállt volna, ha a gyalogos külső megjelenése más, például faj vagy nem alapján. Megvizsgáltam ezt a az itt található link.

Képzelje el, hogy az AI-alapú önvezető autók úgy vannak programozva, hogy foglalkozzanak azzal a kérdéssel, hogy megálljanak-e vagy sem az elsőbbségi joggal nem rendelkező gyalogosok számára. A mesterséges intelligencia fejlesztői így döntöttek a feladat programozása mellett. Adatokat gyűjtöttek a város videokameráiról, amelyeket a városban mindenhol elhelyeztek. Az adatok bemutatják azokat az embervezetőket, akik megállnak az elsőbbségi joggal nem rendelkező gyalogosok számára, illetve a meg nem álló embervezetőket. Mindezt egy nagy adathalmazba gyűjtik össze.

A Machine Learning és a Deep Learning használatával az adatok számítási modellezése történik. Az AI vezetési rendszer ezután ezt a modellt használja annak eldöntésére, hogy mikor álljon meg vagy ne. Általában az az elképzelés, hogy bármiből is álljon a helyi szokás, az AI így irányítja az önvezető autót.

A város vezetői és a lakosok meglepetésére az AI nyilvánvalóan a gyalogos megjelenése, faja és neme alapján döntött úgy, hogy megáll vagy nem. Az önvezető autó érzékelői pásztáznák a várakozó gyalogost, ezeket az adatokat betáplálnák az ML/DL modellbe, a modell pedig kiadná az AI-nak, hogy álljon meg vagy folytassa. Sajnálatos módon a városban már sok emberi vezetői elfogultság volt ebben a tekintetben, és az AI most ugyanezt utánozza.

A jó hír az, hogy ez olyan problémát vet fel, amelynek létezéséről korábban szinte senki sem tudott. A rossz hír az volt, hogy mivel az MI-t rajtakapták ezen, ezért a legtöbbet ő hibáztatja. Ez a példa azt szemlélteti, hogy egy mesterséges intelligencia-rendszer pusztán megismételheti az emberek már meglévő, nemkívánatos előítéleteit.

Következtetés

Számos módja van annak, hogy megpróbáljuk elkerülni az olyan mesterséges intelligencia kidolgozását, amely vagy a kapun kívüli előítéletekkel rendelkezik, vagy idővel előítéleteket szűr. Az egyik megközelítés annak biztosítása, hogy a mesterséges intelligencia fejlesztői tudatában legyenek ennek, és így résen tartsák őket, hogy programozzák a mesterséges intelligenciát az eset elhárítására. Egy másik lehetőség az, hogy a mesterséges intelligencia önellenőrzi magát az etikátlan viselkedésekre (lásd a vitámat itt: az itt található link) és/vagy van egy másik mesterséges intelligencia-része, amely figyeli más mesterséges intelligencia rendszereket az esetlegesen etikátlan viselkedés miatt (erről itt beszéltem az itt található link).

Összefoglalva, fel kell ismernünk, hogy az emberekben lehetnek nemkívánatos elfogultságok, és valamilyen módon ismerniük kell a korlátaikat. Hasonlóképpen, a mesterséges intelligencia is tartalmazhat nemkívánatos torzításokat, és valahogy tudnunk kell a korlátaikat.

Azok számára, akik lelkesen felkarolják a mesterséges intelligencia etikáját, szeretném most egy másik híres vonallal befejezni, amelyet már mindenkinek ismernie kell. Nevezetesen, kérjük, továbbra is használja és ossza meg az Ethical AI fontosságát. És ezzel pimaszul ezt mondanám: „Gyere, tegye meg a napomat.”

Forrás: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/