A mesterséges intelligencia etikája a növekvő forró burgonya szindrómáról dühöng, amelyet a mesterséges intelligencia-készítők alkalmaznak, látszólag megpróbálják elkerülni, hogy felelősségre vonják életüket meghatározó autonóm rendszereiket

Mindannyian tudjuk, hogy gondoskodnia kell arról, hogy ne a közmondásos forró burgonyával végezze.

Úgy tűnik, hogy a forró burgonya-gambit gyökerei legalább az 1800-as évek végére nyúlnak vissza, amikor egy gyújtott gyertyákból álló társasjáték gurította a labdát. Az emberek jellemzően egy sor faszékben ültek, amelyek viszonylag szomszédosak voltak, és teljesen izgató játékot játszottak abban a korszakban. A játékosok egy meggyújtott gyertyát adtak át emberről emberre, és azt jelképezték, amit később úgy döntöttünk, hogy átadunk egy forró krumpli.

Szokás volt, hogy mindenkinek hangosan kellett elmondania egy népszerű mondókát, mielőtt továbbadhatta volna a fokozatosan égő gyertyát. A mondóka látszólag így hangzott:

– Jack él, és valószínűleg élni fog;

Ha meghal a kezedben, veszteséget kell adnod."

Ez a rímelő preambulumbekezdés feltehetően hagyna egy kis időt a gyertyának, hogy tovább égjen a végső befejezés felé. Aki a végén a természetes kioltásnál elakadt a birtokában lévő gyertyával, az elvesztette a meccset (szójáték!).

A mondókában jelzett szavak szerint a vesztesnek ki kellett fizetnie a „veszteséget”, így általában ki kellett lépnie a játék minden további fordulójából. Ezt aztán kombinálhatjuk azzal, amit ma mindennapi zenei széknek tekintünk, így a fordulót vesztett személy többé nem vesz részt a következő körökben (mintha a zene leállt, és nem tudna szabad helyet szerezni). Végül csak két ember maradna, akik átadták a meggyújtott gyertyát és elmondták a mondókát, mígnem a végső oltás során kiderül a végső győztes.

Elgondolkodhat azon, hogy miért nem játsszuk többé ezt a játékot égő gyertyával, és miért emlegetjük ezt általában forró krumpliként, ahelyett, hogy „gyújtott gyertyaként” ábrázolnánk. A kutatók számos elméletet dolgoztak ki arra vonatkozóan, hogy ez hogyan valósult meg fokozatosan. A történelem homályosnak és bizonytalannak tűnik azzal kapcsolatban, hogy a dolgok hogyan alakultak ebben az ügyben. Azt hiszem, megnyugodhatunk, hogy a meggyújtott gyertyákat nem szokták így használni, mert nagyon aggasztónak tűnhet annak az esélye, hogy valami érezhetően elromol (valaki elejti a gyertyát és tüzet gyújt, vagy valaki megég a gyertyától, amikor átadják másik játékostól stb.).

Ami a forró burgonyát illeti, mint a meggyújtott gyertya potenciális helyettesítőjét, általában azzal érvelhetünk, hogy a burgonya összességében valamivel biztonságosabb lesz. Nincs nyílt láng. Nincs olvadó viasz. A burgonya felhasználásának lehetséges alapja ebben az összefüggésben az, hogy ismert, hogy felmelegítés után könnyen megtartja a hőt. A burgonyát körbeforgathatod, és egy ideig forró marad. Feltételezzük, hogy annak eldöntése, hogy a forró burgonya mikor már nem forró, hanem hidegnek minősül, hevesen vitatható javaslat lenne.

Természetesen a közmondásos forró burgonya fogalma manapság inkább önálló szempont. Bármi, amit forró burgonyának minősítenek vagy minősítenek, általában komolyan megválnak tőle. Nem akarsz forró krumplit tartani. Biztosra akarsz menni, hogy máshova kerüljön. Bizonyos mértékig talán nem zavarja túlzottan, hogy hová kerül, egyszerűen csak az, hogy már nincs a birtokában.

Elég érzéketlennek tűnhet, ha esetleg forró krumplit ad át egy kedves barátjának vagy hasonló ismerősének. Ez teljesen elvetemültnek tűnik. Esetleg keress valaki mást vagy más helyet, ahová azt a forró krumplit tegye, ha megteheti. Kétségbeesett lépés lehet a forró krumplit rákényszeríteni egy kedves kollégára, de ez remélhetőleg csak a legvégső esetben valósul meg.

Az érem másik oldala az, hogy örömmel nyújthat forró krumplit valakinek, akit nem szeret, vagy akiért bosszút áll. Persze, egy forró krumpli szinte pompásan hasznos lehet, ha egy olyan személyt akarsz aláaknázni, aki rosszul bánt veled. Hadd találják ki, mit tegyenek a forró krumplival. Sok sikert a burgonyának, és sok szerencsét annak, akivel megcímkézted.

Egy csípős krumpli forgatókönyvben, amelyben mindössze két ember vesz részt, fennáll a gyors oda-vissza vita lehetősége arról, hogy melyik személy tartja kezében a kellemetlen és nemkívánatos tárgyat. Például átadom neked a forró krumplit, te pedig sietve visszaadod nekem. Feltételezve, hogy nem kell mondókát mondanunk az egyes átadások között, nagyjából olyan gyorsan haladhatunk végig a krumpli mellett, ahogy a karunk engedi.

Kíváncsi lehet rá, miért döntöttem úgy, hogy mélyen belemerülök a tisztelt és gyakran emlegetett forró krumpliba.

Ezért van.

Kiderült, hogy a forró burgonya álcát egyre gyakrabban használják a mesterséges intelligencia (AI) területén.

A legtöbb ember semmit sem tud róla. Soha nem hallottak róla. Teljesen nincsenek tisztában azzal, hogy mi az. Még sok mesterséges intelligencia-fejlesztő sincs tisztában a dologgal. Mindazonáltal létezik, és úgy tűnik, hogy valóban megkérdőjelezhető körülmények között használják, különösen az élet-halál körülményeit érintő esetekben.

Erre hivatkozom AI Forró burgonya szindróma.

Ennek a szindrómának számos súlyos következménye van, és meg kell győződnünk arról, hogy felvesszük az AI-etikai gondolkodási sapkát, és megfontoljuk, mit kellene tennünk. Vannak kijózanító etikai megfontolások. Biztosan vannak jelentős jogi következmények is (amelyek még nem értek el társadalmi láthatóságot, bár előrejelzésem szerint hamarosan meg is fognak). A mesterséges intelligencia etikájával, az etikai AI-val és a jogi AI-problémákkal kapcsolatos folyamatos és kiterjedt tudósításomért lásd: az itt található link és a az itt található link, csak hogy néhányat említsek.

Csomagoljuk ki a AI Hot Potato szindróma.

Képzeljünk el egy mesterséges intelligencia rendszert, amely egy emberrel együtt működik. A mesterséges intelligencia és az ember átadja az irányítást bizonyos folyamatban lévő tevékenységek felett, így időnként az ember irányítja, míg máskor a mesterséges intelligencia irányítja. Ezt eleinte lehet tenni, mondjuk úgy, jó modorú vagy ésszerű módon. Különféle okok miatt, amelyekre rövidesen kitérünk, az AI számítási úton megállapíthatja, hogy az irányítást sietve át kell adni az embernek.

Ez a forró krumpli ami a való világ életének veszélyeztetéséhez vezet, nem pedig pusztán tanulságos gyermekjátékként szolgál.

A probléma az irányításnak a mesterséges intelligencia emberre való sietős átadásával az, hogy ez ésszerű módon, vagy meglehetősen ésszerűtlen módon valósítható meg. Ha az ember nem különösebben várja az átadást, ez valószínűleg probléma. Ha az ember általában rendben van az irányítás átadásával, akkor az átadás hátterében álló körülmények ijesztőek lehetnek, amikor az ember nem kap elegendő időt, vagy nem kellően tudatában van annak, hogy az irányítást miért adják erőszakkal az emberi kezébe.

Példákat fogunk megvizsgálni arra vonatkozóan, hogy ez élet-halál veszélyt jelenthet az emberre és esetleg más közeli emberekre. Ez komoly dolog. Időpont, pont.

Mielőtt rátérne a mögöttes vad és gyapjas megfontolások húsos oldalaira AI Hot Potato szindróma, fektessünk le néhány további alapvetést a mélyen lényeges témákról. Röviden bele kell merülnünk a mesterséges intelligencia etikájába, és különösen a Machine Learning (ML) és a Deep Learning (DL) megjelenésébe.

Lehet, hogy homályosan tisztában vagy vele, hogy manapság az egyik leghangosabb hang a mesterséges intelligencia területén és még az AI területén kívül is az etikus mesterséges intelligencia nagyobb látszatának követelése. Vessünk egy pillantást arra, hogy mit jelent a mesterséges intelligencia etikájára és az Ethical AI-ra hivatkozni. Ezen felül megvizsgáljuk, mire gondolok, amikor a gépi tanulásról és a mély tanulásról beszélek.

A mesterséges intelligencia etikájának egy bizonyos szegmense vagy része, amely a médiában nagy figyelmet kapott, a mesterséges intelligencia, amely nemkívánatos elfogultságokat és egyenlőtlenségeket mutat. Talán tudatában van annak, hogy amikor a mesterséges intelligencia legújabb korszaka beindult, hatalmas lelkesedés támadt az iránt, amit egyesek ma úgy hívnak. AI For Good. Sajnos ennek a tomboló izgalomnak a nyomában kezdtünk tanúi lenni AI For Bad. Például a különféle mesterséges intelligencia-alapú arcfelismerő rendszerekről kiderült, hogy faji és nemi előítéleteket tartalmaznak, amelyeket itt tárgyaltam. az itt található link.

Erőfeszítések, amelyek ellen harcolni kell AI For Bad aktívan zajlanak. A hangoskodáson kívül jogi A jogsértések megfékezésére irányuló törekvések jelentős erőfeszítéseket tesznek a mesterséges intelligencia etikájának elfogadása felé, hogy helyrehozzák a mesterséges intelligencia aljasságát. Az elképzelés az, hogy el kell fogadnunk és támogatnunk kell a kulcsfontosságú etikai mesterségesintelligencia-elveket a mesterséges intelligencia fejlesztése és terjesztése érdekében, ezzel aláásva AI For Bad és egyidejűleg hirdeti és hirdeti a jobbat AI For Good.

Ehhez kapcsolódóan én annak híve vagyok, hogy a mesterséges intelligencia megpróbálja a mesterséges intelligencia problémáinak megoldásának részeként használni a tüzet tűzzel oltva ilyen gondolkodásmódban. Például beágyazhatunk Ethical AI összetevőket egy mesterséges intelligencia rendszerbe, amely figyeli, hogy a többi AI hogyan csinálja a dolgokat, és így potenciálisan valós időben megragadja a diszkriminatív erőfeszítéseket. az itt található link. Lehetne egy külön mesterséges intelligencia-rendszer is, amely egyfajta AI-etikai monitorként működik. A mesterséges intelligencia rendszer felügyelőként szolgál annak nyomon követésére és észlelésére, ha egy másik mesterséges intelligencia az etikátlan szakadékba kerül (lásd az ilyen képességekről szóló elemzésemet itt: az itt található link).

Rövid időn belül megosztok veled néhány átfogó alapelvet, amelyek az AI etikájának hátterében állnak. Rengeteg ilyen lista lebeg itt-ott. Mondhatnánk, hogy még nincs egyetlen lista az egyetemes vonzerőről és az egyetértésről. Ez a sajnálatos hír. A jó hír az, hogy legalább vannak könnyen elérhető mesterséges intelligencia etikai listák, és általában meglehetősen hasonlóak. Mindent egybevetve ez arra utal, hogy az okolt konvergencia egyfajta formája révén megtaláljuk az utat az AI-etika általános közös vonása felé.

Először is tekintsünk át röviden néhány általános etikai mesterséges intelligencia előírást, hogy bemutassuk, minek kell létfontosságú szempontnak lennie bárki számára, aki mesterséges intelligenciát készít, dolgozik vagy használ.

Például, ahogy azt a Vatikán a Róma felhívás a mesterséges intelligencia etikájára és amint azt alaposan kifejtettem itt az itt található link, ez az általuk azonosított hat elsődleges AI etikai elv:

  • Átláthatóság: Elvileg az AI-rendszereknek magyarázhatónak kell lenniük
  • Befogadás: Minden ember szükségleteit figyelembe kell venni, hogy mindenki részesülhessen, és minden egyén számára a lehető legjobb feltételeket kínálhassuk önkifejezéshez és fejlődéshez.
  • Felelősség: Az MI használatát tervezőknek és alkalmazóknak felelősségteljesen és átláthatóan kell eljárniuk
  • Pártatlanság: Ne alkosson vagy cselekedjen elfogultság szerint, ezzel óvva a méltányosságot és az emberi méltóságot
  • Megbízhatóság: Az AI-rendszereknek megbízhatóan kell működniük
  • Biztonság és adatvédelem: Az AI-rendszereknek biztonságosan kell működniük, és tiszteletben kell tartaniuk a felhasználók magánéletét.

Amint azt az Egyesült Államok Védelmi Minisztériuma (DoD) kijelentette A mesterséges intelligencia használatának etikai alapelvei és amint azt alaposan kifejtettem itt az itt található link, ez a hat elsődleges AI etikai alapelvük:

  • Felelős: A DoD személyzete megfelelő szintű ítélőképességet és gondosságot gyakorol, miközben felelős marad az AI-képességek fejlesztéséért, telepítéséért és használatáért.
  • Igazságos: A minisztérium szándékos lépéseket tesz az AI-képességek nem szándékos torzításának minimalizálása érdekében.
  • Nyomon követhető: A minisztérium mesterséges intelligencia-képességeit úgy fejlesztik és alkalmazzák, hogy az érintett személyzet megfelelő ismeretekkel rendelkezzen az AI-képességekre vonatkozó technológiáról, fejlesztési folyamatokról és működési módszerekről, beleértve az átlátható és auditálható módszereket, adatforrásokat, valamint a tervezési eljárást és dokumentációt.
  • Megbízható: A minisztérium mesterséges intelligencia-képességeinek kifejezett, jól meghatározott felhasználási területei lesznek, és az ilyen képességek biztonsága, biztonsága és hatékonysága tesztelés és szavatosság tárgyát képezi a meghatározott felhasználási módokon belül, teljes életciklusuk során.
  • Kormányozható: A minisztérium megtervezi és megtervezi a mesterséges intelligencia képességeit, hogy teljesítsék a tervezett funkcióikat, miközben képesek lesznek észlelni és elkerülni a nem kívánt következményeket, valamint képesek lekapcsolni vagy deaktiválni a nem szándékos viselkedést tanúsító telepített rendszereket.

Megvitattam a mesterséges intelligencia etikai elveinek különféle kollektív elemzéseit is, beleértve a kutatók által kidolgozott halmazt, amely számos nemzeti és nemzetközi AI etikai tétel lényegét vizsgálta és sűrítette a „The Global Landscape Of AI Ethics Guidelines” című cikkben (megjelent. ban ben Természet), és amit tudósításom a címen vizsgál az itt található link, ami ehhez a trapézkő listához vezetett:

  • Átláthatóság
  • Igazságosság és méltányosság
  • Nem rosszindulat
  • Felelősség
  • Adatvédelem
  • Jótékonyság
  • Szabadság és autonómia
  • Bízzon
  • Fenntarthatóság
  • Méltóság
  • Szolidaritás

Amint azt közvetlenül sejtheti, rendkívül nehéz lehet az ezen alapelvek mögött meghúzódó sajátosságok meghatározása. Még ennél is keményebb dió az a törekvés, hogy ezeket a tág alapelveket valami teljesen kézzelfoghatóvá és kellően részletezetté alakítsák ahhoz, hogy az AI-rendszerek kidolgozásakor felhasználhatók legyenek. Könnyű összességében egy kis kézzel integetni arról, hogy mik is az AI etikai előírásai, és hogyan kell azokat általában betartani, míg az AI kódolásánál sokkal bonyolultabb a helyzet, ha a valódi guminak kell lennie, amely találkozik az úttal.

Az AI-etikai elveket az AI-fejlesztőknek kell alkalmazniuk, az AI-fejlesztési erőfeszítéseket irányítókkal együtt, sőt még azokkal is, amelyek végső soron az AI-rendszerek karbantartását és karbantartását végzik. Az összes érdekelt fél a mesterséges intelligencia fejlesztésének és használatának teljes életciklusa során beletartozik az etikus mesterséges intelligencia elfogadott normáihoz. Ez egy fontos kiemelés, mivel a szokásos feltevés az, hogy „csak a kódolóknak” vagy az AI-t programozóknak kell betartani az AI-etika fogalmait. Amint korábban említettük, egy falura van szükség a mesterséges intelligencia kidolgozásához és elindításához, és ehhez az egész falunak ismernie kell a mesterséges intelligencia etikai előírásait, és be kell tartania azokat.

Győződjünk meg arról is, hogy a mai mesterséges intelligencia természetét illetően egy oldalon vagyunk.

Ma nincs olyan mesterséges intelligencia, amely érző lenne. Nálunk ez nincs. Nem tudjuk, hogy az érző mesterséges intelligencia lehetséges lesz-e. Senki sem tudja pontosan megjósolni, hogy elérjük-e az érző MI-t, és azt sem, hogy az érző mesterséges intelligencia valamilyen csodálatos módon spontán módon létrejön-e számítógépes kognitív szupernóva formájában (általában szingularitásnak nevezik, lásd tudósításomat itt: az itt található link).

A mesterséges intelligencia azon típusa, amelyre összpontosítok, a ma létező nem érző MI-ből áll. Ha vadul akarnánk spekulálni arról érző AI, ez a vita gyökeresen más irányba mehet. Egy érző mesterséges intelligencia állítólag emberi minőségű lenne. Figyelembe kell vennie, hogy az érző mesterséges intelligencia az ember kognitív megfelelője. Sőt, mivel egyes feltételezések szerint szuperintelligens AI-val rendelkezünk, elképzelhető, hogy az ilyen mesterséges intelligencia okosabb lehet, mint az emberek (a szuperintelligens AI lehetőségének feltárásához lásd a tudósítás itt).

Maradjunk inkább a földön, és vegyük figyelembe a mai számítástechnikai, nem érző MI-t.

Vegye észre, hogy a mai mesterséges intelligencia nem képes az emberi gondolkodással egyenrangú módon „gondolkodni”. Amikor Alexával vagy Sirivel kommunikál, a társalgási képességek hasonlónak tűnhetnek az emberi képességekhez, de a valóság az, hogy számítási jellegű, és hiányzik az emberi megismerés. A mesterséges intelligencia legújabb korszaka széles körben alkalmazta a gépi tanulást (ML) és a mély tanulást (DL), amelyek kihasználják a számítási mintaillesztést. Ez olyan mesterséges intelligencia-rendszerekhez vezetett, amelyek emberszerű hajlamokat mutatnak. Eközben manapság nincs olyan mesterséges intelligencia, amely a józan észnek látszana, és az emberi gondolkodás kognitív csodáiból sem.

Az ML/DL a számítási mintaillesztés egyik formája. A szokásos megközelítés az, hogy egy döntési feladatról adatokat gyűjt össze. Az adatokat betáplálja az ML/DL számítógépmodellekbe. Ezek a modellek matematikai mintákat keresnek. Miután megtalálta az ilyen mintákat, ha igen, az AI rendszer ezeket a mintákat fogja használni, amikor új adatokkal találkozik. Az új adatok bemutatásakor a „régi” vagy történelmi adatokon alapuló mintákat alkalmazzák az aktuális döntés meghozatalához.

Azt hiszem, sejtheti, hová vezet ez. Ha az emberek, akik a mintaszerű döntéseket hozták, nemkívánatos elfogultságokat alkalmaztak, akkor valószínű, hogy az adatok ezt finom, de jelentős mértékben tükrözik. A Machine Learning vagy a Deep Learning számítási mintaillesztés egyszerűen megpróbálja matematikailag utánozni az adatokat ennek megfelelően. A mesterséges intelligencia által kialakított modellezésben önmagában semmi sem látszik a józan észnek vagy más érző szempontoknak.

Ezenkívül az AI-fejlesztők sem tudják, mi történik. Az ML/DL rejtélyes matematikája megnehezítheti a most rejtett torzítások kiszűrését. Joggal remélhető és elvárható, hogy a mesterséges intelligencia fejlesztői teszteljék a potenciálisan eltemetett torzításokat, bár ez bonyolultabb, mint amilyennek látszik. Jó esély van arra, hogy még viszonylag kiterjedt tesztelés mellett is lesznek torzítások az ML/DL mintaillesztési modelljeibe.

Használhatná némileg a híres vagy hírhedt közmondást, a szemetet a szemét kiszállításáról. A helyzet az, hogy ez inkább a torzításokhoz hasonlít, amelyek alattomos módon beszivárognak az AI-ba merülő torzítások miatt. Az AI algoritmus-döntéshozatala (ADM) axiomatikusan megterhelődik egyenlőtlenségekkel.

Nem jó.

Térjünk vissza a forró burgonyára és annak potenciálisan katasztrofális felhasználására az MI-ben. Van egy ördögiség is, amely a forró krumplis trükkben is megbújhat.

Rövid összefoglalóként a hot potato gambit mesterséges intelligencia megnyilvánulásáról:

  • A mesterséges intelligencia és az ember a hurokban közösen dolgozik egy adott feladaton
  • Az AI időnként irányítja
  • A hurokban lévő ember uralja az idő egy részét
  • Létezik valamiféle átadási protokoll az MI és az ember között
  • Az átadás lehet jól látható, vagy lehet finom és szinte rejtett
  • Ez általában valós idejű kontextusban történik (valami aktívan folyamatban van)

Az elsődleges hangsúly itt azon van, amikor az átadás lényegében egy forró krumpli, és az MI úgy dönt, hogy hirtelen átadja az irányítást az embernek. Kérjük, vegye figyelembe, hogy a későbbiekben a másik oldalra is kitérek, nevezetesen az emberi irányítás átadása az AI-nak forró krumpliként.

Először is gondolja át, mi történhet, amikor a mesterséges intelligencia forró burgonya-átadást végez egy embernek a hurokban.

Az embert a hurokban lévő embernek fogom nevezni, mert azt mondom, hogy az ember már része a folyamatban lévő munkatevékenységnek. Lehetnek más forgatókönyveink is, amikor egy olyan embernek, aki nem vett részt különösebben a tevékenységben, esetleg nem ismeri az egészet, az MI átadja a forró krumplit, ezért ne feledje, hogy ennek a miliőnek más ízei is léteznek.

Ha forró krumplit adnék át neked, és ésszerű módon szeretném megtenni, talán figyelmeztetném, hogy átadom neked a dolgokat. Továbbá megpróbálnám ezt megtenni, ha őszintén hinném, hogy nálad a forró krumpli összességében jobb, mint az én birtokomban. Gondolatban kiszámolnám, hogy neked kell-e, vagy folytassam vele.

Képzelj el egy kosárlabda meccset. Te és én egy csapatban vagyunk. Remélhetőleg együtt dolgozunk, hogy megpróbáljuk megnyerni a játékot. Már csak néhány másodperc van hátra az órából, és kétségbeesetten kell gólt szereznünk, különben elveszítjük a meccset. Beállok az utolsó lövésbe. Tegyem ezt, vagy passzoljam neked a labdát, és tedd meg az utolsó lövést?

Ha jobb kosárlabdázó vagyok, és nagyobb az esélyem a lövés elsüllyesztésére, valószínűleg meg kell tartanom a kosárlabdát, és meg kell próbálnom a lövést. Ha jobb kosárlabdázó vagy, mint én, valószínűleg át kellene passzolnom neked a labdát, és hagynom kellene, hogy lődd le. Más megfontolások kerülnek előtérbe, mint például, hogy melyikünk van-e jobb helyzetben a pályán a lövéshez, valamint, hogy valamelyikünk kimerült-e, mivel a játéknak már majdnem vége, esetleg elhasználódott és nem megfelelő. lövöldözésüket. Stb.

Mindezekkel a tényezőkkel a zaklatott pillanat közepette el kell döntenem, hogy megtartom-e a labdát, vagy továbbadom neked.

Tisztában kell lenni azzal, hogy ebben a forgatókönyvben az óra kulcsfontosságú. Mindketten rendkívül időszerű válaszokkal szembesülünk. Az egész játék most a vonalon. Ha egyszer lejár az óra, vagy nyerünk, mert valamelyikünk lőtt, vagy veszítettünk, amióta nem süllyesztettük el. Talán én lehetek a hős, ha elsüllyesztem a kosarat. Vagy te lehetsz a hős, ha átadom neked a labdát, és elsüllyeszted.

Ennek is megvan a kecske oldala vagy árnyoldalai. Ha megtartom a labdát és kihagyom a lövést, mindenki azzal vádolhat, hogy én vagyok a kecske, vagy cserbenhagyom az egész csapatot. Másrészt, ha átpasszolom neked a labdát, és elhibázod a lövést, akkor te leszel a kecske. Lehet, hogy ez teljesen igazságtalan veled szemben, mivel arra kényszerítettem, hogy legyél az utolsó lövöldöző, és tedd le az utolsó lövést.

Biztosan tudná, hogy ebbe az elvetemült helyzetbe hoztalak. És bár mindenki láthatta, hogy ezt csinálom, kénytelenek csak az utolsó emberre koncentrálni, akinél volt a labda. Lehet, hogy szabadon korcsolyáznék. Senki sem emlékezne arra, hogy az utolsó pillanatban átadtam neked a labdát. Csak arra emlékeznének, hogy nálad volt a labda, és elvesztetted a meccset, mert nem lőtted el.

Oké, akkor átadom neked a labdát.

Miért tettem így?

Ennek megállapítására nincs egyszerű módszer.

Az igazi szándékom az lehet, hogy nem akartam elakadni a kecske létben, ezért úgy döntöttem, hogy minden nyomást rád helyezek. Arra a kérdésre, hogy miért passzoltam a labdát, azt állíthatom, hogy azért tettem, mert azt hittem, jobb lövő vagy nálam (de tegyünk úgy, mintha ezt egyáltalán nem hinném). Vagy azt hittem, hogy te jobb helyzetben vagy, mint én (tegyünk úgy, mintha én sem erre gondoltam volna). Soha senki nem tudná, hogy valójában csak próbáltam elkerülni, hogy elakad a forró krumpli.

A dolgok külső szemszögéből nézve senki sem tudta könnyen felismerni, miért passzoltam neked a labdát. Talán ártatlanul tettem, mert azt hittem, hogy te vagy a jobb játékos. Ez az egyik szög. Talán azért tettem így, mert nem akartam, hogy mindenki vesztesnek mondjon, amiért elhibáztam a lövést, így eljuttattam hozzád a labdát, és úgy gondoltam, ez óriási megkönnyebbülés volt számomra. Az, hogy őszintén törődtem-e veled, teljesen más kérdés.

Mostantól néhány további részletet is hozzá tudunk adni az AI-val kapcsolatos hot potato-hoz:

  • Az AI úgy dönt, hogy az utolsó pillanatban átadja az irányítást a hurokban lévő embernek
  • Az utolsó pillanat talán már messze túlmutat minden emberi életképes cselekvésen
  • A hurokban lévő ember rendelkezik vezérléssel, de az átadás-átvételi időzítés miatt némileg hamisan

Gondolkozz ezen egy pillanatra.

Tegyük fel, hogy egy mesterséges intelligencia rendszer és egy ember a hurokban dolgoznak együtt egy valós idejű feladaton, amely magában foglalja egy nagyméretű gép üzemeltetését egy gyárban. Az AI észleli, hogy a gépezet összeomlik. Ahelyett, hogy az MI továbbra is megtartaná az irányítást, az MI hirtelen átadja az irányítást az embernek. Ebben a gyárban a gépezet gyorsan a tiszta káosz felé halad, és az embernek nem marad ideje a korrekciós intézkedések megtételére.

A mesterséges intelligencia átadta a forró krumplit az ember a hurokban, és beletömte az embert a valódi forró krumpliba úgy, hogy a körülményeket emberileg már nem lehet megbirkózni. Tag, te vagy az, a régi vonalat követi, amikor gyerekként címkés játékokat játszik. Mondjuk az ember a rendetlenséggel van ellátva.

Csakúgy, mint az én példám a kosárlabda meccsről.

Miért az AI végezte el az átadást?

Nos, ellentétben azzal, amikor az ember hirtelen átad egy kosárlabdát, majd vad integet, hogy miért tette ezt, általában megvizsgálhatjuk a mesterséges intelligencia programozását, és kitaláljuk, mi vezetett oda, hogy az MI ilyen forró krumpli átadást hajtson végre.

Egy mesterséges intelligencia fejlesztője előre eldönthette volna, hogy amikor a mesterséges intelligencia nagyon rossz helyzetbe kerül, a mesterséges intelligencia átadja az irányítást a hurokban lévő embernek. Ez teljesen ésszerűnek és ésszerűnek tűnik. Lehet, hogy az ember „a jobb játékos” a pályán. Az emberek kognitív képességeiket felhasználhatják bármilyen felmerülő probléma megoldására. Az AI valószínűleg elérte programozásának korlátait, és ebben a helyzetben semmi mást nem tehet.

Ha a mesterséges intelligencia egy perccel a vége előtt végezte volna el az átadást, mielőtt a gépezet tönkrement volna, talán egy percnyi fellépés is elég hosszú ahhoz, hogy a hurokban lévő ember helyrehozza a dolgokat. Tegyük fel azonban, hogy az AI három másodperccel a vége előtt végezte el az átadást. Gondolod, hogy egy ember képes reagálni ezen az időn belül? Valószínűtlen. Mindenesetre, csak hogy a dolgok még kevésbé zavaróak legyenek, tegyük fel, hogy az átadás a hurokban lévő ember felé néhány nanoszekundum hátralévő idővel történt (a nanoszekundum a másodperc egy milliárdod része, ami ehhez képest egy gyors pislogás a szem lomha 300 milliszekundum hosszú).

Vajon egy ember a hurokban kellőképpen reagálhat, ha a mesterséges intelligencia átadta a forró krumplit, mindössze tini-pici töredékmásodpercek hátralévő részében, hogy bármiféle nyílt cselekvést tegyen?

Nem.

Az átadás inkább hazugság, mint amilyennek egyébként tűnhet.

A valóságban az átadás nem tesz jót, ha a szörnyű helyzetről van szó. A mesterséges intelligencia rávette az embert, hogy kecskévé váljon.

Egyes AI-fejlesztők nem gondolnak erre, amikor kidolgozzák az AI-t. Ők (rosszul) boldogan nem veszik figyelembe, hogy az idő döntő tényező. Mindössze annyit tesznek, hogy beprogramozzák az átadás-átvételt, ha a dolgok nehézzé válnak. Ha az MI-nek nincs más dolga, mint építő jellegű, dobja a labdát az ember játékosának.

Előfordulhat, hogy a mesterséges intelligencia fejlesztői az AI kódolásakor nem foglalkoznak ezzel a témával, és gyakran kétszer is kudarcot vallanak azáltal, hogy elmulasztják a vizsgálatot, amely ezt a napvilágra hozza. A tesztelésük csak annyit mutat, hogy az AI „kötelességgel” átadást végzett, amikor elérte az AI határait. Voilá, a mesterséges intelligencia jónak tekinthető és használatra kész. A tesztelésben nem vettek részt egy tényleges ember, aki ebbe az irigylésre méltó és lehetetlen helyzetbe került. Nem volt megfelelő humán-in-the-loop tesztelési folyamat, amely tiltakozott volna amiatt, hogy ez a szempillantás az utolsó pillanatban, vagy éppen az utolsó pillanatban, nem tett nekik jót, vagy nem tett jót.

Természetesen néhány mesterséges intelligencia-fejlesztő bölcsen mérlegelte ezt a fajta nehéz helyzetet.

A talányon való töprengés után folytatják az AI programozását, hogy így viselkedjen.

Miért?

Mert nincs más dolguk, legalábbis az eszükben. Ha minden más kudarcot vall, kézi vezérlés az embernek. Talán megtörténik a csoda. A lényeg azonban az, hogy ez nem aggasztja az AI-fejlesztőt, és megadják az utolsó esélyt az embernek, hogy megbirkózzon a fennálló rendetlenséggel. A mesterséges intelligencia fejlesztője megmossa a kezét attól, ami ezután történik.

Szeretném tisztázni, hogy nem az AI-fejlesztők az egyedüli kidolgozói ezeknek a hot potato terveknek. Egy csomó más érdekelt fél ül ehhez az asztalhoz. Talán egy rendszerelemző, aki a specifikációkat és a követelmények elemzését végezte, kijelentette, hogy az AI-nak ezt kell tennie. Az érintett AI-fejlesztők ennek megfelelően alakították ki az AI-t. Lehet, hogy az AI projektmenedzsere találta ki ezt. Lehet, hogy a mesterséges intelligencia fejlesztését felügyelő vezetők és menedzsment kitalálták ezt.

Lehetséges, hogy a mesterséges intelligencia fejlesztési életciklusa során mindenki továbbvihette a forró krumpli ugyanazt a tervet. Hogy észrevette-e valaki, azt nem tudjuk biztosan megmondani. Ha észrevették őket, lehet, hogy ellenzőnek titulálták őket, és félretették őket. Lehet, hogy másokat felhívtak a dologra, de nem értették meg a következményeket. Úgy érezték, hogy ez egy olyan technikai apróság, amely nem tartozik a hatáskörükbe.

Az „okok” informális listáját kiegészítem egy sokkal aljasabb lehetőséggel.

A mesterséges intelligencia Hot Potato szindrómáját néha szándékosan alkalmazzák, mert az MI készítői azt akarták, hogy szenvedélyesen állítsák a hihető tagadhatóságot.

Készülj fel a mese ezen részére.

Az elromlott gyári gépek esetében bizonyára sok ujjal mutogatni kell, hogy ki a felelős a történtekért. Ami a gépezet működtetését illeti, volt egy mesterséges intelligencia rendszerünk, és volt egy ember a hurokban. Ez a mi két kosárlabdázónk, metaforikusan.

Az óra lejárt, és a gépezet a kabumm küszöbén állt. Tegyük fel, hogy te és én tudjuk, hogy a mesterséges intelligencia átadta a hurokban lévő embert, és ehhez nem maradt elegendő ideje ahhoz, hogy az embernek megfelelő lépéseket tegyen a katasztrófa orvoslására vagy elkerülésére. Senki más nem veszi észre, hogy ez történt.

Az MI-t gyártó cég mindenesetre azonnal kijelentheti, hogy nem ők a hibásak, mert az ember irányította. Kifogástalan nyilvántartásaik szerint a kabum idején nem az AI irányított. Az ember volt. Ezért nyilvánvalóan nyilvánvaló, hogy az ember a hibás.

A mesterséges intelligencia vállalat alapvetően hazudik, amikor ezt a szókimondó állítást teszi?

Nem, úgy tűnik, igazat mondanak.

Arra a kérdésre, hogy biztosak-e abban, hogy nem a mesterséges intelligencia irányította, a vállalat hangosan és büszkén kijelentette, hogy egyáltalán nem az MI irányít. Ezt az állítást dokumentáltan igazolták (feltételezve, hogy az MI naplót vezetett az incidensről). Valójában az AI-cégek vezetői felhúzhatják a szemöldöküket undorodva, hogy bárki megkérdőjelezi a feddhetetlenségüket ezen a ponton. Hajlandóak lennének megesküdni szent esküjükre, hogy az MI az nem hatalmon. A hurokban lévő ember irányította.

Bízom benne, hogy látja, milyen félrevezető lehet ez.

Igen, az ember kezébe adták az irányítást. Elméletileg az ember irányította. Az AI már nem irányította. Ám a rendelkezésre álló időzítés és értesítés hiánya meglehetősen üressé teszi ezt az állítást.

A mesterséges intelligencia-készítő szemszögéből ennek az a szépsége, hogy kevesen tudnák megtámadni a felkínált állításokat. Előfordulhat, hogy az AI-gyártó nem adja ki az incidens naplóit. Ha így tesz, az elronthatja a meghamisított helyzetet. Az érvelés szerint a naplók szellemi tulajdon (IP) vagy más módon védettek és bizalmas jellegűek. A cég valószínűleg azt állítaná, hogy ha a naplók megjelennének, az megmutatná a mesterséges intelligencia titkos szószát, és kimerítené értékes IP-jüket.

Képzeld el a szegény ember sorsát. Értetlenül állnak, hogy mindenki őket hibáztatja, amiért kiengedték a dolgokat. Az MI „helyesen cselekedett”, és átadta az irányítást az embernek. Lehetséges, hogy a specifikációk ezt mondták (bár a specifikációk ismét hanyagak voltak, mivel nem vették figyelembe az időzítési és megvalósíthatósági tényezőket). Azok a naplók, amelyeket nem adtak ki, de a mesterséges intelligencia készítője azt állítja, hogy vaskalaposak, azt az abszolút tényt tanúsítják, hogy az embert az MI adta át.

Kijelenthető, hogy ez egy szánalmas slam-dunk a megdöbbent emberre, aki szinte biztosan elbukik.

Valószínűleg csak akkor derülne ki a valóság, hogy mi történt. Ha az agyafúrt legális beagle-ek tisztában vannak az ilyen típusú koncertekkel, megpróbálnák legálisan megszerezni a naplókat. Szakértőt kellene kérniük (amit időnként megtettem), hogy megfejtse a naplókat. A rönkök önmagukban talán nem elegendőek. A naplókat meg lehet vágni vagy módosítani, vagy szándékosan úgy tervezték meg, hogy ne mutassák egyértelműen a részleteket. Ezért előfordulhat, hogy az AI-kódba is bele kell mélyedni.

Eközben a jogi felfedezés gyötrelmes és hosszadalmas folyamata során az ember a hurokban nagyon rosszul nézne ki. A média felelőtlennek, elvesztette a fejét, nem volt szorgalmas, és teljes mértékben felelősségre kell vonnia az illetőt. Lehetséges, hogy hónapokig vagy évekig, e folyamat során, továbbra is ez a személy lesz az, akire mindenki vádló ujjal mutatott. Lehet, hogy a bűz soha nem távolítható el.

Ne feledje, hogy ugyanez a körülmény könnyen megismétlődhet. És újra. Feltételezve, hogy a mesterséges intelligencia gyártója nem változtatta meg az MI-t, amikor hasonló utolsó pillanatbeli helyzet adódik, a mesterséges intelligencia elvégzi azt a „no-time-left” átadást. Remélhető, hogy ezek a helyzetek nem fordulnak elő gyakran. Azon ritka esetekben, amikor ez előfordul, az ember a hurokban még mindig a kényelmes bukás fickó.

Ez egy ördögi trükk.

Érdemes lehet ragaszkodni ahhoz, hogy az AI-gyártó semmi rosszat nem tett. Igazat mondanak. Az AI feladta az irányítást. Ezután az embert tekintették az irányításnak. Ezek a tények. Nincs értelme vitatkozni.

Függetlenül attól, hogy valaki meggondolja magát, és felteszi a nehéz kérdéseket, valamint hogy az AI-készítő válaszol-e ezekre a kérdésekre bármilyen egyenes módon, ez olyan dolog, ami úgy tűnik, ritkán történik meg.

A kérdések a következők:

  • Mikor adta át a mesterséges intelligencia a hurokban lévő embernek?
  • Milyen programozott alapon végezte az AI az átadást?
  • Elegendő időt kapott a hurokban lévő ember, hogy átvegye az irányítást?
  • Hogyan tervezték és fejlesztették ki az AI-t ezekre a nehézségekre?
  • És így tovább.

Bizonyos mértékig ezért olyan kulcsfontosságú téma a mesterséges intelligencia etika és az etikai AI. A mesterséges intelligencia etika előírásai éberségre késztetnek bennünket. Az AI-technológusokat időnként a technológia foglalkoztatja, különösen a csúcstechnológiák optimalizálása. Nem feltétlenül veszik figyelembe a nagyobb társadalmi következményeket. A mesterséges intelligencia etikai gondolkodásmódja, és ennek szerves része a mesterséges intelligencia fejlesztéséhez és terepviszonyához elengedhetetlen a megfelelő AI létrehozásához, beleértve (talán meglepő vagy ironikus módon) annak értékelését, hogy a mesterséges intelligencia etikáját hogyan alkalmazzák a cégek.

A mesterséges intelligencia etikai előírásainak általános alkalmazása mellett felvetődik az a kérdés, hogy kellene-e törvények szabályozni az AI különféle felhasználásait. Szövetségi, állami és helyi szinten új törvényeket kötnek ki, amelyek a mesterséges intelligencia kidolgozásának körét és jellegét érintik. Az ilyen törvények kidolgozására és elfogadására irányuló erőfeszítések fokozatosak. A mesterséges intelligencia etika legalábbis megfontolt állomásként szolgál, és bizonyos mértékig bizonyos mértékig közvetlenül beépül az új törvényekbe.

Legyen tudatában annak, hogy egyesek határozottan azzal érvelnek, hogy nincs szükségünk az AI-t lefedő új törvényekre, és a meglévő törvényeink elegendőek. Valójában előre figyelmeztetnek arra, hogy ha bevezetünk néhány mesterséges intelligencia-törvényt, akkor megöljük az aranylibát, ha visszaszorítjuk a mesterséges intelligencia fejlődését, amely óriási társadalmi előnyökkel jár.

E súlyos vita e pontján lefogadom, hogy szeretne néhány további szemléltető példát, amelyek bemutathatják ezt a témát. Van egy különleges és biztosan népszerű példasor, amely közel áll a szívemhez. Látod, a mesterséges intelligencia szakértőjeként, beleértve az etikai és jogi következményeket is, gyakran kérnek fel olyan reális példák azonosítására, amelyek bemutatják a mesterséges intelligencia etikai dilemmáit, hogy könnyebben megragadható legyen a téma némileg elméleti jellege. Az egyik legérdekesebb terület, amely élénken mutatja be ezt az etikus AI-problémát, az AI-alapú, valódi önvezető autók megjelenése. Ez praktikus használati esetként vagy példaként szolgál a témával kapcsolatos bőséges vitához.

Íme, egy figyelemre méltó kérdés, amelyen érdemes elgondolkodni: A mesterséges intelligencia-alapú valódi önvezető autók megjelenése felvilágosít valamit az AI Hot Potato szindrómáról, és ha igen, mit mutat be ez?

Engedjen meg egy pillanatra, hogy kibontsa a kérdést.

Először is vegye figyelembe, hogy egy igazi önvezető autóban nincs emberi vezető. Ne feledje, hogy az igazi önvezető autókat mesterséges intelligencia vezetési rendszer vezeti. Nincs szükség emberi sofőrre a volánnál, és arra sem, hogy ember vezesse a járművet. Az autonóm járművekről (AV-k) és különösen az önvezető autókról szóló kiterjedt és folyamatos tájékoztatásért lásd az itt található link.

Szeretném még jobban tisztázni, mit kell érteni, amikor valódi önvezető autókra utalok.

Az önvezető autók szintjének megértése

Tisztázva, az igazi önvezető autók azok, ahol az AI teljesen önállóan vezeti az autót, és nincs emberi segítség a vezetési feladat során.

Ezek a vezető nélküli járművek 4-es és 5-ös szintnek minősülnek (lásd a magyarázatomat a következő helyen). ez a link itt), míg az olyan autókat, amelyekhez emberi vezető szükséges a vezetési erőfeszítések közös megosztására, általában 2. vagy 3. szinten tekintik. A vezetési feladatot közösen megosztó autók leírása félig autonóm, és általában különféle automatizált bővítmények, amelyeket ADAS-nak (Advanced Driver-Assistance Systems) neveznek.

Még nincs igazi önvezető autó az 5-ös szinten, és még azt sem tudjuk, hogy ez elérhető lesz-e, és azt sem, hogy mennyi időbe telik eljutni odáig.

Eközben a 4. szintű erőfeszítések fokozatosan próbálnak némi vonóerőt szerezni nagyon szűk és szelektív közúti próbák révén, bár vita folyik arról, hogy ezt a tesztelést önmagában engedélyezni kell-e (mindannyian életre-halálra menő tengerimalacok vagyunk egy kísérletben autópályáinkon és mellékutainkon zajlanak, egyesek azt állítják, lásd tudósításomat itt ez a link itt).

Mivel a félig autonóm autókhoz emberi sofőrre van szükség, az ilyen típusú autók elfogadása nem különbözik nyilvánvalóan a hagyományos járművek vezetésénél, tehát önmagában nincs sok új, hogy ezekkel a témákkal foglalkozzanak (bár, amint látni fogja) egy pillanat alatt a következő pontok általában alkalmazandók).

A félig autonóm autók esetében fontos, hogy a nyilvánosságot figyelmeztessék az utóbbi időben felmerülő zavaró tényezőkre, nevezetesen arra, hogy azoknak az emberi járművezetőknek ellenére, akik folyamatosan videókat tesznek közzé, hogy maguk alszanak a 2. vagy 3. szintű autó kormányához , mindannyian el kell kerülnünk, hogy félrevezetjük azt a hitet, hogy a sofőr félig autonóm autó vezetése közben elvonhatja figyelmét a vezetési feladatról.

Te vagy a felelős a jármű vezetési tevékenységeiért, függetlenül attól, hogy mekkora mennyiségű automatizálást lehet 2. vagy 3. szintre dobni.

Önvezető autók és mesterséges intelligencia Hot Potato szindróma

A 4. és 5. szintű valódi önjáró járműveknél nem vezethet embervezető a vezetési feladatba.

Minden utas utas lesz.

Az AI vezet.

Azonnal megvitatandó szempont azzal a ténnyel jár, hogy a mai mesterséges intelligencia-vezetési rendszerekben részt vevő mesterséges intelligencia nem érző. Más szavakkal, az AI összességében számítógépes programozás és algoritmusok összessége, és bizonyosan nem képes ugyanúgy érvelni, mint az emberek.

Miért van ez a hangsúly arra, hogy az AI nem érzékeny?

Mivel szeretném aláhúzni, hogy az AI hajtórendszer szerepének tárgyalásakor nem tulajdonítok emberi tulajdonságokat az AI-nek. Felhívjuk figyelmét, hogy manapság folyamatos és veszélyes tendencia van az AI antropomorfizálására. Lényegében az emberek emberi szerű érzékenységet tulajdonítanak a mai mesterséges intelligenciának, annak ellenére, hogy tagadhatatlan és vitathatatlan tény, hogy ilyen AI még nem létezik.

Ezzel a pontosítással elképzelheti, hogy az AI vezetési rendszer valahogy nem fogja „tudni” a vezetés szempontjait. A vezetést és mindazt, amit ez magában foglal, be kell programozni az önvezető autó hardverének és szoftverének részeként.

Merüljünk el abban a számtalan szempontban, amelyek eljátszanak ebben a témában.

Először is fontos felismerni, hogy nem minden AI önvezető autó egyforma. Minden autógyártó és önvezető technológiai cég alkalmazza a hozzáállását az önvezető autók kidolgozásához. Emiatt nehéz átfogó kijelentéseket tenni arról, hogy az AI-meghajtórendszerek mit fognak tenni vagy nem.

Továbbá, ha azt állítják, hogy az AI meghajtó rendszer nem végez bizonyos dolgokat, ezt később a fejlesztők megelőzhetik, akik valójában erre programozzák a számítógépet. Lépésről lépésre az AI meghajtó rendszereket fokozatosan fejlesztik és bővítik. A meglévő korlátozás ma már nem létezik a rendszer későbbi iterációjában vagy verziójában.

Remélem, ez elegendő kitételt biztosít ahhoz, hogy alátámassza azt, amit mondani készülök.

A teljesen autonóm járművek esetében előfordulhat, hogy nincs esély arra, hogy átadásra kerüljön a mesterséges intelligencia és az ember, mivel nincs lehetőség a hurokban lévő emberre. Sok mai önvezető autógyártó törekvése az, hogy az emberi vezetőt teljesen eltávolítsák a vezetési feladat alól. A jármű nem is tartalmaz majd ember által hozzáférhető vezetési vezérlőket. Ebben az esetben egy emberi sofőr, ha jelen van, nem tud részt venni a vezetési feladatban, mivel nem fér hozzá semmilyen vezetési vezérlőhöz.

Egyes teljesen autonóm járművek esetében egyes kialakítások továbbra is lehetővé teszik az ember számára, hogy a hurokban legyen, bár az embernek egyáltalán nem kell elérhetőnek lennie, vagy egyáltalán nem kell részt vennie a vezetési folyamatban. Így az ember is részt vehet a vezetésben, ha ezt akarja. A mesterséges intelligencia azonban soha nem függ az embertől a vezetési feladatok elvégzésében.

A félig autonóm járművek esetében kéz a kézben kapcsolat van az emberi vezető és a mesterséges intelligencia között. Egyes tervek esetében az emberi vezető teljesen átveheti a vezetési vezérlőket, és lényegében megakadályozhatja az AI-t abban, hogy részt vegyen a vezetésben. Ha az emberi vezető vissza akarja állítani a mesterséges intelligenciát a vezető szerepbe, megteheti, bár ez néha arra kényszeríti az embert, hogy feladja a vezetési vezérlőket.

A félig autonóm működés másik formája azt jelentené, hogy az emberi vezető és a mesterséges intelligencia csapatmunkában dolgoznak együtt. Az AI vezet, az ember pedig vezet. Együtt vezetnek. Lehet, hogy a mesterséges intelligencia az emberre bízza magát. Lehet, hogy az ember belenyugszik az MI-be.

Egy adott pillanatban az AI vezetési rendszer számítási úton megállapíthatja, hogy az önvezető autó tarthatatlan helyzetbe kerül, és az autonóm jármű lezuhan.

Félretéve, néhány szakértő azt állítja, hogy az önvezető autók összetörhetetlenek lesznek, ami tiszta ostobaság, és felháborító és helytelen dolog, lásd tudósításomat itt: az itt található link.

Folytatva az ütközés vagy autóbaleset felé haladó önvezető autó forgatókönyvét, a mesterséges intelligencia vezetési rendszere úgy programozható, hogy a vezetési vezérlőket összegszerűen átadja az emberi vezetőnek. Ha elegendő idő áll rendelkezésre az emberi sofőr számára a kitérő intézkedések megtételére, ez valóban ésszerű és helyénvaló dolog lehet a mesterséges intelligencia számára.

De tegyük fel, hogy a mesterséges intelligencia a másodperc töredékének töredékével végzi el az átadást. Az emberi vezető reakcióideje közel sem elég gyors ahhoz, hogy megfelelően reagáljon. Ráadásul, ha csodával határos módon az ember elég gyors volt, akkor nagy az esély arra, hogy a balesetig hátralévő korlátozott idővel nincs olyan életképes kitérő akció. Ez kettősebb: (1) nincs elegendő idő az emberi vezetőnek a cselekvéshez, (2) nem elegendő idő ahhoz, hogy ha az emberi vezető képes lenne a cselekvésre, a művelet a rendelkezésre álló hiányos idő alatt végrehajtható legyen.

Összességében ez hasonlít a kosárlabda berregő helyzetéről és a megvadult gyári gépezetről szóló korábbi vitámhoz.

Ehhez adjuk hozzá az aljas összetevőt.

Egy autógyártó vagy önvezető technológiai cég nem akarja, hogy a flottájában előforduló különféle autóbalesetekkel lássák el. A mesterséges intelligencia vezetési rendszere úgy van programozva, hogy az irányítást mindig az emberi vezetőre ruházza, függetlenül attól, hogy van-e elegendő ideje az emberi vezetőnek bármit is tenni a nehéz helyzetben. Valahányszor ilyen típusú autóbaleset történik, az autógyártó vagy az önvezető technológiai cég hangosan ki tudja mondani, hogy az emberi sofőr volt a vezérlőknél, míg a mesterséges intelligencia nem.

A mesterséges intelligencia vezetési rendszerei terén elért eredményeik csillagosnak tűnnek.

Nem egyszer az AI vezetési rendszer „hibás” ezekben az autóbalesetekben. Úgy tűnik, hogy mindig azok az átkozott emberi sofőrök, akik nem tartják a szemüket az úton. Hajlamosak lehetünk lenyelni ezt a bődületet, és azt hisszük, hogy a precíz mesterséges intelligencia valószínűleg soha nem téved. Hajlamosak lehetünk azt hinni (mivel tapasztalatból tudjuk), hogy az emberi vezetők hanyagak és rengeteg vezetési hibát követnek el. A logikus következtetés az, hogy az emberi sofőrök a felelősek, és a mesterséges intelligencia vezetési rendszere teljesen ártatlan.

Mielőtt néhány önvezetés híve felháborodna ezen a jellemzésen, feltétlenül ismerjük el, hogy az emberi sofőr hibás lehet, és hamarabb kellett volna intézkedniük, például átvenniük a vezetési vezérlést az AI-tól. Arra is van esély, hogy az emberi sofőr valami érdemi dolgot csinálhatott volna, amikor az AI átadta a vezetési vezérlőket. Stb.

A hangsúly itt azokon a körülményeken volt, amikor az MI-t tekintették a jármű vezetőjének, majd hirtelen és kevés figyelmet fordítva arra, hogy egy emberi sofőr mire képes, odadobja a forró krumplit az emberi vezetőnek. Ezért is aggódnak oly sokan a félautonóm járművek kettős vezetői szerepe miatt. Mondhatnánk, hogy túl sok sofőr ül a volánnál. Úgy tűnik, a cél az lenne, hogy az ügyet teljesen autonóm járművekkel rendezzék, amelyeknek nincs szükségük emberre a volánnál, és mindig az MI vezeti a járművet.

Ez felveti azt a kapcsolódó kérdést, hogy mi vagy ki a felelős, amikor a mesterséges intelligencia vezérli, amivel sokszor foglalkoztam rovataimban, mint pl. az itt található link és a az itt található link.

Következtetés

Óvatosnak kell lennünk, amikor félig autonóm járműveket érintő autóbalesetekről hallunk vagy olvasunk. Legyen óvatos azokkal, akik megpróbálnak becsapni minket azzal, hogy kijelentik, hogy mesterséges intelligencia vezetési rendszerük hibátlanul működik. A cselszövés a AI Hot Potato szindróma lehet a keverékben.

Azoknak a cégeknek, amelyek megpróbálnak trükkösek lenni ezekben a kérdésekben, talán szívünkhöz tarthatjuk Abraham Lincoln híres vonalát: „Minden embert megtéveszthetsz néha, és néhány embert állandóan, de nem lehet becsapni. minden ember állandóan."

Megpróbáltam felfedni itt a képernyő mögött megbúvó és időnként a motorháztető alatt elhelyezett mesterséges intelligencia varázslatot, amit megvilágítottam, hogy minél több ember nem fog többször becsapják.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-ploy-by-ai-makers- látszólag-megpróbálják-elkerülni az életük-döntő-autonóm-rendszerek elszámoltatását/