A mesterséges intelligencia etika szkeptikus az úgynevezett vörös zászlós mesterséges intelligencia-törvények létrehozásával kapcsolatban az elfogult algoritmusok előhívására az autonóm AI-rendszerekben

Beszéljünk a vörös zászló törvényeiről.

Kétségtelenül tudja, hogy a vörös zászló törvényeinek fogalmával az utóbbi időben széles körben foglalkoztak a hírek. A témával foglalkozó címek bőven vannak. Az ilyen ügyekkel kapcsolatos szenvedélyek és szenvedélyes viták társadalmi aggodalomra adnak okot, és magukban foglalják a jelenlegi és gyorsan kialakuló vörös zászlós fegyvertörvényeket.

Bár azt merem állítani, hogy nem ismeri az 1800-as évek végén a motoros járművekre és a mai mindennapi modern autók előfutáraira vonatkozó többi vörös zászlós törvényt. Igen, ez így van, a Vörös Zászló törvényei a történelembe nyúlnak vissza, bár a mai kor fókuszához képest más témákat is lefednek. Ezeket általában vörös zászlós közlekedési törvényeknek nevezik.

Ezek a ma már évszázados és teljesen megszűnt törvények megkövetelték, hogy abban az időben minden motoros kocsinak vagy gőzzel hajtott motornak egy felnőttnek kellett megelőznie a járművet, és figyelmeztető okokból vörös zászlót kellett vinnie. Az ötlet az volt, hogy az állatállományt megriadhatják azok a zajos és durva szerkezetek, amelyek lassan és egyenetlenül csörögnek le a földön vagy szegényen aszfaltozott utakon, így ha valaki végigsétál az építmény előtt, miközben erőteljesen lengeti a vörös zászlót, remélhetőleg elkerülheti a csapások bekövetkezését. Ha kíváncsi lenne, a vasutakra és a vonatokra ugyanazok a törvények vonatkoztak, mivel ezek olyan járművek, amelyek szervesen kötődnek a sínekhez, és más törvények szabályozták a tevékenységüket.

Képzelje el, hogy ma piros zászlót kell lengetnie minden autónak, amely közutakon közlekedik.

Például egy közönséges autósnak, aki a szomszédos utcában jön, meg kell győződnie arról, hogy egy vörös zászlót lengető felnőtt jelen van, és felvonul a mozgó autó elé. Ennek meg kell történnie minden egyes járműnél, amely elhalad az utcán. Lehet, hogy az emberek vörös zászlós melósokká válnának, akik olyan elhaladó autósokat bérelnek fel, akiknek egyébként nem volt barátjuk vagy rokonuk, aki elébe mehetne és elvégezhetné az előírt integető akciót.

Manapság hajlamosak vagyunk az autópályákhoz kapcsolódó vörös zászló lobogtatását az útépítési területekhez társítani. Amint egy felásott út közelébe ér, a munkások vörös zászlót fognak a magasba, hogy megragadják a figyelmét. Ez azt mondja, hogy lassítson és legyen éber. Lehet, hogy egy buldózer az utadba szegeződik. Előtte egy óriási lyuk lehet, és óvatosan kell körbejárnia.

De térjünk vissza az 1800-as évek vörös zászlók használatához.

Akár hiszi, akár nem, a vörös zászlólengetésnek legalább egynyolcad mérföldnyire kellett volna a közelgő motoros gép előtt. Ez elég hosszú távolságnak tűnik. Bár az ember azt feltételezi, hogy ennek akkoriban nagyon sok értelme volt. A motor döbbenetes zaja és talán a jármű puszta látványa is elég lehet ahhoz, hogy az állatokat elriassza. A korszak egyes Vörös Zászló-törvényei azt is megkövetelték, hogy éjszaka fénylő piros lámpát a magasban tartsanak, hogy egy vizuálisan látható piros figyelmeztető jelzés látható legyen sötét távolságból is.

Általánosságban úgy gondolom, jogos kijelenteni, hogy mi, mint társadalom hajlamosak vagyunk a vörös zászlót egyfajta jelzésként vagy jelzésként társítani, hogy valami esetleg nincs rendben, vagy legalábbis odaadó figyelmünket igényli.

Készüljön fel egy kis csavarra ezen a vörös zászló jelenségen.

Elterjedt az az érvelés, hogy a mesterséges intelligenciára (AI) vonatkozóan vörös zászlós rendelkezéseket kell előírnunk.

Ez egy kicsit megdöbbentő és meglepő koncepció, amely sokak fejét kapkodja. Lehet, hogy értetlenül áll, hogyan és miért kellene ún Red Flag AI törvények. Kérjük, vegye figyelembe, hogy ezt Red Flag mesterséges intelligencia törvénynek nevezem, hogy megkülönböztessem az ügyet a Red Flag közlekedési törvényektől (például az 1800-as évek végének törvényeitől), valamint hogy megkülönböztessem őket a mai, elterjedtebb, vörös zászlós fegyverekre vonatkozó törvényektől.

Valóban szükségünk van Red Flag AI-törvényekre, amelyek egyértelműen és kizárólag az AI-ügyekre irányulnak?

A javasolt megközelítést támogatók ragaszkodnának ahhoz, hogy feltétlenül szükségünk van olyan jogi rendelkezésekre, amelyek segítik az indokolatlan elfogultságot tartalmazó és diszkriminatív módon cselekvő mesterséges intelligencia visszaszorítását. Jelenleg a mesterséges intelligencia felépítése és telepítése egy vadnyugati körülményhez hasonlít. A rossz mesterséges intelligencia megfékezésére tett erőfeszítések jelenleg a mesterségesintelligencia-etikai irányelvek megfogalmazásától és elfogadásától függenek. A mesterséges intelligencia etikájával és az etikai AI-val kapcsolatos folyamatos és kiterjedt tudósításomat lásd az itt található link és a az itt található link, csak hogy néhányat említsek.

A rossz mesterséges intelligenciát korlátozó törvényeket lassan kidolgozzák és hatályba léptetik, lásd tudósításomat itt az itt található link. Vannak, akik attól tartanak, hogy a törvényhozók nem haladnak elég gyorsan. Úgy tűnik, hogy az elfogult mesterséges intelligencia elterjedésének özönvízi kapui jelenleg nagyrészt nyitva állnak. Kézcsavarás azt mondja, hogy mire az új törvények bekerülnek a könyvekbe, a gonosz dzsinn már kikerül a palackból.

Nem olyan gyorsan, mennek az ellenérvek. Aggodalomra ad okot, hogy ha túl gyorsan léptetik életbe a törvényeket, úgymond megöljük az aranylibát, miáltal a mesterséges intelligencia erőfeszítései kiszáradnak, és nem fogjuk élvezni az új AI-rendszerek társadalmilag fellendítő előnyeit. Az AI-fejlesztők és az AI-t használni kívánó cégek megrémülhetnek, ha a mesterséges intelligenciát szabályozó új, bizánci törvények hirtelen sorát léptetik életbe szövetségi, állami és helyi szinten, nem is beszélve az AI-val kapcsolatos nemzetközi törvényekről, amelyek szintén előretörnek.

Ebbe a zűrzavaros ügybe beletartozik a Red Flag AI törvények felhívása.

Mielőtt még rátérnénk a húsra és a krumplira az elképzelt Red Flag AI-törvény mögött meghúzódó vad és gyapjas megfontolások kapcsán, határozzunk meg néhány további alapvetést a mélyen lényeges témákban. Röviden bele kell merülnünk a mesterséges intelligencia etikájába, és különösen a Machine Learning (ML) és a Deep Learning (DL) megjelenésébe.

Lehet, hogy homályosan tisztában vagy vele, hogy manapság az egyik leghangosabb hang a mesterséges intelligencia területén és még az AI területén kívül is az etikus mesterséges intelligencia nagyobb látszatának követelése. Vessünk egy pillantást arra, hogy mit jelent a mesterséges intelligencia etikájára és az Ethical AI-ra hivatkozni. Ezen felül megvizsgáljuk, mire gondolok, amikor a gépi tanulásról és a mély tanulásról beszélek.

A mesterséges intelligencia etikájának egy bizonyos szegmense vagy része, amely a médiában nagy figyelmet kapott, a mesterséges intelligencia, amely nemkívánatos elfogultságokat és egyenlőtlenségeket mutat. Talán tudatában van annak, hogy amikor a mesterséges intelligencia legújabb korszaka beindult, hatalmas lelkesedés támadt az iránt, amit egyesek ma úgy hívnak. AI For Good. Sajnos ennek a tomboló izgalomnak a nyomában kezdtünk tanúi lenni AI For Bad. Például a különféle mesterséges intelligencia-alapú arcfelismerő rendszerekről kiderült, hogy faji és nemi előítéleteket tartalmaznak, amelyeket itt tárgyaltam. az itt található link.

Erőfeszítések, amelyek ellen harcolni kell AI For Bad aktívan zajlanak. A hangoskodáson kívül jogi A jogsértések megfékezésére irányuló törekvések jelentős erőfeszítéseket tesznek a mesterséges intelligencia etikájának elfogadása felé, hogy helyrehozzák a mesterséges intelligencia aljasságát. Az elképzelés az, hogy el kell fogadnunk és támogatnunk kell a kulcsfontosságú etikai mesterségesintelligencia-elveket a mesterséges intelligencia fejlesztése és terjesztése érdekében, ezzel aláásva AI For Bad és egyidejűleg hirdeti és hirdeti a jobbat AI For Good.

Ehhez kapcsolódóan én annak híve vagyok, hogy a mesterséges intelligencia megpróbálja a mesterséges intelligencia problémáinak megoldásának részeként használni a tüzet tűzzel oltva ilyen gondolkodásmódban. Például beágyazhatunk Ethical AI összetevőket egy mesterséges intelligencia rendszerbe, amely figyeli, hogy a többi AI hogyan csinálja a dolgokat, és így potenciálisan valós időben megragadja a diszkriminatív erőfeszítéseket. az itt található link. Lehetne egy külön mesterséges intelligencia-rendszer is, amely egyfajta AI-etikai monitorként működik. A mesterséges intelligencia rendszer felügyelőként szolgál annak nyomon követésére és észlelésére, ha egy másik mesterséges intelligencia az etikátlan szakadékba kerül (lásd az ilyen képességekről szóló elemzésemet itt: az itt található link).

Rövid időn belül megosztok veled néhány átfogó alapelvet, amelyek az AI etikájának hátterében állnak. Rengeteg ilyen lista lebeg itt-ott. Mondhatnánk, hogy még nincs egyetlen lista az egyetemes vonzerőről és az egyetértésről. Ez a sajnálatos hír. A jó hír az, hogy legalább vannak könnyen elérhető mesterséges intelligencia etikai listák, és általában meglehetősen hasonlóak. Mindent egybevetve ez arra utal, hogy az okolt konvergencia egyfajta formája révén megtaláljuk az utat az AI-etika általános közös vonása felé.

Először is tekintsünk át röviden néhány általános etikai mesterséges intelligencia előírást, hogy bemutassuk, minek kell létfontosságú szempontnak lennie bárki számára, aki mesterséges intelligenciát készít, dolgozik vagy használ.

Például, ahogy azt a Vatikán a Róma felhívás a mesterséges intelligencia etikájára és amint azt alaposan kifejtettem itt az itt található link, ez az általuk azonosított hat elsődleges AI etikai elv:

  • Átláthatóság: Elvileg az AI-rendszereknek magyarázhatónak kell lenniük
  • Befogadás: Minden ember szükségleteit figyelembe kell venni, hogy mindenki részesülhessen, és minden egyén számára a lehető legjobb feltételeket kínálhassuk önkifejezéshez és fejlődéshez.
  • Felelősség: Az MI használatát tervezőknek és alkalmazóknak felelősségteljesen és átláthatóan kell eljárniuk
  • Pártatlanság: Ne alkosson vagy cselekedjen elfogultság szerint, ezzel óvva a méltányosságot és az emberi méltóságot
  • Megbízhatóság: Az AI-rendszereknek megbízhatóan kell működniük
  • Biztonság és adatvédelem: Az AI-rendszereknek biztonságosan kell működniük, és tiszteletben kell tartaniuk a felhasználók magánéletét.

Amint azt az Egyesült Államok Védelmi Minisztériuma (DoD) kijelentette A mesterséges intelligencia használatának etikai alapelvei és amint azt alaposan kifejtettem itt az itt található link, ez a hat elsődleges AI etikai alapelvük:

  • Felelős: A DoD személyzete megfelelő szintű ítélőképességet és gondosságot gyakorol, miközben felelős marad az AI-képességek fejlesztéséért, telepítéséért és használatáért.
  • Igazságos: A minisztérium szándékos lépéseket tesz az AI-képességek nem szándékos torzításának minimalizálása érdekében.
  • Nyomon követhető: A minisztérium mesterséges intelligencia-képességeit úgy fejlesztik és alkalmazzák, hogy az érintett személyzet megfelelő ismeretekkel rendelkezzen az AI-képességekre vonatkozó technológiáról, fejlesztési folyamatokról és működési módszerekről, beleértve az átlátható és auditálható módszereket, adatforrásokat, valamint a tervezési eljárást és dokumentációt.
  • Megbízható: A minisztérium mesterséges intelligencia-képességeinek kifejezett, jól meghatározott felhasználási területei lesznek, és az ilyen képességek biztonsága, biztonsága és hatékonysága tesztelés és szavatosság tárgyát képezi a meghatározott felhasználási módokon belül, teljes életciklusuk során.
  • Kormányozható: A minisztérium megtervezi és megtervezi a mesterséges intelligencia képességeit, hogy teljesítsék a tervezett funkcióikat, miközben képesek lesznek észlelni és elkerülni a nem kívánt következményeket, valamint képesek lekapcsolni vagy deaktiválni a nem szándékos viselkedést tanúsító telepített rendszereket.

Megvitattam a mesterséges intelligencia etikai elveinek különféle kollektív elemzéseit is, beleértve a kutatók által kidolgozott halmazt, amely számos nemzeti és nemzetközi AI etikai tétel lényegét vizsgálta és sűrítette a „The Global Landscape Of AI Ethics Guidelines” című cikkben (megjelent. ban ben Természet), és amit tudósításom a címen vizsgál az itt található link, ami ehhez a trapézkő listához vezetett:

  • Átláthatóság
  • Igazságosság és méltányosság
  • Nem rosszindulat
  • Felelősség
  • Adatvédelem
  • Jótékonyság
  • Szabadság és autonómia
  • Bízzon
  • Fenntarthatóság
  • Méltóság
  • Szolidaritás

Amint azt közvetlenül sejtheti, rendkívül nehéz lehet az ezen alapelvek mögött meghúzódó sajátosságok meghatározása. Még ennél is keményebb dió az a törekvés, hogy ezeket a tág alapelveket valami teljesen kézzelfoghatóvá és kellően részletezetté alakítsák ahhoz, hogy az AI-rendszerek kidolgozásakor felhasználhatók legyenek. Könnyű összességében egy kis kézzel integetni arról, hogy mik is az AI etikai előírásai, és hogyan kell azokat általában betartani, míg az AI kódolásánál sokkal bonyolultabb a helyzet, ha a valódi guminak kell lennie, amely találkozik az úttal.

Az AI-etikai elveket az AI-fejlesztőknek kell alkalmazniuk, az AI-fejlesztési erőfeszítéseket irányítókkal együtt, sőt még azokkal is, amelyek végső soron az AI-rendszerek karbantartását és karbantartását végzik. Az összes érdekelt fél a mesterséges intelligencia fejlesztésének és használatának teljes életciklusa során beletartozik az etikus mesterséges intelligencia elfogadott normáihoz. Ez egy fontos kiemelés, mivel a szokásos feltevés az, hogy „csak a kódolóknak” vagy az AI-t programozóknak kell betartani az AI-etika fogalmait. Amint korábban említettük, egy falura van szükség a mesterséges intelligencia kidolgozásához és elindításához, és ehhez az egész falunak ismernie kell a mesterséges intelligencia etikai előírásait, és be kell tartania azokat.

Győződjünk meg arról is, hogy a mai mesterséges intelligencia természetét illetően egy oldalon vagyunk.

Ma nincs olyan mesterséges intelligencia, amely érző lenne. Nálunk ez nincs. Nem tudjuk, hogy az érző mesterséges intelligencia lehetséges lesz-e. Senki sem tudja pontosan megjósolni, hogy elérjük-e az érző MI-t, és azt sem, hogy az érző mesterséges intelligencia valamilyen csodálatos módon spontán módon létrejön-e számítógépes kognitív szupernóva formájában (általában szingularitásnak nevezik, lásd tudósításomat itt: az itt található link).

A mesterséges intelligencia azon típusa, amelyre összpontosítok, a ma létező nem érző MI-ből áll. Ha vadul akarnánk spekulálni arról érző AI, ez a vita gyökeresen más irányba mehet. Egy érző mesterséges intelligencia állítólag emberi minőségű lenne. Figyelembe kell vennie, hogy az érző mesterséges intelligencia az ember kognitív megfelelője. Sőt, mivel egyes feltételezések szerint szuperintelligens AI-val rendelkezünk, elképzelhető, hogy az ilyen mesterséges intelligencia okosabb lehet, mint az emberek (a szuperintelligens AI lehetőségének feltárásához lásd a tudósítás itt).

Maradjunk inkább a földön, és vegyük figyelembe a mai számítástechnikai, nem érző MI-t.

Vegye észre, hogy a mai mesterséges intelligencia nem képes az emberi gondolkodással egyenrangú módon „gondolkodni”. Amikor Alexával vagy Sirivel kommunikál, a társalgási képességek hasonlónak tűnhetnek az emberi képességekhez, de a valóság az, hogy számítási jellegű, és hiányzik az emberi megismerés. A mesterséges intelligencia legújabb korszaka széles körben alkalmazta a gépi tanulást (ML) és a mély tanulást (DL), amelyek kihasználják a számítási mintaillesztést. Ez olyan mesterséges intelligencia-rendszerekhez vezetett, amelyek emberszerű hajlamokat mutatnak. Eközben manapság nincs olyan mesterséges intelligencia, amely a józan észnek látszana, és az emberi gondolkodás kognitív csodáiból sem.

Az ML/DL a számítási mintaillesztés egyik formája. A szokásos megközelítés az, hogy egy döntési feladatról adatokat gyűjt össze. Az adatokat betáplálja az ML/DL számítógépmodellekbe. Ezek a modellek matematikai mintákat keresnek. Miután megtalálta az ilyen mintákat, ha igen, az AI rendszer ezeket a mintákat fogja használni, amikor új adatokkal találkozik. Az új adatok bemutatásakor a „régi” vagy történelmi adatokon alapuló mintákat alkalmazzák az aktuális döntés meghozatalához.

Azt hiszem, sejtheti, hová vezet ez. Ha az emberek, akik a mintaszerű döntéseket hozták, nemkívánatos elfogultságokat alkalmaztak, akkor valószínű, hogy az adatok ezt finom, de jelentős mértékben tükrözik. A Machine Learning vagy a Deep Learning számítási mintaillesztés egyszerűen megpróbálja matematikailag utánozni az adatokat ennek megfelelően. A mesterséges intelligencia által kialakított modellezésben önmagában semmi sem látszik a józan észnek vagy más érző szempontoknak.

Ezenkívül az AI-fejlesztők sem tudják, mi történik. Az ML/DL rejtélyes matematikája megnehezítheti a most rejtett torzítások kiszűrését. Joggal remélhető és elvárható, hogy a mesterséges intelligencia fejlesztői teszteljék a potenciálisan eltemetett torzításokat, bár ez bonyolultabb, mint amilyennek látszik. Jó esély van arra, hogy még viszonylag kiterjedt tesztelés mellett is lesznek torzítások az ML/DL mintaillesztési modelljeibe.

Használhatná némileg a híres vagy hírhedt közmondást, a szemetet a szemét kiszállításáról. A helyzet az, hogy ez inkább a torzításokhoz hasonlít, amelyek alattomos módon beszivárognak az AI-ba merülő torzítások miatt. Az AI algoritmus-döntéshozatala (ADM) axiomatikusan megterhelődik egyenlőtlenségekkel.

Nem jó.

Térjünk vissza a Red Flag AI törvényekre.

A mögöttes koncepció az, hogy az emberek képesek lennének vörös zászlót emelni, ha azt hiszik, hogy egy mesterséges intelligencia rendszer indokolatlanul elfogult vagy diszkriminatív módon működik. Ön önmagában nem emelne ki fizikai zászlót, ehelyett egyszerűen csak valamilyen elektronikus eszközt használna aggodalmainak ismertetésére. A séma vagy megközelítés vörös zászló része inkább metafora, mint fizikai megtestesülés.

Tegyen úgy, mintha lakáshitelt igényelne. Hiteligényléshez online banki szolgáltatást választ. Néhány személyes adat megadása után egy pillanatra megvárja, hogy a használt mesterséges intelligencia rendszer eldöntse, jogosult-e kölcsönadni vagy sem. Az AI azt mondja, hogy elutasították a kölcsönt. Amikor magyarázatot kértek arra, hogy miért utasították el, a szöveges narratíva azt sugallja Önnek, hogy az AI indokolatlanul torzító tényezőket használt a döntéshozatali algoritmus részeként.

Ideje vörös zászlót kitűzni az MI-ről.

Pontosan hol fog lengni ez a vörös zászló?

Ez egy millió dolláros kérdés.

Az egyik álláspont az, hogy fel kell hoznunk egy országos adatbázist, amely lehetővé tenné az emberek számára, hogy megjelöljék a mesterséges intelligencia szempontjából releváns piros zászlóikat. Egyesek szerint ezt a szövetségi kormánynak kellene szabályoznia. A szövetségi ügynökségek lennének felelősek a vörös zászlók vizsgálatáért, és a nagyközönség segítségére lennének a valódiságukat illetően, valamint a feltehetően „rossz mesterséges intelligencia” kezeléséért, amely a vörös zászlót jelentő jelentéseket hozta létre.

Úgy tűnik, hogy a Kongresszus megalkotja a nemzeti vörös zászlós mesterséges intelligenciatörvényt. A törvény pontosan meghatározná, mi az a MI-re vonatkozó vörös zászló. A törvény leírná, hogyan kell felhúzni ezeket az AI-t nyíró vörös zászlókat. Stb. Az is előfordulhat, hogy az egyes államok dönthetnek úgy, hogy kidolgozzák saját Red Flag AI-törvényeiket. Talán nemzeti kezdeményezés helyett teszik ezt, vagy azért teszik, hogy felerősítsék azokat a részleteket, amelyek különösen vonzóak az adott állapotukra.

A szövetségi vagy bármely kormány által támogatott Red Flag AI-program kritikusai azzal érvelnek, hogy ez olyasmi, amit a magánipar megtehet, és nincs szükségünk arra, hogy a Big Brother előtérbe kerüljön. Az ipar létrehozhat egy online adattárat, amelybe az emberek piros zászlókat regisztrálhatnak az AI-rendszerekről. Az ipar önrendelkezése megfelelően kezelné ezeket a kérdéseket.

Az állítólagos iparági megközelítéssel kapcsolatban az a kétségbeesés, hogy úgy tűnik, szaglászik a cimbora. Hajlandóak lennének a cégek betartani néhány magántulajdonban lévő Red Flag AI adatbázist? Sok cég potenciálisan figyelmen kívül hagyná az AI-val kapcsolatos piros zászlókat. Nem lenne éles fogazat arra, hogy a cégek foglalkozzanak a beírt vörös zászlókkal.

Hé, a magánszektor megközelítésének hívei elhangzanak, ez a nemzeti Yelp-szerű szolgáltatáshoz hasonlítana. A fogyasztók megnézhetik a piros zászlókat, és maguk dönthetik el, akarnak-e üzletet kötni olyan cégekkel, amelyek rengeteg mesterségesintelligencia-orientált vörös zászlót gyűjtöttek össze. Egy banknak, amely rengeteg piros zászlót kapott a mesterséges intelligenciájáról, oda kell figyelnie és meg kellene újítania mesterséges intelligenciarendszerét, így a logika megy, különben a fogyasztók úgy kerülnék el a céget, mint a pestist.

Az, hogy ezt az egész megközelítést a kormány vagy az ipar követi-e el, csak a jéghegy csúcsa a javasolt Red Flag AI-törvényekkel kapcsolatos kényes kérdésekben.

Helyezze magát egy olyan cég helyébe, amely mesterséges intelligenciát fejlesztett vagy alkalmaz. Előfordulhat, hogy a fogyasztók piros zászlót tűznének ki, még akkor is, ha erre nem volt járható alap. Ha az emberek szabadon kihelyezhetnének egy piros zászlót az MI-ről, akkor kísértést kaphatnak, hogy ezt szeszélyükből tegyék, vagy esetleg bosszúból egy olyan cég ellen, amely egyébként nem tett rosszat a fogyasztóval szemben.

Röviden: sok hamis pozitív Red Flags lehet az AI-val kapcsolatban.

Egy másik szempont az eredményül kapott vörös zászlók hatalmas mérete vagy nagysága. Könnyen lehet, hogy millió meg millió vörös zászlót emelnek ki. Ki fogja követni azokat a vörös zászlókat? Mennyibe kerülne ezt megtenni? Ki fogja fizetni a vörös zászló nyomon követési erőfeszítéseit? Stb.

Ha azt mondaná, hogy bárkinek, aki regisztrál vagy jelent be az MI-vel kapcsolatos vörös zászlót, díjat kell fizetnie, akkor egy homályos és alattomos birodalomba került. A gond az lenne, hogy csak a gazdagok engedhetik meg maguknak a vörös zászlók kitűzését. Ez viszont azt jelenti, hogy az elszegényedők nem vehetnének egyformán részt a vörös zászlós tevékenységekben, és lényegében nincs helyük a káros mesterséges intelligencia miatti figyelmeztetésre.

Egyelőre csak egy további csavar, nevezetesen, hogy az AI-val kapcsolatos effajta vörös zászlós törvények vagy irányelvek utólag utólag, nem pedig előzetes figyelmeztetésként szolgálnak.

Visszatérve a vörös zászlós közlekedési törvényhez, a vörös zászló használatának hangsúlya az volt, hogy elkerüljük a kezdeti csapást. A piros zászlólengetőnek jóval megelőznie kellett volna a közelgő autót. A jármű előtt haladva az állatokat riasztják, és az állatokat őrzők tudják, hogy óvintézkedéseket kell tenniük a hamarosan érkező zavaró forrás miatt.

Ha az emberek csak olyan MI-vel kapcsolatban tudnak vörös zászlót emelni, amely látszólag már sértette vagy aláásta a jogaikat, akkor a közmondásos ló már kint van az istállóból. Ez csak annyit jelentene, hogy remélhetőleg a többiek most már tudják, hogy óvatosak az AI-rendszerrel szemben. Eközben az állítólagosan sértett személy már szenvedett.

Egyesek azt javasolják, hogy megengedhetnénk az embereknek, hogy vörös zászlókat emeljenek ki az AI-ról gyanúsított elfogultak lehetnek, még akkor is, ha nem használták az MI-t, és az AI nem érintette őket közvetlenül. Így a piros zászlót a sebzés előtt lengették.

Jaj, megy a visszavágás, valóban egy teljesen kezelhetetlen és kaotikus üggyé fogja tenni az AI-val megbirkózó vörös zászlókat. Ha bárki bármilyen okból fel tud emelni egy piros zászlót egy MI-rendszerrel kapcsolatban, annak ellenére, hogy egyáltalán nem csinált semmit az AI-val, akkor elárasztanak a vörös zászlók. Ami még rosszabb, nem fogja tudni megkülönböztetni a búzát a pelyvától. Az egész vörös zászlós megközelítés összeomlik a saját súlya alatt, és leveszi az ötlet jóságát azáltal, hogy a flotsam és a riffraff elsüllyeszti az egész hajót.

Szédítő és zavarba ejtő.

Ennek a súlyos vitának a pillanatában lefogadom, hogy néhány szemléltető példára vágyik, amelyek bemutathatják ezt a témát. Van egy különleges és biztosan népszerű példasor, amely közel áll a szívemhez. Látod, a mesterséges intelligencia szakértőjeként, beleértve az etikai és jogi következményeket is, gyakran kérnek fel olyan reális példák azonosítására, amelyek bemutatják a mesterséges intelligencia etikai dilemmáit, hogy könnyebben megragadható legyen a téma némileg elméleti jellege. Az egyik legemlékezetesebb terület, amely élénken mutatja be ezt az etikus AI-problémát, az AI-alapú, valódi önvezető autók megjelenése. Ez praktikus használati esetként vagy példaként szolgál a témával kapcsolatos bőséges vitához.

Íme, egy figyelemre méltó kérdés, amelyen érdemes elgondolkodni: A mesterséges intelligencia-alapú valódi önvezető autók megjelenése felvilágosít valamit a Red Flag AI-törvényekről, és ha igen, mit mutat be ez?

Engedjen meg egy pillanatra, hogy kibontsa a kérdést.

Először is vegye figyelembe, hogy egy igazi önvezető autóban nincs emberi vezető. Ne feledje, hogy az igazi önvezető autókat mesterséges intelligencia vezetési rendszer vezeti. Nincs szükség emberi sofőrre a volánnál, és arra sem, hogy ember vezesse a járművet. Az autonóm járművekről (AV-k) és különösen az önvezető autókról szóló kiterjedt és folyamatos tájékoztatásért lásd az itt található link.

Szeretném még jobban tisztázni, mit kell érteni, amikor valódi önvezető autókra utalok.

Az önvezető autók szintjének megértése

Tisztázva, az igazi önvezető autók azok, ahol az AI teljesen önállóan vezeti az autót, és nincs emberi segítség a vezetési feladat során.

Ezek a vezető nélküli járművek 4-es és 5-ös szintnek minősülnek (lásd a magyarázatomat a következő helyen). ez a link itt), míg az olyan autókat, amelyekhez emberi vezető szükséges a vezetési erőfeszítések közös megosztására, általában 2. vagy 3. szinten tekintik. A vezetési feladatot közösen megosztó autók leírása félig autonóm, és általában különféle automatizált bővítmények, amelyeket ADAS-nak (Advanced Driver-Assistance Systems) neveznek.

Még nincs igazi önvezető autó az 5-ös szinten, és még azt sem tudjuk, hogy ez elérhető lesz-e, és azt sem, hogy mennyi időbe telik eljutni odáig.

Eközben a 4. szintű erőfeszítések fokozatosan próbálnak némi vonóerőt szerezni nagyon szűk és szelektív közúti próbák révén, bár vita folyik arról, hogy ezt a tesztelést önmagában engedélyezni kell-e (mindannyian életre-halálra menő tengerimalacok vagyunk egy kísérletben autópályáinkon és mellékutainkon zajlanak, egyesek azt állítják, lásd tudósításomat itt ez a link itt).

Mivel a félig autonóm autókhoz emberi sofőrre van szükség, az ilyen típusú autók elfogadása nem különbözik nyilvánvalóan a hagyományos járművek vezetésénél, tehát önmagában nincs sok új, hogy ezekkel a témákkal foglalkozzanak (bár, amint látni fogja) egy pillanat alatt a következő pontok általában alkalmazandók).

A félig autonóm autók esetében fontos, hogy a nyilvánosságot figyelmeztessék az utóbbi időben felmerülő zavaró tényezőkre, nevezetesen arra, hogy azoknak az emberi járművezetőknek ellenére, akik folyamatosan videókat tesznek közzé, hogy maguk alszanak a 2. vagy 3. szintű autó kormányához , mindannyian el kell kerülnünk, hogy félrevezetjük azt a hitet, hogy a sofőr félig autonóm autó vezetése közben elvonhatja figyelmét a vezetési feladatról.

Te vagy a felelős a jármű vezetési tevékenységeiért, függetlenül attól, hogy mekkora mennyiségű automatizálást lehet 2. vagy 3. szintre dobni.

Önvezető autók és vörös zászlós mesterséges intelligencia törvényei

A 4. és 5. szintű valódi önjáró járműveknél nem vezethet embervezető a vezetési feladatba.

Minden utas utas lesz.

Az AI vezet.

Azonnal megvitatandó szempont azzal a ténnyel jár, hogy a mai mesterséges intelligencia-vezetési rendszerekben részt vevő mesterséges intelligencia nem érző. Más szavakkal, az AI összességében számítógépes programozás és algoritmusok összessége, és bizonyosan nem képes ugyanúgy érvelni, mint az emberek.

Miért van ez a hangsúly arra, hogy az AI nem érzékeny?

Mivel szeretném aláhúzni, hogy az AI hajtórendszer szerepének tárgyalásakor nem tulajdonítok emberi tulajdonságokat az AI-nek. Felhívjuk figyelmét, hogy manapság folyamatos és veszélyes tendencia van az AI antropomorfizálására. Lényegében az emberek emberi szerű érzékenységet tulajdonítanak a mai mesterséges intelligenciának, annak ellenére, hogy tagadhatatlan és vitathatatlan tény, hogy ilyen AI még nem létezik.

Ezzel a pontosítással elképzelheti, hogy az AI vezetési rendszer valahogy nem fogja „tudni” a vezetés szempontjait. A vezetést és mindazt, amit ez magában foglal, be kell programozni az önvezető autó hardverének és szoftverének részeként.

Merüljünk el abban a számtalan szempontban, amelyek eljátszanak ebben a témában.

Először is fontos felismerni, hogy nem minden AI önvezető autó egyforma. Minden autógyártó és önvezető technológiai cég alkalmazza a hozzáállását az önvezető autók kidolgozásához. Emiatt nehéz átfogó kijelentéseket tenni arról, hogy az AI-meghajtórendszerek mit fognak tenni vagy nem.

Továbbá, ha azt állítják, hogy az AI meghajtó rendszer nem végez bizonyos dolgokat, ezt később a fejlesztők megelőzhetik, akik valójában erre programozzák a számítógépet. Lépésről lépésre az AI meghajtó rendszereket fokozatosan fejlesztik és bővítik. A meglévő korlátozás ma már nem létezik a rendszer későbbi iterációjában vagy verziójában.

Remélem, ez elegendő kitételt biztosít ahhoz, hogy alátámassza azt, amit mondani készülök.

Vázoljunk fel egy forgatókönyvet, amely felhasználhatja a Red Flag AI-törvényt.

Beülsz egy AI-alapú önvezető autóba, és szeretnéd, ha az autonóm jármű elvezetné a helyi élelmiszerboltba. A viszonylag rövid utazás során az MI olyan útvonalat választ, amely kissé hibásnak tűnik. Ahelyett, hogy a legközvetlenebb úton menne, az MI a távoli utcákra navigál, ami miatt a vezetési idő meghaladja a szokásosnál.

Mi folyik itt?

Feltételezve, hogy az önvezető autó használatáért fizet, gyanítható lehet, hogy az AI-t hosszabb útvonalra programozták, hogy megpróbálja felemelni az utazás viteldíját vagy költségét. Bárki, aki valaha is használt hagyományos, ember által vezetett vezetőfülkét, ismeri azt a trükköt, amellyel több tészta kerülhet a mérőóra. Természetesen, ha az embereknek GPS-t használnak okostelefonjukon, miközben taxiban vagy hasonlóban ülnek, könnyen elkaphat egy emberi sofőrt, aki úgy tűnik, sunyi módon, szükségtelenül hosszú útvonalakon halad.

Kiderült, hogy van egy másik aggálya az útvonalválasztással kapcsolatban, valami, ami nagyon megrágja magát.

Tegyük fel, hogy az útvonalválasztást azért végezték, hogy elkerüljék a város bizonyos részeit a faji okok miatt. Vannak olyan dokumentált esetek, amikor emberi sofőröket kaptak ilyen döntések meghozatalán, lásd a beszélgetésemet itt az itt található link. Lehet, hogy az AI-t erre hátrányosan programozták.

Úgy döntesz, hogy felvonsz egy vörös zászlót.

Tételezzük fel a vita kedvéért, hogy elfogadtak egy Red Flag AI-törvényt, amely lefedi az Ön joghatóságát. Ez lehet helyi törvény, állami jog, szövetségi vagy nemzetközi jog. A Harvard Autonomous Vehicle Policy Initiative (AVPI) nevű kezdeményezésével közösen készített elemzést a helyi vezetés növekvő fontosságáról, amikor a közösségek elfogadják az önvezető autók használatát, lásd: az itt található link.

Tehát online lép egy Red Flag AI adatbázishoz. Az eseményadatbázisban megadja az önvezető autós utazással kapcsolatos információkat. Ez tartalmazza a vezetési túra dátumát és időpontját, valamint az önvezető autó márkáját és modelljét. Ezután megadja azt a navigációs útvonalat, amely gyanúsnak tűnt, és azt sugallja, vagy talán egyenesen azt állítja, hogy az AI-t elfogult vagy diszkriminatív szándékkal és kapacitással dolgozták ki.

Találgatnunk kellene a Red Flag AI törvény egyéb részleteivel kapcsolatban, hogy mi történik ezután ebben a konkrét forgatókönyvben. Elméletileg lenne olyan rendelkezés, hogy valaki felülvizsgálja a piros zászlót. Feltehetően arra akarnák rávenni az autógyártót vagy az önvezető technológiai céget, hogy fejtsék ki álláspontjukat a bejelentkezett piros zászlóval kapcsolatban. Hány másik ilyen vörös zászlót regisztráltak? Milyen eredményeket hoztak ezek a piros zászlók?

És így tovább menne.

Következtetés

Hülyeség – buzdítja néhány szkeptikus.

Nincs szükségünk Red Flag AI-törvényekre, ezek szigorúan érvényesülnek. Ha bármit megtesz, az felgyorsítja a munkát, ha az AI üteméről és fejlődéséről van szó. Minden ilyen törvény nehézkes lenne. Olyan problémát teremtenél, ami nem oldja meg a problémát. Vannak más rossz módszerek is a mesterséges intelligencia kezelésére. Ne ragadja meg vakon a szívószálakat, hogy megbirkózzon az elfogult mesterséges intelligenciával.

Sebességváltáskor mindannyian tudjuk, hogy a torreádorok vörös köpenyt használnak, hogy felhívják magukra a dühös bika figyelmét. Bár a vörös szín az a szín, amelyet leginkább ezzel a gyakorlattal társítunk, meglepheti, hogy a tudósok azt mondják, hogy a bikák nem érzékelik a muleta vörös színét (színvakok a vörösre). A népszerű műsor Mítoszrombolók meglehetősen szórakoztató vizsgálatot végzett az ügyben. A köpeny mozgása a kulcselem, nem pedig a választott szín.

Azok számára, akik figyelmen kívül hagyják a Red Flag AI-törvények szükségességét, egy ellenkérdés az, hogy valami drámai és összetéveszthetetlen hullámzó természetre van szükségünk annak biztosítására, hogy az AI-fejlesztők és az AI-t alkalmazó cégek elkerüljék az elfogult vagy rossz AI-t. Ha nem egy piros zászló, akkor talán egy lebegő köpeny vagy alapvetően bármilyen figyelmeztető megközelítés a kellő megfontolások körébe tartozhat.

Biztosan tudjuk, hogy létezik rossz mesterséges intelligencia, és sokkal több rossz MI fog felénk haladni. Kulcsfontosságú, hogy megtaláljuk a módját, hogy megvédjük magunkat a káros mesterséges intelligencia ellen. Hasonlóképpen fontos a korlátok felállítása, hogy megakadályozzák a rossz mesterséges intelligencia világra jutását.

Ernest Hemingway híres kijelentette, hogy soha senki nem éli le az életét, kivéve a torreádorokat. Gondoskodnunk kell arról, hogy az emberek végig élhessék az életüket, függetlenül attól, hogy a mesterséges intelligencia bármi rosszat vagy őrültséget hirdet ránk.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-ched-red-flag-ai-laws-for-calling-out- biased-algoritms-in-autonomous-ai-systems/