Az AI Ethics üdvözli a szabványos mesterséges intelligencia kockázatkezelési keretrendszer kilátásait, amely az autonóm önvezető autók erőfeszítéseit is elősegítheti

Úgy tűnik, többször mondják nekünk, hogy a kockázatvállalás fontos az életben.

Ha megnézi az idézhető idézetek mindennapos listáját, túlnyomórészt az életre szóló hackek azt mondják, hogy vállalja a kockázatot. Éljen a lehetőséggel, és mássz ki egy lábon. Tedd félre kényszerítő aggodalmaidat, és repülj szabadon a kockázat csodájával. A kockázat a barátod. A kockázat körüljárja a világot. Egyszerűen leírva, nincs kockázat, nincs haszon.

Bár ezek az izzó bátorítások a kockázatvállalásról ésszerűnek tűnnek, a kockázat árnyoldalairól szóló ellensúlyozó és kijózanító gondolatok valahogy szó nélkül maradnak. A kockázat veszélybe sodorhatja. A kockázatos cselekvések súlyos károkat okozhatnak. Egyszerűen fogalmazva, a kockázat nem kockázatmentes.

George Patton tábornok híresen azt állította, hogy mindig kockázatosnak kell lennünk, ha kellőképpen vállaljuk számított kockázatokat, amelyeket egészen másként jellemez, mint a kiütés. Ezért előre gondolja át azokat a kockázatokat, amelyeket hajlandó vállalni. Legyen tisztában az ismert kockázatokkal és az ismeretlen kockázatok lehetőségével. Az embernek meg kell ismernie a korlátait, amikor kockázatról és kockázatvállalásról van szó.

A „kockázat” természetét és terjedelmét egy analitikusan leírható jelenségként hozom fel, hogy rávilágítsak arra, hogy a mesterséges intelligencia kapcsán egyre nagyobb szükség van annak meghatározására, hogy mennyire kockázatos a mesterséges intelligencia terjedése. Az AI nem kockázatmentes. Éppen ellenkezőleg, a mesterséges intelligencia számos jelentős és félelmetesen masszív kockázatot rejt magában, amelyek megkövetelik mindannyiunktól, hogy vegyünk egy mély levegőt, és kezdjük el komolyan kalkulálni, hogy melyek ezek a kockázatok. Tágra kell nyitnunk a szemünket, és tudnunk kell a mesterséges intelligencia kockázatairól, miközben fejjel előre belemerülünk a mesterséges intelligencia befogadása felé tartó rohanásba.

Kérjük, vegye figyelembe, hogy napjaink összes érdekeltje szembesül a mesterséges intelligencia kockázataival.

Például egy mesterséges intelligencia-rendszert kidolgozó cég azt a kockázatot vállalja, hogy a mesterségesintelligencia végül valamilyen formájú érdemi kárt okozhat az AI-rendszert használóknak. A kár lehet anyagi, pszichológiai vagy esetleg fizikai sérülés, amely megsebesíthet vagy megölhet valakit. A cég vezetőit valószínűleg jogilag felelősségre vonják az AI kidolgozásáért és kiadásáért. Az AI-fejlesztőket, akik az AI-t építették, felelősségre kell vonni. Rengeteg ember dolgozik a mesterséges intelligencia elkészítésében és terjesztésében, és mindannyian közösen felelősek és vétkesek azért, amit hagytak károsan bekövetkezni.

Gondoljon az MI-kockázatra, mint valamire, ami lebeg, és mindazokhoz kötődik, amelyekhez kapcsolódási pont tartozik az MI-hez. Az AI-rendszer felhasználói bizonyos mértékű kockázatot vállalnak. Lehet, hogy az AI károsítja őket. Azok, akik kitalálták az MI-t, bizonyos mértékű kockázatot vállalnak a mesterséges intelligencia által okozott káros következményekkel kapcsolatban. A kockázat mindenütt jelen van a mesterséges intelligencia területén, mégis gyakran teljesen elhanyagoltnak és általában sajnálatos módon alábecsültnek tűnik.

A rossz hír tehát az, hogy nem fordítanak kellő figyelmet a mesterséges intelligencia kockázataira.

A jó hír az, hogy a mesterséges intelligencia kockázatának megértése és mérése létfontosságúságának egyre növekvő felértékelődése felgyorsul. Ennek a tudatosságnak az egészséges jeleként vethetünk egy pillantást a megfogalmazásra AI kockázatkezelési keretrendszer (RMF) hogy a National Institute of Standards and Technology (NIST) arra vállalkozik. Itt a 17. március 2022-én kelt dokumentumtervezetből fogok idézni. Számos megbeszélés zajlik a dokumentum további finomítása és bővítése érdekében. Az AI RMF 1.0 néven ismert félig véglegesített verzió a tervek szerint 2023 januárjában jelenik meg.

Mielőtt belevágnék az AI RMF meglévő tervezetébe, szeretném hangsúlyozni, hogy akit valóban érdekel az AI etika, annak különösen figyelemmel kell kísérnie, hogy miből áll az AI RMF. Amellett, hogy a tervezet tetején marad, megfontolhatja azt is, hogy részt vegyen a szövegezési erőfeszítésekben, és segítsen az AI kockázatkezelési keretrendszerének megfogalmazásában (megjegyezzük, hogy a NIST nyilvános műhelytalálkozókat szervez, amelyek szívesen látják az ilyen hozzászólásokat). Valóban segíthetsz történelmet írni.

Vizsgáljuk meg röviden a mesterséges intelligencia etika és a mesterséges intelligencia kockázatai közötti fontos összefonódást. A mesterséges intelligencia kockázatai az Ethical AI hasznosságának szerves részét képezik. A mesterséges intelligencia etikájával és az etikai AI-val kapcsolatos folyamatos és kiterjedt tudósításomat lásd az itt található link és a az itt található link, hogy csak néhányat említsünk. Könnyen állíthatja, hogy a mesterséges intelligencia kockázata minden AI-etikai elvben vagy előírásban benne van. Egy kényelmes mentális modell az lenne, ha egy olyan táblázatot képzelnénk el, amelyben a mesterséges intelligencia etika elvei, mint vízszintes elemek (oszlopok), és az AI kockázata egy függőleges komponens (sorok), amely a vízszintesben és azokon keresztül szövődik.

A mesterséges intelligencia kockázatairól beszélve felveti a különböző árnyalatokat, hogy milyen MI-re utalunk. Az MI kikiáltott emberszerű csodáiról szóló harsány címszavak ellenére ma nincs olyan mesterséges intelligencia, amely érző lenne. Nem tudjuk, hogy az érző mesterséges intelligencia lehetséges lesz-e. Senki sem tudja pontosan megjósolni, hogy elérjük-e az érző MI-t, és azt sem, hogy az érző mesterséges intelligencia valamilyen csodálatos módon spontán módon létrejön-e számítógépes kognitív szupernóva formájában (általában szingularitásnak nevezik, lásd tudósításomat itt: az itt található link).

Az itt bemutatott mesterséges intelligencia típusa a mai nem érző MI-ből áll.

Ha vadul akarnánk spekulálni arról érző AI, ez a vita gyökeresen más irányba mehet. Egy érző mesterséges intelligencia állítólag emberi minőségű lenne. Figyelembe kell vennie, hogy az érző mesterséges intelligencia az ember kognitív megfelelője. Sőt, mivel egyes feltételezések szerint szuperintelligens AI-val rendelkezünk, elképzelhető, hogy az ilyen mesterséges intelligencia okosabb lehet, mint az emberek (a szuperintelligens AI lehetőségének feltárásához lásd a tudósítás itt).

Maradjunk inkább a földön, és vegyük figyelembe a mai számítástechnikai, nem érző MI-t.

Vegye észre, hogy a mai mesterséges intelligencia nem képes az emberi gondolkodással egyenrangú módon „gondolkodni”. Amikor Alexával vagy Sirivel kommunikál, a társalgási képességek hasonlónak tűnhetnek az emberi képességekhez, de a valóság az, hogy számítási jellegű, és hiányzik az emberi megismerés. A mesterséges intelligencia legújabb korszaka széles körben alkalmazta a gépi tanulást (ML) és a mély tanulást (DL), amelyek kihasználják a számítási mintaillesztést. Ez olyan mesterséges intelligencia-rendszerekhez vezetett, amelyek emberszerű hajlamokat mutatnak. Eközben manapság nincs olyan mesterséges intelligencia, amely a józan észnek látszana, és az emberi gondolkodás kognitív csodáiból sem.

Az ML/DL a számítási mintaillesztés egyik formája. A szokásos megközelítés az, hogy egy döntési feladatról adatokat gyűjt össze. Az adatokat betáplálja az ML/DL számítógépmodellekbe. Ezek a modellek matematikai mintákat keresnek. Miután megtalálta az ilyen mintákat, ha igen, az AI rendszer ezeket a mintákat fogja használni, amikor új adatokkal találkozik. Az új adatok bemutatásakor a „régi” vagy történelmi adatokon alapuló mintákat alkalmazzák az aktuális döntés meghozatalához.

Azt hiszem, sejtheti, hová vezet ez. Ha az emberek, akik a mintaszerű döntéseket hozták, nemkívánatos elfogultságokat alkalmaztak, akkor valószínű, hogy az adatok ezt finom, de jelentős mértékben tükrözik. A Machine Learning vagy a Deep Learning számítási mintaillesztés egyszerűen megpróbálja matematikailag utánozni az adatokat ennek megfelelően. A mesterséges intelligencia által kialakított modellezésben önmagában semmi sem látszik a józan észnek vagy más érző szempontoknak.

Ezenkívül az AI-fejlesztők sem tudják, mi történik. Az ML/DL rejtélyes matematikája megnehezítheti a most rejtett torzítások kiszűrését. Joggal remélhető és elvárható, hogy a mesterséges intelligencia fejlesztői teszteljék a potenciálisan eltemetett torzításokat, bár ez bonyolultabb, mint amilyennek látszik. Jó esély van arra, hogy még viszonylag kiterjedt tesztelés mellett is lesznek torzítások az ML/DL mintaillesztési modelljeibe.

Használhatná némileg a híres vagy hírhedt közmondást, a szemetet a szemét kiszállításáról. A helyzet az, hogy ez inkább a torzításokhoz hasonlít, amelyek alattomos módon beszivárognak az AI-ba merülő torzítások miatt. Az AI algoritmus-döntéshozatala (ADM) axiomatikusan megterhelődik egyenlőtlenségekkel.

Nem jó.

Talán tudatában van annak, hogy amikor a mesterséges intelligencia legújabb korszaka beindult, hatalmas lelkesedés támadt az iránt, amit egyesek ma úgy hívnak. AI For Good. Sajnos ennek a tomboló izgalomnak a nyomában kezdtünk tanúi lenni AI For Bad. Például a különféle mesterséges intelligencia-alapú arcfelismerő rendszerekről kiderült, hogy faji és nemi előítéleteket tartalmaznak, amelyeket itt tárgyaltam. az itt található link.

Erőfeszítések, amelyek ellen harcolni kell AI For Bad aktívan zajlanak. A hangoskodáson kívül jogi A jogsértések megfékezésére irányuló törekvések jelentős erőfeszítéseket tesznek a mesterséges intelligencia etikájának elfogadása felé, hogy helyrehozzák a mesterséges intelligencia aljasságát. Az elképzelés az, hogy el kell fogadnunk és támogatnunk kell a kulcsfontosságú etikai mesterségesintelligencia-elveket a mesterséges intelligencia fejlesztése és terjesztése érdekében, ezzel aláásva AI For Bad és egyidejűleg hirdeti és hirdeti a jobbat AI For Good.

Ehhez kapcsolódóan én annak híve vagyok, hogy a mesterséges intelligencia megpróbálja a mesterséges intelligencia problémáinak megoldásának részeként használni a tüzet tűzzel oltva ilyen gondolkodásmódban. Például beágyazhatunk Ethical AI összetevőket egy mesterséges intelligencia rendszerbe, amely figyeli, hogy a többi AI hogyan csinálja a dolgokat, és így potenciálisan valós időben megragadja a diszkriminatív erőfeszítéseket. az itt található link. Lehetne egy külön mesterséges intelligencia-rendszer is, amely egyfajta AI-etikai monitorként működik. A mesterséges intelligencia rendszer felügyelőként szolgál annak nyomon követésére és észlelésére, ha egy másik mesterséges intelligencia az etikátlan szakadékba kerül (lásd az ilyen képességekről szóló elemzésemet itt: az itt található link).

Tekintsünk meg röviden néhány átfogó etikai mesterséges intelligencia előírást, amelyeket korábban a rovataimban tárgyaltam, hogy bemutassam, minek kell létfontosságúnak lennie mindenki számára, aki mesterséges intelligenciát készít, dolgozik vagy használ. Ezután merüljünk el az AI-kockázatok témakörében.

Amint azt a Vatikán a Róma felhívás a mesterséges intelligencia etikájára és ahogy kifejtettem az itt található link, ez az általuk azonosított hat elsődleges AI etikai elv:

  • Átláthatóság: Elvileg az AI-rendszereknek magyarázhatónak kell lenniük.
  • Befogadás: Minden ember szükségleteit figyelembe kell venni, hogy mindenki részesülhessen, és minden egyén számára a lehető legjobb feltételeket kínálhassuk önkifejezéshez és fejlődéshez.
  • Felelősség: Az MI használatát tervezőknek és alkalmazóknak felelősségteljesen és átláthatóan kell eljárniuk.
  • Pártatlanság: Ne alkosson vagy cselekedjen elfogultság szerint, ezzel óvva a méltányosságot és az emberi méltóságot.
  • Megbízhatóság: Az AI-rendszereknek megbízhatóan kell működniük.
  • Biztonság és adatvédelem: Az AI-rendszereknek biztonságosan kell működniük, és tiszteletben kell tartaniuk a felhasználók magánéletét.

Amint azt az Egyesült Államok Védelmi Minisztériuma (DoD) kijelentette A mesterséges intelligencia használatának etikai alapelvei és ahogy kifejtettem az itt található link, ez a hat elsődleges AI etikai alapelvük:

  • Felelős: A DoD személyzete megfelelő szintű ítélőképességet és gondosságot gyakorol, miközben felelős marad az AI-képességek fejlesztéséért, telepítéséért és használatáért.
  • Igazságos: A minisztérium szándékos lépéseket tesz az AI-képességek nem szándékos torzításának minimalizálása érdekében.
  • Nyomon követhető: A minisztérium mesterséges intelligencia képességeit úgy fejlesztik és alkalmazzák, hogy az érintett személyzet megfelelő ismeretekkel rendelkezzen az AI-képességekre vonatkozó technológiáról, fejlesztési folyamatokról és működési módszerekről, beleértve az átlátható és auditálható módszereket, adatforrásokat, valamint a tervezési eljárást és dokumentációt.
  • Megbízható: A minisztérium mesterséges intelligencia-képességeinek kifejezett, jól meghatározott felhasználási területei lesznek, és az ilyen képességek biztonsága, biztonsága és hatékonysága tesztelés és szavatosság tárgyát képezi a meghatározott felhasználási módokon belül, teljes életciklusuk során.
  • Kormányozható: A minisztérium megtervezi és megtervezi a mesterséges intelligencia képességeit, hogy teljesítsék a tervezett funkcióikat, miközben képesek lesznek észlelni és elkerülni a nem kívánt következményeket, valamint képesek lekapcsolni vagy deaktiválni a nem szándékos viselkedést tanúsító telepített rendszereket.

Megvitattam a mesterséges intelligencia etikai elveinek különféle kollektív elemzéseit is, beleértve a kutatók által kidolgozott halmazt, amely számos nemzeti és nemzetközi AI etikai tétel lényegét vizsgálta és sűrítette a „The Global Landscape Of AI Ethics Guidelines” című cikkben (megjelent. ban ben Természet), és amit tudósításom a címen vizsgál az itt található link, ami ehhez a trapézkő listához vezetett:

  • Átláthatóság
  • Igazságosság és méltányosság
  • Nem rosszindulat
  • Felelősség
  • Adatvédelem
  • Jótékonyság
  • Szabadság és autonómia
  • Bízzon
  • Fenntarthatóság
  • Méltóság
  • Szolidaritás

Amint azt közvetlenül sejtheti, rendkívül nehéz lehet az ezen alapelvek mögött meghúzódó sajátosságok meghatározása. Még ennél is keményebb dió az a törekvés, hogy ezeket a tág alapelveket valami teljesen kézzelfoghatóvá és kellően részletezetté alakítsák ahhoz, hogy az AI-rendszerek kidolgozásakor felhasználhatók legyenek. Könnyű összességében egy kis kézzel integetni arról, hogy mik is az AI etikai előírásai, és hogyan kell azokat általában betartani, míg az AI kódolásánál sokkal bonyolultabb a helyzet, ha a valódi guminak kell lennie, amely találkozik az úttal.

Az AI-etikai elveket az AI-fejlesztőknek kell alkalmazniuk, az AI-fejlesztési erőfeszítéseket irányítókkal együtt, sőt még azokkal is, amelyek végső soron az AI-rendszerek karbantartását és karbantartását végzik. Az összes érdekelt fél a mesterséges intelligencia fejlesztésének és használatának teljes életciklusa során beletartozik az etikus mesterséges intelligencia elfogadott normáihoz. Ez egy fontos kiemelés, mivel a szokásos feltevés az, hogy „csak a kódolóknak” vagy az AI-t programozóknak kell betartani az AI-etika fogalmait. Amint korábban említettük, egy falura van szükség a mesterséges intelligencia kidolgozásához és elindításához, és ehhez az egész falunak ismernie kell a mesterséges intelligencia etikai előírásait, és be kell tartania azokat.

Korábban már említettem, hogy a mesterséges intelligencia kockázata az összes mesterséges intelligencia etikai előírását átfedi. Ennek a látszatnak a teljes megjelenítéséhez fontolja meg a kulcsfontosságú mesterségesintelligencia-etikai elvek újrafogalmazását, hogy megvilágítsa a mesterséges intelligencia kockázatának kérdését:

  • Az átláthatóság és a kapcsolódó mesterséges intelligencia kockázatai
  • Az igazságosság és méltányosság és a kapcsolódó mesterséges intelligencia kockázatai
  • Nem rosszindulatú és kapcsolódó mesterséges intelligencia kockázatok
  • Felelősség és a kapcsolódó mesterséges intelligencia kockázatai
  • Adatvédelem és a kapcsolódó mesterséges intelligencia kockázatai
  • Előnyök és a kapcsolódó mesterséges intelligencia kockázatai
  • Szabadság és autonómia, valamint a kapcsolódó mesterséges intelligencia kockázatai
  • A bizalom és a kapcsolódó mesterséges intelligencia kockázatai
  • Fenntarthatóság és a kapcsolódó mesterséges intelligencia kockázatai
  • Méltóság és a kapcsolódó mesterséges intelligencia kockázatai
  • Szolidaritás és a kapcsolódó mesterséges intelligencia kockázatai

Mielőtt kicsomagolnánk, gondoljuk át, mit jelent a „kockázat” szó.

Ezt azért mondom, mert a kockázatnak mint hívószónak más jelentése van, attól függően, hogy kivel beszél. Ennek az aspektusnak a feltárása során felhozok egy másik NIST-dokumentumot is, amelynek tanulmányozását érdemes megfontolni, ha be akarsz kerülni az AI RMF-be, nevezetesen, hogy létezik egy átfogó NIST kockázatkezelési keretrendszer (RMF), amely nagyjából lefedi az információs technológiai rendszereket és a kockázatokat. menedzsment, miután egy ideje a helyén van. Az AI RMF lényegében a tágabb RMF példánya (pimaszul azt mondhatná, hogy az AI RMF a mindent elárult RMF fia vagy lánya).

A teljes NIST RMF szerint a kockázat meghatározása: „A kockázat annak mértéke, hogy egy entitást milyen mértékben fenyeget egy potenciális körülmény vagy esemény. A kockázat a körülmény vagy esemény bekövetkeztekor fellépő káros hatások és a bekövetkezés valószínűségének függvénye is. A kockázat típusai közé tartozik a programkockázat; megfelelőségi/szabályozási kockázat; pénzügyi kockázat; jogi kockázat; küldetés/üzleti kockázat; politikai kockázat; biztonsági és adatvédelmi kockázat (beleértve az ellátási lánc kockázatát); projekt kockázata; reputációs kockázat; biztonsági kockázat; stratégiai tervezési kockázat.”

A NIST AI RMF tervezete a következőképpen határozza meg a kockázatot: „A kockázat annak mértéke, hogy egy entitást milyen mértékben befolyásol negatívan egy potenciális körülmény vagy esemény. A kockázat jellemzően 1) a körülmény vagy esemény bekövetkezésekor felmerülő káros hatások függvénye; és 2) az előfordulás valószínűsége. Az entitások lehetnek egyének, csoportok vagy közösségek, valamint rendszerek, folyamatok vagy szervezetek.”

Mélyebbre ásva és esetleg iszaposodva a vizeket, a Stanford Encyclopedia of Philosophy kézzelfoghatóan rámutat arra, hogy a kockázatot gyakran öt különböző konnotációban határozzák meg:

1) A kockázat egy nem kívánt esemény, amely előfordulhat, de előfordulhat, hogy nem

2) A kockázat az okoz egy nem kívánt eseményről, amely előfordulhat, de előfordulhat, hogy nem

3) A kockázat az valószínűség egy nem kívánt eseményről, amely előfordulhat, de előfordulhat, hogy nem

4) A kockázat az statisztikai várakozási érték egy nem kívánt eseményről, amely előfordulhat, de előfordulhat, hogy nem

5) A kockázat az a tény, hogy a döntés ismert valószínűségek körülményei között születik

Egyelőre kollegiálisan állapodjunk meg abban, hogy ebben a vitában a kockázat fogalmát általánosított módon fogjuk kezelni a fent említett NIST RMF és NIST AI RMF definíciók szerint, és ne ragadjunk le a kacskaringós variációknál. Bízom benne, hogy elégedett a fenti alapjaimmal, miszerint egyelőre rendeztem az AI kontextuális jelentését és a kockázat jelentését.

A mesterséges intelligencia kockázatkezelési keretrendszere egy eszköz a mesterséges intelligencia kockázatainak kiküszöbölésére, és remélhetőleg ezeket a kockázatokat is kezelheti.

Az AI RMF szerint ez a megfogalmazás alatt álló AI kockázatkezelési keretrendszer formális célja vagy törekvése: „Az AI kockázatkezelési keretrendszer (AI RMF vagy Framework) képes kezelni az AI-rendszerek egyedi kihívásait. Ez az AI RMF egy kezdeti kísérlet arra, hogy leírja, miben térnek el az AI-alapú rendszerek kockázatai a többi területtől, és arra ösztönzi és felvértezi a mesterséges intelligencia számos érdekelt felét, hogy célirányosan kezeljék ezeket a kockázatokat. Ez az önkéntes keretrendszer rugalmas, strukturált és mérhető folyamatot biztosít a mesterséges intelligencia kockázatainak kezelésére a mesterséges intelligencia teljes életciklusa során, és útmutatást ad a megbízható és felelős AI fejlesztéséhez és használatához.”

A NIST azt is felismeri, hogy az AI RMF-nek, mint javasolt szabványnak könnyen használhatónak kell lennie, a technológia fejlődésével frissíteni kell, és más alapvető kritériumokat kell megtestesítenie: „A kockázatkezelési keretrendszernek strukturált, ugyanakkor rugalmas megközelítést kell biztosítania a vállalati és társadalmi kockázatok kezelésére. az AI-rendszerek termékekbe, folyamatokba, szervezetekbe, rendszerekbe és társadalmakba való beépítéséből fakad. A vállalkozások mesterséges intelligencia-kockázatát kezelő szervezeteknek szem előtt kell tartaniuk a nagyobb társadalmi AI megfontolásokat és kockázatokat is. Ha egy kockázatkezelési keretrendszer segíthet a mesterséges intelligencia kockázatának és káros hatásainak hatékony kezelésében és kezelésében, akkor megbízhatóbb AI-rendszerekhez vezethet.”

Néhányan közületek, akik kissé szkeptikusak, megkérdőjelezik, hogy miért van szükségünk AI RMF-re, szemben azzal, hogy egyszerűen a már könnyen elérhető általános RMF-re hagyatkozunk. Nem egyszerűen feltaláljuk újra a kereket? A válasz nem, nem találjuk fel újra a kereket. A kerék egyedi igényekhez szabható. Egy ésszerű ember valószínűleg elismeri, hogy különféle formájú és méretű kerekek léteznek. A repülőgép kereke kétségtelenül egészen más, mint egy gyermek tricikli kereke. Persze mindkettő kerék, de másképp vannak kitalálva, ezért eltérő tulajdonságokkal rendelkeznek, és joggal, külön is vizsgálhatók.

Az AI RMF-dokumentum is hasonló véleményt fogalmaz meg: „Minden szoftverrel vagy információ-alapú rendszerrel kapcsolatos kockázatok vonatkoznak az MI-re; Ez magában foglalja a kiberbiztonsággal, a magánélettel, a biztonsággal és az infrastruktúrával kapcsolatos fontos aggályokat. Ennek a keretrendszernek a célja a kifejezetten az AI-val kapcsolatos hiányosságok pótlása.”

Az AI RMF-tervezet jelenlegi változatában négy érdekelt csoportot határoznak meg:

  • Az AI-rendszer érdekelt felei
  • Operátorok és értékelők
  • Külső érdekelt felek
  • Nagyközönség

A mesterséges intelligencia kockázatával kapcsolatos figyelem nagy része általában az AI-rendszerben érdekelt felekre irányul. Ennek van értelme. Ezek azok az érdekeltek, akik részt vesznek a mesterséges intelligencia kidolgozásában, tervezésében, felépítésében és használatában. Ezen kívül beszámíthatjuk azokat is, amelyek MI-t vásárolnak vagy licencelnek a használatra. Hajlamosak vagyunk úgy tekinteni ezekre az érdekelt felekre, mint a jól látható felekre, akik nagy erőfeszítéseket tettek az AI-rendszer létrehozásában, és elősegítették annak bevezetését.

Lehet, hogy nem gondolta volna egyformán a mesterséges intelligencia operátorait és az értékelőket, vagy nem tartotta őket fontosnak. Az AI RMF-ben foglaltak szerint az MI üzemeltetői és értékelői ezt teszik: „Az üzemeltetők és értékelők biztosítják a rendszer teljesítményének megfigyelését és formális/informális tesztelését, értékelését, érvényesítését és ellenőrzését (TEVV), mind a műszaki, mind a társadalmi-technikai követelményekhez képest. ” Ezek kulcsfontosságúak a mesterséges intelligencia szempontjából, és az AI kockázati sávon belül is.

A külső érdekeltek az entitások széles körét ölelnék fel, beleértve a kereskedelmi csoportokat, érdekképviseleti csoportokat, civil társadalmi szervezeteket és másokat. A nagyközönség fogyasztókból és másokból áll, akik tapasztalják a nemkívánatos mesterséges intelligencia kockázatát.

Kíváncsi lehet, mekkora kockázat tolerálható az AI-val kapcsolatban.

Sajnálattal kell azt mondanunk, hogy nincs konkrét szám vagy hozzárendelt érték, amit megadhatunk az elviselhető vagy elfogadható kockázat mértékének, amelyet érdemesnek vagy társadalmilag megengedettnek találnánk. Azok számára, akik szabványos, kijelölt numerikus jelzést szeretnének, az AI RMF-tervezet e figyelemre méltó pontjával kell mérsékelniük ezt a vágyukat: „Az AI RMF nem ír elő kockázati küszöböket vagy értékeket. A kockázati tolerancia – a kockázat vagy a bizonytalanság mértéke, amely elfogadható a szervezetek vagy a társadalom számára – a kontextus és a felhasználás esetspecifikus.”

Az AI RMF által a mesterséges intelligencia kockázatának vizsgálatára és szabályozására javasolt módszertan a Map, Measure és Manage feliratú alaplépésekből áll. A Térkép funkció keretezi az AI-rendszer kockázatait. A Measure funkció magában foglalja az AI kockázatának nyomon követését és elemzését. A Kezelés funkció a Map és Measure funkciókat használja, hogy megpróbálja minimalizálni a káros hatásokat, miközben maximalizálja az AI előnyeit. Az AI RMF tervezete szerint a szabvány későbbi verziói tartalmazni fognak egy Gyakorlati útmutatót, amely az AI RMF használatának példáit és gyakorlatait mutatja be.

A tágabb NIST RMF szabványban hét lépésből álló díszített halmaz található, amelyek egybeesnek egy átfogó IT- és rendszerkockázatkezelési erőfeszítéssel. Ezt a hét lépést hasznosnak tartottam szem előtt tartani, beleértve az AI-rendszerek felépítését és telepítését is.

A hét lépés a következő (idézve a NIST RMF szabványból):

1. Készüljön fel az RMF végrehajtására szervezeti és rendszerszintű szemszögből a biztonsági és adatvédelmi kockázatok kezelésének kontextusának és prioritásainak meghatározásával.

2. A rendszer és a rendszer által feldolgozott, tárolt és továbbított információk kategorizálása a veszteség hatásának elemzése alapján.

3. Válasszon ki egy kezdeti vezérlőkészletet a rendszerhez, és szükség szerint állítsa be a kontrollokat a kockázat elfogadható szintre csökkentése érdekében a kockázatértékelés alapján.

4. Valósítsa meg a vezérlőket, és írja le a vezérlőelemek alkalmazásának módját a rendszeren és működési környezetén belül.

5. Értékelje a vezérlőket annak megállapítására, hogy a vezérlőelemek megfelelően vannak-e végrehajtva, a tervezett módon működnek-e, és a kívánt eredményeket hozzák-e a biztonsági és adatvédelmi követelmények teljesítése tekintetében.

6. Engedélyezze a rendszert vagy a közös ellenőrzéseket annak megállapítása alapján, hogy a szervezet működését és vagyonát, egyéneket, egyéb szervezeteket és az országot érintő kockázat elfogadható.

7. Folyamatosan kövesse nyomon a rendszert és a kapcsolódó kontrollokat, beleértve az ellenőrzések hatékonyságának értékelését, a rendszer és a működési környezet változásainak dokumentálását, valamint a kockázatértékelés elvégzését.

E súlyos vita e pontján fogadni mernék, hogy néhány szemléltető példára vágyik, amelyek bemutathatják az AI-kockázatok természetét. Van egy különleges és biztosan népszerű példasor, amely közel áll a szívemhez. Látod, a mesterséges intelligencia szakértőjeként, beleértve az etikai és jogi következményeket is, gyakran kérnek fel olyan reális példák azonosítására, amelyek bemutatják a mesterséges intelligencia etikai dilemmáit, hogy könnyebben megragadható legyen a téma némileg elméleti jellege. Az egyik legemlékezetesebb terület, amely élénken mutatja be ezt az etikus AI-problémát, az AI-alapú, valódi önvezető autók megjelenése. Ez praktikus használati esetként vagy példaként szolgál a témával kapcsolatos bőséges vitához.

Íme, egy figyelemre méltó kérdés, amelyen érdemes elgondolkodni: A mesterséges intelligencia alapú valódi önvezető autók megjelenése felvilágosít valamit az AI kockázatairól, és ha igen, mit mutat be ez?

Engedjen meg egy pillanatra, hogy kibontsa a kérdést.

Először is vegye figyelembe, hogy egy igazi önvezető autóban nincs emberi vezető. Ne feledje, hogy az igazi önvezető autókat mesterséges intelligencia vezetési rendszer vezeti. Nincs szükség emberi sofőrre a volánnál, és arra sem, hogy ember vezesse a járművet. Az autonóm járművekről (AV-k) és különösen az önvezető autókról szóló kiterjedt és folyamatos tájékoztatásért lásd az itt található link.

Szeretném még jobban tisztázni, mit kell érteni, amikor valódi önvezető autókra utalok.

Az önvezető autók szintjének megértése

Tisztázva, az igazi önvezető autók azok, ahol az AI teljesen önállóan vezeti az autót, és nincs emberi segítség a vezetési feladat során.

Ezek a vezető nélküli járművek 4-es és 5-ös szintnek minősülnek (lásd a magyarázatomat a következő helyen). ez a link itt), míg az olyan autókat, amelyekhez emberi vezető szükséges a vezetési erőfeszítések közös megosztására, általában 2. vagy 3. szinten tekintik. A vezetési feladatot közösen megosztó autók leírása félig autonóm, és általában különféle automatizált bővítmények, amelyeket ADAS-nak (Advanced Driver-Assistance Systems) neveznek.

Még nincs igazi önvezető autó az 5-ös szinten, és még azt sem tudjuk, hogy ez elérhető lesz-e, és azt sem, hogy mennyi időbe telik eljutni odáig.

Eközben a 4. szintű erőfeszítések fokozatosan próbálnak némi vonóerőt szerezni nagyon szűk és szelektív közúti próbák révén, bár vita folyik arról, hogy ezt a tesztelést önmagában engedélyezni kell-e (mindannyian életre-halálra menő tengerimalacok vagyunk egy kísérletben autópályáinkon és mellékutainkon zajlanak, egyesek azt állítják, lásd tudósításomat itt ez a link itt).

Mivel a félig autonóm autókhoz emberi sofőrre van szükség, az ilyen típusú autók elfogadása nem különbözik nyilvánvalóan a hagyományos járművek vezetésénél, tehát önmagában nincs sok új, hogy ezekkel a témákkal foglalkozzanak (bár, amint látni fogja) egy pillanat alatt a következő pontok általában alkalmazandók).

A félig autonóm autók esetében fontos, hogy a nyilvánosságot figyelmeztessék az utóbbi időben felmerülő zavaró tényezőkre, nevezetesen arra, hogy azoknak az emberi járművezetőknek ellenére, akik folyamatosan videókat tesznek közzé, hogy maguk alszanak a 2. vagy 3. szintű autó kormányához , mindannyian el kell kerülnünk, hogy félrevezetjük azt a hitet, hogy a sofőr félig autonóm autó vezetése közben elvonhatja figyelmét a vezetési feladatról.

Te vagy a felelős a jármű vezetési tevékenységeiért, függetlenül attól, hogy mekkora mennyiségű automatizálást lehet 2. vagy 3. szintre dobni.

Önvezető autók és mesterséges intelligencia kockázatai

A 4. és 5. szintű valódi önjáró járműveknél nem vezethet embervezető a vezetési feladatba.

Minden utas utas lesz.

Az AI vezet.

Azonnal megvitatandó szempont azzal a ténnyel jár, hogy a mai mesterséges intelligencia-vezetési rendszerekben részt vevő mesterséges intelligencia nem érző. Más szavakkal, az AI összességében számítógépes programozás és algoritmusok összessége, és bizonyosan nem képes ugyanúgy érvelni, mint az emberek.

Miért van ez a hangsúly arra, hogy az AI nem érzékeny?

Mivel szeretném aláhúzni, hogy az AI hajtórendszer szerepének tárgyalásakor nem tulajdonítok emberi tulajdonságokat az AI-nek. Felhívjuk figyelmét, hogy manapság folyamatos és veszélyes tendencia van az AI antropomorfizálására. Lényegében az emberek emberi szerű érzékenységet tulajdonítanak a mai mesterséges intelligenciának, annak ellenére, hogy tagadhatatlan és vitathatatlan tény, hogy ilyen AI még nem létezik.

Ezzel a pontosítással elképzelheti, hogy az AI vezetési rendszer valahogy nem fogja „tudni” a vezetés szempontjait. A vezetést és mindazt, amit ez magában foglal, be kell programozni az önvezető autó hardverének és szoftverének részeként.

Merüljünk el abban a számtalan szempontban, amelyek eljátszanak ebben a témában.

Először is fontos felismerni, hogy nem minden AI önvezető autó egyforma. Minden autógyártó és önvezető technológiai cég alkalmazza a hozzáállását az önvezető autók kidolgozásához. Emiatt nehéz átfogó kijelentéseket tenni arról, hogy az AI-meghajtórendszerek mit fognak tenni vagy nem.

Továbbá, ha azt állítják, hogy az AI meghajtó rendszer nem végez bizonyos dolgokat, ezt később a fejlesztők megelőzhetik, akik valójában erre programozzák a számítógépet. Lépésről lépésre az AI meghajtó rendszereket fokozatosan fejlesztik és bővítik. A meglévő korlátozás ma már nem létezik a rendszer későbbi iterációjában vagy verziójában.

Bízom benne, hogy ez elegendő litániai figyelmeztetést ad ahhoz, hogy alátámasszam azt, amit most el fogok mondani.

Most készen állunk arra, hogy mélyen elmerüljünk az önvezető autók és a mesterséges intelligencia kockázatainak természetével járó etikus mesterségesintelligencia-lehetőségek terén.

Emberi sofőrként Ön egy finomra hangolt kockázatkalkulátor.

Ez igaz, amikor autót vezet, valós időben az a feladat, hogy kitalálja, milyen kockázatokkal járhat, hogy egy gyalogos hirtelen kirohanhat az utcára, vagy hogy az Ön előtt haladó autó váratlanul becsapja a fékjeit. Határozottan homályos ködösség és homályosság tapasztalható a vezetési helyzetekben, amelyekkel szembesülünk.

A vezetés minden pillanatában megpróbálja a lehető legjobban felmérni a kockázatokat, majd viselnie kell értékelésének következményeit. Sajnálatos módon csak az Egyesült Államokban évente körülbelül 40,000 2.5 halálos áldozatot követelnek autóbalesetekben, és körülbelül XNUMX millió az ezzel kapcsolatos sérülés (lásd az ilyen statisztikákról szóló gyűjteményemet: az itt található link). Néha nagyon közel vágsz a dolgokhoz, és a fogaid bőrénél fogva menekülsz egy rossz helyzetből. Máskor rosszul ítél, és nekiütközik valaminek, vagy összeütközik valakivel.

Ön általában mentálisan frissíti a kockázati szempontokat, miközben a vezetési erőfeszítés folyamatban van. Képzeld el azt az egyszerű esetet, amikor egy csomó gyerek a jaywalk-ra törekszik. Eleinte meglehetősen magasnak ítélheti meg a jaywalking kockázatát, és meglepődhet. Ám ekkor észreveszi, hogy egy közeli felnőtt rábírja őket, hogy ne járjanak jaywall, és így csökken annak a veszélye, hogy a gyerekek behatolnak az utcára és lerohannak. Ne feledje azonban, hogy a kockázat nem csökkent nullára, mivel továbbra is választhatnak az úttestre való behajtásról.

Létezik egy jól ismert, kockázatokkal kapcsolatos szabvány az autóiparban, az Automotive Safety Integrity Level (ASIL) kockázati besorolási rendszere, amely egy ISO 26262-ként emlegetett hivatalos dokumentumon alapul. Különféle mesterséges intelligencia-önvezető autóvezetéssel foglalkoztam. -orientált kockázati megfontolások at az itt található link és ugyancsak az itt található link.

Vezetés közbeni kockázat meghatározásakor az alábbi egyenlet segítségével tájékozódhat a kockázati szempontokról:

  • Kockázat = súlyosság x (expozíció x ellenőrizhetőség)

Vizsgáljuk meg a képletet és összetevőit.

A súlyosságot fontos figyelembe venni, amikor vezetés közben megállapítja a kockázatot, mivel előfordulhat, hogy egy téglafal felé tart, aminek következtében Ön és utasai megsérülhetnek vagy meghalnak (ez különösen súlyos következményekkel jár), miközben az autópályán eldobott üdítős dobozokhoz ütközhet. viszonylag alacsony súlyosságú legyen. Formálisan az ISO szabvány szerint a súlyosság az esetlegesen felmerülő károk mértéke, és a következő kategóriába sorolható: (S0) Nincs sérülés, (S1) Könnyű és közepes sérülés, (S2) Súlyos sérülés, (S3) Életveszélyes és halálos sérülések .

Az expozíció azt jelenti, hogy az incidens bekövetkezésének esélye jelentős-e, szemben a valószínűtlenséggel, mivel Ön ki van téve az anyagnak (azaz az állapot, amikor veszélyes természetű működési helyzetben van). Az ISO szabvány szerint az expozíció (E0) elhanyagolható, (E1) nagyon alacsony, (E2) alacsony, (E3) közepes és (E4) magas.

Az irányíthatóság arra utal, hogy képes manőverezni az autóval, hogy elkerülje a várandós csapást. Ez a helyzet teljes elkerülésétől vagy pusztán megkerülésétől terjedhet, vagy bármit is tesz, nincs elegendő eszköz a kormányzáshoz, a fékezéshez, a gyorsításhoz és a pillanat elhárításához. Az ISO szabvány azt jelzi, hogy a szabályozhatóság felosztható (C0) általánosan vezérelhetőre, (C1) egyszerűen vezérelhetőre, (C2) normálisan szabályozhatóra és (C3) nehézre vagy ellenőrizhetetlenre.

A súlyosság, az expozíció és az irányíthatóság három tényezőjének kombinálásával egy adott vezetési helyzet kockázatértékelésének jelzéséhez juthat. Feltehetően ezt fejben, kognitívan tesszük, bár hogy valójában hogyan tesszük, és egyáltalán használunk-e ilyen explicit logikát, az vitatható, mivel senki sem tudja igazán, hogyan működik az elménk ebben a minőségben.

Ne vezessen félre a matematikainak tűnő képlet, és úgy értelmezze, hogy a vezetés közbeni kockázat levezetése valahogy teljesen egyértelmű. Óriási mennyiségű ítélkezés jár arra vonatkozóan, hogy Ön, mint ember, hogyan osztályozza az expozíciót, a súlyosságot és az ellenőrizhetőséget.

Ez a vezetési kockázat levezetése nehéz az emberek számára. A mesterséges intelligencia létrehozása is rendkívül nehéz feladat. Nevezetesen, a mesterséges intelligencia vezetési rendszerének alapvető képessége magában foglalja, hogy algoritmus-alapú döntéseket (ADM) kell hozni a vezetési kockázatokkal kapcsolatban. Meglepődhet, ha megtudja, hogy manapság sok mesterséges intelligencia-vezetési rendszer nem vállalja a vezetési kockázat robusztus kiszámítását és értékelését. Általában nagyon durva és nagyon leegyszerűsített megközelítéseket alkalmaznak. Nyitott kérdés, hogy ez kiterjed-e az önvezető autók széles körű elterjedésére. Ha többet szeretne megtudni erről a dilemmáról, amely a Trolley Problem néven ismert híres gondolatkísérlethez kapcsolódik, olvassa el elemzésemet a címen ez a link itt.

Egy másik aggodalomra ad okot, hogy a mesterséges intelligencia vezetési rendszereit gyakran bizánci módon programozzák, és a vezetés kockázati szempontjaival foglalkozó részek mélyen a kódok mocsarában vannak eltemetve. Kevés az átláthatóság arról, hogy egy adott autógyártó vagy önvezető technológiai cég hogyan választotta mesterségesintelligencia-rendszerének vezetési kockázati kapacitásának programozását. Nagy a valószínűsége annak, hogy a szabályozási és a nyilvános ellenőrzést fogjuk látni, amint az önvezető autók elterjedtebbé válnak.

Emlékezzünk vissza, hogy az AI kockázatkezelési keretrendszer négy érdekelt csoportot határozott meg, amelyek számára az önvezető autók könnyen megtekinthetők:

  • Az AI-rendszer érdekelt felei — Autógyártók és önvezető technológiai cégek
  • Operátorok és értékelők – Flottaüzemeltetők
  • Külső érdekelt felek – Városvezetők, szabályozók stb.
  • Nagyközönség – Gyalogosok, kerékpárosok stb.

Az autógyártóknak és az önvezető technológiai cégeknek meg kell vizsgálniuk az általuk kifejlesztett és az önvezető autókban alkalmazott mesterséges intelligencia kockázatait. A mesterséges intelligencia kockázatának fő pillére a mesterséges intelligencia vezetési rendszer elemeiben rejlik, bár az AI más felhasználási területei is vannak autonóm járművekben és vezető nélküli autókban.

A várakozások szerint lesznek flottaüzemeltetők, amelyek nagy számú önvezető autót vezetnek majd a lakosság számára. Ezeknek a flottaüzemeltetőknek jellemzően az autonóm járműveket megfelelő vezethető formában kell tartaniuk, és gondoskodniuk kell az önvezető autók biztonságos használatáról. Főleg a hardverre irányulnak, és kevésbé a fedélzeti szoftverrel való foglalkozásra. Mindenesetre nekik is mérlegelniük kell az önvezető autókkal és azok működési felhasználásával kapcsolatos AI-kockázatokat.

Bárhol, ahol az önvezető autókat nyilvános használatra engedélyezik, nagy az esély arra, hogy különböző városi, állambeli és időnként szövetségi szintű jóváhagyásokat és esetleg felügyeletet is végrehajtanak. Különféle meglévő és újonnan életbe léptetett törvények szabályozzák az önvezető autók közutakon való elhelyezését is, lásd tudósításomat itt: az itt található link. Ezeknek a közérdekű érdekelt feleknek meg kell vizsgálniuk az önvezető autókhoz kapcsolódó mesterséges intelligencia-kockázatokat is.

Amíg az önvezető autókat a közutakon és mellékutakon helyezik el, a nagyközönségnek is gondolnia kell az ezzel járó mesterséges intelligencia kockázataira. A gyalogosok veszélyben vannak, hogy egy önvezető autó beleütközik. Ugyanez a kerékpárosoknál. Az összes többi úthasználó potenciálisan ki van téve az AI-kockázatoknak, amelyek az autonóm járművek bármely adott területen történő használatába szőnek.

Következtetés

Több figyelmet kell fordítanunk a mesterséges intelligencia kockázataira. A szabványos mesterségesintelligencia-kockázat-kezelési keretrendszer praktikus eszköz lesz az AI-kockázatok megállapításához. Nagy a valószínűsége annak is, hogy a mesterséges intelligencia etikai irányelveinek bővülő alkalmazása magával fogja vonni a mesterséges intelligencia kockázatainak meghatározását, ami az etikus mesterséges intelligencia előírásainak betartásának szerves részét képezi.

A vitát azzal kezdtem, hogy rámutattam, hogy Patton tábornok azt mondta, hogy kifejezetten számolnunk kell a kockázattal. Arra is híresen buzdított, hogy az embereknek mindig többet kell tenniük, mint amit elvárnak tőlük.

Arra kérem Önt, hogy vegye figyelembe, hogy még ha nem is köteles megvizsgálni a mesterséges intelligencia kockázatait, komolyan lépje túl a normát, és törekedjen erre. Nézzünk szembe mindannyian a mesterséges intelligencia kockázataival, és ügyeljünk arra, hogy ne másszunk ki egy bizonytalan társadalmi helyzetre, ahonnan nem tudunk biztonságban kikerülni.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/04/11/ai-ethics-welcomes-the-prospects-of-a-standardized-ai-risk-management-framework-which-could- erősíti-autonóm-önvezető-autó-erőfeszítéseket is/