A mesterséges intelligencia etika és a mesterséges intelligencia törvényei, amelyek tisztázzák, mi a megbízható mesterséges intelligencia

A bizalom minden, így mondják.

A neves filozófus, Lao-ce azt mondta, hogy aki nem bízik eléggé, abban nem fog megbízni. Ernest Hemingway, egy nagyra becsült regényíró kijelentette, hogy a legjobb módja annak, hogy megtudja, megbízhat-e valakiben, ha megbízik benne.

Eközben úgy tűnik, hogy a bizalom értékes és rideg. Az emberben lévő bizalom összeomolhat, mint egy kártyavár, vagy hirtelen szétrobbanhat, mint egy kipattant léggömb.

Az ókori görög tragikus, Szophoklész azt állította, hogy a bizalom meghal, de a bizalmatlanság kivirágzik. Descartes francia filozófus és matematikus azt állította, hogy bölcs dolog soha nem bízni teljesen azokban, akik csak egyszer is becsaptak bennünket. A milliárdos üzleti befektető rendkívüli, Warren Buffett arra buzdított, hogy húsz évbe telik egy megbízható hírnév felépítése, és öt percbe telik annak tönkretétele.

Meglepődhet, ha megtudja, hogy a bizalommal kapcsolatos különféle nézetek és provokatív vélemények döntő jelentőségűek a mesterséges intelligencia (AI) megjelenésében.

Igen, van valami, amit élénken emlegetnek megbízható AI ez manapság egyre nagyobb figyelmet kap, beleértve a mesterséges intelligencia területén belülről érkező kézi hívásokat, valamint a mesterséges intelligencia birodalmán kívüliek heves kitöréseit. Az általános elképzelés magában foglalja, hogy a társadalom hajlandó lesz-e bizalmat fektetni az AI-rendszerekhez hasonlók iránt.

Feltételezhető, hogy ha a társadalom nem fog, vagy nem tud megbízni az AI-ban, akkor valószínű, hogy a mesterséges intelligencia rendszerek nem fognak húzódzkodni. A jelenleg ismert mesterséges intelligencia félreszorul, és csak port gyűjt. Megdöbbentő módon a mesterséges intelligencia a szeméthalomba kerülhet, amely történelmileg nem más, mint egy kétségbeesetten kipróbált, de látványosan kudarcba fulladt csúcstechnológiai kísérlet. A mesterséges intelligencia újjáélesztésére irányuló minden erőfeszítés óriási felfelé ívelő csatával nézhet szembe, és mindenféle kifogás és nyílt tiltakozás megállíthatja. Valószínűleg a mesterséges intelligencia iránti bizalom hiánya miatt.

Mi legyen az, bízzunk-e az AI-ban, vagy ne bízzunk az AI-ban?

Lényegében valóban megbízható mesterséges intelligencia lesz?

Ezek régi és megválaszolatlan kérdések. Csomagoljuk ki.

A mesterséges intelligencia etika és a harc a megbízható mesterségesintelligenciaért

Az AI-n belül sokan úgy vélik, hogy az AI-rendszerek fejlesztői bizalmat szerezhetnek a mesterséges intelligencia iránt, ha megfelelően kialakítják a megbízható mesterséges intelligenciát. A lényeg az, hogy nem reménykedhet a bizalom megszerzésében, ha az AI nem tűnik megbízhatónak az induláskor. A mesterséges intelligencia rendszerek megbízhatónak vélt módon történő kidolgozásával komoly esély van arra, hogy az emberek elfogadják a mesterséges intelligencia alkalmazását és alkalmazzák a mesterséges intelligencia alkalmazását.

Az egyik aggodalom, ami már most is nyűgözi ezt a megbízható mesterséges intelligencia megfontolást, az az, hogy talán már a közbizalom-hiány ha az AI-ról van szó. Mondhatnánk, hogy a már látott mesterséges intelligencia gödröt ásott, és hatalmas mennyiségben dobta szét a bizalmat. Így ahelyett, hogy a megfelelő megbízhatósági alapon kezdené, a mesterséges intelligencia elképesztő módon ki kell másznia a hiányból, megragadva minden egyes kívánt hozzáadott bizalommal, amelyre szükség lesz ahhoz, hogy meggyőzze az embereket arról, hogy az AI valójában megbízható.

Ebben a kihívásban a mesterséges intelligencia etika és a mesterséges intelligencia törvénye áll.

A mesterséges intelligencia etika és a mesterséges intelligencia törvény hatalmas küzdelmet folytat, hogy kitalálja, mi kell ahhoz, hogy az AI megbízható legyen. Egyesek azt sugallják, hogy létezik egy képlet vagy vaskalapos törvények, amelyek a mesterséges intelligenciát a megbízható mennyországba juttatják. Mások azt jelzik, hogy kemény munkára, valamint a mesterséges intelligencia etikai és az AI-jog elveinek következetes és lankadatlan betartására lesz szükség ahhoz, hogy elnyerjük a társadalom dicséretes bizalmát.

A mesterséges intelligencia iránti bizalom mai rejtélye önmagában nem különösebben új.

Könnyen visszamehet az 1990-es évek végére, és nyomon követheti a „megbízható számítástechnika” iránti keresett vágy megjelenését azokból az időkből. Ez egy nagyszabású technológiai iparági erőfeszítés volt annak megállapítására, hogy a számítógépeket a társadalom megbízhatónak tekinti-e.

A kulcskérdések a következők voltak:

  • Lehetséges-e a számítógépes hardver megbízhatóvá tenni?
  • Lehetséges egy szoftvert úgy kialakítani, hogy megbízható legyen?
  • Helyezhetünk-e olyan globális hálózatba kapcsolt számítógépeket, amelyek megbízhatóak lennének?
  • És így tovább.

Az uralkodó vélekedés akkoriban és a mai napig az, hogy a megbízható számítástechnika továbbra is a szent grál egy fajtája, amely sajnos még mindig nem egészen elérhető számunkra (amint azt a „Megbízható mesterségesintelligencia” című tanulmány is megjegyzi. Az ACM kommunikációja). Meggyőzően érvelhetnénk azzal, hogy a mesterséges intelligencia a számítástechnikai megbízhatóság egy újabb összetevője, a mesterséges intelligencia azonban még nagyobb kihívást és bizonytalanságot tesz a bizalomra. A mesterséges intelligencia a megbízható számítástechnika eléréséért folytatott küzdelem potenciális megrontójává vált. Valószínűleg a lánc leggyengébb láncszeme.

Vessünk egy gyors pillantást arra, hogy a mesterséges intelligencia miért ébredt fel azon, hogy kevésbé megbízható. Ezenkívül megvizsgáljuk a mesterséges intelligencia etika azon alapelveit, amelyek a remények szerint elősegítik a mai mesterséges intelligencia iránti már félig víz alatti vélt bizalom (vagy bugyborékoló bizalmatlanság) megerősítését. A mesterséges intelligencia etikájával kapcsolatos folyamatos és kiterjedt tudósításomat lásd az itt található link és a az itt található link, csak hogy néhányat említsek.

A mesterséges intelligencia etikájának egy bizonyos szegmense vagy része, amely a médiában nagy figyelmet kapott, a mesterséges intelligencia, amely nemkívánatos elfogultságokat és egyenlőtlenségeket mutat. Talán tudatában van annak, hogy amikor a mesterséges intelligencia legújabb korszaka beindult, hatalmas lelkesedés támadt az iránt, amit egyesek ma úgy hívnak. AI For Good. Sajnos ennek a tomboló izgalomnak a nyomában kezdtünk tanúi lenni AI For Bad. Például a különféle mesterséges intelligencia-alapú arcfelismerő rendszerekről kiderült, hogy faji és nemi előítéleteket tartalmaznak, amelyeket itt tárgyaltam. az itt található link.

Erőfeszítések, amelyek ellen harcolni kell AI For Bad aktívan zajlanak. A hangoskodáson kívül jogi A jogsértések megfékezésére irányuló törekvések jelentős erőfeszítéseket tesznek a mesterséges intelligencia etikájának elfogadása felé, hogy helyrehozzák a mesterséges intelligencia aljasságát. Az elképzelés az, hogy el kell fogadnunk és támogatnunk kell a kulcsfontosságú etikai mesterségesintelligencia-elveket a mesterséges intelligencia fejlesztése és terjesztése érdekében, ezzel aláásva AI For Bad és egyidejűleg hirdeti és hirdeti a jobbat AI For Good.

Ehhez kapcsolódóan én annak híve vagyok, hogy a mesterséges intelligencia megpróbálja a mesterséges intelligencia problémáinak megoldásának részeként használni a tüzet tűzzel oltva ilyen gondolkodásmódban. Például beágyazhatunk Ethical AI összetevőket egy mesterséges intelligencia rendszerbe, amely figyeli, hogy a többi AI hogyan csinálja a dolgokat, és így potenciálisan valós időben megragadja a diszkriminatív erőfeszítéseket. az itt található link. Lehetne egy külön mesterséges intelligencia-rendszer is, amely egyfajta AI-etikai monitorként működik. A mesterséges intelligencia rendszer felügyelőként szolgál annak nyomon követésére és észlelésére, ha egy másik mesterséges intelligencia az etikátlan szakadékba kerül (lásd az ilyen képességekről szóló elemzésemet itt: az itt található link).

Rövid időn belül megosztok veled néhány átfogó alapelvet, amelyek az AI etikájának hátterében állnak. Rengeteg ilyen lista lebeg itt-ott. Mondhatnánk, hogy még nincs egyetlen lista az egyetemes vonzerőről és az egyetértésről. Ez a sajnálatos hír. A jó hír az, hogy legalább vannak könnyen elérhető mesterséges intelligencia etikai listák, és általában meglehetősen hasonlóak. Mindent egybevetve ez arra utal, hogy az okolt konvergencia egyfajta formája révén megtaláljuk az utat az AI-etika általános közös vonása felé.

Először is tekintsünk át röviden néhány általános etikai mesterséges intelligencia előírást, hogy bemutassuk, minek kell létfontosságú szempontnak lennie bárki számára, aki mesterséges intelligenciát készít, dolgozik vagy használ.

Például, ahogy azt a Vatikán a Róma felhívás a mesterséges intelligencia etikájára és amint azt alaposan kifejtettem itt az itt található link, ez az általuk azonosított hat elsődleges AI etikai elv:

  • Átláthatóság: Elvileg az AI-rendszereknek magyarázhatónak kell lenniük
  • Befogadás: Minden ember szükségleteit figyelembe kell venni, hogy mindenki részesülhessen, és minden egyén számára a lehető legjobb feltételeket kínálhassuk önkifejezéshez és fejlődéshez.
  • Felelősség: Az MI használatát tervezőknek és alkalmazóknak felelősségteljesen és átláthatóan kell eljárniuk
  • Pártatlanság: Ne alkosson vagy cselekedjen elfogultság szerint, ezzel óvva a méltányosságot és az emberi méltóságot
  • Megbízhatóság: Az AI-rendszereknek megbízhatóan kell működniük
  • Biztonság és adatvédelem: Az AI-rendszereknek biztonságosan kell működniük, és tiszteletben kell tartaniuk a felhasználók magánéletét.

Amint azt az Egyesült Államok Védelmi Minisztériuma (DoD) kijelentette A mesterséges intelligencia használatának etikai alapelvei és amint azt alaposan kifejtettem itt az itt található link, ez a hat elsődleges AI etikai alapelvük:

  • Felelős: A DoD személyzete megfelelő szintű ítélőképességet és gondosságot gyakorol, miközben felelős marad az AI-képességek fejlesztéséért, telepítéséért és használatáért.
  • Igazságos: A minisztérium szándékos lépéseket tesz az AI-képességek nem szándékos torzításának minimalizálása érdekében.
  • Nyomon követhető: A minisztérium mesterséges intelligencia-képességeit úgy fejlesztik és alkalmazzák, hogy az érintett személyzet megfelelő ismeretekkel rendelkezzen az AI-képességekre vonatkozó technológiáról, fejlesztési folyamatokról és működési módszerekről, beleértve az átlátható és auditálható módszereket, adatforrásokat, valamint a tervezési eljárást és dokumentációt.
  • Megbízható: A minisztérium mesterséges intelligencia-képességeinek kifejezett, jól meghatározott felhasználási területei lesznek, és az ilyen képességek biztonsága, biztonsága és hatékonysága tesztelés és szavatosság tárgyát képezi a meghatározott felhasználási módokon belül, teljes életciklusuk során.
  • Kormányozható: A minisztérium megtervezi és megtervezi a mesterséges intelligencia képességeit, hogy teljesítsék a tervezett funkcióikat, miközben képesek lesznek észlelni és elkerülni a nem kívánt következményeket, valamint képesek lekapcsolni vagy deaktiválni a nem szándékos viselkedést tanúsító telepített rendszereket.

Megvitattam a mesterséges intelligencia etikai elveinek különféle kollektív elemzéseit is, beleértve a kutatók által kidolgozott halmazt, amely számos nemzeti és nemzetközi AI etikai tétel lényegét vizsgálta és sűrítette a „The Global Landscape Of AI Ethics Guidelines” című cikkben (megjelent. ban ben Természet), és amit tudósításom a címen vizsgál az itt található link, ami ehhez a trapézkő listához vezetett:

  • Átláthatóság
  • Igazságosság és méltányosság
  • Nem rosszindulat
  • Felelősség
  • Adatvédelem
  • Jótékonyság
  • Szabadság és autonómia
  • Bízzon
  • Fenntarthatóság
  • Méltóság
  • Szolidaritás

Amint azt közvetlenül sejtheti, rendkívül nehéz lehet az ezen alapelvek mögött meghúzódó sajátosságok meghatározása. Még ennél is keményebb dió az a törekvés, hogy ezeket a tág alapelveket valami teljesen kézzelfoghatóvá és kellően részletezetté alakítsák ahhoz, hogy az AI-rendszerek kidolgozásakor felhasználhatók legyenek. Könnyű összességében egy kis kézzel integetni arról, hogy mik is az AI etikai előírásai, és hogyan kell azokat általában betartani, míg az AI kódolásánál sokkal bonyolultabb a helyzet, ha a valódi guminak kell lennie, amely találkozik az úttal.

Az AI-etikai elveket az AI-fejlesztőknek kell alkalmazniuk, az AI-fejlesztési erőfeszítéseket irányítókkal együtt, sőt még azokkal is, amelyek végső soron az AI-rendszerek karbantartását és karbantartását végzik. Az összes érdekelt fél a mesterséges intelligencia fejlesztésének és használatának teljes életciklusa során beletartozik az etikus mesterséges intelligencia elfogadott normáihoz. Ez egy fontos kiemelés, mivel a szokásos feltevés az, hogy „csak a kódolóknak” vagy az AI-t programozóknak kell betartani az AI etikai elveit. Amint korábban említettük, egy falura van szükség a mesterséges intelligencia kidolgozásához és elindításához, és ehhez az egész falunak ismernie kell a mesterséges intelligencia etikai előírásait, és be kell tartania azokat.

Győződjünk meg arról is, hogy a mai mesterséges intelligencia természetét illetően egy oldalon vagyunk.

Ma nincs olyan mesterséges intelligencia, amely érző lenne. Nálunk ez nincs. Nem tudjuk, hogy az érző mesterséges intelligencia lehetséges lesz-e. Senki sem tudja pontosan megjósolni, hogy elérjük-e az érző MI-t, és azt sem, hogy az érző mesterséges intelligencia valamilyen csodálatos módon spontán módon létrejön-e számítógépes kognitív szupernóva formájában (általában szingularitásnak nevezik, lásd tudósításomat itt: az itt található link).

A mesterséges intelligencia azon típusa, amelyre összpontosítok, a ma létező nem érző MI-ből áll. Ha vadul akarnánk spekulálni arról érző AI, ez a vita gyökeresen más irányba mehet. Egy érző mesterséges intelligencia állítólag emberi minőségű lenne. Figyelembe kell vennie, hogy az érző mesterséges intelligencia az ember kognitív megfelelője. Sőt, mivel egyes feltételezések szerint szuperintelligens AI-val rendelkezünk, elképzelhető, hogy az ilyen mesterséges intelligencia okosabb lehet, mint az emberek (a szuperintelligens AI lehetőségének feltárásához lásd a tudósítás itt).

Maradjunk inkább a földön, és vegyük figyelembe a mai számítástechnikai, nem érző MI-t.

Vegye észre, hogy a mai mesterséges intelligencia nem képes az emberi gondolkodással egyenrangú módon „gondolkodni”. Amikor Alexával vagy Sirivel kommunikál, a társalgási képességek hasonlónak tűnhetnek az emberi képességekhez, de a valóság az, hogy számítási jellegű, és hiányzik az emberi megismerés. A mesterséges intelligencia legújabb korszaka széles körben alkalmazta a gépi tanulást (ML) és a mély tanulást (DL), amelyek kihasználják a számítási mintaillesztést. Ez olyan mesterséges intelligencia-rendszerekhez vezetett, amelyek emberszerű hajlamokat mutatnak. Eközben manapság nincs olyan mesterséges intelligencia, amely a józan észnek látszana, és az emberi gondolkodás kognitív csodáiból sem.

Az ML/DL a számítási mintaillesztés egyik formája. A szokásos megközelítés az, hogy egy döntési feladatról adatokat gyűjt össze. Az adatokat betáplálja az ML/DL számítógépmodellekbe. Ezek a modellek matematikai mintákat keresnek. Miután megtalálta az ilyen mintákat, ha igen, az AI rendszer ezeket a mintákat fogja használni, amikor új adatokkal találkozik. Az új adatok bemutatásakor a „régi” vagy történelmi adatokon alapuló mintákat alkalmazzák az aktuális döntés meghozatalához.

Azt hiszem, sejtheti, hová vezet ez. Ha az emberek, akik a mintaszerű döntéseket hozták, nemkívánatos elfogultságokat alkalmaztak, akkor valószínű, hogy az adatok ezt finom, de jelentős mértékben tükrözik. A Machine Learning vagy a Deep Learning számítási mintaillesztés egyszerűen megpróbálja matematikailag utánozni az adatokat ennek megfelelően. A mesterséges intelligencia által kialakított modellezésben önmagában semmi sem látszik a józan észnek vagy más érző szempontoknak.

Ezenkívül az AI-fejlesztők sem tudják, mi történik. Az ML/DL rejtélyes matematikája megnehezítheti a most rejtett torzítások kiszűrését. Joggal remélhető és elvárható, hogy a mesterséges intelligencia fejlesztői teszteljék a potenciálisan eltemetett torzításokat, bár ez bonyolultabb, mint amilyennek látszik. Jó esély van arra, hogy még viszonylag kiterjedt tesztelés mellett is lesznek torzítások az ML/DL mintaillesztési modelljeibe.

Használhatná némileg a híres vagy hírhedt közmondást, a szemetet a szemét kiszállításáról. A helyzet az, hogy ez inkább a torzításokhoz hasonlít, amelyek alattomos módon beszivárognak az AI-ba merülő torzítások miatt. Az AI algoritmus-döntéshozatala (ADM) axiomatikusan megterhelődik egyenlőtlenségekkel.

Nem jó.

Kössük ezt a megbízható mesterséges intelligencia kérdéséhez

Úgy tűnik, nem lennénk hajlandók megbízni az AI-ban, amely kedvezőtlen torzításokat és diszkriminatív intézkedéseket mutat be. Meggyőződésünk ebben az esetben az lenne, hogy az ilyen mesterséges intelligencia határozottan nem megbízható, ezért hajlunk arra, hogy aktívan bizalmatlankodjunk az AI-val szemben. Anélkül, hogy túlzásba esnénk egy antropomorf összehasonlításon (röviden elmondok többet az MI antropomorfizálásáról), egy olyan embert, aki nem kívánatos elfogultságot mutat, szintén nem különösebben megbízhatónak minősítenék.

Ásni a bizalomba és a megbízhatóságba

Talán meg kellene néznünk, mire gondolunk, amikor azt állítjuk, hogy bízunk vagy nem bízunk valakiben vagy valamiben. Először is vegyük figyelembe a bizalom néhány mindennapi szótári meghatározását.

Példák arra, hogy mit jelent a bizalom definíció szerint:

  • Biztos támaszkodás valaki vagy valami jellemére, képességére, erejére vagy igazságára (Merriam-Webster online szótár).
  • Egy személy vagy dolog integritására, erejére, képességeire, kezességére stb (Dictionary.com)
  • Szilárd hit valaki vagy valami megbízhatóságában, igazságában, képességében vagy erejében (Oxford Languages ​​online szótár).

Szeretném felhívni a figyelmet arra, hogy ezek a definíciók mindegyike „valakire” utal, és ugyanúgy „valamire” utal, mint potenciálisan megbízhatóra. Ez azért figyelemre méltó, mert egyesek ragaszkodhatnak ahhoz, hogy csak az emberekben bízunk, és hogy a bizalom cselekedete kizárólag az emberiség számára van fenntartva, mint a megbízhatóság célpontja. Nem úgy. Bízhat a konyhai kenyérpirítójában. Ha úgy tűnik, hogy megbízhatóan elkészíti a pirítóst, és rendszeresen dolgozik is, akkor bizonyosan megbizonyosodhat arról, hogy a kenyérpirító valóban megbízható-e.

Ugyanebben a gondolkodásmódban a mesterséges intelligencia is lehet bizalmi nézőpontunk tárgya. Valószínűleg az AI-val kapcsolatos bizalom sokkal bonyolultabb lesz, mint mondjuk egy hétköznapi kenyérpirító. A kenyérpirító általában csak néhány műveletet tud végrehajtani. Egy mesterséges intelligencia rendszer valószínűleg sokkal összetettebb, és úgy tűnik, hogy kevésbé átláthatóan működik. A mesterséges intelligencia megbízhatóságának felmérésére és megbizonyosodására való képességünk minden bizonnyal sokkal nehezebb, és külön kihívások elé állít.

Amellett, hogy bonyolultabb, egy tipikus AI-rendszerről azt mondják, hogy nem determinisztikus, és potenciálisan önszabályozó vagy önbeállító. Röviden megvizsgálhatjuk ezt a fogalmat.

Egy determinisztikus gép hajlamos ugyanazokat a dolgokat újra és újra megtenni, előre megjósolhatóan és a működésének életképesen felismerhető mintájával. Mondhatnánk, hogy egy közönséges kenyérpirító nagyjából ugyanúgy pirít, és rendelkezik a pirítás szabályozásával, amely mérsékli a pirítást, amelyek mindegyike általában előre látható a kenyérpirítót használó személy számára. Ezzel szemben az összetett mesterségesintelligencia-rendszereket gyakran nem determinisztikusnak tervezik, ami azt jelenti, hogy egészen más dolgokat hajtanak végre, mint amit egyébként elvárhatnánk. Ez részben tovább erősíthető, ha az AI úgy van megírva, hogy önmagát állítsa be, ami előnyösen lehetővé teheti az AI javulását ML/DL esetén, de zavaróan az AI megingását vagy bekerülését is okozhatja. az AI rosszságától. Lehet, hogy nem tudhatod, mi ütött beléd, mondjuk úgy, hogy teljesen váratlanul érted az AI akcióit.

Mit tehetünk annak érdekében, hogy az AI-t közelebb vigyük a megbízhatósághoz?

Az egyik megközelítés abból áll, hogy megpróbáljuk biztosítani, hogy a mesterséges intelligencia építői és működtetői betartsák az AI etikai előírásait. Ahogy az AI-kutatók említették: „A bizalom egy olyan attitűd, amely szerint az ügynök az elvárásoknak megfelelően fog viselkedni, és rá lehet számítani, hogy elérje célját. A bizalom az ügynök és a megbízó egyén közötti hiba vagy félreértés után tönkremegy. A mesterséges intelligencia iránti bizalom pszichológiai állapota egy komplex rendszer kialakulóban lévő tulajdonsága, amely rendszerint számos tervezési, képzési, telepítési, teljesítménymérési, szabályozási, újratervezési és átképzési ciklust foglal magában. Az ACM kommunikációja, Stuart Middleton, Emmanuel Letouze, Ali Hossaini és Adriane Chapman „Bizalom, szabályozás és humán in-the-Loop AI az európai régióban” című könyve, 2022. április).

A lényeg az, hogy ha rá tudjuk venni a mesterséges intelligencia fejlesztőit arra, hogy betartsák az Ethical AI-t, akkor remélhetőleg megbízható mesterséges intelligenciát fognak előállítani. Ez mind szép és jó, de valós alapon kissé kivitelezhetetlennek tűnik, bár ez egy olyan út, amelyet érdemes követni.

Ezt értem.

Tegyük fel, hogy a mesterséges intelligencia fejlesztői szorgalmas erőfeszítéseket tesznek egy mesterséges intelligencia-rendszer kidolgozásában valamilyen célra, amelyet általában X-nek nevezünk. Gondosan ügyelnek arra, hogy az AI betartsa az AI etika átláthatósági előírásait. Kiemelten gondoskodnak arról, hogy az adatvédelem megfelelően beépüljön az AI-ba. Az AI-készítők szinte az összes szokásos mesterségesintelligencia-etikai alapelv esetében teljes mértékben biztosítják, hogy az AI megfeleljen az adott előírásnak.

Bíznia kell ebben a mesterséges intelligenciában?

Engedjék meg, hogy segítsek kifejteni a gondolatait ezzel a nyitott kérdéssel kapcsolatban.

Kiderült, hogy a kiberbűnözőknek sikerült beszivárogniuk az MI-be, és lopva rávenni az AI-t, hogy végrehajtsa az X-et, ugyanakkor a kiberhackereket is betáplálják az AI által gyűjtött összes adattal. Ezzel ezek a gonosztevők alattomosan aláássák a magánéletre vonatkozó előírást. Boldogan nincs tudatában annak, hogy ez az AI burkolata alatt történik.

Ezzel a kiegészített információval újra felteszem ugyanazt a kérdést.

Bízol az AI-ban?

Merem állítani, hogy a legtöbb ember azonnal kijelentené, hogy biztosan így van nem bízz ebben a bizonyos AI-ban. Lehet, hogy korábban bíztak benne. Most úgy döntenek, hogy többé nem tartják megbízhatónak az AI-t.

Ezen az egyszerű példán alapuló néhány kulcsfontosságú meglátás érdemes elgondolkodni:

  • A bizalom dinamikája. Még az a legjobb szándék sem, hogy minden alapot lefedjen annak biztosítására, hogy az AI Ethics beépüljön egy mesterséges intelligencia rendszerbe, nem garantálja, hogy az AI milyenvé válhat vagy lesz. A mesterséges intelligencia használatba vétele után a kívülállók potenciálisan alááshatják az etikus AI-gyarapodást.
  • A bizalom aláaknázása belülről. A megbízhatóság aláaknázásának nem kell feltétlenül kívülállónak lennie. Egy bennfentes, aki rendszeresen karbantartja az AI-rendszert, elhibázhatja, és meggyengítheti a mesterséges intelligencia kevésbé megbízhatóvá válását. Ez a mesterséges intelligencia fejlesztő tanácstalan lehet azzal kapcsolatban, hogy mit művelt.
  • A bizalom véletlen kompromisszumai. Egy önbeállító vagy önszabályozó mesterséges intelligencia egy bizonyos ponton alkalmazkodhat, és a megbízhatatlan területre kerül. Talán az AI megkísérli megerősíteni a mesterséges intelligencia átláthatóságát, de ezzel egyidejűleg és nem megfelelő módon veszélyezteti az adatvédelmi szempontokat.
  • A bizalom szétszóródása. A mesterséges intelligencia etikai alapelveit a lehető legnagyobb megbízhatósági fokig próbálni megvalósítani általában nem életképes, mivel ezek gyakran keresztirányú célokat szolgálnak, vagy más lehetséges konfliktusokkal járnak. Meglehetősen idealizált perspektíva azt hinni, hogy az etikai mesterséges intelligencia összes előírása álomszerűen igazodik egymáshoz, és mindegyik elérhető egyforma, maximalizálható mértékben.
  • A bizalom megszerzése költséges lehet. A megbízható mesterséges intelligencia elsőrangú látszatának megkísérlése a különféle kiterjedt és kimerítő lépések megtételével, valamint az AI etikai elveinek betartásával viszonylag magas költségekkel jár majd. Könnyen vitatkozhat azzal, hogy a költségek túl magasak lennének bizonyos mesterségesintelligencia-rendszerek használatba vétele tekintetében, amelyek egyébként fontos értéket képviselnek a társadalom számára, még akkor is, ha a mesterséges intelligencia kevésbé ideális lenne a megbízhatóság vágyából.
  • És így tovább.

Ne értelmezze félre az előző megjegyzéseket, és azt sugallja, hogy valahogy el kell kerülnünk a megbízható mesterséges intelligencia alapos felépítésére és bevezetésére irányuló erőfeszítéseket. Összességében kidobnád a babát a fürdővízzel. A helyes értelmezés az, hogy meg kell tennünk azokat a bizalmi tevékenységeket, hogy a mesterséges intelligencia megbízható megfontolásba kerüljön, és ez önmagában még nem jelent mindenre gyógyírt vagy ezüstgolyót.

Többágú utak a megbízható mesterséges intelligencia felé

A megbízható mesterséges intelligencia elérésére törekedni lehet további fontos, sokrétű módokon.

Például, ahogyan azt hasábjaimban már említettem, a mesterséges intelligenciával kapcsolatos számtalan újonnan megjelenő törvény és szabályozás célja, hogy a mesterséges intelligencia gyártóit megbízható mesterséges intelligencia kidolgozása felé terelje. az itt található link és a az itt található link.

Ezek a törvényes védőkorlátok kulcsfontosságúak, mint átfogó eszközök annak biztosításában, hogy a mesterséges intelligencia megalkotói teljes mértékben elszámoltathatók legyenek az MI-vel kapcsolatban. Ilyen potenciális jogorvoslatok és törvényes szankciók nélkül azok, akik a mesterséges intelligencia piacra kerülését kiejtik, valószínűleg továbbra is ezt fogják tenni, ha egyáltalán nem gondolják komolyan a megbízható mesterséges intelligencia elérését. Hozzáteszem, hogy ha ezeket a törvényeket és szabályozásokat rosszul dolgozták ki, vagy nem megfelelően hajtják végre, akkor sajnálatos módon alááshatják a megbízható mesterségesintelligencia iránti törekvést, talán ironikus és furcsa módon a megbízhatatlan mesterségesintelligencia elterjedését a megbízható mesterségesintelligencia helyett (további magyarázatokért lásd a rovatamat).

Én is kitartó szószólója voltam annak, amit buzgón emlegettem AI őrangyal botok (lásd tudósításomat itt: az itt található link). Ez egy közelgő módszer vagy megközelítés a tűz tűz elleni küzdelemben, nevezetesen a mesterséges intelligencia használatával, hogy segítsen megbirkózni más mesterséges intelligenciákkal, amelyek megbízhatóak vagy nem.

Először is hasznos lesz némi háttér-kontextus.

Tegyük fel, hogy egy olyan mesterséges intelligencia-rendszerre támaszkodik, amelynek megbízhatóságában nem biztos. A fő aggodalomra ad okot, hogy egyedül próbálja kideríteni, hogy a mesterséges intelligencia megbízható-e vagy sem. Az AI számítási szempontból potenciálisan gyorsabb, mint Ön, és kihasználhatja Önt. Szüksége van valakire vagy valamire az Ön oldalán, hogy segítsen.

Az egyik szempont az, hogy mindig léteznie kell egy ember a hurokban, amely segíteni fog az AI-rendszer használatában. Ez azonban problémás megoldás. Ha a mesterséges intelligencia valós időben működik, amiről a mesterséges intelligencia-alapú önvezető autók megjelenése kapcsán fogunk beszélni, akkor előfordulhat, hogy az ember a hurokban nem elegendő. Lehetséges, hogy az MI valós időben működik, és mire egy kijelölt ember a hurokban belép a képbe, hogy kiderítse, az AI megfelelően működik-e, már katasztrofális eredmény következhetett be.

Mellesleg, ez egy másik tényezőt is felhoz a bizalommal kapcsolatban. Általában az adott kontextus vagy körülmény alapján rendelünk bizalmi szintet. Teljesen megbízhat a kisgyermek fiában vagy lányában, hogy hűséges hozzád, de ha túrázni készül, és úgy dönt, hogy a kisgyermekre támaszkodik, hogy megmondja, biztonságos-e fellépni egy szikla szélére, akkor azt hiszem, bölcsen járna. mérlegelni, hogy a kisgyermek tud-e ilyen élet-halál tanáccsal szolgálni. Előfordulhat, hogy a gyermek ezt komolyan és őszintén teszi, de ennek ellenére nem tud megfelelően tanácsot adni.

Ugyanez a fogalom kapcsolódik a bizalomhoz, amikor az AI-ról van szó. Az a mesterséges intelligencia rendszer, amelyet dáma- vagy sakkozásra használ, valószínűleg nem vesz részt semmilyen életről-halálról szóló tanácskozásban. Könnyebb lehet a bizalmi megbízatása. Egy mesterséges intelligencia alapú önvezető autó, amely nagy sebességgel rohan le az autópályán, sokkal megerőltetőbb bizalmat igényel. A mesterséges intelligencia vezetési rendszerének legkisebb meghibásodása közvetlenül az Ön és mások halálához vezethet.

Beena Ammanathnak, a Global Deloitte AI Institute ügyvezető igazgatójának és a könyv szerzőjének megjelent interjújában. Megbízható AI, hasonló hangsúlyt fektetnek a mesterséges intelligencia megbízhatóságának kontextuális szempontjainak figyelembevételére: „Ha olyan mesterségesintelligencia-megoldást építünk, amely a betegek diagnózisát végzi, a méltányosság és az elfogultság rendkívül fontos. De ha olyan algoritmust készít, amely előrejelzi a sugárhajtómű meghibásodását, a tisztesség és az elfogultság nem olyan fontos. A megbízható mesterséges intelligencia valójában egy olyan struktúra, amellyel elkezdhet gondolkodni a szervezeten belüli bizalom dimenzióiról” (VentureBeat, 22. március 2022.).

A megbízható mesterséges intelligencia megvitatása során ezt a témát sokféleképpen értelmezheti.

Például, megbízható AI Mindannyian kívánatos és törekvő célnak tekintjük, nevezetesen arra, hogy törekedjünk megbízható mesterséges intelligencia kidolgozására és terjesztésére. A hívószónak van egy másik használata is. Némileg alternatív felhasználási mód az megbízható AI olyan állapot vagy mérési állapot, amelyben valaki azt állíthatja, hogy olyan mesterségesintelligencia-rendszert hozott létre, amely a megbízható AI példája. Használhatja a kifejezést is megbízható AI olyan módszert vagy megközelítést javasolni, amellyel az AI megbízhatósága érhető el. Stb.

Ezzel kapcsolatban bízom benne, hogy tisztában van azzal, hogy nem minden mesterséges intelligencia egyforma, és ügyelnünk kell arra, hogy ne tegyünk általános kijelentéseket az összes AI-ról. Egy adott AI-rendszer valószínűleg jelentősen eltér egy másik AI-rendszertől. Az egyik ilyen mesterséges intelligencia rendszer rendkívül megbízható, míg a másik minimálisan megbízható. Legyen óvatos, ha valamilyen módon azt feltételezi, hogy az AI egy monolit, amely vagy teljesen megbízható, vagy egyáltalán nem megbízható.

Ez egyszerűen nem így van.

A következőkben szeretném röviden ismertetni néhány, a megbízható mesterséges intelligencia kapcsán folyamatban lévő kutatásomat, amelyek érdeklődését felkelthetik, kitérve a AI őrangyal botok.

Így megy ez.

Fel lenne fegyverkezve egy mesterséges intelligencia rendszerrel (az AI őrangyal bottal), amelyet arra terveztek, hogy felmérje más AI-rendszerek megbízhatóságát. Az AI őrangyal bot az Ön biztonságát helyezi előtérbe. Gondoljon erre úgy, mintha megvan az eszköze a rájuk bízott mesterséges intelligencia figyelésére, ha egy másik AI-rendszer van a valódi zsebében, esetleg okostelefonján vagy más hasonló eszközön fut. A közmondásos mesterségesintelligencia-gondnoka olyan alapon számolhat, amelyre az Ön által támaszkodó mesterséges intelligencia is képes: nagy sebességgel dolgozik, és valós időben számítja ki a fennálló helyzetet, sokkal gyorsabban, mint a hurokban lévő ember.

Első pillantásra azt gondolhatja, hogy az AI-nak, amelyre már támaszkodik, rendelkeznie kell valamennyivel belső AI védőkorlátok, amelyek ugyanazt teszik, mint ez a külön számító mesterséges intelligencia őrangyal bot. Igen, ez mindenképpen kívánatos lenne. Az egyik probléma az, hogy az AI-rendszerbe beépített AI-védőkorlátok szervesen és károsan illeszkedhetnek az MI-hez, így a feltételezett mesterségesintelligencia-védőkorlát bizonyos értelemben már nem képes önállóan ellenőrizni vagy érvényesíteni az MI-t.

Az ellentétes elképzelés az, hogy a mesterséges intelligencia őrangyal robotja egy független vagy harmadik féltől származó mesterséges intelligencia mechanizmus, amely különbözik attól a mesterséges intelligenciától, amelyre Ön támaszkodik. A másik MI-n kívül helyezkedik el, továbbra is önnek szentel, és nem a megfigyelt vagy értékelt MI-nek szenteli magát.

Az erről való gondolkodás egyszerű módja a következő egyszerűsített egyenletszerű állításokkal fejezhető ki. Azt mondhatjuk, hogy „P” potenciálisan megbízni kíván „R”-ben egy adott „X” feladat elvégzésében:

Ez a következő lenne, ha csak emberek érintettek:

  • P személy megbízza R személyt az X feladat elvégzésében.

Ha úgy döntünk, hogy az AI-ra hagyatkozunk, az állítás a következőre formálódik:

  • P személy megbízza az AI-példányt az X feladat elvégzésében.

Hozzáadhatjuk az AI őrangyal botot, ha ezt mondjuk:

  • P személy bízik az AI-példány-R-ben az X feladat elvégzésében, mivel az AI őrangyal bot példány-Z felügyeli.

Az AI őrangyal bot fáradhatatlanul és könyörtelenül felméri azt a mesterséges intelligenciát, amelyre Ön támaszkodik. Így a kézreálló mesterséges intelligencia-gondnoka figyelmeztetheti Önt, hogy e másik mesterséges intelligencia bizalma indokolatlan. Vagy a mesterségesintelligencia-gondnok elektronikusan kapcsolatba léphet a másik mesterséges intelligenciával, hogy megpróbálja biztosítani, hogy a megbízhatóságtól való bármilyen eltérést gyorsan kijavítsák, és így tovább (lásd az ilyen részletekről szóló tudósításomat itt: az itt található link).

A Trusty Trust Reservoir metaforája

Mivel a bizalom különböző szintjeiről beszélünk, hasznosnak találhat egy hasznos metaforát a megbízhatóságról, ha a bizalmat egyfajta tározóként fogja fel.

Bizonyos mértékig megbízol egy adott személyben vagy dologban, egy adott körülmények között, egy adott időpontban. A bizalom szintje emelkedik vagy csökken, attól függően, hogy mi történik még az adott személlyel vagy dologgal kapcsolatban. A bizalom nulla szintű lehet, ha egyáltalán nem bízol az emberben vagy dologban. A bizalom negatív lehet, ha megkockáztatja, hogy bizalmatlan az adott személlyel vagy dologgal szemben.

A mesterséges intelligencia rendszerek esetében az Ön bizalmi készlete az adott mesterséges intelligencia iránt, amelyre egy adott körülmények között támaszkodik, növekedni fog vagy csökken, attól függően, hogy felméri-e az AI megbízhatóságát. Időnként lehet, hogy nagyon is tisztában van a mesterséges intelligencia iránti bizalom e változó szintjével, míg más esetekben kevésbé lehet tudatában, és inkább azáltal, hogy sejti a megbízhatóságot.

Az alábbiakban tárgyaltuk a mesterséges intelligencia iránti bizalom növelésének módjait:

  • Az AI-etika betartása. Ha a mesterséges intelligencia, amelyre támaszkodik, úgy lett kialakítva, hogy megpróbálta betartani a megfelelő mesterségesintelligencia-etikai előírásokat, akkor feltehetően ezt az értelmezést arra használná, hogy növelje az adott AI-rendszer bizalmi készletének szintjét. Mellékesen megjegyzem, az is lehetséges, hogy más mesterséges intelligenciarendszerekre is általánosíthat megbízhatóságukat illetően, bár ez időnként félrevezető formája lehet annak, amit én nevezek. AI bizalom aura terjed (Légy óvatos ezzel!).
  • Használjon Human-In-The-Loop-ot. Ha a mesterséges intelligencia emberrel rendelkezik a hurokban, akkor pozitívan növelheti a mesterséges intelligencia iránti vélt bizalmát.
  • Hozzon létre törvényeket és rendeleteket. Ha törvények és szabályozások kapcsolódnak ehhez a speciális mesterségesintelligencia-típushoz, szintén növelheti bizalmi szintjét.
  • Alkalmazzon AI Guardian Angel Botot. Ha készenlétben van egy mesterséges intelligencia őrangyal botja, ez is tovább növeli bizalmi szintjét.

Ahogy korábban említettük, a bizalom meglehetősen törékeny lehet, és egy pillanat alatt széteshet (azaz a bizalom tárháza gyorsan és hirtelen kiüríti az összes felépített bizalmat).

Képzelje el, hogy egy mesterséges intelligencia alapú önvezető autóban tartózkodik, és az MI hirtelen radikális jobbra kanyarodik, aminek következtében a kerekek csikorognak, és az autonóm járművet majdnem veszélyes borulásra kényszeríti. Mi történne a bizalom szintjével? Úgy tűnik, hogy még akkor is, ha korábban a mesterséges intelligencia iránt fokozottan bízott, drámaian és hirtelen csökkenne a bizalom szintje, ésszerűen.

E súlyos vita e pontján fogadni mernék, hogy további szemléltető példákra vágyik, amelyek bemutathatják a megbízható mesterséges intelligencia természetét és hatókörét. Van egy különleges és biztosan népszerű példasor, amely közel áll a szívemhez. A mesterséges intelligencia szakértőjeként, beleértve az etikai és jogi következményeket is, gyakran megkérnek, hogy találjak reális példákat, amelyek bemutatják a mesterséges intelligencia etikai dilemmáit, hogy könnyebben megragadható legyen a téma némileg elméleti jellege. Az egyik legérdekesebb terület, amely élénken mutatja be ezt az etikus AI-problémát, az AI-alapú, valódi önvezető autók megjelenése. Ez praktikus használati esetként vagy példaként szolgál majd a témával kapcsolatos bőséges vitához.

Íme, egy figyelemre méltó kérdés, amelyen érdemes elgondolkodni: A mesterséges intelligencia-alapú valódi önvezető autók megjelenése rávilágít-e bármire is a megbízható mesterséges intelligencia iránti törekvésről, és ha igen, mit mutat ez be?

Engedjen meg egy pillanatra, hogy kibontsa a kérdést.

Először is vegye figyelembe, hogy egy igazi önvezető autóban nincs emberi vezető. Ne feledje, hogy az igazi önvezető autókat mesterséges intelligencia vezetési rendszer vezeti. Nincs szükség emberi sofőrre a volánnál, és arra sem, hogy ember vezesse a járművet. Az autonóm járművekről (AV-k) és különösen az önvezető autókról szóló kiterjedt és folyamatos tájékoztatásért lásd az itt található link.

Szeretném még jobban tisztázni, mit kell érteni, amikor valódi önvezető autókra utalok.

Az önvezető autók szintjének megértése

Tisztázva, az igazi önvezető autók azok, ahol az AI teljesen önállóan vezeti az autót, és nincs emberi segítség a vezetési feladat során.

Ezek a vezető nélküli járművek 4-es és 5-ös szintnek minősülnek (lásd a magyarázatomat a következő helyen). ez a link itt), míg az olyan autókat, amelyekhez emberi vezető szükséges a vezetési erőfeszítések közös megosztására, általában 2. vagy 3. szinten tekintik. A vezetési feladatot közösen megosztó autók leírása félig autonóm, és általában különféle automatizált bővítmények, amelyeket ADAS-nak (Advanced Driver-Assistance Systems) neveznek.

Még nincs igazi önvezető autó az 5-ös szinten, és még azt sem tudjuk, hogy ez elérhető lesz-e, és azt sem, hogy mennyi időbe telik eljutni odáig.

Eközben a 4. szintű erőfeszítések fokozatosan próbálnak némi vonóerőt szerezni nagyon szűk és szelektív közúti próbák révén, bár vita folyik arról, hogy ezt a tesztelést önmagában engedélyezni kell-e (mindannyian életre-halálra menő tengerimalacok vagyunk egy kísérletben autópályáinkon és mellékutainkon zajlanak, egyesek azt állítják, lásd tudósításomat itt ez a link itt).

Mivel a félig autonóm autókhoz emberi sofőrre van szükség, az ilyen típusú autók elfogadása nem különbözik nyilvánvalóan a hagyományos járművek vezetésénél, tehát önmagában nincs sok új, hogy ezekkel a témákkal foglalkozzanak (bár, amint látni fogja) egy pillanat alatt a következő pontok általában alkalmazandók).

A félig autonóm autók esetében fontos, hogy a nyilvánosságot figyelmeztessék az utóbbi időben felmerülő zavaró tényezőkre, nevezetesen arra, hogy azoknak az emberi járművezetőknek ellenére, akik folyamatosan videókat tesznek közzé, hogy maguk alszanak a 2. vagy 3. szintű autó kormányához , mindannyian el kell kerülnünk, hogy félrevezetjük azt a hitet, hogy a sofőr félig autonóm autó vezetése közben elvonhatja figyelmét a vezetési feladatról.

Te vagy a felelős a jármű vezetési tevékenységeiért, függetlenül attól, hogy mekkora mennyiségű automatizálást lehet 2. vagy 3. szintre dobni.

Önvezető autók és megbízható mesterséges intelligencia

A 4. és 5. szintű valódi önjáró járműveknél nem vezethet embervezető a vezetési feladatba.

Minden utas utas lesz.

Az AI vezet.

Azonnal megvitatandó szempont azzal a ténnyel jár, hogy a mai mesterséges intelligencia-vezetési rendszerekben részt vevő mesterséges intelligencia nem érző. Más szavakkal, az AI összességében számítógépes programozás és algoritmusok összessége, és bizonyosan nem képes ugyanúgy érvelni, mint az emberek.

Miért van ez a hangsúly arra, hogy az AI nem érzékeny?

Mivel szeretném aláhúzni, hogy az AI hajtórendszer szerepének tárgyalásakor nem tulajdonítok emberi tulajdonságokat az AI-nek. Felhívjuk figyelmét, hogy manapság folyamatos és veszélyes tendencia van az AI antropomorfizálására. Lényegében az emberek emberi szerű érzékenységet tulajdonítanak a mai mesterséges intelligenciának, annak ellenére, hogy tagadhatatlan és vitathatatlan tény, hogy ilyen AI még nem létezik.

Ezzel a pontosítással elképzelheti, hogy az AI vezetési rendszer valahogy nem fogja „tudni” a vezetés szempontjait. A vezetést és mindazt, amit ez magában foglal, be kell programozni az önvezető autó hardverének és szoftverének részeként.

Merüljünk el abban a számtalan szempontban, amelyek eljátszanak ebben a témában.

Először is fontos felismerni, hogy nem minden AI önvezető autó egyforma. Minden autógyártó és önvezető technológiai cég alkalmazza a hozzáállását az önvezető autók kidolgozásához. Emiatt nehéz átfogó kijelentéseket tenni arról, hogy az AI-meghajtórendszerek mit fognak tenni vagy nem.

Továbbá, ha azt állítják, hogy az AI meghajtó rendszer nem végez bizonyos dolgokat, ezt később a fejlesztők megelőzhetik, akik valójában erre programozzák a számítógépet. Lépésről lépésre az AI meghajtó rendszereket fokozatosan fejlesztik és bővítik. A meglévő korlátozás ma már nem létezik a rendszer későbbi iterációjában vagy verziójában.

Bízom benne, hogy ez elegendő litániai figyelmeztetést ad ahhoz, hogy alátámasszam azt, amit most el fogok mondani.

Most már készen állunk arra, hogy mélyrehatóan elmerüljünk az önvezető autók és a megbízható mesterséges intelligencia területén.

A bizalom minden, különösen az AI-alapú önvezető autók esetében.

Úgy tűnik, hogy a társadalom óvatosan figyel az önvezető autók megjelenésére. Egyrészt nagy a remény, hogy a valódi önvezető autók megjelenése kimutathatóan csökkenti az autókkal kapcsolatos éves halálesetek számát. Csak az Egyesült Államokban évente körülbelül 40,000 2.5 haláleset és körülbelül XNUMX millió megsérült autóbaleset következtében. az itt található link. Az emberek isznak és vezetnek. Az emberek elterelve vezetnek. Úgy tűnik, hogy az autóvezetés feladata abból áll, hogy ismétlődően és tévedhetetlenül a vezetésre összpontosítson, és elkerülje az autóbaleseteket. Mint ilyen, álmodozva remélhetjük, hogy az AI vezetési rendszerek ismétlődően és tévedhetetlenül irányítják az önvezető autókat. Az önvezető autókat úgy is felfoghatja, mint egy kettősséget, amely az autóbalesetekben bekövetkezett halálesetek és sérülések számának csökkentését jelenti, valamint potenciálisan a mobilitást sokkal szélesebb körben elérhetővé teszi.

Ám eközben aggodalomra ad okot a társadalmi felfogás, hogy az önvezető autók elég biztonságosak lesznek-e ahhoz, hogy a közutakon közlekedjenek.

Ha akár egyetlen önvezető autó is beleütközik egy olyan ütközésbe vagy ütközésbe, amely egyetlen halálesethez vagy súlyos sérüléshez vezet, akkor valószínűleg előre lehet számítani arra, hogy az AI-alapú vezető nélküli autók iránti ma némileg megépült bizalom rohamosan csökkenni fog. Ezt akkor láthattuk, amikor Arizonában történt az a hírhedt incidens, amely során egy kissé (nem igazán) önvezető autó belefutott egy gyalogosba, és meghalt (lásd tudósításomat itt: ez a link itt).

Egyes szakértők rámutatnak, hogy igazságtalan és helytelen az AI önvezető autókba vetett bizalmát arra alapozni, hogy csak egy ilyen következő halálos baleset vagy ütközés alááshatja az amúgy is viszonylag ütközésmentes közúti próbákat. Ezen túlmenően, egy további tisztességtelen alapon az a valószínűsége, hogy függetlenül attól, hogy melyik AI önvezető autómárka vagy -modell keveredik egy szomorú eseménybe, a társadalom kétségtelenül az összes önvezető autómárkát hibáztatná.

Az önvezető autók egésze elkenődhet, és az iparág egésze hatalmas visszahatást szenvedhet el, ami az összes közúti kísérlet leállításához vezethet.

Egy ilyen visszaütéshez hozzájárulnak azok az értelmetlen kiáltványok, amelyeket az önvezető autók szókimondó támogatói hirdetnek, miszerint minden vezető nélküli autó összetörhetetlen lesz. Az összeomlhatatlanság gondolata nemcsak egyenesen téves (lásd az itt található link), alattomos módon állítja be az önvezető autóipart egy teljesen felülmúlhatatlan elvárásokhoz. Ezek a szokatlan és teljesíthetetlen kijelentések, miszerint az önvezető autók miatt nem lesz halálos áldozat, azt a tévhitet szítják, hogy a vezető nélküli autóbalesetek biztos jelei annak, hogy az egész készlet és kaboodle hiábavaló.

Kifejezetten szomorú a felismerés, hogy az önvezető autók felé tett előrelépés és a társadalmi bizalom percenkénti felhalmozódása egy pillanat alatt elhárítható. Ez egy pokoli bemutató lesz a bizalom ridegségéről.

Következtetés

Sok autógyártó és önvezető technológiai cég általában betartja a mesterséges intelligencia etikai alapelveit, hogy megpróbáljon megbízható mesterséges intelligenciát felépíteni és előállítani a biztonságos és megbízható AI-alapú önvezető autók tekintetében. Kérjük, vegye figyelembe, hogy ezeknek a cégeknek némelyike ​​erősebb és jobban elkötelezett az etikus mesterséges intelligencia előírásai mellett, mint mások. Alkalmanként előfordulnak olyan önvezető autókkal kapcsolatos induló vállalkozások vagy újoncok is, amelyek a jelek szerint félredobják a mesterséges intelligencia etika alapköveit (lásd a beszámolómat a következő címen). az itt található link).

Más frontokon az önvezető autókra vonatkozó új törvények és szabályozások fokozatosan bekerültek a jogi könyvekbe. Az más kérdés, hogy megvan-e a szükséges fogazatuk a támogatásukhoz, mint ahogy az is, hogy ezeknek a törvényeknek a végrehajtását komolyan veszik-e, vagy figyelmen kívül hagyják-e (erről szóló elemzéseket lásd hasábjaimban).

Ebben a csúcstechnológiás szög is megvan. Megjósoltam, hogy fokozatosan látni fogjuk az AI őrangyal botok változatait, amelyek előtérbe kerülnek az autonóm járművek és az önvezető autók arénájában. Még nem tartunk ott. Ez egyre elterjedtebb lesz, amint az önvezető autók népszerűsége egyre szélesebb körben elterjed.

Ez az utolsó pont felhoz egy híres vonalat a bizalomról, amelyet kétségtelenül már fejből ismer.

Bízzon, de ellenőrizze.

Megengedhetjük magunknak, hogy kiterjesztjük bizalmunkat, talán nagylelkűen. Mindeközben sólyomként kell figyelnünk, hogy az általunk kiváltott bizalmat szavak és tettek is igazolják. Bízzunk a mesterséges intelligencia iránt, de a végtelenségig ellenőrizzük, hogy megfelelően és tágra nyílt szemmel helyezzük-e el bizalmunkat.

Ebben megbízhatsz bennem.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/