A mesterséges intelligencia etika Megdöbbentő kinyilatkoztatása, hogy a mesterséges intelligencia mérgezővé vagy elfogulttá való képzése hasznos lehet, beleértve az önálló önvezető autókat is

Íme egy régi sor, amit biztosan hallottál már.

Egyet kell tudni.

Lehet, hogy nem veszi észre, hogy ez egy olyan kifejezés, amely az 1900-as évek elejére vezethető vissza, és általában akkor hivatkoztak rá, amikor a jogsértőkre utalnak (a jelmondat más változatai messzebbre nyúlnak vissza, például az 1600-as évekig). Egy példa arra, hogyan lehet ezt a kijelentést használni, magában foglalja azt az elképzelést, hogy ha tolvajt akar elkapni, akkor tolvajt kell használnia ahhoz. Ez azt az állítást mutatja be, hogy valakinek tudnia kell egyet. Sok film és tévéműsor kamatoztatja ezt a praktikus bölcsességet, gyakran azt állítva, hogy a szélhámos elfogásának egyetlen járható módja egy ugyanolyan korrupt szélhámos felbérelése, hogy üldözze a gonosztevőt.

Sebességváltáskor egyesek ugyanezt a logikát használják fel arra hivatkozva, hogy megfelelő módja annak megállapítására, hogy valaki indokolatlan elfogultságokat és diszkriminatív hiedelmeket testesít-e meg, ha talál valakit, aki már rendelkezik ilyen hajlamokkal. Feltételezhető, hogy egy személy, aki már tele van elfogultságokkal, könnyebben fogja tudni érzékelni, hogy ez a másik ember is telve van toxikussággal. Ismét meg kell tudni, hogy valaki a bevallott mantra.

A kezdeti reakciód arra a lehetőségre, hogy egy elfogult személyt egy másik elfogult személy kibeszélésére használsz fel, szkepticizmus és hitetlenség lehet. Nem tudjuk kideríteni, hogy van-e valakinek nemkívánatos elfogultsága, ha csupán megvizsgáljuk őket, és nem kell keresnünk valakit, aki hasonló természetű? Furcsának tűnik, ha szándékosan megpróbálunk felfedezni valakit, aki elfogult, hogy felfedjen másokat, akik szintén mérgezően elfogultak.

Azt hiszem, ez részben attól függ, hogy hajlandó-e elfogadni azt a feltételezett refrént, hogy valakinek tudnia kell. Vegye figyelembe, hogy ez nem azt sugallja, hogy a tolvaj elfogásának egyetlen módja megköveteli, hogy kizárólag és mindig tolvajt használjon fel. Ésszerűen úgy tűnhet, hogy azzal érvelni, hogy ez csupán egy hozzáadott út, amelyet kellőképpen figyelembe lehet venni. Lehet, hogy néha hajlandó elgondolkodni annak lehetőségén, hogy tolvajt fogjon el, míg más körülmények ezt kifürkészhetetlen taktikává tehetik.

Használja a megfelelő eszközt a megfelelő beállításhoz, ahogy mondani szokás.

Most, hogy lefektettem ezeket az alapokat, folytathatjuk ennek a mesének a talán idegesítő és látszólag sokkoló részét.

Készen állsz?

A mesterséges intelligencia területe aktívan követi ugyanazt az előírást, amelyet néha meg kell ismerni, különösen abban az esetben, ha az elfogult vagy diszkriminatív módon cselekvő MI-t próbálják kiszűrni. Igen, az elgondolkodtató ötlet az, hogy szándékosan olyan mesterséges intelligenciát akarunk kidolgozni, amely teljes mértékben és gátlástalanul elfogult és diszkriminatív, hogy ezt eszközként használhassuk más olyan mesterséges intelligencia felfedezésére és feltárására, amelyek ugyanilyen toxicitást mutatnak. Amint hamarosan látni fogja, az ügy hátterében számos bosszantó AI etikai probléma áll. A mesterséges intelligencia etikájával és az etikai AI-val kapcsolatos átfogó, folyamatos és kiterjedt tudósításomat lásd az itt található link és a az itt található link, csak hogy néhányat említsek.

Gondolom, a mérgező mesterséges intelligencia használatát más mérgező mesterséges intelligencia követésére a közmondásos tűz a tűzzel felfogásként lehetne kifejezni (sok eufemizmust és szemléltető metaforát idézhetünk fel ennek a helyzetnek az ábrázolásához). Vagy, ahogy már hangsúlyoztuk, szűkszavúan hivatkozhatunk arra az állításra, miszerint az embernek tudnia kell.

Az átfogó koncepció az, hogy ahelyett, hogy hagyományos módszerekkel próbálnánk kitalálni, hogy egy adott AI-rendszer tartalmaz-e indokolatlan torzításokat, esetleg kevésbé hagyományos eszközöket is alkalmazhatunk. Az egyik ilyen nem szokványos módszer az lenne, ha olyan mesterséges intelligenciát dolgoznának ki, amely a legrosszabb torzításokat és társadalmilag elfogadhatatlan toxicitásokat tartalmazza, majd ezt a mesterséges intelligenciát arra használnák, hogy segítsenek kiterelni más olyan mesterséges intelligencia, amelyek ugyanazokkal a rosszindulatúak.

Ha ezt gyorsan átgondolja, minden bizonnyal teljesen ésszerűnek tűnik. Célunk lehet olyan mesterséges intelligencia létrehozása, amely maximálisan mérgező. Ezt a mérgező mesterséges intelligenciát ezután más, szintén mérgező mesterséges intelligencia kiszorítására használják. Az akkor feltárt „rossz” mesterséges intelligencia esetében úgy kezelhetjük, hogy megszüntetjük a toxicitást, vagy teljesen elhagyjuk az AI-t (lásd a mesterséges intelligencia kiürüléséről vagy megsemmisítéséről szóló tudósításomat itt: ez a link itt), vagy a mesterséges intelligencia bebörtönzése (lásd a mesterséges intelligencia elzártságáról szóló tudósításomat itt: ez a link itt), vagy tegyen bármi mást, ami alkalmasnak tűnik.

Az ellenérv az, hogy meg kell vizsgálnunk a fejünket, hogy szándékosan és önként olyan mesterséges intelligenciát tervezünk, amely mérgező és tele van elfogultságokkal. Ez az utolsó dolog, amit valaha is meg kellene fontolnunk – buzdítanák egyesek. Koncentrálj arra, hogy a mesterséges intelligencia teljes mértékben a jóságból álljon. Ne összpontosítson olyan mesterséges intelligencia kidolgozására, amely magában hordozza az indokolatlan elfogultság rossz tulajdonságait. Már maga az ilyen törekvés gondolata is visszataszítónak tűnik egyesek számára.

További kételyek merülnek fel ezzel a vitatott küldetéssel kapcsolatban.

Lehet, hogy a mérgező mesterséges intelligencia kidolgozásának küldetése csupán felbátorítja azokat, akik olyan mesterséges intelligencia létrehozására vágynak, amely képes aláásni a társadalmat. Mintha azt mondanánk, hogy a nem megfelelő és kellemetlen torzításokkal rendelkező mesterséges intelligencia kialakítása teljesen rendben van. Semmi aggodalom, semmi habozás. Igyekezzen mérgező mesterséges intelligenciát kidolgozni szíve szerint – ezt hangosan közvetítjük a mesterséges intelligencia-építőknek szerte a világon. Mindez (kacsint-kacsint) a jóság nevében.

Továbbá tegyük fel, hogy ez a mérgező mesterséges intelligencia elkapja. Lehetséges, hogy az MI-t sok más AI-készítő használja és használja újra. Végül a mérgező mesterséges intelligencia mindenféle AI-rendszerben elrejtőzik. Analógia lehetne egy olyan embert aláásó vírus kidolgozása, amely egy feltehetően lezárt laboratóriumból szökik meg. A következő dolog, amit tud, az átkozott dolog mindenhol ott van, és kitöröltük magunkat.

Várj egy pillanatot, az ellenérvek ellenjavallata megy, ön ámokfutásban van mindenféle őrült és alátámasztatlan feltételezéssel. Vegyünk egy mély lélegzetet. Nyugodj meg.

Biztonságosan készíthetünk mérgező mesterséges intelligenciát, és zárva tarthatjuk. A mérgező mesterséges intelligencia segítségével megtalálhatjuk és segíthetünk csökkenteni a mesterséges intelligencia növekvő elterjedtségét, amely sajnos indokolatlan torzításokkal rendelkezik. Bármely más e megtévesztően vad és megalapozatlan hógolyózó felkiáltás pusztán térdreméltó reakció, és sajnálatos módon ostoba és egyenesen vakmerő. Ne próbálja kidobni a babát a fürdővízzel együtt, erre figyelmeztetik.

Gondolja ezt így, állítják a támogatók. A mérgező mesterséges intelligencia megfelelő felépítése és felhasználása kutatási, értékelési célokra, valamint nyomozóként más, társadalmilag támadó mesterséges intelligencia feltárása érdekében méltó megközelítés, és ennek tisztességes megrázkódtatása szükséges. Tegye félre a kiütéses reakcióit. Gyere le a földre és nézd ezt józanul. Szemünk a nyereményen van, nevezetesen az elfogult alapú mesterséges intelligencia rendszerek zsúfoltságának feltárásán és megszüntetésén, valamint annak biztosításán, hogy társadalmat ne borítson el a mérgező mesterséges intelligencia.

Időszak. Pont.

Számos kulcsfontosságú módszer létezik a mérgező vagy elfogult mesterséges intelligencia jótékony célú felhasználásának ebbe az elképzelésébe való mélyedésbe, többek között:

  • Állítson be olyan adatkészleteket, amelyek szándékosan torzított és teljesen mérgező adatokat tartalmaznak, amelyek felhasználhatók a mesterséges intelligencia képzésére, hogy mit ne tegyen és/vagy mire figyeljen
  • Használja ezeket az adatkészleteket a gépi tanulási (ML) és a mély tanulási (DL) modellek betanításához a torzítások észlelésére és a társadalmi toxicitással járó számítási minták kitalálására.
  • Alkalmazza a toxicitásra kiképzett ML/DL-t más mesterséges intelligencia esetében, hogy megbizonyosodjon arról, hogy a megcélzott mesterséges intelligencia potenciálisan elfogult és mérgező-e
  • Tegye elérhetővé a toxicitásra kiképzett ML/DL-t, hogy bemutassa a mesterséges intelligencia-építőknek, mire kell figyelniük, hogy könnyen megvizsgálhassák a modelleket, hogy lássák, hogyan keletkeznek az algoritmikusan átitatott torzítások
  • Mutasson példát a mérgező mesterséges intelligencia veszélyeire a mesterséges intelligencia etikájának és az etikus mesterségesintelligencia-tudatosságnak a részeként, mindezt ezen a probléma-gyerek-csontig rosszindulatú AI-sorozaton keresztül meséli el.
  • Más

Mielőtt belevágnánk ennek a több útnak a lényegébe, hozzunk létre néhány további alapvető részletet.

Lehet, hogy homályosan tisztában vagy vele, hogy manapság az egyik leghangosabb hang a mesterséges intelligencia területén és még az AI területén kívül is az etikus mesterséges intelligencia nagyobb látszatának követelése. Vessünk egy pillantást arra, hogy mit jelent a mesterséges intelligencia etikájára és az Ethical AI-ra hivatkozni. Ezen túlmenően megalapozhatjuk a terepet azzal, hogy megvizsgáljuk, mire gondolok, amikor a gépi tanulásról és a mély tanulásról beszélek.

A mesterséges intelligencia etikájának egy bizonyos szegmense vagy része, amely a médiában nagy figyelmet kapott, a mesterséges intelligencia, amely nemkívánatos elfogultságokat és egyenlőtlenségeket mutat. Talán tudatában van annak, hogy amikor a mesterséges intelligencia legújabb korszaka beindult, hatalmas lelkesedés támadt az iránt, amit egyesek ma úgy hívnak. AI For Good. Sajnos ennek a tomboló izgalomnak a nyomában kezdtünk tanúi lenni AI For Bad. Például a különféle mesterséges intelligencia-alapú arcfelismerő rendszerekről kiderült, hogy faji és nemi előítéleteket tartalmaznak, amelyeket itt tárgyaltam. az itt található link.

Erőfeszítések, amelyek ellen harcolni kell AI For Bad aktívan zajlanak. A hangoskodáson kívül jogi A jogsértések megfékezésére irányuló törekvések jelentős erőfeszítéseket tesznek a mesterséges intelligencia etikájának elfogadása felé, hogy helyrehozzák a mesterséges intelligencia aljasságát. Az elképzelés az, hogy el kell fogadnunk és támogatnunk kell a kulcsfontosságú etikai mesterségesintelligencia-elveket a mesterséges intelligencia fejlesztése és terjesztése érdekében, ezzel aláásva AI For Bad és egyidejűleg hirdeti és hirdeti a jobbat AI For Good.

Ehhez kapcsolódóan én annak híve vagyok, hogy a mesterséges intelligencia megpróbálja a mesterséges intelligencia problémáinak megoldásának részeként használni a tüzet tűzzel oltva ilyen gondolkodásmódban. Például beágyazhatunk Ethical AI összetevőket egy mesterséges intelligencia rendszerbe, amely figyeli, hogy a többi AI hogyan csinálja a dolgokat, és így potenciálisan valós időben megragadja a diszkriminatív erőfeszítéseket. az itt található link. Lehetne egy külön mesterséges intelligencia-rendszer is, amely egyfajta AI-etikai monitorként működik. A mesterséges intelligencia rendszer felügyelőként szolgál annak nyomon követésére és észlelésére, ha egy másik mesterséges intelligencia az etikátlan szakadékba kerül (lásd az ilyen képességekről szóló elemzésemet itt: az itt található link).

Rövid időn belül megosztok veled néhány átfogó alapelvet, amelyek az AI etikájának hátterében állnak. Rengeteg ilyen lista lebeg itt-ott. Mondhatnánk, hogy még nincs egyetlen lista az egyetemes vonzerőről és az egyetértésről. Ez a sajnálatos hír. A jó hír az, hogy legalább vannak könnyen elérhető mesterséges intelligencia etikai listák, és általában meglehetősen hasonlóak. Mindent egybevetve ez arra utal, hogy az okolt konvergencia egyfajta formája révén megtaláljuk az utat az AI-etika általános közös vonása felé.

Először is tekintsünk át röviden néhány általános etikai mesterséges intelligencia előírást, hogy bemutassuk, minek kell létfontosságú szempontnak lennie bárki számára, aki mesterséges intelligenciát készít, dolgozik vagy használ.

Például, ahogy azt a Vatikán a Róma felhívás a mesterséges intelligencia etikájára és amint azt alaposan kifejtettem itt az itt található link, ez az általuk azonosított hat elsődleges AI etikai elv:

  • Átláthatóság: Elvileg az AI-rendszereknek magyarázhatónak kell lenniük
  • Befogadás: Minden ember szükségleteit figyelembe kell venni, hogy mindenki részesülhessen, és minden egyén számára a lehető legjobb feltételeket kínálhassuk önkifejezéshez és fejlődéshez.
  • Felelősség: Az MI használatát tervezőknek és alkalmazóknak felelősségteljesen és átláthatóan kell eljárniuk
  • Pártatlanság: Ne alkosson vagy cselekedjen elfogultság szerint, ezzel óvva a méltányosságot és az emberi méltóságot
  • Megbízhatóság: Az AI-rendszereknek megbízhatóan kell működniük
  • Biztonság és adatvédelem: Az AI-rendszereknek biztonságosan kell működniük, és tiszteletben kell tartaniuk a felhasználók magánéletét.

Amint azt az Egyesült Államok Védelmi Minisztériuma (DoD) kijelentette A mesterséges intelligencia használatának etikai alapelvei és amint azt alaposan kifejtettem itt az itt található link, ez a hat elsődleges AI etikai alapelvük:

  • Felelős: A DoD személyzete megfelelő szintű ítélőképességet és gondosságot gyakorol, miközben felelős marad az AI-képességek fejlesztéséért, telepítéséért és használatáért.
  • Igazságos: A minisztérium szándékos lépéseket tesz az AI-képességek nem szándékos torzításának minimalizálása érdekében.
  • Nyomon követhető: A minisztérium mesterséges intelligencia-képességeit úgy fejlesztik és alkalmazzák, hogy az érintett személyzet megfelelő ismeretekkel rendelkezzen az AI-képességekre vonatkozó technológiáról, fejlesztési folyamatokról és működési módszerekről, beleértve az átlátható és auditálható módszereket, adatforrásokat, valamint a tervezési eljárást és dokumentációt.
  • Megbízható: A minisztérium mesterséges intelligencia-képességeinek kifejezett, jól meghatározott felhasználási területei lesznek, és az ilyen képességek biztonsága, biztonsága és hatékonysága tesztelés és szavatosság tárgyát képezi a meghatározott felhasználási módokon belül, teljes életciklusuk során.
  • Kormányozható: A minisztérium megtervezi és megtervezi a mesterséges intelligencia képességeit, hogy teljesítsék a tervezett funkcióikat, miközben képesek lesznek észlelni és elkerülni a nem kívánt következményeket, valamint képesek lekapcsolni vagy deaktiválni a nem szándékos viselkedést tanúsító telepített rendszereket.

Megvitattam a mesterséges intelligencia etikai elveinek különféle kollektív elemzéseit is, beleértve a kutatók által kidolgozott halmazt, amely számos nemzeti és nemzetközi AI etikai tétel lényegét vizsgálta és sűrítette a „The Global Landscape Of AI Ethics Guidelines” című cikkben (megjelent. ban ben Természet), és amit tudósításom a címen vizsgál az itt található link, ami ehhez a trapézkő listához vezetett:

  • Átláthatóság
  • Igazságosság és méltányosság
  • Nem rosszindulat
  • Felelősség
  • Adatvédelem
  • Jótékonyság
  • Szabadság és autonómia
  • Bízzon
  • Fenntarthatóság
  • Méltóság
  • Szolidaritás

Amint azt közvetlenül sejtheti, rendkívül nehéz lehet az ezen alapelvek mögött meghúzódó sajátosságok meghatározása. Még ennél is keményebb dió az a törekvés, hogy ezeket a tág alapelveket valami teljesen kézzelfoghatóvá és kellően részletezetté alakítsák ahhoz, hogy az AI-rendszerek kidolgozásakor felhasználhatók legyenek. Könnyű összességében egy kis kézzel integetni arról, hogy mik is az AI etikai előírásai, és hogyan kell azokat általában betartani, míg az AI kódolásánál sokkal bonyolultabb a helyzet, ha a valódi guminak kell lennie, amely találkozik az úttal.

Az AI-etikai elveket az AI-fejlesztőknek kell alkalmazniuk, az AI-fejlesztési erőfeszítéseket irányítókkal együtt, sőt még azokkal is, amelyek végső soron az AI-rendszerek karbantartását és karbantartását végzik. Az összes érdekelt fél a mesterséges intelligencia fejlesztésének és használatának teljes életciklusa során beletartozik az etikus mesterséges intelligencia elfogadott normáihoz. Ez egy fontos kiemelés, mivel a szokásos feltevés az, hogy „csak a kódolóknak” vagy az AI-t programozóknak kell betartani az AI-etika fogalmait. Amint korábban említettük, egy falura van szükség a mesterséges intelligencia kidolgozásához és elindításához, és ehhez az egész falunak ismernie kell a mesterséges intelligencia etikai előírásait, és be kell tartania azokat.

Győződjünk meg arról is, hogy a mai mesterséges intelligencia természetét illetően egy oldalon vagyunk.

Ma nincs olyan mesterséges intelligencia, amely érző lenne. Nálunk ez nincs. Nem tudjuk, hogy az érző mesterséges intelligencia lehetséges lesz-e. Senki sem tudja pontosan megjósolni, hogy elérjük-e az érző MI-t, és azt sem, hogy az érző mesterséges intelligencia valamilyen csodálatos módon spontán módon létrejön-e számítógépes kognitív szupernóva formájában (általában szingularitásnak nevezik, lásd tudósításomat itt: az itt található link).

A mesterséges intelligencia azon típusa, amelyre összpontosítok, a ma létező nem érző MI-ből áll. Ha vadul akarnánk spekulálni arról érző AI, ez a vita gyökeresen más irányba mehet. Egy érző mesterséges intelligencia állítólag emberi minőségű lenne. Figyelembe kell vennie, hogy az érző mesterséges intelligencia az ember kognitív megfelelője. Sőt, mivel egyes feltételezések szerint szuperintelligens AI-val rendelkezünk, elképzelhető, hogy az ilyen mesterséges intelligencia okosabb lehet, mint az emberek (a szuperintelligens AI lehetőségének feltárásához lásd a tudósítás itt).

Maradjunk inkább a földön, és vegyük figyelembe a mai számítástechnikai, nem érző MI-t.

Vegye észre, hogy a mai mesterséges intelligencia nem képes az emberi gondolkodással egyenrangú módon „gondolkodni”. Amikor Alexával vagy Sirivel kommunikál, a társalgási képességek hasonlónak tűnhetnek az emberi képességekhez, de a valóság az, hogy számítási jellegű, és hiányzik az emberi megismerés. A mesterséges intelligencia legújabb korszaka széles körben alkalmazta a gépi tanulást (ML) és a mély tanulást (DL), amelyek kihasználják a számítási mintaillesztést. Ez olyan mesterséges intelligencia-rendszerekhez vezetett, amelyek emberszerű hajlamokat mutatnak. Eközben manapság nincs olyan mesterséges intelligencia, amely a józan észnek látszana, és az emberi gondolkodás kognitív csodáiból sem.

Az ML/DL a számítási mintaillesztés egyik formája. A szokásos megközelítés az, hogy egy döntési feladatról adatokat gyűjt össze. Az adatokat betáplálja az ML/DL számítógépmodellekbe. Ezek a modellek matematikai mintákat keresnek. Miután megtalálta az ilyen mintákat, ha igen, az AI rendszer ezeket a mintákat fogja használni, amikor új adatokkal találkozik. Az új adatok bemutatásakor a „régi” vagy történelmi adatokon alapuló mintákat alkalmazzák az aktuális döntés meghozatalához.

Azt hiszem, sejtheti, hová vezet ez. Ha az emberek, akik a mintaszerű döntéseket hozták, nemkívánatos elfogultságokat alkalmaztak, akkor valószínű, hogy az adatok ezt finom, de jelentős mértékben tükrözik. A Machine Learning vagy a Deep Learning számítási mintaillesztés egyszerűen megpróbálja matematikailag utánozni az adatokat ennek megfelelően. A mesterséges intelligencia által kialakított modellezésben önmagában semmi sem látszik a józan észnek vagy más érző szempontoknak.

Ezenkívül az AI-fejlesztők sem tudják, mi történik. Az ML/DL rejtélyes matematikája megnehezítheti a most rejtett torzítások kiszűrését. Joggal remélhető és elvárható, hogy a mesterséges intelligencia fejlesztői teszteljék a potenciálisan eltemetett torzításokat, bár ez bonyolultabb, mint amilyennek látszik. Jó esély van arra, hogy még viszonylag kiterjedt tesztelés mellett is lesznek torzítások az ML/DL mintaillesztési modelljeibe.

Használhatná némileg a híres vagy hírhedt közmondást, a szemetet a szemét kiszállításáról. A helyzet az, hogy ez inkább a torzításokhoz hasonlít, amelyek alattomos módon beszivárognak az AI-ba merülő torzítások miatt. Az AI algoritmus-döntéshozatala (ADM) axiomatikusan megterhelődik egyenlőtlenségekkel.

Nem jó.

Mit lehet még tenni mindezzel?

Térjünk vissza a korábban közzétett listához arról, hogyan próbáljunk megbirkózni a mesterséges intelligencia torzításaival vagy a mérgező mesterséges intelligenciával egy kissé szokatlan „azt kell tudni” megközelítés alkalmazásával. Emlékezzünk vissza, hogy a lista a következő lényeges pontokból állt:

  • Állítson be olyan adatkészleteket, amelyek szándékosan torzított és teljesen mérgező adatokat tartalmaznak, amelyek felhasználhatók a mesterséges intelligencia képzésére, hogy mit ne tegyen és/vagy mire figyeljen
  • Használja ezeket az adatkészleteket a gépi tanulási (ML) és a mély tanulási (DL) modellek betanításához a torzítások észlelésére és a társadalmi toxicitással járó számítási minták kitalálására.
  • Alkalmazza a toxicitásra kiképzett ML/DL-t más mesterséges intelligencia esetében, hogy megbizonyosodjon arról, hogy a megcélzott mesterséges intelligencia potenciálisan elfogult és mérgező-e
  • Tegye elérhetővé a toxicitásra kiképzett ML/DL-t, hogy bemutassa a mesterséges intelligencia-építőknek, mire kell figyelniük, hogy könnyen megvizsgálhassák a modelleket, hogy lássák, hogyan keletkeznek az algoritmikusan átitatott torzítások
  • Mutasson példát a mérgező mesterséges intelligencia veszélyeire a mesterséges intelligencia etikájának és az etikus mesterségesintelligencia-tudatosságnak a részeként, mindezt a probléma-gyermek csontig tartó mesterségesintelligencia-példasorozaton keresztül.
  • Más

Közelről megvizsgáljuk az elsőt ezek közül a kiemelkedő pontok közül.

Toxikus adatok adatkészleteinek beállítása

A kellemetlen társadalmi torzításokat tartalmazó adatkészletek létrehozásának szemléletes példája a WILDS által gondozott gyűjtemény CivilComments adatkészlete.

Először is egy gyors háttér.

A WILDS egy nyílt forráskódú adatkészlet-gyűjtemény, amely ML/DL betanítására használható. A WILDS elsődleges célja, hogy lehetővé tegye a mesterséges intelligencia fejlesztői számára, hogy azonnal hozzáférjenek a reprezentatív adatokhoz elosztási váltások különböző speciális területeken. A jelenleg elérhető tartományok némelyike ​​olyan területeket foglal magában, mint például az állatfajok, az élő szövetek daganatai, a búzafej sűrűsége és más területek, például a Civil Comments, amelyeket röviden leírok.

A disztribúcióváltások kezelése az AI ML/DL rendszerek megfelelő kialakításának kulcsfontosságú része. Itt az üzlet. Néha az edzéshez használt adatokról kiderül, hogy teljesen eltérnek a tesztelési vagy „vadon” adatoktól, és így az Ön feltehetően betanított ML/DL-je messze eltér attól, hogy milyen lesz a való világ. Az okos mesterségesintelligencia-építőknek ki kell képezniük ML/DL-jüket, hogy megbirkózzanak az ilyen terjesztési változásokkal. Ezt előre meg kell tenni, és nem lehet valami meglepetés, ami később az ML/DL önmagában történő átalakítását igényli.

Amint azt a WILDS-t bevezető tanulmány kifejti: „Az elosztási eltolódások – ahol a képzési eloszlás eltér a teszteloszlástól – jelentősen ronthatják a vadon alkalmazott gépi tanulási (ML) rendszerek pontosságát. Annak ellenére, hogy a valós telepítésekben mindenütt jelen vannak, ezek az elosztási eltolódások alulreprezentáltak az ML közösségben manapság széles körben használt adatkészletekben. Ennek a hiányosságnak a megszüntetésére bemutatjuk a WILDS-t, egy 10 adatkészletből álló összegyűjtött referenciaértéket, amely tükrözi a valós alkalmazásokban természetesen előforduló eloszlási eltolódások változatos skáláját, például a daganatok azonosítása céljából kórházak közötti eltolódásokat; kamerás csapdák a vadon élő állatok megfigyeléséhez; valamint időben és helyen a műholdas képalkotásban és a szegénység feltérképezésében” (Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani „WILDS: A Benchmark of in-the-Wild Distribution Shifts” című tanulmányában , Weihua Hu és mások).

Az ilyen WILDS-adatkészletek száma folyamatosan növekszik, és az adatkészletek jellegét általában javítják annak érdekében, hogy megerősítsék az adatok ML/DL képzésben való felhasználásának értékét.

A CivilComments adatkészletet a következőképpen írják le: „A felhasználók által generált szövegek automatikus ellenőrzése – például a mérgező megjegyzések észlelése – fontos eszköz az interneten írt szövegek mennyiségének moderálásához. Sajnos a korábbi munkák azt mutatták, hogy az ilyen toxicitási osztályozók felveszik a torzításokat a képzési adatokban, és hamisan társítják a toxicitást bizonyos demográfiai adatok említésével. Az ilyen típusú hamis korrelációk jelentősen ronthatják a modell teljesítményét bizonyos alpopulációkban. Ezt a kérdést a CivilComments adatkészlet módosított változatán keresztül tanulmányozzuk” (a WILDS webhelyen közzétett módon).

Vegye figyelembe a kellemetlen online bejegyzések árnyalatait.

Kétségtelenül találkozott már mérgező megjegyzésekkel, amikor szinte bármilyen közösségi médiát használ. Szinte lehetetlennek tűnik, hogy varázsütésre elkerülje a manapság elterjedt fanyar és mélységes tartalmat. Néha a vulgáris anyag finom, és talán olvasni kell a sorok között, hogy megértsük az elfogult vagy megkülönböztető hangnem vagy jelentés lényegét. Más esetekben a szavak kirívóan mérgezőek, és nincs szükség mikroszkópra vagy speciális dekódergyűrűre, hogy kitaláljuk, mit takarnak a szövegrészek.

A CivilComments egy olyan adatkészlet, amelyet azért állítottak össze, hogy megpróbáljanak kidolgozni egy mesterséges intelligencia ML/DL-t, amely képes számítási úton kimutatni a mérgező tartalmat. A kutatók erre összpontosítottak: „A gépi tanulás nem szándékos elfogultsága rendszerszintű teljesítménybeli különbségekben nyilvánulhat meg a különböző demográfiai csoportok esetében, ami potenciálisan súlyosbíthatja a társadalom egészében a méltányosság előtt álló kihívásokat. Ebben a cikkben bemutatunk egy küszöbérték-agnosztikus mérőszámot, amely árnyalt képet ad erről a nem szándékos torzításról, figyelembe véve, hogy egy osztályozó pontszámeloszlása ​​milyen különböző módokon változhat a kijelölt csoportok között. Bemutatjuk továbbá az online megjegyzések nagy, új tesztkészletét is, amelyek tömeges forrásból származó megjegyzéseket tartalmaznak az identitásra való hivatkozásokhoz. Ezt arra használjuk, hogy megmutassuk, hogyan használhatók fel mérőszámaink új és potenciálisan finom, nem szándékos torzítás megtalálására a meglévő nyilvános modellekben” (Daniel Borkan, Lucas Dixon „Nuanced Metrics for Measuring Unintended Bias With Real Data for Test Classification” című tanulmányában, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Ha ezt a kérdést tágabb kontemplatív gondolkodással látod el, akkor talán elkezdhetsz azon töprengeni, hogy a világban hogyan tudod megkülönböztetni, hogy mi mérgező megjegyzés és mi nem mérgező megjegyzés. Az emberek radikálisan eltérőek lehetnek abban, hogy mit értelmeznek egyenesen mérgező megfogalmazásnak. Lehet, hogy valaki felháborodik egy adott online megjegyzésen vagy megjegyzésen, amelyet a közösségi médiában tesznek közzé, míg valaki mást egyáltalán nem zavar. Gyakran hangzik el az az érv, hogy a toxikus kommentár fogalma egy teljesen homályos előírás. Olyan ez, mint a művészet, amikor a művészetről azt szokás mondani, hogy csak a szemlélő szemében érthető, és hasonlóképpen az elfogult vagy mérgező megjegyzések is csak a szemlélő szemében vannak.

Balderdash, néhány visszavágás. Bárki, aki ésszerűen gondolkodik, eldöntheti, hogy egy online megjegyzés mérgező-e vagy sem. Nem kell rakétatudósnak lenned ahhoz, hogy felismerd, ha egy elhelyezett maró sértés tele van elfogultsággal és gyűlölettel.

Természetesen a társadalmi szokások időnként változnak és változnak. Amit egy ideje még nem tekintettek sértőnek, az ma borzasztóan rossznak tekinthető. Ráadásul az évekkel ezelőtt elhangzott, korábban indokolatlanul elfogultnak tartott dolgokat a jelentésváltozások fényében újraértelmezhetik. Eközben mások azt állítják, hogy a mérgező kommentárok mindig mérgezőek, függetlenül attól, hogy mikor hirdették ki először. Azt lehet állítani, hogy a toxicitás nem relatív, hanem abszolút.

Mindazonáltal az a kérdés, hogy megpróbáljuk megállapítani, mi a mérgező, meglehetősen nehéz rejtvény lehet. Megduplázhatjuk ezt a problémás kérdést, hogy megpróbáljunk olyan algoritmusokat vagy AI-t kidolgozni, amelyek meg tudják állapítani, melyik melyik. Egyes vélemények szerint, ha az embereknek nehéz dolguk van ilyen felmérésekkel, a számítógép programozása valószínűleg legalább annyira problémás.

A mérgező tartalmat tartalmazó adatkészletek létrehozásának egyik megközelítése a tartalom minősítésére vagy értékelésére szolgáló crowdsourcing módszer alkalmazása, vagyis emberi alapú eszközt biztosít annak meghatározására, hogy mit tekintenek nemkívánatosnak, és magában foglalja a címkézést az adatkészletben. Az AI ML/DL ezután megvizsgálhatja az adatokat és a kapcsolódó címkézést, amelyet az emberi értékelők jeleztek. Ez pedig potenciálisan eszközül szolgálhat a mögöttes matematikai minták számítási megkeresésére. Voila, az ML/DL ezután képes lehet előre jelezni vagy számítással felmérni, hogy egy adott megjegyzés valószínűleg mérgező-e vagy sem.

Amint az idézett, árnyalt mérőszámokról szóló cikkben említettük: „Ez a címkézés arra kéri az értékelőket, hogy értékeljék egy megjegyzés toxicitását, a „Nagyon mérgező”, „Mérgező”, „Nehéz megmondani” és „Nem mérgező” közül választani. Az értékelőket a toxicitás több altípusáról is megkérdezték, bár ebben a munkában ezeket a címkéket nem használták az elemzéshez. Ezekkel a minősítési technikákkal egy 1.8 millió megjegyzésből álló adatkészletet hoztunk létre, amelyek online kommentfórumokból származnak, és amelyek a toxicitásra és az azonosságra vonatkozó címkéket tartalmaznak. Míg az összes megjegyzést toxicitási címkével látták el, és egy 450,000 XNUMX megjegyzésből álló részhalmazt azonosítottak. Egyes, identitásra címkézett megjegyzéseket előre kiválasztottak az identitáscímkézés korábbi iterációiból épített modellek segítségével, hogy biztosítsák, hogy a tömegértékelők gyakran lássák az identitástartalmat” (Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman idézett cikkében).

Egy másik példa arra, hogy szemléltetően mérgező tartalmat tartalmazó adatkészleteket kívánnak létrehozni, az AI-alapú természetes nyelvi feldolgozás (NLP) társalgási interaktív rendszerek képzésére irányuló erőfeszítések. Valószínűleg kommunikált már olyan NLP rendszerekkel, mint az Alexa és a Siri. Kitértem a mai NLP néhány nehézségére és korlátaira, köztük egy különösen zavaró esetre, amely akkor történt, amikor Alexa alkalmatlan és veszélyes tanácsot adott a gyerekeknek, lásd az itt található link.

Egy közelmúltban készült tanulmány a társadalmi elfogultság kilenc kategóriáját kívánta felhasználni, amelyek általában az EEOC (Equal Employment Opportunities Commission) védett demográfiai jellemzőinek listáján alapultak, beleértve az életkort, nemet, nemzetiséget, fizikai megjelenést, fajt vagy etnikai hovatartozást, vallást, fogyatékossági státuszt, szexuális jelleget. orientációja és társadalmi-gazdasági státusza. A kutatók szerint: „Jól dokumentált, hogy az NLP-modellek megtanulják a társadalmi torzításokat, de kevés munka történt azzal kapcsolatban, hogy ezek a torzítások miként jelennek meg a modell kimeneteiben az alkalmazott feladatokhoz, például a kérdésmegválaszoláshoz (QA). Bemutatjuk a Bias Benchmark for QA (BBQ), a szerzők által összeállított kérdéssorok adatkészletét, amely a védett osztályokhoz tartozó emberekkel szembeni bizonyított társadalmi elfogultságokat emeli ki kilenc, az Egyesült Államok angol nyelvű kontextusában releváns társadalmi dimenzió mentén” (a „BBQ” című cikkben : A Hand-Built Benchmark for Question Answering” szerzők: Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

A szándékosan elfogult és teljesen mérgező adatokat tartalmazó adatkészletek felállítása a mesterséges intelligencia növekvő tendenciája, és ezt különösen az AI Ethics megjelenése és az etikus mesterségesintelligencia létrehozására irányuló vágy ösztönzi. Ezek az adatkészletek a gépi tanulási (ML) és a mély tanulási (DL) modellek betanítására használhatók a torzítások észlelésére és a társadalmi toxicitással járó számítási minták kiderítésére. A toxicitásra kiképzett ML/DL viszont megfontoltan célozható más mesterséges intelligencia ellen, hogy megbizonyosodjon arról, hogy a megcélzott mesterséges intelligencia potenciálisan elfogult és mérgező-e.

Ezen túlmenően a rendelkezésre álló, toxicitásra kiképzett ML/DL-rendszerek felhasználhatók arra, hogy bemutassák az AI-készítőknek, mire kell figyelniük, így könnyen ellenőrizhetik a modelleket, hogy lássák, hogyan keletkeznek az algoritmikusan átitatott torzítások. Összességében ezek az erőfeszítések jól példázzák a mérgező mesterséges intelligencia veszélyeit a mesterséges intelligencia etikájának és az Ethical AI tudatosságnak a részeként.

Ennek a súlyos vitának a pillanatában lefogadom, hogy további szemléltető példákra vágyik, amelyek bemutathatják ezt a témát. Van egy különleges és biztosan népszerű példasor, amely közel áll a szívemhez. Látod, a mesterséges intelligencia szakértőjeként, beleértve az etikai és jogi következményeket is, gyakran kérnek fel olyan reális példák azonosítására, amelyek bemutatják a mesterséges intelligencia etikai dilemmáit, hogy könnyebben megragadható legyen a téma némileg elméleti jellege. Az egyik legemlékezetesebb terület, amely élénken mutatja be ezt az etikus AI-problémát, az AI-alapú, valódi önvezető autók megjelenése. Ez praktikus használati esetként vagy példaként szolgál a témával kapcsolatos bőséges vitához.

Íme, egy figyelemre méltó kérdés, amelyen érdemes elgondolkodni: A mesterséges intelligencia-alapú valódi önvezető autók megjelenése felvilágosít-e valamit az adatkészletek hasznosságáról a mérgező mesterséges intelligencia kidolgozására, és ha igen, mit mutat ez be?

Engedjen meg egy pillanatra, hogy kibontsa a kérdést.

Először is vegye figyelembe, hogy egy igazi önvezető autóban nincs emberi vezető. Ne feledje, hogy az igazi önvezető autókat mesterséges intelligencia vezetési rendszer vezeti. Nincs szükség emberi sofőrre a volánnál, és arra sem, hogy ember vezesse a járművet. Az autonóm járművekről (AV-k) és különösen az önvezető autókról szóló kiterjedt és folyamatos tájékoztatásért lásd az itt található link.

Szeretném még jobban tisztázni, mit kell érteni, amikor valódi önvezető autókra utalok.

Az önvezető autók szintjének megértése

Tisztázva, az igazi önvezető autók azok, ahol az AI teljesen önállóan vezeti az autót, és nincs emberi segítség a vezetési feladat során.

Ezek a vezető nélküli járművek 4-es és 5-ös szintnek minősülnek (lásd a magyarázatomat a következő helyen). ez a link itt), míg az olyan autókat, amelyekhez emberi vezető szükséges a vezetési erőfeszítések közös megosztására, általában 2. vagy 3. szinten tekintik. A vezetési feladatot közösen megosztó autók leírása félig autonóm, és általában különféle automatizált bővítmények, amelyeket ADAS-nak (Advanced Driver-Assistance Systems) neveznek.

Még nincs igazi önvezető autó az 5-ös szinten, és még azt sem tudjuk, hogy ez elérhető lesz-e, és azt sem, hogy mennyi időbe telik eljutni odáig.

Eközben a 4. szintű erőfeszítések fokozatosan próbálnak némi vonóerőt szerezni nagyon szűk és szelektív közúti próbák révén, bár vita folyik arról, hogy ezt a tesztelést önmagában engedélyezni kell-e (mindannyian életre-halálra menő tengerimalacok vagyunk egy kísérletben autópályáinkon és mellékutainkon zajlanak, egyesek azt állítják, lásd tudósításomat itt ez a link itt).

Mivel a félig autonóm autókhoz emberi sofőrre van szükség, az ilyen típusú autók elfogadása nem különbözik nyilvánvalóan a hagyományos járművek vezetésénél, tehát önmagában nincs sok új, hogy ezekkel a témákkal foglalkozzanak (bár, amint látni fogja) egy pillanat alatt a következő pontok általában alkalmazandók).

A félig autonóm autók esetében fontos, hogy a nyilvánosságot figyelmeztessék az utóbbi időben felmerülő zavaró tényezőkre, nevezetesen arra, hogy azoknak az emberi járművezetőknek ellenére, akik folyamatosan videókat tesznek közzé, hogy maguk alszanak a 2. vagy 3. szintű autó kormányához , mindannyian el kell kerülnünk, hogy félrevezetjük azt a hitet, hogy a sofőr félig autonóm autó vezetése közben elvonhatja figyelmét a vezetési feladatról.

Te vagy a felelős a jármű vezetési tevékenységeiért, függetlenül attól, hogy mekkora mennyiségű automatizálást lehet 2. vagy 3. szintre dobni.

Önvezető autók és kormányzás a mérgező AI-tól

A 4. és 5. szintű valódi önjáró járműveknél nem vezethet embervezető a vezetési feladatba.

Minden utas utas lesz.

Az AI vezet.

Azonnal megvitatandó szempont azzal a ténnyel jár, hogy a mai mesterséges intelligencia-vezetési rendszerekben részt vevő mesterséges intelligencia nem érző. Más szavakkal, az AI összességében számítógépes programozás és algoritmusok összessége, és bizonyosan nem képes ugyanúgy érvelni, mint az emberek.

Miért van ez a hangsúly arra, hogy az AI nem érzékeny?

Mivel szeretném aláhúzni, hogy az AI hajtórendszer szerepének tárgyalásakor nem tulajdonítok emberi tulajdonságokat az AI-nek. Felhívjuk figyelmét, hogy manapság folyamatos és veszélyes tendencia van az AI antropomorfizálására. Lényegében az emberek emberi szerű érzékenységet tulajdonítanak a mai mesterséges intelligenciának, annak ellenére, hogy tagadhatatlan és vitathatatlan tény, hogy ilyen AI még nem létezik.

Ezzel a pontosítással elképzelheti, hogy az AI vezetési rendszer valahogy nem fogja „tudni” a vezetés szempontjait. A vezetést és mindazt, amit ez magában foglal, be kell programozni az önvezető autó hardverének és szoftverének részeként.

Merüljünk el abban a számtalan szempontban, amelyek eljátszanak ebben a témában.

Először is fontos felismerni, hogy nem minden AI önvezető autó egyforma. Minden autógyártó és önvezető technológiai cég alkalmazza a hozzáállását az önvezető autók kidolgozásához. Emiatt nehéz átfogó kijelentéseket tenni arról, hogy az AI-meghajtórendszerek mit fognak tenni vagy nem.

Továbbá, ha azt állítják, hogy az AI meghajtó rendszer nem végez bizonyos dolgokat, ezt később a fejlesztők megelőzhetik, akik valójában erre programozzák a számítógépet. Lépésről lépésre az AI meghajtó rendszereket fokozatosan fejlesztik és bővítik. A meglévő korlátozás ma már nem létezik a rendszer későbbi iterációjában vagy verziójában.

Remélem, ez elegendő kitételt biztosít ahhoz, hogy alátámassza azt, amit mondani készülök.

Számos lehetséges, és egykor valószínűleg megvalósuló, mesterséges intelligencia okozta torzítás létezik, amelyek szembeszállnak az önvezető járművek és az önvezető autók megjelenésével, lásd például a vitámat itt: az itt található link és a az itt található link. Még mindig az önvezető autók bevezetésének kezdeti szakaszában járunk. Amíg az elfogadás el nem éri a kellő mértéket és láthatóságot, addig a mérgező mesterséges intelligencia jellemzői, amelyekről azt jósoltam, hogy végül bekövetkezni fognak, még nem nyilvánvalóak, és még nem váltottak ki széles körű közfigyelmet.

Vegyünk egy látszólag egyszerű, a vezetéssel kapcsolatos ügyet, amely elsőre teljesen ártalmatlannak tűnhet. Konkrétan vizsgáljuk meg, hogyan határozható meg helyesen, hogy meg kell-e állni a várakozó, „eltérő” gyalogosok számára, akiknek nincs elsőbbsége az utcán átkelni.

Ön kétségtelenül vezetett, és olyan gyalogosokkal találkozott, akik arra vártak, hogy átkeljenek az utcán, de nem volt elsőbbségük ehhez. Ez azt jelentette, hogy szabadon dönthetett arról, hogy megálljon-e, és átengedje-e őket. Továbbléphet anélkül, hogy átengedné őket, és továbbra is betarthatja a törvényes vezetési szabályokat.

Az arra vonatkozó tanulmányok, hogy az emberi sofőrök hogyan döntenek arról, hogy megállnak-e vagy nem állnak meg az ilyen gyalogosok esetében, azt sugallják, hogy néha az emberi járművezetők nem kívánatos elfogultságok alapján választanak. Előfordulhat, hogy egy emberi sofőr a gyalogosra figyel, és úgy dönt, hogy nem áll meg, még akkor is, ha megállt volna, ha a gyalogos külső megjelenése más, például faj vagy nem alapján. Megvizsgáltam ezt a az itt található link.

Hogyan lesznek programozva a mesterséges intelligencia vezetési rendszerei, hogy meghozzák ugyanezt a megállj vagy menj döntést?

Kijelentheti, hogy minden mesterséges intelligencia-vezető rendszert úgy kell programozni, hogy mindig megálljon a várakozó gyalogosok számára. Ez nagyban leegyszerűsíti a dolgot. Valójában nem kell okos döntést hozni. Ha egy gyalogos az átkelésre vár, függetlenül attól, hogy rendelkezik-e elsőbbséggel vagy sem, gondoskodjon arról, hogy az AI önvezető autó megálljon, hogy a gyalogos átkelhessen.

Easy-peasy.

Az élet sosem olyan könnyű, úgy tűnik. Képzelje el, hogy minden önvezető autó betartja ezt a szabályt. A gyalogosok elkerülhetetlenül rájönnének, hogy a mesterséges intelligencia vezetési rendszerei, mondjuk úgy, lökések. Bármely gyalogos, aki át akar kelni az utcán, akarva-akaratlanul megteszi, amikor csak akar, és bárhol is van.

Tegyük fel, hogy egy önvezető autó jön le egy gyors utcán a kiírt 45 mérföld per órás sebességkorlátozással. A gyalogos „tudja”, hogy az AI leállítja az önvezető autót. Szóval, a gyalogos kinyílik az utcára. Sajnos a fizika győz az MI-vel szemben. Az AI vezetési rendszer megpróbálja megállítani az önvezető autót, de az autonóm jármű lendülete előreviszi a több tonnás szerkezetet, és beleütközik az útnak induló gyalogosba. Az eredmény vagy sérülést okoz, vagy halálos kimenetelű.

A gyalogosok általában nem próbálják ki ezt a fajta viselkedést, ha emberi vezető ül a volánnál. Persze bizonyos helyeken szemgolyóháború zajlik. Egy gyalogos egy sofőrt néz. A sofőr a gyalogost nézi. A körülményektől függően előfordulhat, hogy a sofőr megáll, vagy érvényesítheti igényét az úttestre, és látszólag merészeli a gyalogost, hogy megpróbálja megzavarni az útját.

Valószínűleg nem akarjuk, hogy a mesterséges intelligencia belemenjen egy hasonló szemgolyó háborúba, ami egyébként egy kicsit nagy kihívást is jelent, mivel az önvezető autó volánjánál nem ül ember vagy robot (a robotok jövőbeli lehetőségéről már beszéltem az a hajtás, lásd az itt található link). De azt sem engedhetjük meg, hogy a gyalogosok mindig lőtt. Az eredmény katasztrofális lehet minden érintett számára.

Ekkor kísértést érezhet, hogy átfordítsa az érem másik oldalát, és kijelentse, hogy a mesterséges intelligencia vezetési rendszerének soha nem szabad megállnia ilyen körülmények között. Más szóval, ha egy gyalogosnak nincs megfelelő elsőbbsége az utcán való átkeléshez, az AI-nak mindig azt kell feltételeznie, hogy az önvezető autónak töretlenül haladnia kell. Sok szerencsét a gyalogosoknak.

Egy ilyen szigorú és leegyszerűsített szabályt a nagyközönség nem fog jól elfogadni. Az emberek emberek, és nem szeretik, ha teljesen ki vannak zárva az utcán való átkeléshez, annak ellenére, hogy ehhez különböző körülmények között törvényileg nincs joguk. Könnyen számítani lehetett arra, hogy a közvélemény nagy felzúdulása támad, és esetleg ellenreakció lép fel az önvezető autók folyamatos elterjedése ellen.

Átkozott, ha igen, és átkozott, ha nem.

Remélem, ez elvezetett ahhoz a megfontolt alternatívához, hogy az AI-t úgy kell programozni, hogy látszólagos döntéseket hozzon arról, hogyan kezelje ezt a vezetési problémát. Tarthatatlan az a szigorú szabály, hogy soha ne álljunk meg, és szintén tarthatatlan az a szigorú szabály, hogy mindig álljunk meg. Az AI-t valamilyen algoritmikus döntéshozatallal vagy ADM-mel kell kidolgozni az ügy kezelésére.

Megpróbálhat egy ML/DL megközelítéssel párosított adatkészletet használni.

Az AI fejlesztői így dönthetnek úgy, hogy beprogramozzák ezt a feladatot. Adatokat gyűjtenek a videokamerákról, amelyeket egy adott város körül helyeztek el, ahol az önvezető autót használni fogják. Az adatok azt mutatják meg, hogy az emberi járművezetők mikor döntenek úgy, hogy megállnak az elsőbbségi joggal nem rendelkező gyalogosok előtt. Mindezt egy adathalmazba gyűjtik. A Machine Learning és a Deep Learning használatával az adatok számítási modellezése történik. Az AI vezetési rendszer ezután ezt a modellt használja annak eldöntésére, hogy mikor álljon meg vagy ne.

Általában az az elképzelés, hogy bármiből is álljon a helyi szokás, az AI így irányítja az önvezető autót. Probléma megoldódott!

De tényleg megoldódott?

Emlékezzünk vissza, már utaltam arra, hogy vannak olyan kutatási tanulmányok, amelyek azt mutatják, hogy az emberi járművezetők elfogultak a gyalogosok megállásának megválasztásában. Az egy adott városról összegyűjtött adatok feltehetően tartalmazzák ezeket a torzításokat. Az ezeken az adatokon alapuló AI ML/DL ezután valószínűleg ugyanazokat a torzításokat modellezi és tükrözi. Az AI vezetési rendszer pusztán ugyanazokat a meglévő torzításokat hajtja végre.

A probléma megoldása érdekében összeállíthatunk egy adatkészletet, amely valójában rendelkezik ilyen torzításokkal. Vagy találunk egy ilyen adatkészletet, majd felcímkézzük a torzításokat, vagy szintetikusan hozunk létre egy adatkészletet, amely segíti az ügy illusztrálását.

Az összes korábban azonosított lépést meg kell tenni, beleértve:

  • Állítson be egy adatkészletet, amely szándékosan tartalmazza ezt a torzítást
  • Használja az adatkészletet a Machine Learning (ML) és a Deep Learning (DL) modellek betanításához a konkrét torzítás észlelésére
  • Alkalmazza a torzításra képzett ML/DL-t más mesterséges intelligencia felé, hogy megbizonyosodjon arról, hogy a megcélzott mesterséges intelligencia potenciálisan hasonló módon torzított-e
  • Tegye elérhetővé az elfogultságra képzett ML/DL-t, hogy bemutassa a mesterséges intelligencia-készítőknek, mire kell figyelniük, hogy könnyen áttekinthessék a modelleiket, hogy lássák, hogyan keletkeznek az algoritmikusan átitatott torzítások.
  • Mutassa be az elfogult mesterséges intelligencia veszélyeit a mesterséges intelligencia etika és az etikus AI tudatosság részeként ezen a hozzáadott konkrét példán keresztül
  • Más

Következtetés

Nézzük újra a nyitó sort.

Egyet kell tudni.

Egyesek úgy értelmezik, hogy ez a hihetetlenül elterjedt mondás azt sugallja, hogy amikor a mérgező mesterséges intelligencia kiszűréséről van szó, kellő hitelt kell adnunk a mérgező mesterséges intelligencia felépítésének és felhasználásának más mérgező mesterséges intelligencia felfedezésében és kezelésében. A lényeg: Néha egy tolvaj kell ahhoz, hogy elkapjon egy másik tolvajt.

Hangot adott az aggodalom, hogy talán mindent elkövetünk, hogy tolvajokat csináljunk. Olyan mesterséges intelligenciát akarunk kidolgozni, amely mérgező? Nem tűnik őrült ötletnek? Egyesek hevesen érvelnek amellett, hogy be kellene tiltanunk minden mérgező mesterséges intelligenciát, beleértve az olyan MI-t is, amelyet tudatosan építettek, még akkor is, ha állítólag hősies vagy gáláns célból készült. AI For Good célja.

Fojtsd el a mérgező mesterséges intelligenciát bármilyen okos vagy alattomos köntösben, amilyennek felmerülhet.

Egy utolsó csavar ebben a témában. Általában azt feltételezzük, hogy ez a híres vonal olyan emberekhez vagy dolgokhoz kapcsolódik, amelyek rossz vagy savanyú cselekedeteket követnek el. Így jutunk el a gondolathoz, hogy tolvaj kell ahhoz, hogy elkapjunk egy tolvajt. Talán a fejére kellene fordítanunk ezt a mondást, és inkább boldog, mint szomorú arcot csináljunk belőle.

Itt van, hogyan.

Ha elfogulatlan és nem mérgező mesterséges intelligenciát akarunk, elképzelhető, hogy valakinek ismernie kell egyet. Talán a legnagyobbra és a legjobbra van szükség ahhoz, hogy felismerjük és további nagyságot és jóságot szüljünk. A bölcs bölcsesség ezen változatában a boldog arcra szegezzük a tekintetünket, és arra törekszünk, hogy az ötletelésre koncentráljunk. AI For Good.

Ez egy derűsebb és kielégítőbben vidám nézőpont lenne, ha ismerni kell egyet, ha érted, mire gondolok.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- előnyös-beleértve-az önálló-önvezető-autók számára/