Az emberekkel szembeni alattomos mesterséges intelligencia-alapú proxy-diszkrimináció ijesztően bosszantja a mesterséges intelligencia etikáját, amely még az autonóm AI-önvezető autók esetében is előfordulhat

Beszéljük meg a proxy diszkriminációt a modern kori mesterséges intelligencia (AI) tevékenységei közepette.

Ahhoz, hogy rátérjünk a dolgok mesterséges intelligenciájára, először fel kell állítanunk a terepet a diszkrimináció általános vonatkozásairól, majd el kell mélyednünk azon, talán meglepő módon, ahogyan a mesterséges intelligencia beleakad ebbe a bonyolult és időnként alattomos ügybe. Példákat fogok hozni a mesterséges intelligencia alapú proxy-alapú megkülönböztetésre is, beleértve azt is, hogy ez még mesterséges infúzióval ellátott autonóm járművek, például önvezető autók esetében is előfordulhat.

Lássunk neki.

A diszkrimináció szótári meghatározása tipikusan azt jelzi, hogy igazságtalan természetű cselekmény, amely az észlelt kategóriák, például faj, nem, életkor stb. alapján eltérően bánik az emberekkel (az ilyen kritériumokat gyakran úgy írják le, hogy védett osztályokból állnak). A diszkrimináció egyik formája, az úgynevezett közvetlen a diszkrimináció maga után vonja a kategóriák egyikébe való nyílt beilleszkedést, például a faji vagy nemi hovatartozás viszonylag egyértelmű hangsúlyozását a diszkrimináció alapjaként (ezeket tekintjük első tényezőnek). Ez a diszkrimináció talán legátláthatóbb formája.

Egy másik, valamivel kevésbé megvalósított lehetőség az közvetett megkülönböztetés. Azt javasolhatja, hogy ez a diszkrimináció egy trükkösebb formája, mivel eltávolított lépésnek tekintik, és kihívást jelenthet a kivonása. A közvetett diszkrimináció egy vagy több lépésből álló kategorizálási szelekciót foglal magában. Ezt gyakran proxy-alapú megkülönböztetésnek is nevezik, mivel van egy közvetítő tényező, amely a mögöttes és összekapcsolható első tényező proxyjaként vagy kiállásaként szolgál.

A közvetett vagy meghatalmazott diszkrimináció látszólag elvont fogalmának tisztázása érdekében megfontolhatunk egy egyszerű példát.

Valaki lakáshitelt igényel. Tegyük fel, hogy a kérelmet áttekintő kölcsönügynök úgy dönt, hogy visszautasítja a kölcsönt, és ezt a kérelmező faji hovatartozása alapján teszi. Mondhatnánk, hogy ez a közvetlen diszkrimináció példája. De ehelyett tegyük fel, hogy a kölcsönügynök a kérelmező irányítószámát használta, és e tényező alapján úgy döntött, hogy elutasítja a kölcsönt. Első pillantásra úgy tűnik, hogy az irányítószám nem tartozik azon tényezők közé, amelyeket általában diszkriminatívnak vagy védett osztálynak tekintenek. Mint ilyen, úgy tűnik, hogy a kölcsönügynök elkerülte a diszkriminatív döntést.

A probléma azonban az lehet, hogy az irányítószám valójában valami más, egy tényleges védett kategória vagy osztály proxyja. Lehetséges, hogy ez az irányítószám túlnyomórészt egy adott rasszból vagy etnikai hovatartozásból áll, és közvetett vagy meghatalmazotti diszkriminációt alkalmaznak. Általában ezt a fajta példát a redlining hívószava alapján ismerheti.

Látod, ebben az esetben nyilvánvalóan valamiféle kapcsolat van az irányítószámból álló tényező és a faji megkülönböztető tényező között. Az irányítószám ebben a helyzetben ártatlan vagy semleges tényezőnek tűnik. Az irányítószám a legtöbbünk számára meglehetősen ártalmatlan tételnek tűnik, és nem üt meg vészharangot.

Emlékezhetsz arra az időre, amikor egy statisztikát tanultál, hogy vannak statisztikai összefüggések, amelyek különböző tényezők között adódhatnak, még olyan tényezők is, amelyekről nem tűnik fel, hogy logikailag korrelálnak egymással. Lehetséges, hogy kifejezett összefüggés van az irányítószám és a faj között. Így az irányítószám kiválasztása első pillantásra jóindulatúnak tűnik, de közelebbről megvizsgálva, ez valóban a megkülönböztetéstől védett faji osztály kiállása vagy helyettesítője.

Egy kutatási cikk a következőképpen írta le az ilyen összefüggések fogalmát és a proxy diszkrimináció kialakulását: „A diszkriminációnak nem kell magában foglalnia egy védett osztály közvetlen használatát; osztályos tagság nem is vehet részt a döntésben. A védett osztály és más tulajdonságok közötti összefüggések miatt is előfordulhat diszkrimináció. Az eltérő hatások jogi kerete úgy kezeli az ilyen eseteket, hogy először jelentősen eltérő eredményeket ír elő a védett osztály számára, függetlenül attól, hogy az eredmények hogyan jöttek létre. A kölcsönzési döntések és a faj közötti összefüggés a pályázói cím használatából eredően, amely maga is fajhoz köthető, jó példa az ilyen típusú diszkriminációra” (amint az a Proxy diszkrimináció adatvezérelt rendszerekben: elmélet és kísérletek gépi tanulási programokkal, készítette: Anupam Datta, Matt Fredrikson, Gihyuk Ko, Piotr Mardziel és Shayak Sen).

Most, hogy a proxy-alapú megkülönböztetés alapjait az asztalra állítottuk, bemutathatjuk azokat a szempontokat, amelyek alapján az AI lényegében beágyazhatja a proxy-alapú megkülönböztetés számítási úton előállított változatát.

A mai mesterséges intelligenciára szeretnék összpontosítani, nem pedig valami futurisztikus mesterséges intelligenciára, amelyről egyesek szerint érző lesz, és egzisztenciális kockázatot jelent (ez egy másik történet, amit itt tárgyaltam az itt található link). Annak ellenére, hogy számtalan harsány címsor hirdeti jelenleg, hogy a mesterséges intelligencia valahogy elérte az érzéket, és megtestesíti az emberi tudást és érvelést, kérjük, vegye figyelembe, hogy ez a túlzott mesterséges intelligencia-hiperbola tiszta szemétség, mivel a mai algoritmus-döntéshozatalban (ADM) még mindig a számozásra hagyatkozunk. ahogyan azt az AI-rendszerek vállalták.

Még a dicsért Machine Learning (ML) és a Deep Learning (DL) is számítási mintaillesztésből áll, ami azt jelenti, hogy a számok továbbra is az ML/DL magas szintű használatának középpontjában állnak. Nem tudjuk, hogy az AI elérheti-e az érzéket. Lehet, lehet, hogy nem. Senki sem tudja biztosan megmondani, hogyan fordulhat elő ez. Egyesek úgy vélik, hogy fokozatosan javítani fogjuk számítási mesterséges intelligencia-erõfeszítéseinket, hogy spontán módon megjelenjen az érzékszervek egy formája. Mások úgy gondolják, hogy a mesterséges intelligencia egyfajta számítási szupernóvába kerülhet, és nagyjából magától éri el az érzéket (ezt általában szingularitásnak nevezik). Ha többet szeretne megtudni ezekről az elméletekről az AI jövőjéről, tekintse meg tudósításomat a következő címen: az itt található link.

Tehát ne áltassuk magunkat, és ne higgyük hamisan, hogy a mai mesterséges intelligencia képes emberként gondolkodni. Megpróbálhatjuk utánozni az AI-ban azt, amiről úgy gondoljuk, hogy az emberi gondolkodás talán áll. Eddig nem tudtuk feltörni a mesterséges intelligencia kidolgozásának megfoghatatlan elemeit, amelyek beágyazhatják a józan észt és az emberi gondolkodás egyéb sarokköveit.

Talán tudatában van annak, hogy amikor a mesterséges intelligencia legújabb korszaka beindult, hatalmas lelkesedés támadt az iránt, amit egyesek ma úgy hívnak. AI For Good. Sajnos ennek a tomboló izgalomnak a nyomában kezdtünk tanúi lenni AI For Bad. Például a különféle mesterséges intelligencia-alapú arcfelismerő rendszerekről kiderült, hogy faji és nemi előítéleteket tartalmaznak, amelyeket itt tárgyaltam. az itt található link.

Erőfeszítések, amelyek ellen harcolni kell AI For Bad aktívan zajlanak. A hangoskodáson kívül jogi A jogsértések megfékezésére irányuló törekvések jelentős erőfeszítéseket tesznek a mesterséges intelligencia etikájának elfogadása felé, hogy helyrehozzák a mesterséges intelligencia aljasságát. Az elképzelés az, hogy el kell fogadnunk és támogatnunk kell a kulcsfontosságú etikai mesterségesintelligencia-elveket a mesterséges intelligencia fejlesztése és terjesztése érdekében, ezzel aláásva AI For Bad és egyidejűleg hirdeti és hirdeti a jobbat AI For Good.

A mesterséges intelligencia etikájával és az etikai AI-val kapcsolatos kiterjedt ismertetésem a következő címen található: ez a link itt és a ez a link itt, csak hogy néhányat említsek.

Lehet, hogy megzavarodik, hogy a mesterséges intelligencia hogyan képes átitatni ugyanazokat a kedvezőtlen torzításokat és egyenlőtlenségeket, mint az emberek. Hajlamosak vagyunk azt gondolni, hogy a mesterséges intelligencia teljesen semleges, elfogulatlan, egyszerűen egy gép, amely nem rendelkezik azzal az érzelmi megingással és rosszindulatú gondolkodással, mint az emberekben. A mesterséges intelligencia egyik leggyakoribb módja a torzítások és egyenlőtlenségek zordságának a Machine Learning és a Deep Learning használata során, részben annak eredményeként, hogy az emberek döntéshozatali módjáról összegyűjtött adatokra támaszkodunk.

Hagyjon egy percet a részletezésre.

Az ML/DL a számítási mintaillesztés egyik formája. A szokásos megközelítés az, hogy egy döntési feladatról adatokat gyűjt össze. Az adatokat betáplálja az ML/DL számítógépmodellekbe. Ezek a modellek matematikai mintákat keresnek. Miután megtalálta az ilyen mintákat, ha igen, az AI rendszer ezeket a mintákat fogja használni, amikor új adatokkal találkozik. Az új adatok bemutatásakor a „régi” vagy történelmi adatokon alapuló mintákat alkalmazzák az aktuális döntés meghozatalához.

Azt hiszem, sejtheti, hová vezet ez. Ha az emberek, akik a mintaszerű döntéseket hozták, nemkívánatos elfogultságokat alkalmaztak, akkor valószínű, hogy az adatok ezt finom, de jelentős mértékben tükrözik. A Machine Learning vagy a Deep Learning számítási mintaillesztés egyszerűen megpróbálja matematikailag utánozni az adatokat ennek megfelelően. A mesterséges intelligencia által kialakított modellezésben önmagában semmi sem látszik a józan észnek vagy más érző szempontoknak.

Ezenkívül az AI-fejlesztők sem tudják, mi történik. Az ML/DL rejtélyes matematikája megnehezítheti a most rejtett torzítások kiszűrését. Joggal remélhető és elvárható, hogy a mesterséges intelligencia fejlesztői teszteljék a potenciálisan eltemetett torzításokat, bár ez bonyolultabb, mint amilyennek látszik. Jó esély van arra, hogy még viszonylag kiterjedt tesztelés mellett is lesznek torzítások az ML/DL mintaillesztési modelljeibe.

Használhatná némileg a híres vagy hírhedt közmondást, a szemetet a szemét kiszállításáról. A helyzet az, hogy ez inkább a torzításokhoz hasonlít, amelyek alattomos módon beszivárognak az AI-ba merülő torzítások miatt. Az AI algoritmus-döntéshozatala vagy ADM axiomatikusan egyenlőtlenségekkel terhelt.

Nem jó.

Olyan mesterséges intelligencia-rendszereket dolgoznak ki, amelyek mind közvetlen diszkriminációt, mind pedig lopakodó közvetett vagy proxy diszkriminációt tartalmaznak. Ahogy a fent hivatkozott kutatási cikk is említette: „A gépi tanulási rendszereket azonban a valós világ megfigyelési adatai alapján építik fel, annak számos történelmi vagy intézményesített torzításával. Ennek eredményeként az adatokban rejlő torzításokat és diszkriminatív gyakorlatokat öröklik. Az ilyen rendszerek elfogadása tisztességtelen eredményekhez és az elfogultságok fennmaradásához vezet. Példák bőven vannak: a rasszhoz kapcsolódik a visszaesés előrejelzése; nem befolyásolja a megjelenített munkával kapcsolatos hirdetéseket; a megjelenített keresési hirdetéseket érintő verseny; A bostoni Street Bump alkalmazás a kátyúk javítására összpontosít a jómódú városrészekre; Az Amazon aznapi kiszállítása nem elérhető a fekete negyedekben; a Facebook pedig „fehér” vagy „fekete” filmelőzeteseket mutat az „etnikai hovatartozás” alapján. A diszkrimináció különféle eseteit törvény tiltja.”

Ha olyan mesterséges intelligencia lenne, amely kizárólag a beágyazásnak lenne alávetve közvetlen A diszkriminációs gondok miatt nagy az esély arra, hogy nagyobb eséllyel harcoljunk ki az ilyen számítástechnikai betegségek ellen. Sajnos a világ nem ilyen egyszerű. A mai mesterséges intelligencia valószínűleg ugyanilyen valószínűséggel, ha nem nagyobb valószínűséggel hatja át a proxyt vagy a közvetett diszkriminációt. Ez egy szomorú arc forgatókönyv. A proxy-diszkriminációt alátámasztó mélyebb számítási mocsok kemény dió lehet.

Amint azt a Szövetségi Kereskedelmi Bizottság (FTC) biztosa kijelentette: „Amikor az algoritmikus rendszerek proxy-diszkriminációt alkalmaznak, egy vagy több arcsemleges változót használnak, hogy kiálljanak egy jogilag védett tulajdonság mellett, ami gyakran eltérő bánásmódot vagy eltérő hatást eredményez. védett osztályok bizonyos gazdasági, társadalmi és állampolgári lehetőségekért. Más szavakkal, ezek az algoritmusok látszólag semleges jellemzőket azonosítanak, hogy olyan csoportokat hozzanak létre, amelyek szorosan tükrözik a védett osztályt, és ezeket a „proxykokat” a felvételre vagy kizárásra használják” (ahogyan az „Algoritmusok és gazdasági igazságosság: A károk taxonómiája és a Path Forward for the Federal Trade Commission” című kiadványban megjelent Yale Journal of Law & Technology, Rebecca Kelly Slaughter biztos, 2021. augusztus).

Az egyik szempont, amelyet szem előtt kell tartani, az az, hogy a mesterséges intelligencia nincs egyedül a proxy diszkrimináció gyakorlásában. A meghatalmazotti diszkrimináció sem újkeletű kitaláció. A proxy diszkrimináció hosszú ideje volt, minden bizonnyal jóval az AI megjelenése előtt. Az FTC biztosa megismételte ugyanezt a fontos felismerést: „A meghatalmazotti diszkrimináció nem új probléma – a diszkriminatív eredményeket generáló arcsemleges tényezők olyan dolog, amellyel a társadalom és a polgárjogi törvények évtizedek óta küzdenek” (ismét a Yale Journal of Law & Technology).

Az AI-fejlesztők szándékosan úgy alakítják ki mesterséges intelligencia rendszereiket, hogy megakadályozzák a proxyalapú megkülönböztetést?

Nos, a mesterséges intelligencia erőfeszítéseit feloszthatja azokra, amelyek véletlenül a proxy diszkriminációra támaszkodnak, és azokra, amelyek szándékosan ezt teszik. Feltételezem, hogy a legtöbb mesterségesintelligencia-készítő véletlen vagy véletlen cselekedetei miatt a proxy-alapú diszkrimináció számítási mocsarába esik. Ez azonban nem mentség arra, amit csinálnak. Még mindig felelősek az általuk kitalált mesterséges intelligenciaért, és nem tudják egyszerűen csak integetni a kezüket, és kijelenteni, hogy nem tudták, mi történik. Az ő vállukon van annak biztosítása, hogy a mesterséges intelligencia ne alkalmazzon ilyen megkülönböztetést. Eközben azokat, akik ravaszul és szándékosan építik fel mesterséges intelligenciájukat proxy diszkriminációval, a feladatra kell vonni, és ennek megfelelően felelősségre kell vonni őket.

Szeretnék hozzátenni egy csavart, amitől valószínűleg felfordul a fejed.

Egyesek azt állítják, hogy minél jobban kidolgozzuk az MI-t, annál valószínűbb, hogy több olyan AI-esetnek leszünk tanúi, amely a proxy diszkriminációt áthatja. Talán értetlenül állsz, miért van ez így. A remény és az álom az lenne, hogy a mesterséges intelligencia fejlődése csökkentené annak a számítási rémálomnak az esélyét, amely a proxy diszkrimináció helytelen vizeire való leszállásból ered.

Egy érdekes szöget azonosít ez a tanulmány, amelyet a Iowa Law Review: „Ehelyett az AI-k tanítási adatokat használnak fel arra, hogy maguk fedezzék fel, milyen jellemzők használhatók a célváltozó előrejelzésére. Bár ez a folyamat teljesen figyelmen kívül hagyja az ok-okozati összefüggést, azt eredményezi, hogy a mesterséges intelligencia elkerülhetetlenül „megkeresi” a közvetlenül prediktív jellemzőket, ha az ezekre a jellemzőkre vonatkozó adatokat jogi tilalmak miatt nem teszik elérhetővé az MI számára. Ha egyszerűen megtagadjuk a mesterséges intelligencia hozzáférését a közvetlenül prediktív változók legintuitívabb proxykéhez, az nem akadályozza meg ezt a folyamatot; ehelyett egyszerűen arra készteti az AI-kat, hogy olyan modelleket hozzanak létre, amelyek kevésbé intuitív proxykra támaszkodnak. Így ennek a cikknek a központi érve az, hogy ahogy a mesterséges intelligencia még intelligensebbé válik, és a big data egyre nagyobb lesz, a meghatalmazotti diszkrimináció egyre alapvetőbb kihívást jelent a diszkriminációellenes rendszerek számára, amelyek meg akarják tiltani a közvetlenül előrejelző tulajdonságokon alapuló megkülönböztetést” (amint a cikkben is említettük jogosult Meghatalmazotti diszkrimináció a mesterséges intelligencia és a nagy adatforgalom korábanAnya Prince és Daniel Schwarcz).

Próbáljuk meg felvázolni ennek a dermesztő jóslatnak a logikáját.

Tegyük fel, hogy a mesterséges intelligencia fejlesztői menthetetlenül tudatában vannak annak, hogy el kell kerülniük, hogy gépi tanulási és mély tanulási modelljeik a proxy diszkrimináció felé törekedjenek (remélem, hogy már a közvetlen diszkriminációra törekednek). Rendben, szóval a mesterséges intelligencia-készítők mindent megtesznek, hogy elkerüljék a védett tényezők számítási rászorulását. De tegyük fel, hogy ez némileg nyilvánvaló alapon történik, például korlátozza az egy-két lépéses proxytípusokat.

A számítási modellek mélyebben belemennek az adatokba, és megtalálják a proxy-alapú megkülönböztetés három vagy esetleg tíz lépésből álló eltávolított kapcsolatát. A mesterséges intelligencia fejlesztői látszólag boldogok, hogy a két lépésről be lehet mutatni, hogy nem része az ML/DL rendszerüknek. Eközben talán nem veszik észre, hogy matematikailag felfedezték a sunyiság három- vagy tízlépcsős vagy más szintjeit. Ne feledje, hogy a mesterséges intelligencia nem érző, és nem tudatosan próbálja ezt megtenni. Még mindig olyan mesterséges intelligenciára gondolunk, amely nem érző, és számok és számítások alapján működik.

Aha, az a nyugtalanító tény, hogy a mesterséges intelligencia „fejlődik”, és mégis úgy tűnik, hogy egy borúsabb állapotba kerülünk, meglehetősen elkeserítő és talán dühítő. Míg egyrészt örülhetünk annak, hogy a meghatalmazotti diszkrimináció elkerülésének tudatosítása egyre nagyobb figyelmet kap, a probléma nem fog egyszerűen elmúlni. A mesterséges intelligencia alapú proxy-alapú megkülönböztetés elkerülésére tett erőfeszítések egyre mélyebbre lökhetik a megkülönböztető számítási felfedezéseket attól, hogy az emberek felfedjék vagy kitalálják.

Erről eszembe jutnak a régi rajzfilmek, amikor az ember futóhomokba került. Minél többet csapkodnak, annál rosszabbak lesznek a dolgok. Bizonyos értelemben az ember a saját halálát okozza azzal, hogy hevesen küzd a futóhomok ellen. Ez minden bizonnyal ironikus, mivel általában azt várnád, hogy valami ellen való küzdelem a szökéshez vagy szabaduláshoz vezet.

Nem feltétlenül.

A szakértők azt fogják mondani, hogy ha valaha futóhomokba kerül, az ésszerű megoldás az, hogy megpróbálja lazítani a kiutat a szörnyű helyzetből. Meg kell próbálnia lebegni a futóhomok tetején, lehetőleg hátradőlve, és a lábát a fejével egy szintre állítva. A vad verés nem kívánatos, és kétségtelenül csökkenti a szökési esélyeit. A jobb esély az, hogy igyekszik lebegni vagy enyhén kiúszni, vagy legalább olyan pozíciót elérni a futóhomokban, ahol elérhet egy ágat vagy valami mást, hogy aztán kihúzza magát.

Használhatunk-e ilyen tanácsokat a proxy-alapú diszkrimináció mesterséges intelligenciája elleni küzdelemben?

Olyasmi.

Először is, annak ismerete, hogy előfordulhat proxyalapú megkülönböztetés, kulcsfontosságú elem azok számára, akik mesterséges intelligencia-rendszereket terveznek és alkalmaznak. Ezen minden érdekelt félnek el kell gondolkodnia. A mesterséges intelligencia-projekteket felügyelő vezetésnek ezen felül kell állnia, mivel nemcsak az „AI-kódolók” részei a szorult helyzetnek. Valószínűleg azt is látni fogjuk, hogy a szabályozók is mérlegelnek, például új törvényeket hoznak a diszkriminatív gyakorlatokat beágyazó mesterséges intelligencia korlátozása vagy legalábbis elfogása érdekében. Stb.

Mint a Iowa Law Review Tanulmányunk során arra törekedhetnénk, hogy olyan mesterséges intelligencia-törvények és -rendeletek legyenek, amelyek kötelesek bemutatni az ML/DL-hez felhasznált adatokat: „Például az érintett diszkriminációellenes rendszerek lehetővé tehetik, sőt talán meg is követelik, hogy a prediktív AI-t használó cégek adatokat gyűjtsenek az egyének potenciális tagsága jogilag védett osztályokhoz. Egyes esetekben ezeket az adatokat meg kell osztani a szabályozó hatóságokkal és/vagy összefoglaló formában nyilvánosságra kell hozni. Ezekre az adatokra szükség van a cégeknek, a szabályozóknak, a peres feleknek és másoknak annak teszteléséhez, hogy egy adott mesterséges intelligencia ténylegesen részt vesz-e meghatalmazotti diszkriminációban” (Anya Prince és Daniel Schwarcz cikke szerint).

További lehetőségek közé tartozik a változatosabb adatok és az adatforrások szélesebb készletének használata a Machine Learning és a Deep Learning modell kidolgozásakor. A másik az, hogy a mesterséges intelligencia fejlesztőinek be kell mutatniuk, hogy mesterséges intelligencia rendszerük nem alkalmaz proxy megkülönböztetést. Ennek matematikai bemutatása vagy bizonyítása a proxy diszkrimináció hiánya vagy hiánya enyhén szólva is jelentős kihívást jelent majd.

Ezzel kapcsolatosan én annak híve vagyok, hogy a mesterséges intelligenciát a mesterséges intelligencia problémáinak megoldásának részeként próbálják meg felhasználni, és a tüzet tűzzel harcolni ilyen gondolkodásmód szerint. Például beágyazhatunk Ethical AI összetevőket egy mesterséges intelligencia rendszerbe, amely figyeli, hogy a többi AI hogyan csinálja a dolgokat, és így potenciálisan valós időben megragadja a diszkriminatív erőfeszítéseket. az itt található link. Lehetne egy külön mesterséges intelligencia-rendszer is, amely egyfajta AI-etikai monitorként működik. A mesterséges intelligencia rendszer felügyelőként szolgál annak nyomon követésére és észlelésére, ha egy másik mesterséges intelligencia a proxy diszkrimináció szakadékába kerül (lásd az ilyen képességekről szóló elemzésemet itt: az itt található link).

A vita ezen a pontján lefogadom, hogy szeretne néhány további példát, amelyek bemutathatják az AI-alapú proxy-alapú diszkrimináció rejtélyét.

Örülök, hogy megkérdezted.

Van egy különleges és biztosan népszerű példasor, amely közel áll a szívemhez. Látod, a mesterséges intelligencia szakértőjeként, beleértve az etikai és jogi következményeket is, gyakran kérnek fel olyan reális példák azonosítására, amelyek bemutatják a mesterséges intelligencia etikai dilemmáit, hogy könnyebben megragadható legyen a téma némileg elméleti jellege. Az egyik legemlékezetesebb terület, amely élénken mutatja be ezt az etikus AI-problémát, az AI-alapú, valódi önvezető autók megjelenése. Ez praktikus használati esetként vagy példaként szolgál a témával kapcsolatos bőséges vitához.

Íme, egy figyelemre méltó kérdés, amelyen érdemes elgondolkodni: A mesterséges intelligencia alapú, valódi önvezető autók megjelenése felvilágosít valamit az AI-alapú proxy diszkriminációról, és ha igen, mit mutat ez be?

Engedjen meg egy pillanatra, hogy kibontsa a kérdést.

Először is vegye figyelembe, hogy egy igazi önvezető autóban nincs emberi vezető. Ne feledje, hogy az igazi önvezető autókat mesterséges intelligencia vezetési rendszer vezeti. Nincs szükség emberi sofőrre a volánnál, és arra sem, hogy ember vezesse a járművet. Az autonóm járművekről (AV-k) és különösen az önvezető autókról szóló kiterjedt és folyamatos tájékoztatásért lásd az itt található link.

Szeretném még jobban tisztázni, mit kell érteni, amikor valódi önvezető autókra utalok.

Az önvezető autók szintjének megértése

Tisztázásképpen: az igazi önvezető autók azok, amelyekben az AI teljes egészében egyedül hajtja az autót, és a vezetési feladat során nincs emberi segítség.

Ezek a vezető nélküli járművek 4-es és 5-ös szintnek minősülnek (lásd a magyarázatomat a következő helyen). ez a link itt), míg az olyan autókat, amelyekhez emberi vezető szükséges a vezetési erőfeszítések közös megosztására, általában 2. vagy 3. szinten tekintik. A vezetési feladatot közösen megosztó autók leírása félig autonóm, és általában különféle automatizált bővítmények, amelyeket ADAS-nak (Advanced Driver-Assistance Systems) neveznek.

Még nem létezik egy valódi önvezető autó az 5. szinten, amelyet még csak nem is tudunk, hogy ezt el lehet-e érni, és hogy mennyi ideig tart is eljutni oda.

Eközben a 4. szintű erőfeszítések fokozatosan próbálnak némi vonóerőt szerezni nagyon szűk és szelektív közúti próbák révén, bár vita folyik arról, hogy ezt a tesztelést önmagában engedélyezni kell-e (mindannyian életre-halálra menő tengerimalacok vagyunk egy kísérletben autópályáinkon és mellékutainkon zajlanak, egyesek azt állítják, lásd tudósításomat itt ez a link itt).

Mivel a félig autonóm autókhoz emberi sofőrre van szükség, az ilyen típusú autók elfogadása nem különbözik nyilvánvalóan a hagyományos járművek vezetésénél, tehát önmagában nincs sok új, hogy ezekkel a témákkal foglalkozzanak (bár, amint látni fogja) egy pillanat alatt a következő pontok általában alkalmazandók).

A félig autonóm autók esetében fontos, hogy a nyilvánosságot figyelmeztessék az utóbbi időben felmerülő zavaró tényezőkre, nevezetesen arra, hogy azoknak az emberi járművezetőknek ellenére, akik folyamatosan videókat tesznek közzé, hogy maguk alszanak a 2. vagy 3. szintű autó kormányához , mindannyian el kell kerülnünk, hogy félrevezetjük azt a hitet, hogy a sofőr félig autonóm autó vezetése közben elvonhatja figyelmét a vezetési feladatról.

Te vagy a felelős a jármű vezetési tevékenységeiért, függetlenül attól, hogy mekkora mennyiségű automatizálást lehet 2. vagy 3. szintre dobni.

Önvezető autók és mesterséges intelligencia alapú proxy diszkrimináció

A 4. és 5. szintű valódi önjáró járműveknél nem vezethet embervezető a vezetési feladatba.

Minden utas utas lesz.

Az AI vezet.

Azonnal megvitatandó szempont azzal a ténnyel jár, hogy a mai mesterséges intelligencia-vezetési rendszerekben részt vevő mesterséges intelligencia nem érző. Más szavakkal, az AI összességében számítógépes programozás és algoritmusok összessége, és bizonyosan nem képes ugyanúgy érvelni, mint az emberek.

Miért van ez a hangsúly arra, hogy az AI nem érzékeny?

Mivel szeretném aláhúzni, hogy az AI hajtórendszer szerepének tárgyalásakor nem tulajdonítok emberi tulajdonságokat az AI-nek. Felhívjuk figyelmét, hogy manapság folyamatos és veszélyes tendencia van az AI antropomorfizálására. Lényegében az emberek emberi szerű érzékenységet tulajdonítanak a mai mesterséges intelligenciának, annak ellenére, hogy tagadhatatlan és vitathatatlan tény, hogy ilyen AI még nem létezik.

Ezzel a pontosítással elképzelheti, hogy az AI vezetési rendszer valahogy nem fogja „tudni” a vezetés szempontjait. A vezetést és mindazt, amit ez magában foglal, be kell programozni az önvezető autó hardverének és szoftverének részeként.

Merüljünk el abban a számtalan szempontban, amelyek eljátszanak ebben a témában.

Először is fontos felismerni, hogy nem minden AI önvezető autó egyforma. Minden autógyártó és önvezető technológiai cég alkalmazza a hozzáállását az önvezető autók kidolgozásához. Emiatt nehéz átfogó kijelentéseket tenni arról, hogy az AI-meghajtórendszerek mit fognak tenni vagy nem.

Továbbá, ha azt állítják, hogy az AI meghajtó rendszer nem végez bizonyos dolgokat, ezt később a fejlesztők megelőzhetik, akik valójában erre programozzák a számítógépet. Lépésről lépésre az AI meghajtó rendszereket fokozatosan fejlesztik és bővítik. A meglévő korlátozás ma már nem létezik a rendszer későbbi iterációjában vagy verziójában.

Bízom benne, hogy ez elegendő litániai figyelmeztetést ad ahhoz, hogy alátámasszam azt, amit most el fogok mondani.

Most készen állunk arra, hogy mélyen elmerüljünk az önvezető autók és az Ethical AI lehetőségek terén, amelyek magukban foglalják a mesterséges intelligencia alapú proxy diszkrimináció feltárását.

Képzelje el, hogy egy mesterséges intelligencia-alapú önvezető autó halad a környék utcáin, és úgy tűnik, hogy biztonságosan vezet. Eleinte különös figyelmet szentelt minden egyes alkalommal, amikor sikerült megpillantania az önvezető autót. Az autonóm jármű az elektronikus szenzorokból álló állványával tűnt ki, amely videokamerákat, radaregységeket, LIDAR eszközöket és hasonlókat tartalmazott. Sok hét után az önvezető autóval körbejárta a közösséget, most alig veszi észre. Ami Önt illeti, ez csak egy újabb autó az amúgy is forgalmas közutakon.

Nehogy azt higgye, lehetetlen vagy valószínűtlen megismerni az önvezető autók látását, gyakran írtam arról, hogy az önvezető autók kipróbálásának körébe tartozó helyszínek fokozatosan hozzászoktak a felpörkölt járművekhez, lásd az elemzésemet itt ez a link itt. A helyiek közül sokan végül áttértek a szájtátva tátott, elragadtatott bámészkodásról az unalom kiterjedt ásítására, hogy szemtanúi legyenek a kanyargó önvezető autóknak.

Valószínűleg a fő ok, amiért most észreveszik az autonóm járműveket, az az irritáció és az elkeserítő tényező. A könyv szerinti mesterséges intelligencia-vezetési rendszerek gondoskodnak arról, hogy az autók betartsák az összes sebességkorlátozást és a KRESZ szabályait. Hagyományos, ember által hajtott autóikkal hektikus embervezetők időnként felháborodnak, amikor a szigorúan törvénytisztelő AI-alapú önvezető autók mögött ragadnak.

Ez az, amit mindannyiunknak meg kell szoknunk, jogosan vagy helytelenül.

Vissza a mesénkhez.

Kiderült, hogy két méltatlan aggodalomra ad okot az egyébként ártalmatlan és általánosan üdvözölt mesterségesintelligencia-alapú önvezető autók, konkrétan:

a. Ahol a mesterséges intelligencia kóborol az önvezető autók között, hogy fuvart vegyenek fel, az hangos aggodalomként merült fel.

b. Sürgős kérdésként merült fel, hogy az MI hogyan bánik az elsőbbségi joggal nem rendelkező gyalogosokkal

Eleinte a mesterséges intelligencia az egész városban barangolta az önvezető autókat. Bárki, aki fuvart akart kérni az önvezető autóban, lényegében egyenlő eséllyel érkezett. Fokozatosan a mesterséges intelligencia kezdett elsősorban az önvezető autókat a város egyetlen részében tartani. Ez a rész nagyobb pénzt keresett, és az AI-rendszert úgy programozták, hogy megpróbálja maximalizálni a bevételeket a közösségben való használat részeként.

A város elszegényedett részein a közösség tagjai ritkábban tudtak önvezető autóból ülni. Ennek az az oka, hogy az önvezető autók távolabb voltak, és a terület magasabb bevételű részén roamoltak. Amikor a város távoli részéből érkezett kérés, minden közelebbi helyről érkező kérés, amely valószínűleg a város „megbecsült” részében volt, magasabb prioritást kapott. Végül a gazdagabb városrészen kívül szinte lehetetlen volt önvezető autóhoz jutni, elkeserítően azok számára, akik a ma erőforráshiányos vidékeken éltek.

Azt állíthatja, hogy az AI nagyjából a proxy-alapú megkülönböztetés egy formájára szállt rá (amit gyakran közvetett diszkriminációnak is neveznek). Az AI-t nem arra programozták, hogy elkerülje azokat a szegényebb környékeket. Ehelyett „megtanulta” ezt az ML/DL használatával.

A helyzet az, hogy a telekocsi-megosztó emberi sofőrök arról ismertek, hogy ugyanezt teszik, bár nem feltétlenül kizárólag a pénzkereseti szempont miatt. A telekocsit használó emberi sofőrök között voltak olyanok, akiknek nem volt hajlandó lovasokat felvenni a város bizonyos részein. Ez egy kissé ismert jelenség volt, és a város megfigyelési megközelítést vezetett be, hogy elkapja az embervezetőket, akik ezt teszik. Az emberi sofőrök bajba kerülhetnek, ha kellemetlen kiválasztási gyakorlatokat hajtanak végre.

Feltételezték, hogy az AI soha nem fog beleesni ugyanilyen futóhomokba. Nem állítottak fel speciális felügyeletet annak nyomon követésére, hogy az AI-alapú önvezető autók merre haladnak. Csak miután a közösség tagjai panaszkodni kezdtek, a város vezetői rájöttek, mi történik. Ha többet szeretne megtudni az önvezető járművek és az önvezető autók ilyen típusú városi problémáiról, tekintse meg tudósításomat itt: ez a link itt és amely egy Harvard által vezetett tanulmányt ír le, amelynek társszerzője voltam a témában.

A mesterséges intelligencia-alapú önvezető autók barangolási vonatkozásainak ez a példája jól illusztrálja azt a korábbi jelzést, amely szerint előfordulhatnak olyan helyzetek, amelyekben az emberekben nemkívánatos elfogultságok lépnek fel, és amelyekre ellenőrzéseket vezetnek be, és hogy az ezeket az emberi vezetőket felváltó mesterséges intelligencia skóciai marad. ingyenes. Sajnos a mesterséges intelligencia fokozatosan belemerülhet a hasonló torzításokba, és ezt megfelelő védőkorlát nélkül teheti meg.

Ez azt mutatja be, hogy a mesterséges intelligencia alapú proxy-alapú diszkrimináció hogyan léphet fel károsan.

A másik példa az, hogy az AI meghatározza, hogy megálljon-e a várakozó gyalogosok számára, akiknek nincs elsőbbsége az utcán való átkeléshez.

Ön kétségtelenül vezetett, és olyan gyalogosokkal találkozott, akik arra vártak, hogy átkeljenek az utcán, de nem volt elsőbbségük ehhez. Ez azt jelentette, hogy szabadon dönthetett arról, hogy megálljon-e, és átengedje-e őket. Továbbléphet anélkül, hogy átengedné őket, és továbbra is betarthatja a törvényes vezetési szabályokat.

Az arra vonatkozó tanulmányok, hogy az emberi sofőrök hogyan döntenek arról, hogy megállnak-e vagy nem állnak meg az ilyen gyalogosok esetében, azt sugallják, hogy néha az emberi járművezetők nem kívánatos elfogultságok alapján választanak. Előfordulhat, hogy egy emberi sofőr a gyalogosra figyel, és úgy dönt, hogy nem áll meg, még akkor is, ha megállt volna, ha a gyalogos külső megjelenése más, például faj vagy nem alapján. Megvizsgáltam ezt a az itt található link.

Képzelje el, hogy az AI-alapú önvezető autók úgy vannak programozva, hogy foglalkozzanak azzal a kérdéssel, hogy megálljanak-e vagy sem az elsőbbségi joggal nem rendelkező gyalogosok számára. A mesterséges intelligencia fejlesztői így döntöttek a feladat programozása mellett. Adatokat gyűjtöttek a város videokameráiról, amelyeket a városban mindenhol elhelyeztek. Az adatok bemutatják azokat az embervezetőket, akik megállnak az elsőbbségi joggal nem rendelkező gyalogosok számára, illetve a meg nem álló embervezetőket. Mindezt egy nagy adathalmazba gyűjtik össze.

A Machine Learning és a Deep Learning használatával az adatok számítási modellezése történik. Az AI vezetési rendszer ezután ezt a modellt használja annak eldöntésére, hogy mikor álljon meg vagy ne. Általában az az elképzelés, hogy bármiből is álljon a helyi szokás, az AI így irányítja az önvezető autót.

A város vezetői és a lakosok meglepetésére az AI nyilvánvalóan a gyalogos életkora alapján döntött úgy, hogy megáll vagy nem. Hogyan történhetett ez meg?

Az emberi vezetők diszkréciójáról készült videó alaposabb áttekintése során kiderül, hogy sok olyan eset, amikor nem álltak meg, olyan gyalogosokkal járt, akiknél egy idős polgár sétapálcája volt. Az emberi sofőrök láthatóan nem akartak megállni, és átengedni egy idős embert az utcán, feltehetően azért, mert feltételezhetően hosszú ideig tart, amíg valaki megteszi az utat. Ha a gyalogos úgy nézett ki, mint aki gyorsan át tud rohanni az utcán, és minimálisra csökkenti a sofőr várakozási idejét, a sofőrök jobban átengedték az embert.

Ez mélyen bevésődött az AI vezetési rendszerébe. Az önvezető autó érzékelői pásztáznák a várakozó gyalogost, ezeket az adatokat betáplálnák az ML/DL modellbe, a modell pedig kiadná az AI-nak, hogy álljon meg vagy folytassa. Bármilyen vizuális jelzést, amely arra utal, hogy a gyalogos esetleg lassan halad át, mint például egy sétapálcát, matematikailag felhasználták annak meghatározására, hogy a mesterséges intelligencia vezetési rendszerének át kell-e engednie a várakozó gyalogost vagy sem. Azt állíthatja, hogy ez az életkoron alapuló meghatalmazotti megkülönböztetés egy formája.

Következtetés

Számos módszer létezik arra, hogy elkerüljük az olyan mesterséges intelligencia kidolgozását, amely magában foglalja a proxy diszkriminációt, vagy amely idővel kiszűri az ilyen torzításokat. Amennyire csak lehetséges, az ötlet az, hogy felfogjuk a problémákat, mielőtt nagy sebességbe kapcsolnánk és bevetnénk az AI-t. Remélhetőleg sem a közvetlen diszkrimináció, sem a meghatalmazotti diszkrimináció nem kerül ki úgymond az ajtón.

Amint arra korábban rámutattunk, az egyik megközelítés magában foglalja annak biztosítását, hogy a mesterséges intelligencia fejlesztői és más érdekelt felek tisztában legyenek a mesterséges intelligencia etikájával, és így készen álljanak a mesterséges intelligencia kidolgozására az ilyen problémák elkerülése érdekében. Egy másik lehetőség abból áll, hogy a mesterséges intelligencia önmagát felügyeli az etikátlan viselkedésekre és/vagy egy másik mesterséges intelligencia-elem, amely figyeli a többi mesterséges intelligencia rendszert az esetlegesen etikátlan viselkedések miatt. Írásaimban számos egyéb lehetséges megoldásra is kitértem.

Egyelőre egy utolsó gondolat.

Talán tudod, hogy Lou Gehrig híresen mondta, hogy a baseballban nincs helye a diszkriminációnak. Ugyanebből a gondolatmenetből kiindulva bátran kijelentheti, hogy az AI-ban nincs helye a diszkriminációnak.

Mindannyiunknak fel kell állnunk, és meg kell találnunk a módját, hogy megakadályozzuk, hogy a diszkrimináció behatoljon az AI-rendszerekbe. Mindannyiunk érdekében ezt ki kell ütnünk a labdarúgásból.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/04/08/insidious-ai-based-proxy-discrimination-against-humans-is-dauntingly-vexing-for-ai-ethics-which- önvezető autók esetén is előfordulhat/