A mesterséges intelligencia etikáját megzavarta a legújabb kínai mesterségesintelligencia-párti hűség, az arcfelismerés tanúsítványa, amely elnyomó autonóm rendszereket vetíthet előre

hűséges vagy?

Elméletileg lehetséges lenne megvizsgálni nyílt tetteit, és megbizonyosodni arról, hogy tettei hűséget tanúsítanak-e.

Tegyük fel azonban, hogy ehelyett megpróbáltak olvasni a gondolataiban, és közben az arcát pásztázni, hogy meghatározzák a hűséghányadosát. Ez kísértetiesen tolakodó; simán leszólhatod. Úgy hangzik, mint egy olyan őrült sci-fi film, amely egy jövőbeli disztópikus társadalmat képzel el.

Szerencsére lopva azt suttogod magadnak, hogy ma nincs ilyenünk.

Hú, fogd a lovaidat.

A hírek a közelmúltban azt harsogják, hogy egy 1. július 2022-jén Kínában online közzétett kutatási cikk egy tanulmányt ábrázolt, amely állítólag az emberek agyhullámainak és arckifejezéseinek felmérését végezte abból a célból, hogy kiszámolja, hűségesek-e a Kínai Kommunista Párthoz (KKP). . Szóval, tessék, a jövő egyre közelebb és közelebb van, legalábbis a disztópikus társadalom elérése szempontjából, amitől rettegtünk, hogy egyszer felbukkanhat.

A kutatási cikk gyorsan eltűnt az online közzétett linkjéről.

Feltehetően az interneten gyorsan végigsöprő gyors gúny elég volt ahhoz, hogy a papírt levegyék. Vagy lehet, hogy a kutatók csak néhány szövegmódosítást és más ártalmatlan korrekciót szeretnének végrehajtani, hogy újra közzétegyék, miután alaposabban megbizonyosodhattak arról, hogy az i-k pontozottak és a t-k át vannak húzva. Nyitva kell tartanunk a szemünket, hogy meglássuk, kap-e új életet a papír.

Tovább fogok lépni, és alaposan belemerülök abba, amit a kutatási tanulmányról tudunk, és megpróbálom összekapcsolni a pontokat azzal kapcsolatban, hogy ez a fajta MI-vel kapcsolatos munka mindannyiunk számára milyen jelentőséggel bír, messze túlmutatva ennek látókörén. mint egy adott országra korlátozódik. Az én tudósításom egy kicsit kiterjedtebb lesz, mint a többi közelmúltbeli tudósítás erről a hírértékű elemről, ezért kérem, tartson velem.

Azt is hangsúlyozom, hogy rengeteg létfontosságú mesterségesintelligencia-etika leckét gyűjthetünk ki az állítólagos papírból. A mesterséges intelligencia etikájával és az etikai AI-val kapcsolatos folyamatos és kiterjedt tudósításomat lásd az itt található link és a az itt található link, csak hogy néhányat említsek.

Íme, amit eddig említettek a kutatási tanulmányról.

Nyilvánvalóan néhány „önkéntest” toboroztak, hogy részt vegyenek egy kísérletben, amely a KKP-ról alkotott felfogást vizsgálta. Nem ismert, hogy készséges önkéntesek voltak-e, vagy inkább az őrzött vagy esetleg irányított önkéntesek voltak. A vita kedvéért feltételezzük, hogy szívesen vettek részt a vizsgálatban.

Ezt azért hozom fel, hogy ne legyen egyszerűen gusztustalan. Valahányszor egy kísérletet végeznek emberi alanyok bevonásával, számos általánosan elfogadott gyakorlat létezik az ilyen alanyok toborzásával és kutatási tevékenységbe való belemerítésével kapcsolatban. Ez részben olyan korábbi tanulmányokra vezethető vissza, amelyek gyakran becsapták vagy arra kényszerítették az embereket, hogy vegyenek részt egy kísérletben, ami időnként kedvezőtlen pszichológiai következményekkel vagy akár fizikai sérülésekkel járt a résztvevők számára. A tudományos közösség hatalmas erőfeszítéseket tett az ilyen típusú alattomos tanulmányok visszaszorítására, és megköveteli, hogy mindenféle tájékoztatást és figyelmeztetést biztosítsanak azoknak, akiket az emberekkel kapcsolatos vizsgálatokba kívánnak bevonni.

Hogy tisztázzuk, nem mindenki tartja be az ilyen körültekintő és lelkiismeretes irányelveket.

Továbblépve, állítólag 43 alany volt, és állítólag a Kínai Kommunista Párt tagjai. Ne feledje, hogy az alanyok kiválasztása a kísérlethez nagyon fontos a kísérlet szempontjából, és azt is figyelembe kell venni minden olyan következtetésnél, amelyet utólag megpróbál levonni a kísérlet eredményeivel kapcsolatban.

Tegyük fel, hogy szeretnék egy kísérletet végezni azzal kapcsolatban, hogyan látják az emberek az elismert Star Wars sorozatot. Ha előre kiválasztok olyan alanyokat, amelyek hangosan utálják a Star Warst (hogyan létezhetnek ilyen emberek?), és mutatok nekik Star Wars videoklipeket, akkor valószínű, hogy azt mondják majd, hogy még mindig nem szeretik a Star Warst. Ezen áltudományos kísérlet alapján talán alattomosan állítom, hogy az emberek – általában véve – nagyon utálják a Star Warst, ami az én „gondosan” előkészített kutatási környezetemben „bizonyított” (kacsint-kacsint).

Lehet, hogy nem tudhatja, hogy úgymond elrontottam a rulettkereket azáltal, hogy előre kiválasztottam azokat a témákat, amelyekről azt vártam, hogy meghozzák a rejtetten kívánt eredményeket. Természetesen, ha szándékosan olyan embereket toboroztam volna, akik szeretik a Star Wars-t, és buzgó rajongók, nagy eséllyel számolnának be arról, hogy elragadtatták a Star Wars-klipeket. Ismét minden következtetést levonnak arról, hogy az emberek általában hogyan reagálnak a Star Warsra, az előre kiválasztott témáktól függ, amelyeket az erőfeszítéshez választottak.

A CCP-központú tanulmányban az alanyok látszólag egy kioszkszerű videokijelző előtt ültek, és különféle cikkeket olvastak a KKP politikájáról és eredményeiről. Valószínűleg ez az a „kísérleti kezelés”, amelynek az alanyok ki vannak téve. Kísérlet tervezése során általában elő kell állítani egy kísérleti tényezőt vagy szempontot, amelyről látni szeretné, hogy az hatással van-e a résztvevőkre.

A kutatási kérdés látszólag az volt, hogy ezen anyagok áttekintése hatással lesz-e az alanyokra a KKP-ról alkotott későbbi benyomásaik növelése, csökkentése vagy semlegessége szempontjából.

Klasszikus nullhipotézisben megtehet egy ilyen vizsgálatot annak megállapítására, hogy az elfogyasztott anyagok nincsenek hatással az alanyok későbbi benyomásaira. Miután összehasonlította előtte és utána a CCP-vel kapcsolatos nézőpontjaikat, statisztikailag megpróbálja megnézni, hogy történt-e statisztikailag szignifikáns változás a megjelenítéseikben.

Lehetséges, hogy az előtte és az utána statisztikailag nem különbözik egymástól, ezért megalapozottan arra következtethetünk, hogy ennél a vizsgálatnál a bemutatott anyagok (kísérleti kezelés) nem változtattak a benyomásokon. Másrészt, ha van statisztikailag érvényes különbség, akkor meg kell nézni, hogy az után nagyobb-e, mint az előző, ami lehetővé teszi, hogy óvatosan azt sugallja, hogy az anyagok javították a benyomásaikat (és az érme másik oldalán, ha az utáni kevesebb volt, mint az előző, ez azt jelentheti, hogy az anyagok csökkentették vagy csökkentették benyomásaikat).

Egy ilyen tanulmány során sok zsémbes, laza vég van, amivel foglalkozni kell.

Például általában szeretnénk egy úgynevezett kontrollcsoportot, amelyet összehasonlíthatunk a kísérleti kezelésben részesülőkkel. Íme, miért. Tegyük fel, hogy a benyomások megváltozásának valódi alapja az, hogy egy kioszk előtt ülve olvasni kell. Előfordulhat, hogy a felhasznált anyagok természete nagyjából lényegtelen a benyomási hatás szempontjából. Csak ülni és bármit elolvasni, például a legújabb történeteket a macskákról, amelyek vicces dolgokat művelnek, önmagában is meghozhatja a trükköt. Ezért megszervezhetjük, hogy egyes alanyok a kontrollcsoportunkba kerüljenek, és a CCP-irányelveken és a teljesítményekre vonatkozó anyagokon kívül más anyagoknak is ki vannak téve.

Nem tudjuk, hogy ez megtörtént-e ebben az esetben (úgy tűnik, még senki sem említette ezt a szempontot).

Tisztában vagyok vele, hogy már kezd ideges lenni a tanulmány médiarobbanékony része miatt. Gyorsan áttérünk arra a részre.

Hogyan állapíthatjuk meg, hogy a kísérlet alanyai reagáltak-e vagy megváltoztatták-e benyomásaikat a megjelenített anyagok elolvasása következtében?

Szokásos módszer lenne megkérdezni őket.

Előzetesen talán kitöltött volna egy kérdőívet, amely megkérdezi őket a KKP-ról alkotott benyomásaikról. Ezután a kísérleti kezelést követően, mint a kiállított anyagok leolvasásakor, újabb kérdőívet adhattunk ki. Ezután össze lehet hasonlítani az alanyok által előtte és utána adott válaszokat. Ha kontrollcsoportot is használnánk, azt feltételeznénk, hogy a kontrollcsoport válaszai nem változnának érdemben az előtte és utána között (abban a meggyőződésben, hogy a cicó macskákról szóló történetek megtekintése nem befolyásolhatja a CCP benyomásait).

Az a cselekmény, hogy az alanyoktól megkérdezzük benyomásaikat, nem feltétlenül olyan egyszerű, mint amilyennek látszik.

Tegyük fel, hogy a kísérletben részt vevő alanyok olyan érzést vagy általános elsodródást kapnak, hogy azt szeretné, hogy a kísérleti kezelésre bizonyos módon reagáljanak. Ebben az esetben szándékosan túlértékelhetik reakcióikat a kísérleti beadás utáni részében. Biztosan láttad már ezt megtörténni. Ha íztesztet végzek egy új, piacra kerülő szódánál, úgy viselkedhetek, mintha vadul élveztem volna az üdítőt, abban a reményben, hogy a szódagyártó reklámban szerepelhet, és megkapom a gazdagon megérdemelt tizenöt perc hírnevet. .

A lényeg az, hogy pusztán az emberek véleményének megkérdezése nem biztos módszer a változások felmérésére. Ez egy megközelítés. Más megközelítéseket is gyakran lehet és alkalmaznak.

Hogyan döntött ez a vizsgálat az alanyok reakcióinak mérésére?

Nyilvánvalóan legalább két módszert alkalmaztak. Az egyik módszer az volt, hogy arcszkennelést végeztek, és AI-alapú arcfelismerő szoftvert használtak az alanyok reakcióinak felmérésére. A másik módszer állítólag az agyhullám-szkennelés valamilyen formája volt. Egyelőre nem számoltak be arról, hogy milyen típusú agyhullám-leolvasó eszközöket használtak, és azt sem, hogy milyen AI-alapú agyhullám-elemző szoftvert alkalmaztak.

Különböző tudósítások jelezték, hogy a tanulmány a következőt állította a kísérlet természetéről: "Egyrészt meg tudja ítélni, hogy a párt tagjai hogyan fogadták el a gondolkodást és a politikai oktatást." És a tanulmány állítólag ezt is megemlítette: „Másrészt valós adatokat fog szolgáltatni a gondolkodáshoz és a politikai neveléshez, így javítható és gazdagítható.” A kutatást a kínai Hefei Átfogó Nemzeti Tudományos Központ égisze alatt végezték.

A médiajelentések azt sugallják, hogy a tanulmány arra az állításra utalt, hogy az arcfelismerő szkennelések és az agyhullám-szkennelések segíthettek annak kimutatásában, hogy az utóbenyomások fokozódtak a CCP-vel kapcsolatban.

Szeretném megjegyezni, hogy anélkül, hogy közvetlenül áttekinthetnénk az alkalmazott rendszereket, és alaposan megvizsgálnánk a kutatási cikket, nem ismerjük az AI-alapú rendszerek pontos felhasználásának részleteit.

Lehetséges, hogy az alanyok inkább a kísérleti környezetre reagáltak, mint a kísérleti kezelésre. Bárki, aki részt vesz egy vizsgálatban, először is aggódhat. Ez megzavarhatja az agyhullámok vizsgálatára vagy az arcmintázat-elemzésre irányuló erőfeszítéseket. Arra is van esély, hogy motiváltnak érezték magukat a kutatók kedvében, és úgy döntöttek, hogy az anyagok megtekintése után pozitív gondolatokat eszelnek ki, és ez elméletileg tükröződhet az agyhullám- és arcvizsgálatokon (talán, de tudd, hogy van egy nagyszerű sok szenvedélyes vita az ilyen állítások érvényességéről, amint azt röviden kifejtem), abban a reményben, hogy elferdítik az eredményeket, és megmutatják, hogy pozitív hatással voltak rájuk.

A Twitter-reakció lényegében elítélte, hogy a mesterséges intelligencia által támogatott agyhullám-letapogatás és arcfelismerés használatának gondolata önmagában is megdöbbentő és felháborító cselekedet. Csak az emberi szörnyek használnának ilyen eszközöket, mondják néhány tweet.

Meg kell kérnem, hogy üljön le, és készüljön fel valamire, ami durva és sokkoló meglepetés lehet.

Világszerte sok olyan kutató van, aki ugyanazokat a technológiákat használja kutatásai során. Minden bizonnyal nem ez az első alkalom, hogy agyhullám-letapogatási képességet használnak emberi alanyokon egy kutatás során. Természetesen nem ez volt az első alkalom, hogy az arcfelismerést emberi alanyokon kísérleti célokra használták. Még egy felületes online keresés is sok-sok kísérleti tanulmányt mutat meg minden olyan országban és laboratóriumban, amelyek ilyen típusú eszközöket használtak.

Nos, ezeknek a felhasználásával a KKP iránti hűség mérése nem olyan dolog, amelyre különösebben összpontosítana. Amikor egy ilyen mesterséges intelligenciát kormányzati irányításra használnak, egy piros vonalat léptek át, ahogy mondani szokták.

Ez a nyilvánvalóan hűsítő része az egész készletnek és kabócának.

Sokak aggodalmát az jelenti, hogy ha a kormányok az agyhullám-szkennelés és az arcfelismerés mellett döntenek, hogy megbizonyosodjanak arról, hogy hűek-e az adott rezsimhez, akkor a sérelmek disztópikus világában találjuk magunkat. Amikor egy nyilvános utcán sétál, előfordulhat, hogy egy lámpaoszlopra szerelt eszköz titokban meghatározza a hűséghányadosát.

Feltételezzük, hogy ha az arca nem azt sugallja, hogy kellően hűséges vagy, vagy ha az agyhullámok vizsgálata ugyanezt sugallja, akkor hirtelen kormányzati gengszterek rohanhatnak meg, és megragadhatnak. Idegesítő. Feneketlen. Nem szabad megengedni.

Ez a lényege annak, hogy miért tört ki a címsor felháborodása és felháborodása ezzel a hírrel kapcsolatban.

Képzeld el ezt. Valószínűleg olyan számítógép-alapú rendszereket fogunk kidolgozni, majd használatba venni, amelyek a mesterséges intelligencia legújabb eredményeit használják annak eldöntésére, hogy lojálisak vagyunk-e vagy sem. Ha megpróbálna felvenni embereket, hogy üljenek és tegyék ugyanezt, akkor sok emberre lenne szüksége, és logisztikai problémája lenne, hogy megpróbálja úgy helyezni őket, hogy mindenkire figyeljenek. A mesterséges intelligencia alapú rendszereknél nem kell mást tenni, mint felállítani az elektronikus eszközöket lámpaoszlopokon, épületek oldalain stb. A hűségkeresés a nap 24 órájában, a hét minden napján, minden ilyen felszerelt helyen történhet. Ezt aztán egy hatalmas adatbázisba lehet betáplálni.

Emberekké válunk, akik csupán fogaskerekek egy kolosszus mindent látó, mindent figyelő társadalmi elnyomó ökoszisztémában. A látó szem nem csak azt figyeli, amit csinálunk. Azt is értelmezi, hogy az arcunk mit mond a kormány iránti hűségünkről. A mi elménket is meg kell vizsgálni hasonló szörnyű ok miatt.

Ajjaj!

Ebből is adódik egy másodlagos aggodalom, bár talán nem annyira tüskés a Big Brother vonatkozásaihoz képest, mint ahogy azt már felvázoltuk.

Gondolkozz el ezen a két sürgető kérdésen:

  • Megbízhatóan állíthatjuk, hogy egy agyhullám-vizsgálat tanúsíthatja hűségét?
  • Megbízhatóan állíthatjuk, hogy az arcfelismerő szkennelés tanúsíthatja hűségét?

Tarts ki, lehet, hogy a tüdődből kiabálsz.

Tisztában vagyok vele, és tudomásul veszem, hogy önmagukban a megbízhatósági szempontok nem feltétlenül törődnek annyira. Az, hogy ezt megbízhatóan meg lehet-e tenni, kevésbé lényeges, mint az, hogy egyáltalán megtörténik-e. Senkinek sem szabadna ilyen vizsgálat alá kerülnie. Felejtsd el, hogy a technológia megfelelő-e erre a feladatra. Nem szabad az induláskor vállalnunk a feladatot.

Mindenesetre a válasz most határozott nem, nevezetesen, hogy a létező mesterséges intelligencia rendszerek, amelyek bármiféle „agyhullám-letapogatást” és arcfelismerést végeznek, nem képesek eléggé megtenni ezt az ugrást.

Az utóbbi időben talán azt tapasztalta, hogy néhány arcfelismerő-gyártó visszalépett az arcfelismerő rendszereik használatba vétele terén. Egy soron következő rovatunkban a közelmúltbeli erőfeszítésekről fogok beszélni, például a Microsoftnak, hogy megpróbálja megfékezni azoknak az áradatát, akik a Microsoft által biztosított arcfelismerő eszközöket olyan célokra használják, amelyek messze túlmutatnak azon, amit a technológia képes vagy arra kellene használni. . Érdekelheti korábbi pillantásom a mesterséges intelligencia etikai aggályaira, amelyek már jól ismertek az arcfelismeréssel kapcsolatban, lásd az itt található link. Az agyhullámok szkennelésének arénájáról is beszéltem, lásd a vitámat itt az itt található link.

Röviden, egyelőre nincs megbízható vagy ésszerű eszköz arra utalni, hogy egy agyhullám- vagy arcfelismerő szkennelés valakinek a hűségét ábrázolhatja. Még a feltehetően alapvető szempontok is heves viták tárgyát képezik, mint például, hogy megbízhatóan össze lehet-e kapcsolni ezeket a szkenneléseket azzal, hogy valaki boldog vagy szomorú. Megpróbálni valami olyan amorf és változó iránti felkészülést, mint a hűség, túl távoli híd.

Hozzáteszem, egyesek lelkesen hiszik, hogy végül eljutunk odáig. Ezért próbáltam óvatosan megjegyezni, hogy még nem tartunk ott, ahelyett, hogy azt mondtam volna, hogy soha nem fogunk eljutni oda. Soha nem nagy szó. Teljesen biztosnak kell lenned abban, ha dobálózni fogsz, hogy ez így lesz soha megvalósítható legyen (szem előtt tartva, hogy a „soha” kifejezés évtizedek múlva, évszázadok múlva és több ezer vagy millió év múlva is felölelődik).

Egyesek úgy reagáltak a hírre, hogy erről a kínai laboratóriumi kutatásról szólnak, és jelezték, mennyire veszélyes a világ a mesterséges intelligencia nem megfelelő és veszélyes felhasználásai felé. Egy pillanatra megosztok veled egy pillantást arról, hogy miről is szól az AI etika. Ez segít jobban megérteni, hogy ez a tanulmány miért sérti meg az etikus mesterséges intelligencia sok, ha nem majdnem az összes általánosan elfogadott előírását.

Akár hiszi, akár nem, egyesek azt sugalmazták, hogy talán hegyet csinálunk a vakondtúrásból ezzel a konkrét tanulmánysal kapcsolatban.

Vagyunk?

Az ellenérv az, hogy a vakondtúrásból elég hamar hegy lehet. A közmondás szerint a hógolyó, amely egyre nagyobb és nagyobb lesz, ahogy legurul egy havas dombról, meg kell akadályoznunk, hogy a hógolyó elinduljon. Ha toleráljuk az ilyen típusú tanulmányokat, akkor hagyjuk, hogy a hógolyó megkezdje útját. Az ilyen tanulmányok megszólalásával és előhívásával talán megelőzhetjük a hógolyót.

Egy biztos: Pandora szelencéjének kinyitásának küszöbén állunk, ha mesterséges intelligencia vonatkozásairól van szó, és továbbra is az a kérdés, hogy meg tudjuk-e akadályozni a szelencét, vagy legalább találunk valami módot arra, hogy körültekintően kezeljük azt, ami előkerül. ha egyszer a doboz szabadjára engedte ördögi tartalmát.

Ha más nem is, de remélhetőleg az ilyen típusú médiaviharok széles körű vitát indítanak majd el arról, hogyan akadályozzuk meg a mesterséges intelligenciával kapcsolatos rossz cselekedeteket és hárítsuk el a mesterséges intelligencia által kiváltott számos egzisztenciális kockázatot. Fokozatosan növelnünk kell társadalmi tudatosságunkat a mesterséges intelligencia etikájával és a mesterséges intelligencia etikai szempontjaival kapcsolatban.

Mielőtt még rátérnénk az ilyen típusú mesterséges intelligencia-rendszerek mögött meghúzódó vad és gyapjas megfontolásokra, adjunk meg néhány további alapvetést a mélyen lényeges témákban. Röviden bele kell merülnünk a mesterséges intelligencia etikájába, és különösen a Machine Learning (ML) és a Deep Learning (DL) megjelenésébe.

Lehet, hogy homályosan tisztában vagy vele, hogy manapság az egyik leghangosabb hang a mesterséges intelligencia területén és még az AI területén kívül is az etikus mesterséges intelligencia nagyobb látszatának követelése. Vessünk egy pillantást arra, hogy mit jelent a mesterséges intelligencia etikájára és az Ethical AI-ra hivatkozni. Ezen felül megvizsgáljuk, mire gondolok, amikor a gépi tanulásról és a mély tanulásról beszélek.

A mesterséges intelligencia etikájának egy bizonyos szegmense vagy része, amely a médiában nagy figyelmet kapott, a mesterséges intelligencia, amely nemkívánatos elfogultságokat és egyenlőtlenségeket mutat. Talán tudatában van annak, hogy amikor a mesterséges intelligencia legújabb korszaka beindult, hatalmas lelkesedés támadt az iránt, amit egyesek ma úgy hívnak. AI For Good. Sajnos ennek a tomboló izgalomnak a nyomában kezdtünk tanúi lenni AI For Bad. Például a különféle mesterséges intelligencia-alapú arcfelismerő rendszerekről kiderült, hogy faji és nemi előítéleteket tartalmaznak, amelyeket itt tárgyaltam. az itt található link.

Erőfeszítések, amelyek ellen harcolni kell AI For Bad aktívan zajlanak. A hangoskodáson kívül jogi A jogsértések megfékezésére irányuló törekvések jelentős erőfeszítéseket tesznek a mesterséges intelligencia etikájának elfogadása felé, hogy helyrehozzák a mesterséges intelligencia aljasságát. Az elképzelés az, hogy el kell fogadnunk és támogatnunk kell a kulcsfontosságú etikai mesterségesintelligencia-elveket a mesterséges intelligencia fejlesztése és terjesztése érdekében, ezzel aláásva AI For Bad és egyidejűleg hirdeti és hirdeti a jobbat AI For Good.

Ehhez kapcsolódóan én annak híve vagyok, hogy a mesterséges intelligencia megpróbálja a mesterséges intelligencia problémáinak megoldásának részeként használni a tüzet tűzzel oltva ilyen gondolkodásmódban. Például beágyazhatunk Ethical AI összetevőket egy mesterséges intelligencia rendszerbe, amely figyeli, hogy a többi AI hogyan csinálja a dolgokat, és így potenciálisan valós időben megragadja a diszkriminatív erőfeszítéseket. az itt található link. Lehetne egy külön mesterséges intelligencia-rendszer is, amely egyfajta AI-etikai monitorként működik. A mesterséges intelligencia rendszer felügyelőként szolgál annak nyomon követésére és észlelésére, ha egy másik mesterséges intelligencia az etikátlan szakadékba kerül (lásd az ilyen képességekről szóló elemzésemet itt: az itt található link).

Rövid időn belül megosztok veled néhány átfogó alapelvet, amelyek az AI etikájának hátterében állnak. Rengeteg ilyen lista lebeg itt-ott. Mondhatnánk, hogy még nincs egyetlen lista az egyetemes vonzerőről és az egyetértésről. Ez a sajnálatos hír. A jó hír az, hogy legalább vannak könnyen elérhető mesterséges intelligencia etikai listák, és általában meglehetősen hasonlóak. Mindent egybevetve ez arra utal, hogy az okolt konvergencia egyfajta formája révén megtaláljuk az utat az AI-etika általános közös vonása felé.

Először is tekintsünk át röviden néhány általános etikai mesterséges intelligencia előírást, hogy bemutassuk, minek kell létfontosságú szempontnak lennie bárki számára, aki mesterséges intelligenciát készít, dolgozik vagy használ.

Például, ahogy azt a Vatikán a Róma felhívás a mesterséges intelligencia etikájára és amint azt alaposan kifejtettem itt az itt található link, ez az általuk azonosított hat elsődleges AI etikai elv:

  • Átláthatóság: Elvileg az AI-rendszereknek magyarázhatónak kell lenniük
  • Befogadás: Minden ember szükségleteit figyelembe kell venni, hogy mindenki részesülhessen, és minden egyén számára a lehető legjobb feltételeket kínálhassuk önkifejezéshez és fejlődéshez.
  • Felelősség: Az MI használatát tervezőknek és alkalmazóknak felelősségteljesen és átláthatóan kell eljárniuk
  • Pártatlanság: Ne alkosson vagy cselekedjen elfogultság szerint, ezzel óvva a méltányosságot és az emberi méltóságot
  • Megbízhatóság: Az AI-rendszereknek megbízhatóan kell működniük
  • Biztonság és adatvédelem: Az AI-rendszereknek biztonságosan kell működniük, és tiszteletben kell tartaniuk a felhasználók magánéletét.

Amint azt az Egyesült Államok Védelmi Minisztériuma (DoD) kijelentette A mesterséges intelligencia használatának etikai alapelvei és amint azt alaposan kifejtettem itt az itt található link, ez a hat elsődleges AI etikai alapelvük:

  • Felelős: A DoD személyzete megfelelő szintű ítélőképességet és gondosságot gyakorol, miközben felelős marad az AI-képességek fejlesztéséért, telepítéséért és használatáért.
  • Igazságos: A minisztérium szándékos lépéseket tesz az AI-képességek nem szándékos torzításának minimalizálása érdekében.
  • Nyomon követhető: A minisztérium mesterséges intelligencia-képességeit úgy fejlesztik és alkalmazzák, hogy az érintett személyzet megfelelő ismeretekkel rendelkezzen az AI-képességekre vonatkozó technológiáról, fejlesztési folyamatokról és működési módszerekről, beleértve az átlátható és auditálható módszereket, adatforrásokat, valamint a tervezési eljárást és dokumentációt.
  • Megbízható: A minisztérium mesterséges intelligencia-képességeinek kifejezett, jól meghatározott felhasználási területei lesznek, és az ilyen képességek biztonsága, biztonsága és hatékonysága tesztelés és szavatosság tárgyát képezi a meghatározott felhasználási módokon belül, teljes életciklusuk során.
  • Kormányozható: A minisztérium megtervezi és megtervezi a mesterséges intelligencia képességeit, hogy teljesítsék a tervezett funkcióikat, miközben képesek lesznek észlelni és elkerülni a nem kívánt következményeket, valamint képesek lekapcsolni vagy deaktiválni a nem szándékos viselkedést tanúsító telepített rendszereket.

Megvitattam a mesterséges intelligencia etikai elveinek különféle kollektív elemzéseit is, beleértve a kutatók által kidolgozott halmazt, amely számos nemzeti és nemzetközi AI etikai tétel lényegét vizsgálta és sűrítette a „The Global Landscape Of AI Ethics Guidelines” című cikkben (megjelent. ban ben Természet), és amit tudósításom a címen vizsgál az itt található link, ami ehhez a trapézkő listához vezetett:

  • Átláthatóság
  • Igazságosság és méltányosság
  • Nem rosszindulat
  • Felelősség
  • Adatvédelem
  • Jótékonyság
  • Szabadság és autonómia
  • Bízzon
  • Fenntarthatóság
  • Méltóság
  • Szolidaritás

Amint azt közvetlenül sejtheti, rendkívül nehéz lehet az ezen alapelvek mögött meghúzódó sajátosságok meghatározása. Még ennél is keményebb dió az a törekvés, hogy ezeket a tág alapelveket valami teljesen kézzelfoghatóvá és kellően részletezetté alakítsák ahhoz, hogy az AI-rendszerek kidolgozásakor felhasználhatók legyenek. Könnyű összességében egy kis kézzel integetni arról, hogy mik is az AI etikai előírásai, és hogyan kell azokat általában betartani, míg az AI kódolásánál sokkal bonyolultabb a helyzet, ha a valódi guminak kell lennie, amely találkozik az úttal.

Az AI-etikai elveket az AI-fejlesztőknek kell alkalmazniuk, az AI-fejlesztési erőfeszítéseket irányítókkal együtt, sőt még azokkal is, amelyek végső soron az AI-rendszerek karbantartását és karbantartását végzik. Az összes érdekelt fél a mesterséges intelligencia fejlesztésének és használatának teljes életciklusa során beletartozik az etikus mesterséges intelligencia elfogadott normáihoz. Ez egy fontos kiemelés, mivel a szokásos feltevés az, hogy „csak a kódolóknak” vagy az AI-t programozóknak kell betartani az AI-etika fogalmait. Amint korábban említettük, egy falura van szükség a mesterséges intelligencia kidolgozásához és elindításához, és ehhez az egész falunak ismernie kell a mesterséges intelligencia etikai előírásait, és be kell tartania azokat.

Győződjünk meg arról is, hogy a mai mesterséges intelligencia természetét illetően egy oldalon vagyunk.

Ma nincs olyan mesterséges intelligencia, amely érző lenne. Nálunk ez nincs. Nem tudjuk, hogy az érző mesterséges intelligencia lehetséges lesz-e. Senki sem tudja pontosan megjósolni, hogy elérjük-e az érző MI-t, és azt sem, hogy az érző mesterséges intelligencia valamilyen csodálatos módon spontán módon létrejön-e számítógépes kognitív szupernóva formájában (általában szingularitásnak nevezik, lásd tudósításomat itt: az itt található link).

A mesterséges intelligencia azon típusa, amelyre összpontosítok, a ma létező nem érző MI-ből áll. Ha vadul akarnánk spekulálni arról érző AI, ez a vita gyökeresen más irányba mehet. Egy érző mesterséges intelligencia állítólag emberi minőségű lenne. Figyelembe kell vennie, hogy az érző mesterséges intelligencia az ember kognitív megfelelője. Sőt, mivel egyes feltételezések szerint szuperintelligens AI-val rendelkezünk, elképzelhető, hogy az ilyen mesterséges intelligencia okosabb lehet, mint az emberek (a szuperintelligens AI lehetőségének feltárásához lásd a tudósítás itt).

Maradjunk inkább a földön, és vegyük figyelembe a mai számítástechnikai, nem érző MI-t.

Vegye észre, hogy a mai mesterséges intelligencia nem képes az emberi gondolkodással egyenrangú módon „gondolkodni”. Amikor Alexával vagy Sirivel kommunikál, a társalgási képességek hasonlónak tűnhetnek az emberi képességekhez, de a valóság az, hogy számítási jellegű, és hiányzik az emberi megismerés. A mesterséges intelligencia legújabb korszaka széles körben alkalmazta a gépi tanulást (ML) és a mély tanulást (DL), amelyek kihasználják a számítási mintaillesztést. Ez olyan mesterséges intelligencia-rendszerekhez vezetett, amelyek emberszerű hajlamokat mutatnak. Eközben manapság nincs olyan mesterséges intelligencia, amely a józan észnek látszana, és az emberi gondolkodás kognitív csodáiból sem.

Az ML/DL a számítási mintaillesztés egyik formája. A szokásos megközelítés az, hogy egy döntési feladatról adatokat gyűjt össze. Az adatokat betáplálja az ML/DL számítógépmodellekbe. Ezek a modellek matematikai mintákat keresnek. Miután megtalálta az ilyen mintákat, ha igen, az AI rendszer ezeket a mintákat fogja használni, amikor új adatokkal találkozik. Az új adatok bemutatásakor a „régi” vagy történelmi adatokon alapuló mintákat alkalmazzák az aktuális döntés meghozatalához.

Azt hiszem, sejtheti, hová vezet ez. Ha az emberek, akik a mintaszerű döntéseket hozták, nemkívánatos elfogultságokat alkalmaztak, akkor valószínű, hogy az adatok ezt finom, de jelentős mértékben tükrözik. A Machine Learning vagy a Deep Learning számítási mintaillesztés egyszerűen megpróbálja matematikailag utánozni az adatokat ennek megfelelően. A mesterséges intelligencia által kialakított modellezésben önmagában semmi sem látszik a józan észnek vagy más érző szempontoknak.

Ezenkívül az AI-fejlesztők sem tudják, mi történik. Az ML/DL rejtélyes matematikája megnehezítheti a most rejtett torzítások kiszűrését. Joggal remélhető és elvárható, hogy a mesterséges intelligencia fejlesztői teszteljék a potenciálisan eltemetett torzításokat, bár ez bonyolultabb, mint amilyennek látszik. Jó esély van arra, hogy még viszonylag kiterjedt tesztelés mellett is lesznek torzítások az ML/DL mintaillesztési modelljeibe.

Használhatná némileg a híres vagy hírhedt közmondást, a szemetet a szemét kiszállításáról. A helyzet az, hogy ez inkább a torzításokhoz hasonlít, amelyek alattomos módon beszivárognak az AI-ba merülő torzítások miatt. Az AI algoritmus-döntéshozatala (ADM) axiomatikusan megterhelődik egyenlőtlenségekkel.

Nem jó.

Térjünk vissza azokra a mesterséges intelligenciarendszerekre, amelyeket nem megfelelő vagy esetleg egyenesen jogsértő célokra használnak, és hogy ez hogyan kapcsolódik a közelmúltban közzétett, a CCP-hűségről szóló tanulmányhoz.

Két fő szempont jut eszembe:

1) Ez a mesterséges intelligencia-példány része a zavarba ejtő mesterségesintelligencia-használat szélesebb, folyamatos mintájának, ezért baljóslatú és szemet nyit arra vonatkozóan, hogy mi történik.

2) A macskát ki lehet engedni a táskából, hogy ha egy ilyen mesterséges intelligencia bevezetésre kerüljön egy országban, akkor könnyen átterjedhessen más országokba is

Kezdje azzal az első ponttal, hogy az AI egy folyamatban lévő minta része.

Az egyik különösen fontos alapja annak, hogy ez a tanulmány különösen megzavarta, az az, hogy része annak a szélesebb mintának, ahogyan egyesek az AI-t használják. Ha ez lenne az egyetlen ilyen tanulmány, amelyet valaha is végeztek, enyhén felkavarhat minket. Ennek ellenére valószínűleg nem visszhangozna olyan hevességgel, mint amilyennek most látjuk.

Ez talán egy csepp-csepegtetés valami felé, ami kicsúszik a kezéből.

Amint arról a hírek is beszámoltak, Kína jól ismert arról, hogy ragaszkodott a KKP-val szembeni túlzott lojalitáshoz. Ezenkívül különféle eszközöket hoztak vagy hoznak létre annak biztosítására, hogy az embereket beépítsék a kormányzati doktrínába. Korábbi tanulmányokra hivatkoztak olyan AI-algoritmusok kidolgozására, amelyek felmérhetik a párttagok gondolkodási körülményeit (lásd a Kína által támogatott Tanulmányi idők 2019-ben, amely említette ezeket az erőfeszítéseket).

Talán emlékeznek rá, hogy 2018-ban Mike Pence alelnök beszédet mondott a Hudson Intézetben, és hangsúlyozta, hogy „Kína uralkodóinak célja egy orwelli rendszer megvalósítása, amely az emberi élet gyakorlatilag minden aspektusának ellenőrzésére épül” (ez utalás volt a KKP végrehajtására társadalmi kreditpontozási rendszer, amely kiemelkedő vita tárgya). Nyugodtan állíthatja, hogy ez a legutóbbi CCP-tanulmány egy újabb lépés ebbe az irányba.

Nem tudjuk, hogy az utolsó csepp a pohárban mikor töri-e meg a teve hátát, így ezek az egyszeri vizsgálatok széles körben elterjedt AI-alapú megfigyelőrendszerekké alakulnak.

A második figyelemre méltó szempont, hogy nem feltételezhetjük, hogy ez a fajta mesterséges intelligencia csak Kínára korlátozódik. Lényegében, bár a mesterséges intelligencia ilyen típusú használata Kínában, amely széles körben elterjedt, önmagában zavaró, más országok is hasonlóképpen cselekedhetnek.

Amint azt állítják, hogy az ehhez szükséges mesterséges intelligencia készen áll a főműsoridőre, valószínűleg nem sok kell ahhoz, hogy más országok eldöntsék, hogy be kívánják vezetni. A macska kikerül a zsákból. Egyes országok feltehetően egyenesen elnyomó módon fogják használni ezt a mesterséges intelligenciát, és nem próbálnak színlelni ezzel kapcsolatban. Más országok látszólag megpróbálják ezt a fajta mesterséges intelligenciát hasznosnak tűnő célokra használni, aminek végül van egy hátránya, amely szinte elkerülhetetlen.

Valójában az a feltételezés, hogy ezt a fajta mesterséges intelligenciát csak akkor alkalmazzák, ha már készen áll a főműsoridőre, kissé téves elnevezés. Lehet, hogy egy fikarcnyit sem számít, hogy az AI biztosan működhet-e ilyen módon. Az AI fedősztoriként használható, lásd a magyarázatomat a címen az itt található link. Függetlenül attól, hogy a mesterséges intelligencia valójában mire képes, az elképzelés az, hogy a mesterséges intelligencia praktikus színlelés lehet a lakosság megfigyelésére, valamint a hatóságokkal szembeni abszolút lojalitás mérésére és biztosítására.

Ennek a súlyos vitának a pillanatában lefogadom, hogy néhány szemléltető példára vágyik, amelyek bemutathatják ezt a témát. Van egy különleges és biztosan népszerű példasor, amely közel áll a szívemhez. Látod, a mesterséges intelligencia szakértőjeként, beleértve az etikai és jogi következményeket is, gyakran kérnek fel olyan reális példák azonosítására, amelyek bemutatják a mesterséges intelligencia etikai dilemmáit, hogy könnyebben megragadható legyen a téma némileg elméleti jellege. Az egyik legemlékezetesebb terület, amely élénken mutatja be ezt az etikus AI-problémát, az AI-alapú, valódi önvezető autók megjelenése. Ez praktikus használati esetként vagy példaként szolgál a témával kapcsolatos bőséges vitához.

Íme, egy figyelemre méltó kérdés, amelyen érdemes elgondolkodni: A mesterséges intelligencia-alapú valódi önvezető autók megjelenése felvilágosít valamit az AI visszaélésekről, és ha igen, mit mutat ez be?

Engedjen meg egy pillanatra, hogy kibontsa a kérdést.

Először is vegye figyelembe, hogy egy igazi önvezető autóban nincs emberi vezető. Ne feledje, hogy az igazi önvezető autókat mesterséges intelligencia vezetési rendszer vezeti. Nincs szükség emberi sofőrre a volánnál, és arra sem, hogy ember vezesse a járművet. Az autonóm járművekről (AV-k) és különösen az önvezető autókról szóló kiterjedt és folyamatos tájékoztatásért lásd az itt található link.

Szeretném még jobban tisztázni, mit kell érteni, amikor valódi önvezető autókra utalok.

Az önvezető autók szintjének megértése

Tisztázva, az igazi önvezető autók azok, ahol az AI teljesen önállóan vezeti az autót, és nincs emberi segítség a vezetési feladat során.

Ezek a vezető nélküli járművek 4-es és 5-ös szintnek minősülnek (lásd a magyarázatomat a következő helyen). ez a link itt), míg az olyan autókat, amelyekhez emberi vezető szükséges a vezetési erőfeszítések közös megosztására, általában 2. vagy 3. szinten tekintik. A vezetési feladatot közösen megosztó autók leírása félig autonóm, és általában különféle automatizált bővítmények, amelyeket ADAS-nak (Advanced Driver-Assistance Systems) neveznek.

Még nincs igazi önvezető autó az 5-ös szinten, és még azt sem tudjuk, hogy ez elérhető lesz-e, és azt sem, hogy mennyi időbe telik eljutni odáig.

Eközben a 4. szintű erőfeszítések fokozatosan próbálnak némi vonóerőt szerezni nagyon szűk és szelektív közúti próbák révén, bár vita folyik arról, hogy ezt a tesztelést önmagában engedélyezni kell-e (mindannyian életre-halálra menő tengerimalacok vagyunk egy kísérletben autópályáinkon és mellékutainkon zajlanak, egyesek azt állítják, lásd tudósításomat itt ez a link itt).

Mivel a félig autonóm autókhoz emberi sofőrre van szükség, az ilyen típusú autók elfogadása nem különbözik nyilvánvalóan a hagyományos járművek vezetésénél, tehát önmagában nincs sok új, hogy ezekkel a témákkal foglalkozzanak (bár, amint látni fogja) egy pillanat alatt a következő pontok általában alkalmazandók).

A félig autonóm autók esetében fontos, hogy a nyilvánosságot figyelmeztessék az utóbbi időben felmerülő zavaró tényezőkre, nevezetesen arra, hogy azoknak az emberi járművezetőknek ellenére, akik folyamatosan videókat tesznek közzé, hogy maguk alszanak a 2. vagy 3. szintű autó kormányához , mindannyian el kell kerülnünk, hogy félrevezetjük azt a hitet, hogy a sofőr félig autonóm autó vezetése közben elvonhatja figyelmét a vezetési feladatról.

Te vagy a felelős a jármű vezetési tevékenységeiért, függetlenül attól, hogy mekkora mennyiségű automatizálást lehet 2. vagy 3. szintre dobni.

Önvezető autók és mesterséges intelligencia visszaélés

A 4. és 5. szintű valódi önjáró járműveknél nem vezethet embervezető a vezetési feladatba.

Minden utas utas lesz.

Az AI vezet.

Azonnal megvitatandó szempont azzal a ténnyel jár, hogy a mai mesterséges intelligencia-vezetési rendszerekben részt vevő mesterséges intelligencia nem érző. Más szavakkal, az AI összességében számítógépes programozás és algoritmusok összessége, és bizonyosan nem képes ugyanúgy érvelni, mint az emberek.

Miért van ez a hangsúly arra, hogy az AI nem érzékeny?

Mivel szeretném aláhúzni, hogy az AI hajtórendszer szerepének tárgyalásakor nem tulajdonítok emberi tulajdonságokat az AI-nek. Felhívjuk figyelmét, hogy manapság folyamatos és veszélyes tendencia van az AI antropomorfizálására. Lényegében az emberek emberi szerű érzékenységet tulajdonítanak a mai mesterséges intelligenciának, annak ellenére, hogy tagadhatatlan és vitathatatlan tény, hogy ilyen AI még nem létezik.

Ezzel a pontosítással elképzelheti, hogy az AI vezetési rendszer valahogy nem fogja „tudni” a vezetés szempontjait. A vezetést és mindazt, amit ez magában foglal, be kell programozni az önvezető autó hardverének és szoftverének részeként.

Merüljünk el abban a számtalan szempontban, amelyek eljátszanak ebben a témában.

Először is fontos felismerni, hogy nem minden AI önvezető autó egyforma. Minden autógyártó és önvezető technológiai cég alkalmazza a hozzáállását az önvezető autók kidolgozásához. Emiatt nehéz átfogó kijelentéseket tenni arról, hogy az AI-meghajtórendszerek mit fognak tenni vagy nem.

Továbbá, ha azt állítják, hogy az AI meghajtó rendszer nem végez bizonyos dolgokat, ezt később a fejlesztők megelőzhetik, akik valójában erre programozzák a számítógépet. Lépésről lépésre az AI meghajtó rendszereket fokozatosan fejlesztik és bővítik. A meglévő korlátozás ma már nem létezik a rendszer későbbi iterációjában vagy verziójában.

Remélem, ez elegendő kitételt biztosít ahhoz, hogy alátámassza azt, amit mondani készülök.

Vázoljunk fel egy önvezető autó forgatókönyvét, amely vázlatos vagy helytelen módon hasznosíthatja az AI-t.

Megosztok veletek néhány mesterséges intelligencia-alapú önvezető autó következményeit, amelyek miatt megborzonghat és zavarba ejthet. Ezek olyan szempontok, amelyekről jelenleg szinte senki sem beszél. Többször felvetettem a kérdéseket, bár nyíltan elismerem, hogy amíg elterjedten nem alkalmazzuk az önvezető autókat, addig nem fogunk érezni, hogy a társadalom aggasztja vagy felzaklatja azt, ami ma pusztán elvont fogalmaknak tűnik. .

Készen állsz?

Kezdjük némi alapozással.

Az AI-alapú önvezető autókat ésszerűen videokamerákkal szerelik fel. Ez lehetővé teszi az önvezető autó számára, hogy videofelvételeket kapjon a vezetési jelenetről. Az önvezető autó számítógépeinek fedélzetén futó mesterséges intelligencia vezetési rendszere viszont az összegyűjtött videót számítástechnikailag megvizsgálja, és kitalálja, hol van az út, hol vannak a közeli autók, hol vannak a gyalogosok stb. Rájöttem, hogy az önvezető autók 101 alapjait mondom el.

Az autonóm jármű külsejére videokamerák vannak felszerelve, amelyek kifelé mutatnak. Ezen túlmenően nagyjából arra számíthatunk, hogy a járműben vagy a jármű belsejében videokamerák lesznek, amelyek befelé irányulnak az önvezető autó belsejébe. Miért is? Egyszerűen, mert nagyon sok fontos felhasználási terület lesz az autonóm jármű belsejében zajló események megörökítésére.

Ha önvezető autóval megy egy körre, többé nem kell sofőrnek lenned. Mit fog ilyenkor tenni egy önvezető autóban?

Az egyik dolog, amit tehet, az az, hogy otthon vagy az irodában kapcsolatba lép másokkal. Íme, úton van a munkába, ami azt jelenti, hogy egy óra vezetési időt vesz igénybe az önvezető autóval, és máris kezdheti a munkanapját egy Zoom-szerű online valós idejű interaktív munkamenettel. Láthatnak téged, mivel a kamerák befelé mutatnak az önvezető autóba. Talán egy LED-képernyőn láthatja őket az önvezető autó belsejében. A nap végén, miközben hazafelé tart, hasonló interaktív videobeszélgetést folytathat a gyerekeivel, amikor elkezdik elkészíteni az esti házi feladatukat.

Egy másik felhasználási terület az órákon való részvétel. Most, hogy nem kell vezetésre pazarolnia az idejét, ezt az önvezető autóban eltöltött időt készségei fejlesztésére, bizonyítvány vagy diploma megszerzésére fordíthatja. A befelé mutató kamerákon keresztül az oktató láthatja Önt, és megbeszélheti, hogyan halad az edzése.

Egy másik cél az lenne, ha megpróbálnánk biztosítani, hogy az önvezető autókban közlekedők ne ámokkodjanak. Az ember által vezetett autóban a sofőr egy felnőtt jelenléte, ami általában visszatartja a versenyzőket attól, hogy olyan bolond dolgokat csináljanak, mint például a belső tér graffitivel való megjelölése. Mi lesz az AI-alapú önvezető autókkal? Egyesek attól tartanak, hogy a versenyzők úgy döntenek, hogy felszakítják a járművek belsejét. Ennek megakadályozása érdekében az önvezető autókat üzembe helyező telekocsi cég valószínűleg befelé néző videokamerákat fog használni, hogy figyelje, mit csinálnak az emberek az autonóm járműben.

Feltételezem, hogy meg van győződve arról, hogy lesznek olyan videokameráink, amelyek az önvezető autók belsejébe mutatnak, amellett, hogy a kamerák kifelé mutatnak, hogy felismerjék a vezetési jelenetet.

Most már készen áll az általam vándorló szemnek nevezettre, lásd elemzésemet itt az itt található link.

Először is vegye figyelembe a kifelé mutató videokamerákat.

Bárhová is megy az önvezető autó, potenciálisan képes lesz videóra rögzíteni bármit, amit a kamerák látnak. Egy önvezető autó, amely felemeli valakit az otthonából, és elviszi az élelmiszerboltba, bejár egy környéket, és a videó nem csak az úttestet rögzíti, hanem minden mást is, ami szem előtt történik. Egy apa és fia játszik az udvarukban. Egy család a verandán ül. Tovább és tovább megy.

Jelenleg olyan kevés önvezető autónk van a közutakon, hogy ez a képesség a napi tevékenységek videó rögzítésére viszonylag kevés és lényegtelen.

Képzelje el, hogy végső soron biztonságos és széles körben elterjedt önvezető autókat érünk el. Több ezer közülük. Talán milliókat. Ma körülbelül 250 millió ember által vezetett autónk van az Egyesült Államokban. Végül ezeket nagyjából felváltják az önvezető autók, vagy egyszerűen már nem használják őket, és túlnyomórészt önvezető autók lesznek az utakon. Ezeket az önvezető autókat mesterséges intelligencia hajtja, és mint ilyenek, lényegében 24 × 7-en barangolhatnak. Nincs pihenő, nincs fürdőszobai szünet.

A videoadatokat ezekből az önvezető autókból OTA (Over-The-Air) elektronikus hálózati kapcsolatokon keresztül lehetett feltölteni. Az önvezető autók OTA használatával töltik le a legújabb mesterségesintelligencia-szoftver-frissítéseket a járműbe. Emellett az OTA segítségével az önvezető autó adatait feltölthetjük egy felhő alapú adatbázisba.

Mindent összevetve megvalósítható lenne ezeket a feltöltött adatokat összefűzni. Az összevarrással potenciálisan összeszedheti bárkinek a mindennapi jövés-menését, aki bármelyik nap kilépett a szabadba, bármely olyan területen, ahol nagymértékben használták az önvezető autókat.

Ez az a mozgó szem, amelyre figyelmeztettem.

Mostantól a CCP-tanulmányt összekapcsolhatjuk ezzel a fajta képességgel. Tegyük fel, hogy egy kormány hozzáfér az összes összegyűjtött videoadathoz. Ezután egy mesterséges intelligencia-alapú arcfelismerő algoritmust használhatnak annak megállapítására, hogy hol, a nap mely szakában járt a mindennapi utazásai során. Ezen kívül feltehetően a „hűség” AI-alapú elemzőjüket is használhatják, hogy megnézzék, hűségesnek tűnik-e az arcod vagy sem.

Képzelje el, hogy egy kedd délután szendvicsért sétált egy helyi étteremben. Önvezető autók haladtak el az úton. A sok videó mindegyike megörökített, amint megteszed az ötperces sétát, hogy egy falatot kapj. Az adatokat egy központi adatbázisba töltöttük fel. A kormány az AI arcfelismerő programját futtatta az adatokon.

Kiderült, hogy a mesterséges intelligencia „határozta meg”, hogy hűtlen az arcod.

Lehet, hogy ez a hűtlen tekintet csak egy pillanatra fordult elő. Egy utcasarkon vártad, hogy megváltozzon a lámpa, hogy átmehess az utcán az étterembe. Abban a pillanatban enyhe undor támadt benned, és túl sokáig kellett várnod a Séta szimbólumra. Ez talán a kormány iránti hűtlenségére utalt?

Igen, a mesterséges intelligencia számításai szerint abban a pillanatban nagyon hűtlen voltál. Amikor aznap este hazaér, a kormány elintézte a letartóztatását.

De várjon, van még más.

Ne feledje, hogy a videokamerák is befelé néznek.

Ugyanazon a kedden, amikor egy önvezető autóval munkába ültél, a videokamerák minden pillanatodat megörökítették. Ezt egy központi adatbázisba töltötték fel. Az arcmintákat hűtlenség szempontjából elemző mesterséges intelligencia szoftver számítógépes mintavizsgálatot végzett az arckifejezésein az irodába vezető út során.

Egy ponton véletlenül kinézett az autonóm járműből, és észrevett egy építőmunkást, aki részben eltorlaszolta az úttestet, és a mesterséges intelligencia vezetési rendszere lelassította az önvezető autót. A másodperc töredékéig az arcán gúnyos pillantást vetett ez az építőmunkás, aki lassítja a forgalmat.

Az AI arcmintázat-elemzése ezt a kormány iránti hűtlenség jeleként értelmezte.

Két csapás ellened egy napon.

Vékony jégen élsz.

Természetesen ebben az összefüggésben szinte lényegtelen, hogy a mesterséges intelligencia „helyes” vagy „rossz” abban, hogy képes meghatározni a lojalitását. A lényeg az, hogy az AI-t erre a célra vezették be. Az MI-t alkalmazó embereket esetleg nem érdekli, hogy az MI alkalmas-e az ilyen típusú feladatokra. Az AI lehetővé teszi a kormányzati ellenőrzést, függetlenül a technológiai érvényességtől.

Ez lefedi az arcszkennelést.

Ha végül lesz bármilyen hordozható, költséghatékony eszközünk (állítólagos) agyhullám-szkennelés elvégzésére, akkor ez biztosan beépíthető az önvezető autókba. A videokamerák ma már biztosak. Az ilyen kaliberű agyhullám-leolvasó eszközök lehetősége jelenleg nem szerepel a kártyákon, de nyilvánvalóan ez a jövőbeli elképzelés.

Annak feltárásához, hogyan próbálhat meg egy kormány átvenni a lakosságot az önvezető autók feletti irányítás megszerzésével, lásd az itt található link. Hasonló lehetőség áll fenn, hogy egy rosszindulatú szereplő megpróbálja ugyanezt megtenni, lásd az itt található link. Ezek nem ijesztgetési taktikák a kapcsolódó témákkal kapcsolatban, hanem felhívják a figyelmet a kiberbiztonság és más óvintézkedések fontosságára, amelyeket a társadalomnak meg kell tennünk a mindenütt jelen lévő önvezető autók és egyéb autonóm járművek.

Következtetés

Szeretnék gyorsan kitérni egy további szempontra a lojalitás megállapítására használt mesterséges intelligenciával kapcsolatban, ami szerintem egy kissé különálló téma, de néhány tweet és a közösségi médiában megszólaltak.

Korábban említettem, hogy nincs érző mesterséges intelligencia, és nem tudjuk, hogy lesz-e, és mikor. Szórakoztatjuk azt a gondolatot, hogy érző mesterséges intelligenciánk lesz. Ebben az esetben vegye figyelembe a következő forgatókönyvet.

A nem érző mesterséges intelligencia révén a mesterséges intelligencia széles körben elterjedt alkalmazását választjuk, amely számítási módszerrel megállapítja, hogy az emberek lojálisak-e kormányukhoz, arc-, agyhullám-letapogatást és így tovább. Ezt teljes mértékben az emberek irányítják és használják fel a hatalomban. Ez az a zavaró forgatókönyv, amelyet néhány pillanattal korábban leírtam.

Ideje feldobni az ante.

Az AI érzővé válik. Ennek az érző mesterséges intelligenciának most potenciálisan széles körben elterjedt képességét adtuk át az emberek hűségének és hűtlenségének feltehetően azonosítására. Egy gonosztevő mesterséges intelligencia, amely az emberek kiirtását fontolgatja, felhasználhatja ezt a képességet annak eldöntésére, hogy az emberek valóban hűtlenek lesznek, és teljesen meg kell semmisíteni őket. Vagy talán csak azokat az embereket, akik az arcuk vagy a gondolataik révén hűtlenségre utalnak, különösen le kell selejtezni.

Egy másik oldal az, hogy a mesterséges intelligencia rabszolgává akarja tenni az embereket, lásd a vitámat itt az itt található link.

Úgy tűnik, tökéletes ajándékot adtunk az MI-nek a küldetés végrehajtásáért. Az általunk kiépített meglévő infrastruktúra lehetővé teszi a mesterséges intelligencia számára, hogy gondosan figyeljen minket, embereket. Azok, akik úgy tűnik, hűtlen arckifejezést fejeztek ki, vagy a mesterséges intelligencia uraira gondoltak, érezni fogják az MI haragját.

Rájöttem, hogy azt mondtam, hogy ez az előzetes felhajtás. Nem vagyok benne biztos, hogy ez a helyzet. Számomra úgy tűnik, hogy akár mesterséges intelligencia-felügyelőink, akik közvetlenül döntenek a sorsunkról, szemben az emberi urakkal, akik esetleg mesterséges intelligencia-rendszert használnak a lojalitás meghatározására, nos, egyik javaslat sem tűnik különösebben kívánatosnak.

Egy utolsó megjegyzés egyelőre.

Marcus Tullius Cicero római tudós és filozófus kijelentette, hogy a hűségnél nincs nemesebb, semmi tiszteletreméltóbb. Lehet, hogy hagyjuk, hogy a mesterséges intelligencia megelőzzen bennünket, és olyan eszközzé váljon, amellyel félelmetes eszközökkel bevonhatjuk és biztosíthatjuk a „hűséget”.

Érdemes megfontolni, hogy a mesterséges intelligencia etikáját a Teendők listájának élére helyezzük.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- tanúsítvány-amely előrevetítheti-elnyomó-autonóm-rendszereket/