A mesterséges intelligencia etika és az öntudatosság keresése az AI-ban

Ön tisztában van?

Fogadni mernék, hogy elhiszed.

A helyzet az, hogy állítólag közülünk kevesen vagyunk különösebben öntudatosak. Az öntudatosságnak van egy tartománya vagy foka, és állítólag mindannyian eltérőek vagyunk abban, hogy mennyire vagyunk öntudatosak. Azt gondolhatja, hogy teljesen tisztában van önmagával, és csak csekély mértékben. Lehet, hogy kevéssé tudatában vagy, és rájössz, hogy ez a lelki állapotod.

Eközben a spektrum legfelső részén azt hiheti, hogy teljesen öntudatos vagy, és őszintén szólva körülbelül olyan öntudatos, ahogy jön. Jó neked.

Ha már szóba került, mire jó az, ha túlságosan öntudatos?

A Harvard Business Review (HBR) – Tasha Eurich, Ön állítólag jobb döntéseket tud hozni, magabiztosabb döntéseiben, erősebb a kommunikációs képessége, és összességében hatékonyabb (a „Mi valójában az öntudat (és hogyan) című cikkében) művelni).” A bónusz az, hogy a kiélezett öntudattal rendelkezőkről azt mondják, hogy kevésbé hajlamosak csalni, lopni vagy hazudni. Ebben az értelemben kétféleképpen lehet elkerülni, hogy gazember vagy szélhámos legyen. arra törekszik, hogy jobb emberré váljon, és megszépítse embertársát.

Mindez az öntudatról szóló beszéd egy kissé nyilvánvaló kérdést vet fel, nevezetesen, hogy mit jelöl valójában az öntudat kifejezés. Rengeteg különféle definíciót és értelmezést találhatunk az öntudattal együtt járó komplexről és mondjuk úgy, kásás konstrukcióról. Egyesek leegyszerűsítenék a dolgokat azzal, hogy azt sugallják, hogy az önismeret abból áll, hogy figyelemmel kíséri saját énjét, és tudja, mire készül. Tisztában vagy saját gondolataiddal és tetteiddel.

Feltehetően, ha az ember nem ismeri önmagát, nem fogja fel, hogy mit csinál, és azt sem, hogy miért, és azt sem tudja, hogy mások mit mondanak róluk. Biztos vagyok benne, hogy találkoztál már ilyen emberekkel.

Úgy tűnik, egyes emberek úgy járnak ezen a földön, hogy fogalmuk sincs arról, mit csinálnak, és nem is sejtik, hogy mások mit mondanak róluk. Azt hiszem, vitathatja, hogy olyanok, mint egy fejjel lefelé rohanó bika egy finom törhető üzletben. Hajlamosak vagyunk azt hinni, hogy a bika nem tudja, mit csinál, és figyelmen kívül hagyja mások nézeteit, hacsak azok nem próbálják meg fizikailag manőverezni vagy bekeríteni a tanácstalan lényt.

Azt mondják, hogy az öntudat némileg rekurzív lehet.

Hadd vázoljak fel egy példát ennek a rekurziónak a szemléltetésére. Éppen egy nagyon elragadó macskavideót nézel okostelefonodon (úgy tűnik, mindenki ezt csinálja). Néhány embernek nem is lenne más látszólagos gondolata, mint azoknak a drága macskáknak a csodálatos szívmelengető bohóckodása. Eközben bárki, akinek van egy kis öntudata, tisztában van vele, hogy macskás videót néz. Lehet, hogy tudatában vannak annak is, hogy a körülöttük lévők észreveszik, hogy macskás videót néznek.

Vedd észre, hogy lehetsz öntudatos, és mégis elmerülhetsz egy bizonyos elsődleges tevékenységben. Ebben az esetben az elsődleges tevékenység a macskavideó megtekintése. Másodsorban és ezzel egyidejűleg magában hordozhatja azt a gondolatot, hogy valójában egy macskavideót néz. Azt is el tudja viselni, hogy mások figyelnek rád, miközben nézed a teljesen szórakoztató macskavideót. Nem kell feltétlenül abbahagynia egy tevékenységet, például abbahagynia a macskavideó nézését, hogy aztán külön elgondolkodjon azon, hogy éppen egy macskavideót néz (vagy éppen nézte). Ezek a gondolatok látszólag párhuzamosan fordulhatnak elő egymással.

Néha öntudatosságunk kizökkenthet vagy legalábbis megszakíthat egy elsődleges mentális tevékenységünket. Lehet, hogy miközben a macskavideó megtekintésére gondolsz, az elméd részben kirajzolódik, mert túlfeszített, hogy kizárólag magára a videóra koncentráljon. Dönthet úgy, hogy visszatekeri a videót, hogy újra megtekintse azt a részt, amelyet látott, de mentálisan elvont attól, hogy teljesen megértse. Az öntudat megzavarta elsődleges mentális tevékenységét.

Oké, most már készen állunk a rekurzív szempontok felmerülésére.

Készen állsz?

Macskás videót nézel. Öntudatod arról tájékoztat, hogy macskavideót nézel, és mások is figyelnek téged, miközben te nézed a videót. Ez a status quo.

Ezután egy további mentális ugrást hajt végre. Elkezdesz gondolkodni az önismereteden. Ön tudatában van annak, hogy öntudatával foglalkozik. Így megy ez: Túl sokat gondolkodom azon, hogy megnéztem a macskavideót, kérdezed magadtól kétségbeesetten? Ez az öntudat másik rétege. Az öntudatosság rangsorolása a többi öntudat felett.

Van egy régi mondás, amely szerint a teknősök egészen lefelé. Az önismereti jelenségek esetében Ön lehet:

  • Nincs tudatában magadnak
  • Öntudatos önmagaddal
  • Öntudatos önmaga öntudatának
  • Öntudatos önmaga tudatában önmaga öntudatának
  • Ad Infinitum (azaz és így tovább)

Talán rájöttél, hogy korábban finoman rámutattam arra, hogy az öntudatnak két fő kategóriája van. Egy bizonyos elmélet azt feltételezi, hogy van egyfajta belső öntudatunk, amely belső állapotainkra összpontosít, és van egy külső öntudatunk is, amely segít felmérni a körülöttünk lévők rólunk alkotott képét, akik ránk néznek.

A HBR cikke szerint itt van egy gyors leírás az elméletileg kétféle öntudatról: „Az első, amelyet elneveztünk belső öntudat, azt mutatja, hogy mennyire tisztán látjuk saját értékeinket, szenvedélyeinket, törekvéseinket, mennyire illeszkednek a környezetünkhöz, reakcióinkat (ideértve a gondolatokat, érzéseket, viselkedéseket, erősségeinket és gyengeségeinket) és a másokra gyakorolt ​​hatásunkat.” És közben a másik: „A második kategória, külső öntudat, azt jelenti, hogy megértjük, hogyan látnak minket mások, a fent felsorolt ​​tényezők alapján. Kutatásunk azt mutatja, hogy azok az emberek, akik tudják, hogyan látják őket mások, sokkal képzettebbek az empátia kimutatásában és mások szempontjainak figyelembevételében.”

Egy praktikus kettős-kettős mátrix vagy négyzetes mátrix származtatható, ha azt állítjuk, hogy mind a belső, mind a külső öntudat a magastól az alacsonyig terjed, és a két kategória egymáshoz illeszthető. A HBR-kutatás azt jelzi, hogy Ön az öntudat e négy archetípusának egyike:

  • Introspector: Alacsony külső öntudat + magas belső öntudat
  • Kereső: Alacsony külső öntudat + alacsony belső öntudat
  • Kérem: Magas külső öntudat + alacsony belső öntudat
  • Tudatos: Magas külső öntudat + magas belső öntudat

A csúcs a „tudatos” archetípus lenne, amely abból áll, hogy a külső öntudatosság legfelső fokán állunk, és hasonlóképpen a belső öntudatosság csúcsán vagyunk. Hogy tisztázzuk, ezt a dicsért testtartást nem éri el feltétlenül állandó módon. Oda-vissza csúszhatsz a magas és az alacsony lét között, mind a belső, mind a külső öntudat területén. Ez függhet a napszaktól, a helyzettől, amelyben találja magát, és egy csomó más kiemelkedő tényezőtől.

Most, hogy kedvesen foglalkoztunk az öntudat néhány alapvető elemével, megpróbálhatjuk ezt az etikus viselkedés témájához kötni.

Az öntudattal kapcsolatos szokásos állítás az, hogy nagyobb valószínűséggel jársz a fedélzeten, ha tudatos vagy. Ez azt jelenti, ahogy már jeleztük, kevésbé hajlamos az olyan kedvezőtlen etikai magatartásokra, mint a lopás, csalás és hazugság. Ennek a tendenciának az az oka, hogy öntudatának aktivitása ráébreszti Önt arra, hogy saját viselkedése kellemetlen vagy etikátlan. Nemcsak elkapod magad, amikor sáros, etikátlan vizekre kanyarodsz, hanem arra is hajlamos vagy, hogy visszatereld magad a szárazföldre (az etikus terület szentségére).

Az öntudatosságod segít az önkontroll gyakorlásában.

Az ellentét feltehetően az, ha kevés vagy nincs öntudat, ami arra utal, hogy valaki esetleg nem veszi észre, hogy etikátlan viselkedésre hajlik. Lehetséges, hogy egy ilyen tudatlan személy nem veszi észre, hogy rosszul teljesít. A törhető boltban lévő bikákhoz hasonlóan, amíg valami nyíltabban meg nem ragadja a figyelmüket, nem valószínű, hogy önszabályozzák magukat.

Ezt egyébként nem mindenki veszi be. Egyesek azt állítják, hogy az öntudat ugyanolyan könnyen alkalmazható etikátlanságra, mint etikára. Például lehet, hogy egy gonosztevő teljesen tisztában van önmagával, és élvezi, hogy jogtalanságot követ el. Öntudatuk még erőteljesebben készteti őket egyre nagyobb aljas vétségek felé.

Ezen a területen több a felhő, mint amennyit közvetlenül láthatunk. Tegyük fel, hogy valaki nagyon tisztában van önmagával, de nincs tisztában egy adott társadalom vagy kultúra etikai szokásaival. Ilyen módon semmilyen etikai útmutatásuk nincs, annak ellenére, hogy öntudatosak. Vagy ha úgy tetszik, az illető ismeri az etikai előírásokat, és nem hiszi el, hogy azok vonatkoznak rájuk. Egyedülállónak tartják magukat, vagy kívül esnek a hagyományos etikai gondolkodás határain.

Körbe-körbe megy.

Az öntudat kétélű etika-orientált kardként is felfogható – hangsúlyozzák néhányan hevesen.

Pillanatnyilag válasszuk a boldog arc verziót, amely lényegében az öntudatból áll, amely etikus viselkedésre terel bennünket. Ha minden más egyenlő, akkor azt a pimasz feltételezést tesszük, hogy minél több az öntudat, annál etikusabb lesz. Biztosan kellemesnek és inspirálónak tűnik ezt kívánni.

Váltsunk sebességet, és hozzuk a képbe a mesterséges intelligenciát (AI).

A vita pontján állunk, hogy az összes folyamatban lévő összefonódást összekapcsoljuk az etikus mesterségesintelligencia virágzó birodalmával, amelyet a mesterséges intelligencia etikájának is neveznek. A mesterséges intelligencia etikájával kapcsolatos folyamatos és kiterjedt tudósításomért lásd az itt található link és a az itt található link, csak hogy néhányat említsek.

Az etikus mesterséges intelligencia fogalma magában foglalja az etika és az etikus viselkedés területének összefonódását az MI megjelenéséig. Biztosan láttál már olyan címeket, amelyek vészharangot kongattak az egyenlőtlenségekkel és különböző torzításokkal teli mesterséges intelligencia kapcsán. Például aggodalomra ad okot, hogy a mesterséges intelligencia-alapú arcfelismerő rendszerek időnként faji és nemi megkülönböztetést mutathatnak, jellemzően annak eredményeként, hogy a mögöttes gépi tanulási (ML) és a mély tanulási (DL) létesítményeket hogyan képezték ki és alkalmazták (lásd az elemzésemet). nál nél ez a link itt).

Megpróbálni megállítani vagy legalább enyhíteni a felé rohanó varázslatot AI For Bad, amely olyan mesterséges intelligencia-rendszerekből áll, amelyeket akár véletlenül, akár szándékosan úgy alakítottak ki, hogy rosszul működjenek, az utóbbi időben sürgetővé vált az etikai előírások alkalmazása a mesterséges intelligencia fejlesztése és használata során. A komoly cél az, hogy etikai útmutatást adjunk a mesterséges intelligencia fejlesztőinek, valamint a mesterséges intelligenciát fejlesztő vagy fejlesztő cégeknek, valamint az AI-alkalmazásoktól függő cégeknek. Az etikus mesterséges intelligencia elveinek kialakítására és elfogadására vonatkozó példaként tekintse meg tudósításomat a címen az itt található link.

Szánjon egy pillanatot elmélkedésre, hogy átgondolja ezt a három rendkívül döntő kérdést:

  • Rávehetjük-e a mesterséges intelligencia fejlesztőit arra, hogy elfogadják az etikus mesterséges intelligencia alapelveit, és ténylegesen alkalmazzák ezeket az irányelveket?
  • Rábírhatjuk-e a mesterséges intelligenciával foglalkozó cégeket, hogy hasonlóképpen tegyenek?
  • El tudjuk érni, hogy az AI-t használók hasonlóan tisztában legyenek az etikus mesterséges intelligencia szempontjaival?

Gátlástalanul azt mondanám, hogy ez egy magas rend.

A mesterséges intelligencia elkészítésének izgalma felülmúlhatja a mesterséges intelligencia etikájára irányuló minden sejtést. Nos, nem csak az izgalom, hanem a pénzszerzés is szerves része ennek az egyenletnek. Meglepődhet, ha megtudja, hogy a mesterséges intelligencia területén egyesek azt mondják, hogy az etikus mesterséges intelligencia „dolgjaival” foglalkoznak, miután kihozták a mesterséges intelligencia rendszerüket. Ez a tipikus technikus mantra, hogy ügyeljen arra, hogy gyorsan és gyakran kudarcot valljon mindaddig, amíg jól nem sikerül (remélhetőleg sikerül).

Természetesen azok, akik az etikailag kétes mesterséges intelligenciát a nagyközönség elé tolják, kiengedik a lovat az istállóból. Meghirdetett kinyújtott elképzelésük az, hogy a AI For Bad A napi használat után megjavítják, ami károsan késik, mivel a ló már önkéntelenül vágtat. Károkat lehet tenni. Nagy az esélye annak is, hogy az AI használata közben semmit nem javítanak vagy módosítanak. Gyakori kifogás, hogy az MI-vel való babrálás ebben a pillanatban még rosszabbá teheti a helyzetet az amúgy is etikátlan algoritmikus döntéshozatal (ADM) tekintetében, amely teljesen lecsúszik a csúszásról.

Mit lehet tenni annak érdekében, hogy az Ethical AI fényesen ragyogó és irányadó fényként hasznosuljon és vitalizálódjon azok elméjében, akik MI-t építenek, alkalmaznak és használnak?

Válasz: Öntudatosság.

Igen, az az elképzelés, hogy ha az emberek jobban tisztában lennének azzal, hogyan használják a mesterséges intelligenciát vagy hogyan lépnek kapcsolatba vele, az megnövelheti hajlamukat arra, hogy az etikus mesterséges intelligencia legyen a norma. Ugyanez mondható el a mesterséges intelligencia fejlesztőiről és az AI-rendszerekhez kapcsolódó cégekről. Ha jobban tisztában lennének azzal, amit csinálnak, talán jobban magukévá tennék az AI etikáját.

A már kimondott logika része az, hogy az öntudat egy etikailag jobb emberré válás irányába mutat, és egyúttal elkerüli, hogy etikailag tetves ember legyen. Ha meg tudjuk tartani ezt a feltevést, az azt jelenti, hogy azok a mesterséges intelligencia-fejlesztők, akik hajlamosabbak az öntudatosságra, hajlamosak lesznek az etikus viselkedésre, és ezért hajlamosak lesznek etikusan megalapozott mesterséges intelligencia létrehozására.

Túl messze van ez a híd neked?

Egyesek azt mondanák, hogy a közvetettség egy kicsit sok. Az öntudatosság, az etikailag erényesség és a mesterséges intelligencia etikai előírásainak alkalmazása közötti összefüggések túlzott láncolatát talán nehéz lenyelni. Az ellenérv az, hogy nem ártana megpróbálni.

A szkeptikusok azt mondanák, hogy egy mesterséges intelligencia fejlesztő öntudatos és etikusabb gondolkodású lehet, de nem feltétlenül ugrálnak afelé, hogy ezt a mentális tábort az etikus mesterséges intelligencia szokásaihoz alkalmazzák. A válasz erre az aggodalomra az, hogy ha nyilvánosságra tudjuk hozni és népszerűsíteni tudjuk az etikus mesterséges intelligencia ügyeit, akkor az egyébként csekélynek tűnő kapcsolat nyilvánvalóbbá, elvárhatóbbá válik, és valószínűleg a mesterséges intelligencia megalkotásának szokásos módja lesz.

Most egy csavart adok ehhez a sagához. A csavartól megfordulhat a feje. Kérjük, győződjön meg róla, hogy jól ül, és felkészült arra, amit jelezni készülök.

Egyesek rámutatnak arra, hogy az Ethical AI-t közvetlenül magába az AI-ba kellene építenünk.

Lehet, hogy nem zavarja ez a kijelentés. Csomagoljuk ki.

A programozó létrehozhat egy mesterséges intelligencia-rendszert, és ezt saját programozási öntudatával megteheti, hogy megpróbálja megakadályozni, hogy az AI torzításokat és egyenlőtlenségeket testesítsen meg. A fejlesztő ahelyett, hogy csak a programozáson szánná magát, a saját válla fölött figyeli, hogy megkérdezze, vajon az általuk alkalmazott megközelítés nem eredményezi-e a káros elemek szükségességét az MI-ben.

Remek, van egy mesterséges intelligencia-fejlesztőnk, aki eléggé öntudatosnak tűnik, igyekezett magáévá tenni az etikus viselkedést, és látta a fényt, hogy etikai előírásokat is figyelembe vegyen AI-rendszerének kialakítása során.

Nyerjen az Ethical AI-ért!

Minden jó és jó, bár itt van valami, ami később kiderülhet. Az AI-t kiterjeszték és napi használatba veszik. Az AI egy része tartalmazott egy olyan komponenst, amely lehetővé tette a „tanulást” menet közben. Ez azt jelenti, hogy a mesterséges intelligencia az új adatok és az eredeti programozás egyéb vonatkozásai alapján beállíthatja magát. Gyorsan félretéve, ez nem jelenti azt, hogy az MI érző. Nincs érző AI-nk. Hagyja figyelmen kívül azokat az ostoba címeket, amelyek azt mondják, hogy igen. Senki sem tudja megmondani, hogy lesz-e érző mesterséges intelligencia, és senki sem tudja kellőképpen megjósolni, hogy mikor fog megtörténni.

Visszatérve a mesénkhez, az AI-t céltudatosan arra tervezték, hogy folyamat közben javítsa magát. Nagyon praktikus fogalom. Ahelyett, hogy a programozóknak folyamatosan fejlesztéseket kellene végrehajtaniuk, megengedik az AI-programnak, hogy ezt önmagában is megtegye (hohó, ez kiveszi magát a munkából?).

Azalatt az idő alatt, amíg az MI hüvelykről hüvelykre beállítja magát, kiderül, hogy különféle gagyi egyenlőtlenségek és torzítások kúsznak be a mesterséges intelligencia rendszerébe a saját változásai miatt. Míg a programozó eredetileg figyelmen kívül hagyta ezeket a makacs szempontokat, most az AI menet közbeni igazítása miatt fogalmazzák meg őket. Sajnálatos módon ez olyan finoman, a színfalak mögött történhet, hogy senki sem bölcsebb. Azok, akik korábban zöld utat adhattak az MI-nek a kezdeti kimerítő tesztelés után, most vakon nem tudják, hogy az AI végigment a rohadt úton. AI For Bad.

Ennek a nemkívánatos megjelenésnek az egyik módja az lenne, ha egyfajta etikus mesterséges intelligencia-ellenőrzőt építenénk be az AI-ba. Az AI-n belül egy komponens úgy van programozva, hogy figyelje az AI viselkedését, és észlelje, hogy nem kezd-e megjelenni az etikátlan ADM. Ha igen, az összetevő riasztást küldhet az AI-fejlesztőknek, vagy egy olyan cégnek, amely az AI-rendszert üzemelteti.

Ennek az összetevőnek egy fejlettebb verziója megpróbálhatja megjavítani az AI-t. Ez a kiigazítások kiigazítása lenne, a felmerülő etikátlan szempontokat a megfelelő etikai paraméterekké alakítva vissza. Elképzelheti, hogy ez a fajta programozás trükkös. Fennáll annak az esélye, hogy félresiklik, és az etikátlanságból mélyen etikátlanná változhat. Fennáll annak a lehetősége is, hogy egy téves pozitív eredmény működésbe hozza az összetevőt, és ennek megfelelően elrontja a dolgokat.

Mindenesetre, anélkül, hogy belemerülnénk abba, hogy ez a kettős ellenőrző hogyan működne, vakmerő nyilatkozatot fogunk tenni ezzel kapcsolatban. Azt sugallhatja, hogy bizonyos korlátozott módon a mesterséges intelligencia öntudatos.

Aha, ezek sokak számára harci szavak.

Szinte mindenki úgy véli, hogy a mai mesterséges intelligencia nem ismeri önmagát. Pont, pont. Amíg el nem érjük az érző mesterséges intelligenciát, amelyről nem tudjuk, hogy ez bekövetkezik-e, és mikor, addig nincs olyan mesterséges intelligencia, amely öntudatos lenne. Nem legalábbis az emberközpontú öntudat értelmében. Ne is mondd, hogy ez megtörténhet.

Természetesen egyetértek azzal, hogy óvatosnak kell lennünk a mesterséges intelligencia antropomorfizálásával kapcsolatban. Egy pillanat múlva többet mondok erről az aggodalomról.

Mindeközben, ha a vita kedvéért hajlandó vagy laza-liba módon használni az „öntudatos” szakaszolást, akkor azt hiszem, könnyen beláthatod, miért lehet azt mondani, hogy a mesterséges intelligencia betartja az önismeret általános fogalmát. tudatosság. A mesterséges intelligencia egy része felügyeli a mesterséges intelligencia többi részét, és figyelemmel kíséri a többi AI tevékenységét. Amikor a mesterséges intelligencia többi része túlzásba kezd, a megfigyelő rész ezt próbálja észlelni. Ezenkívül az AI-figyelő rész vagy a kettős ellenőrző a mesterséges intelligencia többi részét visszaterelheti a megfelelő sávokba.

Nem úgy tűnik, mintha megnéznéd azokat a macskavideókat, és tudatában vagy annak, hogy ezt csinálod?

Van benne egy ismerős csengés.

Ezt még tovább bővíthetjük. A mesterséges intelligencia kettős ellenőrző komponense nemcsak a mesterséges intelligencia többi részének viselkedésének megfigyelésére van programozva, hanem az AI-t használók viselkedését is feljegyzi. Hogyan állnak a felhasználók az AI használatakor? Tegyük fel, hogy egyes felhasználók felháborodásukat fejezik ki amiatt, hogy az AI úgy tűnik, megkülönbözteti őket. A mesterséges intelligencia ellenőrzője talán fel tudja venni ezt, és újabb piros zászlóként használja a mesterséges intelligencia többi részének tévútjára.

Ez előhozza a belső öntudat és a külső öntudat kategorizálását.

A mesterséges intelligencia-ellenőrző belső és külső vizsgálatokat végez, hogy kiderítse, vajon a mesterséges intelligencia többi része a nyugtalanító tengerek felé tart-e. Az észlelés zászlót emel, vagy önjavítást hajt végre.

Adjunk hozzá még egy kissé elgondolkodtató kiterjesztést. Egy másik mesterséges intelligencia kettős ellenőrzőt építünk, amely az alapvető AI kettős ellenőrzést hivatott ellenőrizni. Miért is? Nos, tegyük fel, hogy a mesterséges intelligencia-ellenőrző akadozik, vagy nem látja el a feladatát. A kettős ellenőrző mesterséges intelligencia-ellenőrzője igyekszik észlelni ezt a hibát, és ennek megfelelően megtenni a szükséges lépéseket. Üdvözöljük az öntudat rekurzív természetében, egyesek büszkén jelenthetik ki, amint azt egy számítástechnikai mesterséges intelligencia-rendszer bemutatja.

Azok számára, akik már a helyük szélén vannak ezzel kapcsolatban, az utolsó megjegyzés egyelőre az, hogy megpróbálhatnánk azt sugallni, hogy ha „öntudatossá” teszik az AI-rendszereket, akkor potenciálisan az etikus viselkedés felé fognak vonzódni. Érzelmi alapon teszik ezt? Határozottan nem. Számítási alapon teszik ezt? Igen, bár egyértelműnek kell lennünk, hogy ez nem olyan kaliberű, mint az emberi viselkedés.

Ha kényelmetlenül érzi magát, hogy az öntudat fogalmát tévesen torzítják, hogy beilleszkedjen egy számítási sémába, akkor az ezzel kapcsolatos aggályai jól láthatóak. Egy másik nyitott kérdés, hogy véget vessünk-e a folyamatos mesterséges intelligencia-erõfeszítéseknek, amelyek ezt az elképzelést hasznosítják. Meggyőzően érvelhet, hogy legalábbis úgy tűnik, hogy a mesterséges intelligencia várhatóan jobb kimenetele felé vezet. Miközben ez történik, tágra kell nyitnunk a szemünket.

Gondolom, meg kell néznünk, hogyan alakul ez az egész. Térjen vissza ehhez öt év, tíz és ötven év múlva, és nézze meg, megváltozott-e a gondolkodása a vitatott kérdésben.

Tudom, hogy ez a téma kissé mámorító vizsgálata volt, és lehet, hogy mindennapi példákra vágyik. Van egy különleges és biztosan népszerű példasor, amely közel áll a szívemhez. Látod, a mesterséges intelligencia szakértőjeként, beleértve az etikai és jogi következményeket is, gyakran kérnek fel olyan reális példák azonosítására, amelyek bemutatják a mesterséges intelligencia etikai dilemmáit, hogy könnyebben megragadható legyen a téma némileg elméleti jellege. Az egyik legemlékezetesebb terület, amely élénken mutatja be ezt az etikus AI-problémát, az AI-alapú, valódi önvezető autók megjelenése. Ez praktikus használati esetként vagy példaként szolgál a témával kapcsolatos bőséges vitához.

Íme, egy figyelemre méltó kérdés, amelyen érdemes elgondolkodni: A mesterséges intelligencia-alapú valódi önvezető autók megjelenése rávilágít-e bármire is az AI „öntudatosság” látszatáról, és ha igen, mit mutat ez be?

Engedjen meg egy pillanatra, hogy kibontsa a kérdést.

Először is vegye figyelembe, hogy egy igazi önvezető autóban nincs emberi vezető. Ne feledje, hogy az igazi önvezető autókat mesterséges intelligencia vezetési rendszer vezeti. Nincs szükség emberi sofőrre a volánnál, és arra sem, hogy ember vezesse a járművet. Az autonóm járművekről (AV-k) és különösen az önvezető autókról szóló kiterjedt és folyamatos tájékoztatásért lásd az itt található link.

Szeretném még jobban tisztázni, mit kell érteni, amikor valódi önvezető autókra utalok.

Az önvezető autók szintjének megértése

Tisztázásképpen: az igazi önvezető autók azok, amelyekben az AI teljes egészében egyedül hajtja az autót, és a vezetési feladat során nincs emberi segítség.

Ezek a vezető nélküli járművek 4-es és 5-ös szintnek minősülnek (lásd a magyarázatomat a következő helyen). ez a link itt), míg az olyan autókat, amelyekhez emberi vezető szükséges a vezetési erőfeszítések közös megosztására, általában 2. vagy 3. szinten tekintik. A vezetési feladatot közösen megosztó autók leírása félig autonóm, és általában különféle automatizált bővítmények, amelyeket ADAS-nak (Advanced Driver-Assistance Systems) neveznek.

Még nem létezik egy valódi önvezető autó az 5. szinten, amelyet még csak nem is tudunk, hogy ezt el lehet-e érni, és hogy mennyi ideig tart is eljutni oda.

Eközben a 4. szintű erőfeszítések fokozatosan próbálnak némi vonóerőt szerezni nagyon szűk és szelektív közúti próbák révén, bár vita folyik arról, hogy ezt a tesztelést önmagában engedélyezni kell-e (mindannyian életre-halálra menő tengerimalacok vagyunk egy kísérletben autópályáinkon és mellékutainkon zajlanak, egyesek azt állítják, lásd tudósításomat itt ez a link itt).

Mivel a félig autonóm autókhoz emberi sofőrre van szükség, az ilyen típusú autók elfogadása nem különbözik nyilvánvalóan a hagyományos járművek vezetésénél, tehát önmagában nincs sok új, hogy ezekkel a témákkal foglalkozzanak (bár, amint látni fogja) egy pillanat alatt a következő pontok általában alkalmazandók).

A félig autonóm autók esetében fontos, hogy a nyilvánosságot figyelmeztessék az utóbbi időben felmerülő zavaró tényezőkre, nevezetesen arra, hogy azoknak az emberi járművezetőknek ellenére, akik folyamatosan videókat tesznek közzé, hogy maguk alszanak a 2. vagy 3. szintű autó kormányához , mindannyian el kell kerülnünk, hogy félrevezetjük azt a hitet, hogy a sofőr félig autonóm autó vezetése közben elvonhatja figyelmét a vezetési feladatról.

Te vagy a felelős a jármű vezetési tevékenységeiért, függetlenül attól, hogy mekkora mennyiségű automatizálást lehet 2. vagy 3. szintre dobni.

Önvezető autók és mesterséges intelligencia, amelyek úgynevezett öntudattal rendelkeznek

A 4. és 5. szintű valódi önjáró járműveknél nem vezethet embervezető a vezetési feladatba.

Minden utas utas lesz.

Az AI vezet.

Azonnal megvitatandó szempont azzal a ténnyel jár, hogy a mai mesterséges intelligencia-vezetési rendszerekben részt vevő mesterséges intelligencia nem érző. Más szavakkal, az AI összességében számítógépes programozás és algoritmusok összessége, és bizonyosan nem képes ugyanúgy érvelni, mint az emberek.

Miért van ez a hangsúly arra, hogy az AI nem érzékeny?

Mivel szeretném aláhúzni, hogy az AI hajtórendszer szerepének tárgyalásakor nem tulajdonítok emberi tulajdonságokat az AI-nek. Felhívjuk figyelmét, hogy manapság folyamatos és veszélyes tendencia van az AI antropomorfizálására. Lényegében az emberek emberi szerű érzékenységet tulajdonítanak a mai mesterséges intelligenciának, annak ellenére, hogy tagadhatatlan és vitathatatlan tény, hogy ilyen AI még nem létezik.

Ezzel a pontosítással elképzelheti, hogy az AI vezetési rendszer valahogy nem fogja „tudni” a vezetés szempontjait. A vezetést és mindazt, amit ez magában foglal, be kell programozni az önvezető autó hardverének és szoftverének részeként.

Merüljünk el abban a számtalan szempontban, amelyek eljátszanak ebben a témában.

Először is fontos felismerni, hogy nem minden AI önvezető autó egyforma. Minden autógyártó és önvezető technológiai cég alkalmazza a hozzáállását az önvezető autók kidolgozásához. Emiatt nehéz átfogó kijelentéseket tenni arról, hogy az AI-meghajtórendszerek mit fognak tenni vagy nem.

Továbbá, ha azt állítják, hogy az AI meghajtó rendszer nem végez bizonyos dolgokat, ezt később a fejlesztők megelőzhetik, akik valójában erre programozzák a számítógépet. Lépésről lépésre az AI meghajtó rendszereket fokozatosan fejlesztik és bővítik. A meglévő korlátozás ma már nem létezik a rendszer későbbi iterációjában vagy verziójában.

Bízom benne, hogy ez elegendő litániai figyelmeztetést ad ahhoz, hogy alátámasszam azt, amit most el fogok mondani.

Most készen állunk arra, hogy mélyen elmerüljünk az önvezető autók és a mesterséges intelligencia etikai kérdéseinek témakörében, amelyek magukban foglalják azt a szemöldökkeltő elképzelést, hogy a mesterséges intelligencia egyfajta öntudattal rendelkezik, ha úgy tetszik.

Használjunk egy könnyen érthető példát. Egy mesterséges intelligencia-alapú önvezető autó halad a környék utcáin, és úgy tűnik, hogy biztonságosan vezet. Eleinte különös figyelmet szentelt minden egyes alkalommal, amikor sikerült megpillantania az önvezető autót. Az autonóm jármű az elektronikus szenzorokból álló állványával tűnt ki, amely videokamerákat, radaregységeket, LIDAR eszközöket és hasonlókat tartalmazott. Sok hét után az önvezető autóval körbejárta a közösséget, most alig veszi észre. Ami Önt illeti, ez csak egy újabb autó az amúgy is forgalmas közutakon.

Nehogy azt higgye, lehetetlen vagy valószínűtlen megismerni az önvezető autók látását, gyakran írtam arról, hogy az önvezető autók kipróbálásának körébe tartozó helyszínek fokozatosan hozzászoktak a felpörkölt járművekhez, lásd az elemzésemet itt ez a link itt. A helyiek közül sokan végül áttértek a szájtátva tátott, elragadtatott bámészkodásról az unalom kiterjedt ásítására, hogy szemtanúi legyenek a kanyargó önvezető autóknak.

Valószínűleg a fő ok, amiért most észreveszik az autonóm járműveket, az az irritáció és az elkeserítő tényező. A könyv szerinti mesterséges intelligencia-vezetési rendszerek gondoskodnak arról, hogy az autók betartsák az összes sebességkorlátozást és a KRESZ szabályait. Hagyományos, ember által hajtott autóikkal hektikus embervezetők időnként felháborodnak, amikor a szigorúan törvénytisztelő AI-alapú önvezető autók mögött ragadnak.

Ez az, amit mindannyiunknak meg kell szoknunk, jogosan vagy helytelenül.

Vissza a mesénkhez. Tegyük fel, hogy egy napon egy önvezető autó az Ön városában megközelíti a Stop táblát, és úgy tűnik, nem lassít. Istenem, úgy tűnik, hogy az AI vezetési rendszere az önvezető autót közvetlenül a Stop tábla mellett fogja ekézni. Képzelje el, ha egy gyalogos vagy kerékpáros valahol a közelben van, és véletlenül rajtakapják, hogy az önvezető autó nem áll meg megfelelően. Szégyenletes. Veszélyes!

És illegális.

Nézzünk most egy AI-komponenst az AI vezetési rendszerben, amely az öntudatos kettős ellenőrző stílusaként működik.

Szánjunk rá egy percet, hogy beleássuk a részletekbe, mi is történik az AI vezetési rendszerében. Kiderült, hogy az autonóm járműre szerelt videokamerák a Stop táblának tűnő dolgot észleltek, bár ebben az esetben egy benőtt fa bőségesen eltakarja a Stop táblát. A gépi tanulási és mély tanulási rendszert, amelyet eredetileg a Stop táblákra oktattak, főként a teljes Stop táblák mintái alapján dolgozták ki, általában nem korlátozva. A videofelvételek számítási vizsgálatakor kis valószínűséggel állapították meg, hogy az adott helyen Stop tábla létezett (további bonyodalomként és további magyarázatként ez egy újonnan kihelyezett Stop tábla volt, amely nem jelent meg a korábban elkészített digitális térképeken AI vezetési rendszerre támaszkodott).

Összességében a mesterséges intelligencia vezetési rendszere számításilag úgy döntött, hogy előrehalad, mintha a Stop tábla vagy nem létezne, vagy esetleg másfajta jel lenne, amely valószínűleg egy Stop táblához hasonlított (ez megtörténhet, és bizonyos gyakorisággal meg is történik).

De szerencsére a mesterséges intelligencia öntudatos kettős ellenőrzője figyelte a mesterséges intelligencia vezetőrendszerének tevékenységét. Az adatok és az AI többi része által végzett értékelés számítási áttekintése után ez a komponens úgy döntött, hogy felülbírálja a szokásos folyamatot, és ehelyett arra utasította a mesterséges intelligencia vezetőrendszerét, hogy álljon le megfelelően.

Senki nem sérült meg, jogellenes cselekmény sem történt.

Mondhatnánk, hogy a mesterséges intelligencia öntudatos kettős ellenőrzője úgy viselkedett, mintha egy beágyazott jogi képviselő lenne, és megpróbálta biztosítani, hogy a mesterséges intelligencia vezetési rendszere betartsa a törvényt (jelen esetben a Stop táblát). Természetesen a biztonság is kulcsfontosságú volt.

Ez a példa remélhetőleg bemutatja, hogyan működhet az AI öntudatos kettős ellenőrzője.

Következő röviden megfontolhatunk egy sokkal szembetűnőbb etikus mesterséges intelligencia példát, amely bemutatja, hogy a mesterséges intelligencia öntudatos kettős ellenőrzése hogyan biztosíthat etikai AI-orientált beágyazott funkcionalitást.

Először is, háttérként a mesterséges intelligencia-alapú önvezető autók megjelenésével kapcsolatban megfogalmazott aggodalmak egyike az, hogy esetleg némileg véletlenül, diszkriminatív módon használják őket. Itt van, hogyan. Tegyük fel, hogy ezeket az önvezető autókat úgy állítják be, hogy megpróbálják maximalizálni a bevételi potenciáljukat, ami határozottan logikus azok számára, akik megosztható önvezető autók flottáját üzemeltetik. A flottatulajdonos nyereséges működést szeretne.

Előfordulhat, hogy egy adott városban a roaming önvezető autók fokozatosan a közösség bizonyos részeit kezdik kiszolgálni, más területeket nem. Pénzkereseti céllal teszik ezt, mivel a szegényebb területek nem biztos, hogy olyan bevételt termelnek, mint a terület gazdagabb részei. Ez nem annak kifejezett törekvése, hogy egyes területeket szolgáljunk, másokat pedig ne. Ehelyett szervesen felmerül, hogy az önvezető autók mesterséges intelligenciája számításilag „kitalálja”, hogy a földrajzilag jobban fizető területekre koncentrálva több pénzt lehet keresni. Ezt a társadalometikai aggályt megvitattam rovatomban, például itt az itt található link.

Tegyük fel, hogy hozzáadtunk egy mesterséges intelligencia öntudatos kettős ellenőrzőt a mesterséges intelligencia vezetési rendszereihez. Egy idő után az AI komponens számítási úton észleli az önvezető autók barangolási helyét. Nevezetesen bizonyos területeken, de más területeken nem. Néhány etikus mesterséges intelligencia előírással kódolva az AI öntudatos kettős ellenőrzője elkezdi irányítani az önvezető autókat a város más részeire, amelyeket egyébként figyelmen kívül hagytak.

Ez illusztrálja az MI öntudatos fogalmát, és ezt az Ethical AI elemmel kombinálva teszi.

Még egy ilyen példa betekintést nyújthat abba, hogy ez az etikus mesterséges intelligencia megfontolás meglehetősen kijózanító és súlyos élet-halál következménye is lehet.

Vegyünk egy hírt egy közelmúltbeli autóbalesetről. Állítólag egy emberi sofőr közeledett egy forgalmas kereszteződéshez, és zöld lámpát kapott, hogy egyenesen haladjon tovább. Egy másik sofőr egy piros lámpánál elgurult, és bement a kereszteződésbe, amikor nem kellett volna. A zöld lámpás sofőr az utolsó pillanatban vette észre, hogy ez a másik autó erősen beleütközik az autójába.

Ez a veszélybe került sofőr szerint tudatosan kiszámolta, hogy vagy elüti a másik autó, vagy elkanyarodhat, hogy elkerülje a beavatkozót. A kanyarodással az volt a probléma, hogy a közelben voltak a gyalogosok, akik veszélybe kerültek.

Te melyiket választanád?

Felkészülhet az ütésre, és remélheti, hogy a sebzés nem csonkítja meg vagy öl meg. Másrészt radikálisan elkanyarodhat, de súlyosan veszélyeztetheti és esetleg meg is sértheti vagy megölheti a közelben lévő gyalogosokat. Ez egy nehéz probléma, amely magában foglalja az erkölcsi ítélkezést, és teljes mértékben át van itatva etikai (és jogi) következményekkel.

Van egy általános célú etikai probléma, amely lefedi ezt a fajta dilemmát, amelyet híresen vagy talán hírhedten Trolley Problem-nek hívnak, lásd kiterjedt tudósításomat itt: ez a link itt. Kiderült, hogy ez egy etikailag ösztönző gondolatkísérlet, amely az 1900-as évek elejére nyúlik vissza. Mint ilyen, a téma már jó ideje jelen van, és az utóbbi időben általában az AI és az önvezető autók megjelenéséhez kapcsolják.

Cserélje le az emberi vezetőt egy önvezető autóba ágyazott mesterséges intelligencia vezetési rendszerre.

Képzelje el, hogy egy mesterséges intelligencia önvezető autó belép egy kereszteződésbe, és az autonóm jármű érzékelői hirtelen észlelnek egy ember által vezetett autót, amely veszélyesen közeledik a piros lámpán keresztül, és a vezető nélküli autót veszi célba. Tételezzük fel, hogy az önvezető autóban van néhány utas a járműben.

Mit akarsz, hogy az AI csináljon?

Ha a mesterséges intelligencia vezetési rendszere úgy dönt, hogy előrehalad, és beleesik (valószínűleg megsérti vagy esetleg megöli a járműben lévő utasokat), vagy szeretné, ha az AI vezetési rendszer kockáztatva elkanyarodna, bár a kanyarodási művelet az autonóm járművet érinti veszélyes a közeli gyalogosok felé, és megsértheti vagy megölheti őket.

Az önvezető autók mesterséges intelligencia-gyártói közül sokan „fej a homokba” megközelítést alkalmazzák ezekre az etikus mesterséges intelligencia okozta nehézségekre. Általánosságban elmondható, hogy a jelenleg programozott mesterséges intelligencia egyszerűen előrelendül, és erőszakosan megdöngölte a másik autó. Az AI-t nem úgy programozták, hogy más kitérő manővereket keressen.

Többször megjósoltam, hogy a mesterséges intelligencia önvezető autógyártóinak ez a „nem láss rosszat hallj, ne hallj gonosz” hozzáállása előbb-utóbb előkerül, és megharapja őket (elemzésem a következő: az itt található link). Ilyen autóbalesetekkel kapcsolatos perek várhatók, amelyekben azt akarják kideríteni, mire volt programozva az AI. Az AI-t kifejlesztő és bevezető vállalat vagy mesterséges intelligencia fejlesztői vagy flottaüzemeltetője hanyag volt, vagy felelős azért, amit az MI tett vagy nem? Arra is számíthat, hogy az AI-tudatosság etikus, a nyilvánosságot átfogó tűzvihar fog kibontakozni, amint ilyen esetek előfordulnak.

Ebbe az etikus mesterséges intelligencia dilemmába lép be az AI öntudatos kettős ellenőrzőnk, amely etika-orientált. Lehet, hogy ez a speciális AI-komponens ilyen körülmények között is szerepet játszhat. Ez a rész az AI vezetési rendszer többi részét és az önvezető autó állapotát figyeli. Amikor egy ilyen szörnyű pillanat adódik, az AI komponens a kocsi problémamegoldójaként szolgál, és felajánlja, hogy mit tegyen az AI vezetési rendszer.

Biztosíthatom, hogy nem könnyű kódolni.

Következtetés

Megosztom veletek az utolsó gondolatot ebben a témában.

Valószínűleg érdekesnek találja majd.

Tudsz a tükör teszt?

Elég jól ismert az öntudat kutatásában. Az ügy további nevei a tükör önfelismerési teszt, a vörös folt teszt, a rouge teszt és a kapcsolódó kifejezések. A technikát és megközelítést eredetileg az 1970-es évek elején dolgozták ki az állatok öntudatának felmérésére. A jelentések szerint a teszten sikeresen átesett állatok közé tartoznak a majmok, bizonyos típusú elefántok, delfinek, szarkák és mások. Azok az állatok, amelyeket teszteltek, és állítólag nem ment át a teszten, többek között óriáspandák, oroszlánfókák stb.

Itt az üzlet.

Amikor egy állat meglátja magát a tükörben, észreveszi-e, hogy a bemutatott kép önmagáról készült, vagy az állat azt hiszi, hogy egy másik állat?

Feltehetően az állat vizuálisan felismeri saját faját, miután más saját fajtáját is látta, és ezért azt gondolhatja, hogy a tükörben látható állat egy unokatestvére, esetleg harcias versenytárs (főleg, ha az állat vicsorog a tükörképre, turn mintha vicsorogna vissza rájuk). Talán látta már házi macskáját vagy szeretett kutyáját ugyanezt tenni, amikor először látja magát a háztartási tükörben.

Mindenesetre azt feltételeznénk, hogy egy vadállat még soha nem látta magát. Nos, ez nem feltétlenül igaz, hiszen az állat talán egy nyugodt vízmedencében vagy egy fényes sziklaképződményen keresztül pillantotta meg magát. De ezeket kevésbé valószínűnek tartják.

Oké, szeretnénk valahogy felmérni, hogy egy állat képes-e rájönni, hogy valójában az az állat, amely a tükörben látható. Gondolkodj el azon a látszólag egyszerű cselekedeten. Az emberek fiatalon rájönnek, hogy léteznek, és létezésüket az bizonyítja, hogy tükörben látják magukat. Öntudatossá válnak önmagukkal. Elméletileg talán fel sem fogod, hogy te vagy, amíg nem látod magad tükörben.

Lehet, hogy az állatok nem képesek azonos módon kognitív módon öntudatossá válni. Lehetséges, hogy egy állat meglátja magát a tükörben, és állandóan azt hiszi, hogy egy másik állat. Akárhányszor látja is magát, akkor is azt gondolná, hogy ez más állat, mint ő maga.

Ennek a trükkös része megjelenik. Jelet teszünk az állaton. Ennek a jelnek csak akkor kell láthatónak lennie, ha az állat látja magát a tükörben. Ha az állat meg tud csavarodni vagy elfordulni, és (közvetlenül) látja magán a jelet, az tönkreteszi a kísérletet. Ezen túlmenően az állat nem érzi, nem szagolja vagy más módon nem érzékeli a nyomot. Még egyszer: ha így tennének, az tönkretenné a kísérletet. Az állat nem tudhatja, hogy ráhelyeztük a jelet, mert ez arra utalna, hogy valami van ott.

Szeretnénk leszűkíteni a dolgokat úgy, hogy a jel felfedezhetőségének egyetlen lehetséges oka az lenne, ha a tükörbe nézünk.

Aha, a teszt készen áll. Az állatot tükör elé helyezik, vagy odavándorol hozzá. Ha az állat utólag megpróbálja megérinteni vagy ásni a jelet, akkor ésszerűen azt a következtetést vonhatjuk le, hogy ez csak akkor történhet meg, ha az állat rájön, hogy a jel magán van. Nagyon kevés állatfaj tudott sikeresen átmenni ezen a teszten.

Számos kritika éri a tesztet. Ha emberi teszter van a közelben, a jelet bámulva kiadhatnak dolgokat, ami arra késztetheti az állatot, hogy súrolja vagy tapogatja. Egy másik lehetőség, hogy az állat továbbra is azt hiszi, hogy egy másik állat látható a tükörben, de az azonos típusú, és így az állat elgondolkodik, hogy rajta is van-e olyan nyom, mint a másik állaton.

Tovább és tovább megy.

Biztos vagyok benne, hogy örül ennek tudatában, és ezentúl megérti, hogy miért van egy pont vagy valami furcsa jelölés egy állaton, amelyen egyébként nem lenne ilyen jel. Ki tudja, lehet, hogy nemrég fejezte be a tükörteszt-kísérletet. Biztonságosan gratuláljon az állatnak, mert nagylelkű résztvevője volt.

Mi köze ennek az AI-alapú önvezető autókhoz?

Tetszeni fog ez a rész.

Egy önvezető autó halad egy hosszú autópályán. Az AI vezetési rendszere érzékelőket használ más forgalom észlelésére. Ez egy kétsávos autópálya, amelyen az egyik sávban északi, a másik sávban déli irányú forgalom folyik. Alkalmanként az autók és teherautók megpróbálnak elhaladni egymás mellett, ehhez be kell menni a szemközti sávba, majd visszaugrani a megfelelő haladási sávba.

Láttad ezt, kétségtelenül megtetted.

Fogadok, hogy ez a következő szempont veled is megtörtént. Az önvezető autó előtt az egyik ilyen méretes tartálykocsi. Fényes fémből készült. Csiszolt és tiszta, mint egy síp. Ha egy ilyen teherautó mögé ül, a tartálykocsi hátsó részén keresztül láthatja autója tükörképét. Ha láttad ezt, tudod, milyen elbűvölő tud lenni. Ott vagy, te és az autód, visszatükröződik a tartálykocsi hátuljának tükörszerű tükröződése.

Ülj le az őrült fordulatért.

Egy önvezető autó jön a tartálykocsi mögé. A kamerák egy autó képét érzékelik, amely a tükörszerű tükröződésben látható. Hohó, az MI felméri, ez egy autó? Az önvezető autónál jön? Ahogy az önvezető autó egyre közelebb kerül a tartálykocsihoz, úgy tűnik, az autó egyre közelebb kerül.

Jaj, a mesterséges intelligencia számításilag kiszámolhatja, hogy ez veszélyes helyzet, és a mesterséges intelligencia kitérő lépéseket kellene tennie ettől az őrült szélhámos járműtől. Látod, az MI nem ismerte fel magát a tükörben. A tükörteszten nem sikerült.

Mit kell tenni? Talán a mesterséges intelligencia öntudatos kettős ellenőrzője belevág a dologba, és megnyugtatja a mesterséges intelligencia vezetőrendszerének többi részét, hogy ez csak egy ártalmatlan tükör. A veszély elhárítva. A világ meg van mentve. Sikeresen lezajlott az AI Mirror Test!

Nyelv-a pofán konklúzióval akár azt is sugallhatjuk, hogy a mesterséges intelligencia néha okosabb vagy legalábbis öntudatosabb, mint egy átlagos medve (bár a medvék becsületére legyen mondva, általában jól teljesítenek a tükörteszten, sokszor meg is hozzászoktak a víztócsákban való tükröződésükhöz).

Helyesbítés, a mesterséges intelligencia talán öntudatosabb lehet, mint az óriáspandák és az oroszlánfókák, de ezt ne mondd el az állatoknak, mert kísértésbe eshetnek, hogy szétzúzzák vagy szétzúzzák az MI-rendszereket. Ezt nem akarjuk, ugye?

Forrás: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/