A mesterséges intelligencia etika és a mesterséges intelligencia törvénye A közelmúltban kiadott mesterséges intelligencia törvényjavaslat végrehajtásának kulcsfontosságú módjai, beleértve a mesterséges intelligencia nyílt felhasználását, és elképesztő módon

Nem kétséges, hogy mindennapi életünkben szükségünk van tervrajzokra.

Ha meg akarja építeni azt a régóta elképzelt álmai házát, bölcs dolog, ha először összeállít egy használható tervrajzot.

Egy tervrajz kézzelfogható és dokumentált módon mutatja be, hogy milyen tágra nyílt szemű látnoki perspektíva rejtőzik az Ön röghöz. Azok, akiket felkérnek dédelgetett tanyájuk megépítésére, hivatkozhatnak a tervrajzra, és leszögezik a munka elvégzésének részleteit. A tervrajzok hasznosak. A terv hiánya minden bizonnyal problémát okoz bármilyen összetett házimunka vagy projekt megbirkózásában.

Helyezzük át ezt a kissé szentimentális, de őszinte tisztelgést a tervrajzok előtt a mesterséges intelligencia (AI) birodalmába.

Azok, akik érdemben foglalkoznak az MI-vel, talán homályosan tudják, hogy egy fontos politika-orientált tervrajz nemrég jelent meg az Egyesült Államokban, amely bizonyíthatóan az AI jövőjére vonatkozik. Informálisan a AI Bill of Rights, a kihirdetett fehér könyv hivatalos címe: „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People”, és könnyen elérhető az interneten.

A dokumentum a Tudományos és Technológiai Politikai Hivatal (OSTP) egy éves erőfeszítésének és figyelmes tanulmányának eredménye. Az OSTP egy szövetségi szervezet, amelyet az 1970-es évek közepén hoztak létre, és arra szolgál, hogy tanácsot adjon az amerikai elnöknek és az Egyesült Államok végrehajtó hivatalának különféle nemzeti jelentőségű technológiai, tudományos és mérnöki vonatkozásban. Ebben az értelemben azt mondhatjuk, hogy ez az AI Bill of Rights egy dokumentum, amelyet az Egyesült Államok jelenlegi Fehér Háza hagyott jóvá és hagyott jóvá.

Az AI Bill of Rights ábrázolja a emberi jogok amivel az emberiségnek rendelkeznie kell a mesterséges intelligencia mindennapi életünkben való megjelenésével kapcsolatban. Hangsúlyozom ezt a fontos szempontot, mert néhányan először azon törték a fejüket, hogy ez talán valamiféle elismerése annak, hogy a mesterséges intelligencia jogi személyiséggel rendelkezik, és hogy ez az érző mesterséges intelligencia és a humanoid robotok jogainak egy sora. Nem, még nem tartunk ott. Amint azt egy pillanat múlva látni fogja, közel sem vagyunk az érző mesterséges intelligenciához, annak ellenére, hogy a szalagcímek az ellenkezőjét sugallják.

Oké, szükségünk van egy tervre, amely leírja az emberi jogokat a mesterséges intelligencia korában?

Igen, minden bizonnyal megtesszük.

Szinte be kell zárni egy barlangba, és távol kell lennie az internet-hozzáféréstől, hogy ne tudja, hogy a mesterséges intelligencia máris és egyre inkább megsérti jogainkat. A mesterséges intelligencia közelmúltbeli korszakát eleinte annak tekintették AI For Good, ami azt jelenti, hogy az AI-t az emberiség jobbá tételére használhatjuk. A sarkán AI For Good jött a felismerés, hogy mi is elmerültünk AI For Bad. Ide tartozik az olyan mesterséges intelligencia, amelyet megkülönböztetővé alakítottak ki vagy alakítottak át, és számítási döntéseket hoz, amelyek indokolatlan torzításokat hordoznak magukban. Néha az AI így épül fel, míg más esetekben arra a kellemetlen területre kanyarod.

A mesterséges intelligencia törvényéről, a mesterséges intelligencia etikájáról és más kulcsfontosságú mesterségesintelligencia-technológiai és társadalmi trendekről szóló folyamatos és kiterjedt tudósításom és elemzéseimért lásd: az itt található link és a az itt található link, csak hogy néhányat említsek.

Az AI Bill of Rights kicsomagolása

Korábban tárgyaltam az AI Bill of Rights-ról, és itt röviden összefoglalom.

Mellesleg, ha szeretné megismerni a közelmúltban kiadott AI Bill of Rights előnyeit és hátrányait, részletesen kifejtettem elemzésemet a JogászLásd: az itt található link Az Jogász egy figyelemreméltó jogi hírekkel és kommentárokkal foglalkozó online webhely, amely széles körben ismert díjnyertes jogi hírszolgáltatás, amelyet joghallgató riporterek, szerkesztők, kommentátorok, tudósítók és tartalomfejlesztők globális csapata működtet. A székhelye a Pittsburgh-i Egyetemen található. törvény Pittsburgh-ben, ahol több mint 25 évvel ezelőtt kezdődött. Kiáltás a kiváló és szorgalmas csapatnak Jogász.

Az AI Bill of Rights öt kulcskategóriát különböztet meg:

  • Biztonságos és hatékony rendszerek
  • Algoritmikus megkülönböztetés elleni védelem
  • adatvédelem
  • Figyelmeztetés és magyarázat
  • Emberi alternatívák, mérlegelés és visszaesés

Figyelje meg, hogy nem számoztam őket egytől ötig, mivel ez azt jelentheti, hogy egy bizonyos sorrendben vannak, vagy hogy az egyik jog látszólag fontosabb, mint a másik. Feltételezzük, hogy mindegyik a saját érdeme. Bizonyos értelemben mindegyik egyformán érdemes.

Annak rövid jelzéseként, hogy mindegyik mit tartalmaz, íme egy részlet a hivatalos fehér könyvből:

  • Biztonságos és hatékony rendszerek: „Meg kell védeni a nem biztonságos vagy nem hatékony rendszerektől. Az automatizált rendszereket különféle közösségek, érdekelt felek és szakterületi szakértők konzultációjával kell kifejleszteni, hogy azonosítsák a rendszer aggályait, kockázatait és lehetséges hatásait.
  • Algoritmikus megkülönböztetés elleni védelem: „Nem szabad szembenéznie az algoritmusok általi megkülönböztetéssel, és a rendszereket méltányos módon kell használni és megtervezni. Algoritmikus megkülönböztetésről akkor beszélünk, ha az automatizált rendszerek indokolatlanul eltérő bánásmódhoz járulnak hozzá, vagy hátrányos hatást fejtenek ki az emberek faji, bőrszíne, etnikai hovatartozása, nemük (beleértve a terhességet, a szülést és a kapcsolódó egészségügyi állapotokat, a nemi identitást, az interszexuális státuszt és a szexuális irányultságot), vallásukat, életkorukból adódóan. , nemzeti származás, fogyatékosság, veterán státusz, genetikai információ vagy bármely más, törvény által védett besorolás.”
  • Adatvédelem: „Beépített védelemmel védeni kell Önt a visszaélésszerű adatkezelésekkel szemben, és rendelkeznie kell ügynökséggel az Ön adatainak felhasználásával kapcsolatban. Meg kell védeni a magánélet megsértésével szemben olyan tervezési döntések révén, amelyek biztosítják, hogy az ilyen védelem alapértelmezés szerint szerepeljen, ideértve annak biztosítását, hogy az adatgyűjtés megfeleljen az ésszerű elvárásoknak, és hogy csak az adott kontextushoz feltétlenül szükséges adatokat gyűjtsék.
  • Megjegyzés és magyarázat: „Tudnia kell, hogy automatizált rendszert használnak, és meg kell értenie, hogyan és miért járul hozzá az Önt érintő eredményekhez. Az automatizált rendszerek tervezőinek, fejlesztőinek és telepítőinek általánosan hozzáférhető, egyszerű nyelvezetű dokumentációt kell biztosítaniuk, beleértve a rendszer általános működésének és az automatizálás szerepének egyértelmű leírását, észrevételt, hogy az ilyen rendszerek használatban vannak, a rendszerért felelős személyt vagy szervezetet, valamint magyarázatokat világosak, időszerűek és hozzáférhetőek.”
  • Emberi alternatívák, mérlegelés és visszaesés: „Lehetőséget kell adni arra, hogy adott esetben leiratkozzon, és olyan személyhez férhessen hozzá, aki gyorsan átgondolja és orvosolja a felmerülő problémákat. Lehetővé kell tennie, hogy kilépjen az automatizált rendszerekből, és adott esetben egy emberi alternatíva mellett döntsön.”

Általánosságban elmondható, hogy ezek az emberi jogok olyan oldalai, amelyekkel kapcsolatban már jó ideje szóba került a mesterséges intelligencia etika és a mesterséges intelligencia törvénye. Lásd a tudósításomat, pl. az itt található link. A fehér könyv látszólag nem varázslatos módon rángatja ki a nyulat a kalapból egy olyan újonnan felfedezett vagy feltárt jog kapcsán, amelyet a mesterséges intelligencia korszakában eddig nem sikerült tisztázni.

Rendben van.

Kijelentheti, hogy ezeknek egy szépen csomagolt és formalizált gyűjteménybe való összeállítása létfontosságú szolgáltatást nyújt. Ráadásul azzal, hogy elismertnek kenik fel AI Bill of Rights, ez az egész ügyet nyíltan és ügyesen a közszféra tudatába helyezi. Különböző viták sokaságát egyesíti egy egyedi halmazba, amely immár mindenféle érdekelt félhez trombitálható és közvetíthető.

Engedjék meg, hogy a bejelentett AI Bill of Rightsra vonatkozó kedvező reakciók listáját ajánljam:

  • Alapvető összeállítást nyújt a trapézkő alapelveiről
  • Tervként vagy alapként szolgál, amelyre építeni lehet
  • Hangos cselekvésre ösztönzőként működik
  • Felkelti az érdeklődést, és megmutatja, hogy ezek komoly megfontolások
  • Különböző viták sokaságát vonja össze
  • Felvillanyozza és hozzájárul az Ethical AI bevezetésére irányuló erőfeszítésekhez
  • Kétségtelenül hozzájárul majd az AI-törvények létrehozásához
  • Más

Figyelembe kell vennünk a kevésbé kedvező reakciókat is, figyelembe véve, hogy sokkal több munkát kell még elvégezni, és ez csak a kezdete egy hosszú útnak az AI szabályozásának fáradságos útján.

Mint ilyen, az AI Bill of Rights-val kapcsolatban megfogalmazott kissé kemény, vagy mondhatni építő jellegű kritikák a következők:

  • Jogilag nem érvényesíthető és teljesen nem kötelező
  • Csak tanácsadó jellegű, és nem tekinthető kormányzati politikának
  • Más publikált munkákhoz képest kevésbé átfogó
  • Elsősorban tág fogalmakból áll, és hiányoznak a megvalósítás részletei
  • Nehéz lesz ténylegesen életképes gyakorlati törvényekké alakítani
  • Látszólag hallgat az AI esetleges betiltásának fenyegető kérdéséről bizonyos összefüggésekben
  • Mellékesen elismeri a jól kidolgozott mesterséges intelligencia használatának előnyeit
  • Más

Talán a legszembetűnőbb fanyar kommentár arra a tényre összpontosult, hogy ez az AI Bill of Rights jogilag nem végrehajtható, és így nem állja meg a helyét az egyértelmű kapufák kialakításában. Egyesek azt mondták, hogy bár a fehér papír hasznos és bátorító, határozottan hiányoznak a fogak. Megkérdőjelezik, mi sülhet ki egy vájt fogúnak mondott remek előírás-halmazból.

Ezekre a csípős megjegyzésekre egy pillanat múlva válaszolok.

Eközben a fehér könyv bőségesen kifejti, hogy ez az AI Bill of Rights milyen korlátokat tartalmaz:

  • „Az AI Bill of Rights tervrajza nem kötelező érvényű, és nem képezi az Egyesült Államok kormányának politikáját. Nem váltja felül, nem módosítja és nem irányítja egyetlen meglévő jogszabály, rendelet, politika vagy nemzetközi jogi aktus értelmezését sem. Nem jelent kötelező érvényű útmutatást a nyilvánosság vagy a szövetségi ügynökségek számára, ezért nem követeli meg az itt leírt elvek betartását. Az sem meghatározó, hogy mi lesz az Egyesült Államok kormányának álláspontja a nemzetközi tárgyalásokon. Előfordulhat, hogy ezen alapelvek elfogadása nem felel meg a meglévő törvények, rendeletek, irányelvek vagy nemzetközi okmányok követelményeinek, vagy az ezeket érvényesítő szövetségi szervek követelményeinek. Ezeknek az alapelveknek nem célja, és nem tiltják vagy korlátozzák a kormányzati szervek bármely törvényes tevékenységét, beleértve a bűnüldözési, nemzetbiztonsági vagy hírszerzési tevékenységeket” (a fehér könyv szerint).

Azok számára, akik gyorsan aláírták az AI Bill of Rights-t, mint jogilag nem kötelező érvényűt, végezzünk egy kis gondolatkísérletet ezzel a csípős állítással kapcsolatban. Tegyük fel, hogy a fehér könyvet kiadták, és a törvény teljes erejével rendelkezik. Merem állítani, hogy az eredmény némileg kataklizmikus lenne, legalábbis a kiáltványra adott jogi és társadalmi válaszok szintjén.

A törvényhozók fegyverben lennének, hogy az erőfeszítés nem vállalta a normatív folyamatokat és a jogi eljárásokat az ilyen törvények összeállítása során. A vállalkozások – jogosan – feldühödnének, ha új törvények születnének anélkül, hogy kellő tájékoztatást kapnának, és nem tudnák, hogy melyek ezek a törvények. Mindenféle megdöbbenés és felháborodás következne.

Nem jó módja annak, hogy az emberiség jogainak megerősítése felé vonzódjunk a mesterséges intelligencia korszakában.

Emlékezzünk vissza, hogy ezt a vitát korábban azzal kezdtem, hogy felvetettem a tervrajzok értékét és vitalitását.

Képzeld el, hogy valaki kihagyta a tervrajzok elkészítésének lépését, és azonnal nekivágott álmai házának felépítésének. Szerinted hogy nézne ki a ház? Tisztességes fogadásnak tűnik, hogy a ház nem igazán egyezik meg azzal, amire gondoltál. Az így létrejövő tanya teljes káosz lehet.

A lényeg az, hogy szükségünk van tervrajzokra, és most már van egy, hogy előrehaladhassunk a megfontolt mesterséges intelligencia-törvények kidolgozásán és az etikus mesterséges intelligencia elfogadásán.

Ezért szeretnék foglalkozni azzal, hogy az AI Bill of Rights tervezetét hogyan lehet házzá alakítani. Hogyan használjuk fel a tervrajzot? Mik a megfelelő következő lépések? Elég lehet ez a tervrajz, vagy kell több hús a csontokra?

Mielőtt belevágnánk ezekbe a súlyos kérdésekbe, először is szeretném megbizonyosodni arról, hogy mindannyian egy oldalon vagyunk az AI természetéről és arról, hogy miből áll a mai állapot.

A mai mesterséges intelligencia rekordjának felállítása

Szeretnék egy rendkívül nyomatékos nyilatkozatot tenni.

Készen állsz?

Ma nincs olyan mesterséges intelligencia, amely érző lenne.

Nálunk ez nincs. Nem tudjuk, hogy az érző mesterséges intelligencia lehetséges lesz-e. Senki sem tudja pontosan megjósolni, hogy elérjük-e az érző MI-t, és azt sem, hogy az érző mesterséges intelligencia valamilyen csodálatos módon spontán módon létrejön-e egy számítási kognitív szupernóva formájában (általában szingularitásnak nevezik, lásd tudósításomat itt: az itt található link).

A mesterséges intelligencia azon típusa, amelyre fókuszálok, a mai nem érző MI-ből áll. Ha vadul akarnánk spekulálni az érző mesterséges intelligencia kapcsán, akkor ez a vita gyökeresen más irányba haladhat. Egy érző mesterséges intelligencia állítólag emberi minőségű lenne. Figyelembe kell vennie, hogy az érző mesterséges intelligencia az ember kognitív megfelelője. Sőt, mivel egyesek feltételezik, hogy szuperintelligens AI-val rendelkezünk, elképzelhető, hogy az ilyen mesterséges intelligencia végül okosabb lesz, mint az emberek (a szuperintelligens AI lehetőségének feltárásához lásd a tudósítás itt).

Nyomatékosan javaslom, hogy tartsuk a dolgokat a földön, és vegyük figyelembe a mai számítástechnikai, nem érző MI-t.

Vegye észre, hogy a mai mesterséges intelligencia nem képes az emberi gondolkodással egyenrangú módon „gondolkodni”. Amikor Alexával vagy Sirivel kommunikál, a társalgási képességek hasonlónak tűnhetnek az emberi képességekhez, de a valóság az, hogy számítási jellegű, és hiányzik az emberi megismerés. A mesterséges intelligencia legújabb korszaka széles körben alkalmazta a gépi tanulást (ML) és a mély tanulást (DL), amelyek kihasználják a számítási mintaillesztést. Ez olyan mesterséges intelligencia-rendszerekhez vezetett, amelyek emberszerű hajlamokat mutatnak. Eközben manapság nincs olyan mesterséges intelligencia, amely a józan észnek látszana, és az emberi gondolkodás kognitív csodáiból sem.

Legyen nagyon óvatos a mai mesterséges intelligencia antropomorfizálásával.

Az ML/DL a számítási mintaillesztés egyik formája. A szokásos megközelítés az, hogy egy döntési feladatról adatokat gyűjt össze. Az adatokat betáplálja az ML/DL számítógépmodellekbe. Ezek a modellek matematikai mintákat keresnek. Miután megtalálta az ilyen mintákat, ha igen, az AI rendszer ezeket a mintákat fogja használni, amikor új adatokkal találkozik. Az új adatok bemutatásakor a „régi” vagy történelmi adatokon alapuló mintákat alkalmazzák az aktuális döntés meghozatalához.

Azt hiszem, sejtheti, hová vezet ez. Ha az emberek, akik a mintaszerű döntéseket hozták, nemkívánatos elfogultságokat alkalmaztak, akkor valószínű, hogy az adatok ezt finom, de jelentős mértékben tükrözik. A Machine Learning vagy a Deep Learning számítási mintaillesztés egyszerűen megpróbálja matematikailag utánozni az adatokat ennek megfelelően. A mesterséges intelligencia által kialakított modellezésben önmagában semmi sem látszik a józan észnek vagy más érző szempontoknak.

Továbbá előfordulhat, hogy az AI-fejlesztők sem tudják, mi történik. Az ML/DL rejtélyes matematikája megnehezítheti a mára rejtett torzítások kiszűrését. Joggal remélhető és elvárható, hogy a mesterséges intelligencia fejlesztői teszteljék a potenciálisan eltemetett torzításokat, bár ez bonyolultabb, mint amilyennek látszik. Jó esély van arra, hogy még viszonylag kiterjedt tesztelés mellett is lesznek torzítások az ML/DL mintaillesztési modelljeibe.

Használhatná némileg a híres vagy hírhedt közmondást, a szemetet a szemét kiszállításáról. A helyzet az, hogy ez inkább a torzításokhoz hasonlít, amelyek alattomos módon beszivárognak az AI-ba merülő torzítások miatt. Az AI algoritmus-döntéshozatala (ADM) axiomatikusan megterhelődik egyenlőtlenségekkel.

Nem jó.

Mindez különösen jelentős AI etikai vonatkozásaival rendelkezik, és praktikus ablakot kínál a levont tanulságokba (még mielőtt az összes lecke megtörténne), amikor a mesterséges intelligencia törvénybe iktatásáról van szó.

A mesterséges intelligencia etikai előírásainak általános alkalmazása mellett felvetődik az a kérdés, hogy kellene-e törvények szabályozni az AI különféle felhasználásait. Szövetségi, állami és helyi szinten új törvényeket kötnek ki, amelyek a mesterséges intelligencia kidolgozásának körét és jellegét érintik. Az ilyen törvények kidolgozására és elfogadására irányuló erőfeszítések fokozatosak. A mesterséges intelligencia etika legalábbis megfontolt állomásként szolgál, és bizonyos mértékig bizonyos mértékig közvetlenül beépül az új törvényekbe.

Legyen tudatában annak, hogy egyesek határozottan azzal érvelnek, hogy nincs szükségünk az AI-t lefedő új törvényekre, és a meglévő törvényeink elegendőek. Előre figyelmeztetik, hogy ha bevezetünk néhány ilyen mesterséges intelligencia-törvényt, akkor megöljük az aranylibát azáltal, hogy visszaszorítjuk a mesterséges intelligencia fejlődését, amely óriási társadalmi előnyöket kínál.

Az előző rovatokban bemutattam az AI-t szabályozó törvények kidolgozására és elfogadására irányuló különféle nemzeti és nemzetközi erőfeszítéseket, ld. az itt található link, például. Kitértem a különféle nemzetek által azonosított és elfogadott különféle mesterséges intelligencia-etikai elvekre és irányelvekre is, beleértve például az Egyesült Nemzetek erőfeszítéseit, mint például az UNESCO mesterségesintelligencia-etikai készletét, amelyet közel 200 ország fogadott el, lásd az itt található link.

Íme egy hasznos kulcslistája az AI-rendszerekre vonatkozó etikus AI-kritériumokról vagy -jellemzőkről, amelyeket korábban alaposan megvizsgáltam:

  • Átláthatóság
  • Igazságosság és méltányosság
  • Nem rosszindulat
  • Felelősség
  • Adatvédelem
  • Jótékonyság
  • Szabadság és autonómia
  • Bízzon
  • Fenntarthatóság
  • Méltóság
  • Szolidaritás

A mesterséges intelligencia fejlesztőinek komolyan kellene használniuk ezeket a mesterséges intelligencia etikai elveit, valamint azokat, amelyek irányítják az AI-fejlesztési erőfeszítéseket, és még azokat is, amelyek végső soron az AI-rendszerek karbantartását és karbantartását végzik.

Az összes érdekelt fél a mesterséges intelligencia fejlesztésének és használatának teljes életciklusa során beletartozik az etikus mesterséges intelligencia elfogadott normáihoz. Ez egy fontos kiemelés, mivel a szokásos feltevés az, hogy „csak a kódolók” vagy az AI-t programozók kötelesek betartani az AI etikai elveit. Amint azt korábban hangsúlyoztuk, egy falura van szükség a mesterséges intelligencia kidolgozásához és használatához, és ehhez az egész falunak ismernie kell a mesterséges intelligencia etikai előírásait, és be kell tartania azokat.

Most, hogy lefektettem egy hasznos alapot, készen állunk arra, hogy tovább merüljünk az AI Bill of Rights-ban.

Az AI Bill of Rights végrehajtásának négy alapvető módja

Valaki átnyújt neked egy tervrajzot, és azt mondja, hogy kezdj el dolgozni.

Mit csinálsz?

Az AI Bill of Rights mint tervrajz esetében vegye figyelembe a következő négy alapvető lépést a továbblépéshez:

  • Bemenetként szolgál az AI-törvények megfogalmazásához: Használja a tervezetet az MI-törvények megfogalmazásához, remélhetőleg összehangolt alapon szövetségi, állami és helyi szinten (talán a nemzetközi mesterségesintelligencia-jogi erőfeszítéseket is segítve).
  • Segítség a mesterséges intelligencia etikájának szélesebb körű elterjedéséhez: Használja a tervezetet a mesterséges intelligencia etikai megfogalmazásainak előmozdítására (amit néha „puha törvénynek” neveznek a jogilag kötelező érvényű „kemény törvényekhez” képest), ezzel ösztönözve és irányítva a vállalkozásokat, magánszemélyeket, kormányzati szerveket és más választókerületeket a jobb és következetesebb etikai irányzat felé. AI eredmények.
  • Shape AI fejlesztési tevékenységek: Használja a tervezetet a mesterséges intelligencia fejlesztési módszertanának és képzési szempontjainak létrehozására, ezzel próbálva rávenni a mesterséges intelligencia fejlesztőit és az AI-t alkalmazó vagy alkalmazó személyeket, hogy jobban megismerjék, hogyan kell megtervezni az AI-t a kívánatos AI-etikai előírások mentén és előrelátóan. a közelgő mesterségesintelligencia-törvények elfogadásáról.
  • Motiválja az AI megjelenését, hogy segítse az AI vezérlését: Használja a tervrajzot az olyan mesterséges intelligencia kidolgozására, amelyet arra használnak majd, hogy ellenőrző és egyensúlyozó szerepet töltsenek be más mesterséges intelligencia ellen, amelyek esetleg elkanyarodnak a váratlan területre. Ez egyike azoknak a makroszkopikus nézőpontoknak, amelyek szerint éppen azt a dolgot, amit látszólag aggasztónak találunk, felhasználhatjuk arra is, hogy (ironikus módon, mondhatnánk) segítsen megvédeni minket.

A fent említett négy lépés mindegyikét megvitattam rovataimban.

Ebben a vitában a negyedik felsorolt ​​lépésre szeretnék összpontosítani, nevezetesen arra, hogy az AI Bill of Rights motivációként szolgálhat a mesterséges intelligencia megjelenése felé, hogy segítse az AI ellenőrzését. Ez némileg megdöbbentő vagy meglepő lépés sokak számára, akik még nem jutottak el teljesen a mesterséges intelligencia fejlődésének birodalmába.

Engedjék meg, hogy részletezzem.

Egy egyszerű hasonlatnak meg kell tennie a trükköt. Manapság mindannyian hozzászoktunk a kiberbiztonsági incidensekhez és a hackerek betöréseihez. Szinte minden nap hallunk a számítógépünkben található legújabb kiskapukról, vagy ilyenek érintenek bennünket, amelyek lehetővé teszik a gonosz gonosztevők számára, hogy megszerezzék adatainkat, vagy elhelyezzenek egy ransomware-t a laptopjainkon.

Az ilyen aljas próbálkozások elleni küzdelem egyik módja az, hogy speciális szoftvereket használnak, amelyek megpróbálják megakadályozni ezeket a betöréseket. Szinte biztos, hogy otthoni vagy munkahelyi számítógépén van vírusirtó szoftvercsomag. Valószínűleg van valami hasonló az okostelefonon, függetlenül attól, hogy észreveszi, hogy ott van, vagy sem.

A lényeg az, hogy néha tűzzel kell harcolni a tüzet (lásd az erről szóló tudósításomat, pl az itt található link és a az itt található link).

Az AI esetében, amely a verboten birodalmába kerül AI For Bad, használhatjuk AI For Good amely azzal a rosszindulatú AI For Bad. Ez persze nem csodaszer. Mint tudják, folyamatos macska-egér-játék folyik a számítógépeinkbe betörni akaró gonosztevők és a kiberbiztonsági védelem terén elért előrelépések között. Ez egy szinte végtelen játék.

A mesterséges intelligencia segítségével megpróbálhatjuk megbirkózni a tiltott ösvényre lépett MI-vel. Ha így tesz, az segíteni fog. Nem lesz különösebben ezüstgolyó, mivel a megcélzott káros mesterséges intelligencia szinte bizonyosan az ilyen védelem elkerülésére lesz kitalálva. Ez a mesterséges intelligencia és a mesterséges intelligencia közötti folyamatos macska-egér harc lesz.

Mindenesetre a magunk védelmére használt mesterséges intelligencia bizonyos mértékű védelmet nyújt a rossz mesterséges intelligencia ellen. Ezért kétségtelenül olyan mesterséges intelligencia kidolgozására van szükségünk, amely megvédhet vagy megvédhet bennünket. És arra is törekednünk kell, hogy a védő AI-t úgy alakítsuk ki, hogy a rossz mesterséges intelligencia igazodjon. A villámgyors macska-egér vad látszata lesz.

Nem mindenki élvezi az AI szerepének ezt a kiterjesztését.

Azok, akik a mesterséges intelligenciát már homogén amorf konglomerátumnak tekintik, libabőröst és rémálmokat kapnának ettől a színlelt mesterséges intelligencia kontra MI-játéktól. Ha tüzet próbálunk tűzzel szembeállítani, talán csak még nagyobb tüzet gyújtunk. A mesterséges intelligencia hatalmas máglyává válik, amelyet már nem irányítunk, és úgy döntünk, hogy rabszolgává teszik az emberiséget, vagy eltörölünk minket a bolygóról. Amikor a mesterséges intelligencia mint egzisztenciális kockázat megvitatásáról van szó, általában azt hiszik, hogy az összes mesterséges intelligencia össze fog tömörülni. az itt található link. Tudod, azt mondják nekünk, hogy a mesterséges intelligencia minden darabja megragadja testvéreit, és egy nagy, egységes családdá válik.

Ez az a félelmetes és határozottan nyugtalanító forgatókönyv, amikor az érző mesterséges intelligencia zökkenőmentes minden egyért és egy mindenkiért maffia.

Bár szabadon tehet ilyen sejtéseket arról, hogy ez egyszer megtörténhet, biztosíthatom, hogy a mai mesterséges intelligencia teherautónyi, szétválasztott, egymástól eltérő AI-programokból áll, amelyeknek nincs különösebb módja az összeesküvésre.

Ennek ellenére biztos vagyok benne, hogy azok, akik buzgón hisznek az AI-összeesküvés-elméletekben, ragaszkodni fognak ahhoz, hogy ezt szándékosan mondtam, hogy elrejtse az igazságot. Aha! Lehet, hogy a mai mesterséges intelligencia fizeti meg, amely már a nagy mesterségesintelligencia-átvételt tervezi (igen, siree, gazdagságban fogok fürdeni, ha az AI uralkodói uralkodnak). Illetve, és én egészen biztosan nem támogatom ezt a másik oldalt, talán vakon nem vagyok tisztában azzal, hogy az AI hogyan tervez titokban a hátunk mögött. Azt hiszem, várnunk kell, és meglátjuk, hogy én vagyok-e része az AI-puccsnak, vagy egy szégyenletes mesterséges intelligencia (jajj, ez fáj).

Visszatérve a földi megfontolásokhoz, röviden tárjuk fel, hogyan használható a kortárs mesterséges intelligencia az AI Bill of Rights végrehajtásának elősegítésére. Erre kényelmesen és összefoglalóan úgy fogok hivatkozni Jó AI.

Az AI Bill of Rights-ban foglalt öt kulcskövet fogjuk használni:

  • Jó AI a népszerűsítéshez Biztonságos és hatékony rendszerek: Amikor Ön mesterséges intelligencia rendszernek van kitéve, vagy azt használ, a Good AI megpróbálja kideríteni, hogy a használt mesterséges intelligencia nem biztonságos-e vagy nem hatékony. Ilyen észlelés esetén a Good AI figyelmeztetheti Önt, vagy egyéb műveleteket hajthat végre, beleértve a rossz mesterséges intelligencia blokkolását.
  • Jó AI a biztosításhoz Algoritmikus megkülönböztetés elleni védelem: Ha olyan AI-rendszert használunk, amely diszkriminatív algoritmusokat tartalmazhat, a Jó AI megpróbálja megbizonyosodni arról, hogy nem állnak-e rendelkezésre megfelelő védelem az Ön számára, és arra törekszik, hogy megállapítsa, valóban vannak-e indokolatlan torzítások a használt MI-ben. A jó mesterséges intelligencia tájékoztathatja Önt, és potenciálisan automatikusan jelentheti a többi mesterséges intelligenciát különböző hatóságoknak, ahogyan azt az AI-törvények és jogi követelmények előírják.
  • Jó mesterséges intelligencia a megőrzéshez Adatvédelem: Az ilyen típusú Good AI megpróbálja megvédeni Önt az adatvédelmi invázióktól. Amikor egy másik mesterséges intelligencia olyan adatokat kíván kérni, amelyekre esetleg nincs is igazán szükséged, a Good AI felhívja a figyelmed a túllépésre. A Good AI potenciálisan elfedheti az Ön adatait oly módon, hogy a másik MI-nek való továbbítás után továbbra is megőrizze az Ön adatvédelmi jogait. Stb.
  • Jó AI a létrehozáshoz Megjegyzés és magyarázat: Valószínűleg mindannyian találkozunk olyan mesterséges intelligencia rendszerekkel, amelyek nagyon hiányolják a megfelelő és megfelelő értesítéseket, és sajnos nem adnak megfelelő magyarázatot a tetteikre. A jó mesterséges intelligencia megpróbálhatja értelmezni vagy lekérdezni a másik MI-t, ezzel potenciálisan azonosítva azokat az értesítéseket és magyarázatokat, amelyeket meg kellett volna adni. Még akkor is, ha ez egy adott esetben nem kivitelezhető, a Good AI legalább figyelmezteti Önt a másik AI hibáira, és esetleg jelenteni fogja az MI-t a kijelölt hatóságoknak az AI törvények és jogi követelmények alapján.
  • Jó AI a felajánláshoz Emberi alternatívák, mérlegelés és visszaesés: Tegyük fel, hogy mesterséges intelligencia-rendszert használ, és az AI láthatóan nem felel meg a feladatnak. Lehet, hogy nem veszi észre, hogy a dolgok eldurvulnak, vagy kissé óvatos és bizonytalan abban, hogy mit tegyen a helyzettel. Ebben az esetben a Good AI csendben megvizsgálná, mit csinál a másik MI, és figyelmeztethet az adott MI-vel kapcsolatos alapvető aggályokra. Ezután a rendszer arra kéri, hogy kérjen emberi alternatívát a mesterséges intelligencia helyett (vagy a jó mesterséges intelligencia megteheti ezt az Ön nevében).

Hogy jobban megértsük, hogyan történik ez a fajta Jó AI fejleszthető és használható, lásd a népszerű és magasra értékelt mesterséges intelligencia könyvemet (megtiszteltetés, hogy a „Top Ten” közé sorolták) az általam általában mesterséges intelligencia őrangyalaként emlegetett dolgokról, lásd az itt található link.

Következtetés

Tudom, mire gondolsz. Ha jó mesterséges intelligenciánk van, amelyet arra terveztek, hogy megvédjen minket, tegyük fel, hogy a jó mesterséges intelligencia megsérül, és rossz MI-vé válik. A híres vagy hírhedt latin hívószó teljesen helyénvalónak tűnik erre a lehetőségre: Quis gondozó ipsos custodes?

A kifejezés Juvenal római költő nevéhez fűződik, és megtalálható a című művében szatírák, és lazán úgy is fordítható, hogy ki fogja őrködni vagy figyelni magát az őröket. Számos film és tévéműsor, mint pl Star Trek többször is kihasználták ezt a vonalat.

Biztosan azért, mert ez egy kiváló pont.

Valójában minden elfogadott mesterségesintelligencia-törvénynek ki kell terjednie a rossz AI-ra és még a rossz AI-ra is. Ezért lesz döntő fontosságú ésszerű és átfogó AI-törvényeket írni. Azok a törvényhozók, akik csak megpróbálják a falnak dobni a véletlenszerű törvényeket, és abban reménykednek, hogy az ragaszkodik az AI-törvényekhez, azon kapják magukat, hogy mélyen eltévesztik a célt.

Nincs erre szükségünk.

Sem időnk, sem nem tudjuk vállalni a társadalmi költségeket, hogy megbirkózzunk a nem megfelelően kidolgozott AI-törvényekkel. Rámutattam, hogy sajnálatos módon időnként olyan új, mesterséges intelligenciával kapcsolatos törvényeknek lehetünk tanúi, amelyek rosszul vannak megalkotva, és tele vannak mindenféle jogi betegséggel, lásd például a New York City (NYC) mesterséges intelligencia elfogultság könyvvizsgálati törvényének vizsgáló elemzését: az itt található link.

Gondoskodjunk arról, hogy megfelelően használjuk az AI Bill of Rights tervezetét, amely jelenleg a kezünkben van az AI-val kapcsolatban. Ha figyelmen kívül hagyjuk a tervet, elveszítettük a játékunk fokozását. Ha rosszul hajtjuk végre a tervet, szégyelljük magunkat, hogy egy hasznos alapot bitoroltunk.

A tisztelt római költő, Juvenal mondott még valamit, amit ebben a helyzetben hasznosíthatunk: Anima sana in corpore sano.

Általában ez azt az állítást jelenti, hogy ésszerű lenne egészséges vagy egészséges lélekkel és egészséges testtel is rendelkezni. Ez Juvenal szerint lehetővé teszi számunkra, hogy bármilyen fáradságot elviseljünk, és minden bizonnyal ez lesz az egyetlen út a békés vagy erényes élethez.

Itt az ideje, hogy józan elmével és egészséges testtel megbizonyosodjunk arról, hogy az emberiség emberi jogait megőrizzük és szilárdan megerősítsük a mindenütt jelenlévő és időnként kellemetlen MI feltörekvő világában. Ez a rómaiak józan tanácsa, amelyet be kell tartanunk a mai rohanásban, a mesterséges intelligencia korszaka és a jó és rossz mesterséges intelligencia döntően teli jövője közepette.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- jogok jegyzéke-beleértve-és-meglepően-az-ai-egyértelműen/