A mesterséges intelligencia etika azon töpreng az engesztelő alapok jogilag kötelezővé tételének érdemén, hogy biztosítsák a rossz mesterséges intelligencia elszámoltathatóságát

Ki a hibás?

Ez egyértelmű kérdésnek tűnhet, bár Abbott és Costello legendás duójának egy baseballcsapatról szóló híres vígjátéka esetében a „ki” zavaró lehet. Lehet, hogy homályosan ismeri a Ki áll az első helyen komikus rutin, amelyből minden idők egyik legmaradandóbb szettje lett (spoiler figyelmeztetés azoknak, akik még nem hallották).

Abbott elmondja Costello-nak, hogy ki áll az első helyen, mi a másodikon, és az I Don't Know a harmadikon. Az okos trükk az, hogy az első alapembert Kinek, a másodikat a Minek, a harmadikat a Nem tudom. Természetesen ezeknek a kifejezéseknek is megvan a maguk konvencionális jelentése, és így az Abbott mondandóját teljesen megzavarhatja. Valójában Costello felteszi azt a látszólag ártalmatlan kérdést, hogy ki áll az első helyen, amelyre a válasz határozott igen. De ennek Costello számára nincs értelme, mivel nevet várt, és ehelyett egy megdöbbentő igent kapott.

A sebességváltás, amikor a mesterséges intelligencia (AI) megjelenéséről van szó, az egyik legfájdalmasabb kérdés, amelyet folyamatosan feltesznek, az, hogy kit vagy esetleg mit vonnak felelősségre, ha a mesterséges intelligencia eltéved.

Korábban már tárgyaltam a büntetőjogi felelősségre vonást, ha a mesterséges intelligencia bűncselekményekhez vezet vagy végrehajt, lásd a tudósításomat itt: az itt található link. Ott van a polgári felelősségre vonás is, például, hogy kit vagy mit perelhetsz be, ha a mesterséges intelligencia hibázott, ez az a téma, amelyről itt fogok beszélni. Mindez jelentős mesterségesintelligencia-etikai megfontolásokat tartalmaz. A mesterséges intelligencia etikájával és az etikai AI-val kapcsolatos folyamatos és kiterjedt tudósításomat lásd az itt található link és a az itt található link, csak hogy néhányat említsek.

A mesterséges intelligencia etika előírásai éberségre késztetnek bennünket. Az AI-technológusokat időnként a technológia foglalkoztatja, különösen a csúcstechnológiák optimalizálása. Nem feltétlenül veszik figyelembe a nagyobb társadalmi következményeket. A mesterséges intelligencia etikai gondolkodásmódja, és ennek szerves része a mesterséges intelligencia fejlesztésének és használatának biztosítása elengedhetetlen a megfelelő mesterséges intelligencia létrehozásához, beleértve (talán meglepő vagy ironikus módon) annak értékelését, hogy a mesterséges intelligencia etikáját hogyan alkalmazzák a cégek.

A mesterséges intelligencia etikai előírásainak általános alkalmazása mellett felvetődik az a kérdés, hogy kellene-e törvények szabályozni az AI különféle felhasználásait. Szövetségi, állami és helyi szinten új törvényeket kötnek ki, amelyek a mesterséges intelligencia kidolgozásának körét és jellegét érintik. Az ilyen törvények kidolgozására és elfogadására irányuló erőfeszítések fokozatosak. A mesterséges intelligencia etika legalábbis megfontolt állomásként szolgál, és bizonyos mértékig bizonyos mértékig közvetlenül beépül az új törvényekbe.

Legyen tudatában annak, hogy egyesek határozottan azzal érvelnek, hogy nincs szükségünk az AI-t lefedő új törvényekre, és a meglévő törvényeink elegendőek. Valójában előre figyelmeztetnek arra, hogy ha bevezetünk néhány mesterséges intelligencia-törvényt, akkor megöljük az aranylibát, ha visszaszorítjuk a mesterséges intelligencia fejlődését, amely óriási társadalmi előnyökkel jár.

Heves vita folyik arról, hogy a meglévő törvények képesek-e megfelelően kezelni az AI-rendszerek megjelenését az egész társadalomban. A jogi felelősség általában megköveteli, hogy a szamár farkát rátűzd, hogy ki a felelős a káros magatartásért. A mesterséges intelligencia esetében előfordulhat, hogy van egy meglehetősen tisztázatlan út, amely egy bizonyos személyt vagy személyeket köt a káros tevékenységet végrehajtó mesterséges intelligenciához. Lehetséges, hogy a mesterséges intelligencia nagyrészt nyomon követhetetlen az MI-t alkotó forrásig vagy feltalálóig.

Egy másik szempont, hogy még ha a mesterséges intelligencia gyökerei visszavezethetők is valakire, a kérdés az, hogy az illető vagy személyek esetleg nem tudták-e ésszerűen előre látni a mesterséges intelligencia által végül előidézett kedvezőtlen következményeket. Az előreláthatóság lényege a jogi felelősség megítélésének szokásosan figyelemreméltó tényezője.

Elképzelhető, hogy azt gondolja, egyszerűen maga az MI utánajárhat, és megnevezheti az MI-t, mint az állítólagosan elszenvedett károkért felelős vagy felelős jogi félként. Általában véve az uralkodó jogi nézet az, hogy a mesterséges intelligencia még nem érte el a jogi személyiség szintjét. Így nem fog tudni szigorúan véve arra törekedni, hogy a mesterséges intelligencia fizessen, hanem olyan embereket kell találnia, akik a színfalak mögött dolgoztak (az MI jogi személyiségének elemzéséhez lásd: az itt található link).

Ebbe a potenciális jogi mocsokba egy olyan ötlet lép be, amely lehetséges orvoslásként merül fel, akár rövid távon, akár hosszú távon. Az ötlet az, hogy talán egy speciális kompenzációs alapot kellene létrehozni, hogy pénzügyi segítséget nyújtsanak azoknak, akiket a mesterséges intelligencia sértett. Ha egyébként nem tudja rávenni az MI-t, hogy kártalanítsa Önt, és nem tudja leszögezni azokat a személyeket, akiket feltehetően felelősségre kell vonni, a következő legjobb megoldás egy kompenzációs alap igénybevétele lehet, amelynek célja a mesterséges intelligencia által sértettek megsegítése.

Egy ilyen alap egyfajta biztosítási formához hasonlítana, amint azt egy elgondolkodtató kutatási tanulmány kijelenti: „Ez lényegében egy biztosítási mechanizmus lenne a bizonytalanság ellen: Világos és átlátható keret a gyors kártérítéshez olyan esetekben, amikor a felelősségi perben van per. bizonytalan vagy nincs kilátás a sikerre a kárt okozó magatartás előre nem látható természete, maga a kár (típusa) vagy az eljárás túlzott költsége és/vagy összetettsége miatt” (Erdélyi Olivia és Erdélyi Gábor cikke, „Az AI felelősségrejtvény” És egy alap alapú megoldás”, Journal of Artificial Intelligence Research, 2021).

A kompenzációs alap egy átfogó mesterségesintelligencia-garanciarendszer (AIGS) részét képezné, és a jogi felelősségre vonatkozó hatályos törvények enyhe módosítása kísérné. A könnyed érintés feltehetően könnyebben életbe léptethető lenne, és nem kellene hozzá a megterhelő jogi és társadalmi szorongás, ha a létező jogi rendszereken a demonstratív változtatások zsigeresebb sorozatát hajtanák végre. A kutatók szerint: „Ez azt a meggyőződésünket tükrözi, hogy – az ilyen gyorsjavítási megoldások vonzereje ellenére – a változatlanul a meglévő felelősségi szabályok alkalmazása mesterséges intelligenciára vagy a protekcionista indíttatású az objektív felelősségre támaszkodás a felelősség bármi áron történő megállapítása céljából három okból nem a helyes válasz: Először is, figyelmen kívül hagyva, hogy ezeket a szabályokat különböző körülményekhez szabták, és ezért nem megfelelőek a mesterséges intelligencia számára, ellentétesek a Kényelmesen kiegyensúlyozott célkitűzésekkel. jogi felelősségi rendszer. Másodszor, gátolják a mesterséges intelligencia innovációját azáltal, hogy indokolatlanul büntető megközelítést alkalmaznak. Harmadszor, az objektív felelősséghez való jogosulatlan igénybevétel csupán dogmatikailag ellentmondásos módon megkerüli az előreláthatósági és hibás problémákat, nem pedig orvosolja azokat” (a fent idézett cikk szerint).

Az ilyen MI-kompenzációs alapok mellett szóló érvek a következők:

  • Csökkenti a hosszadalmas és költséges jogi tárgyalások szükségességét az AI által okozott károk kezelése érdekében
  • Megnyugtatja az embereket, hogy használhatják az MI-t, és kártérítést kapnak, ha kárt szenvednek
  • Elősegíti a mesterséges intelligencia innovációját azáltal, hogy enyhíti a mesterséges intelligencia újítói előtt álló jogi bizonytalanságot
  • Sokkal gyorsabban üzembe helyezhető, mint a meglévő törvények jelentős módosítása
  • Viszonylag egyértelmű jogorvoslatot kínál, amely megbízható és könnyen hozzáférhető
  • Más

Eközben azok, akik ellenzik az AI kompenzációs alapok megközelítését, ezt mondják:

  • A mesterséges intelligencia-készítőket túlzottan elzárkózzuk, és engedjük meg nekik, hogy elkerüljék az elszámoltathatóságot
  • Bátorítja a mesterséges intelligencia készítőit, hogy olyan mesterséges intelligenciát készítsenek, amelyből hiányzik a kötelességtudó biztonság és a megfelelő vezérlés
  • Arra késztetheti az embereket, hogy hamisan állítsák a mesterséges intelligencia okozta károkat, hogy felhasználhassák az alapokat
  • Megkerüli és aláássa a törvényeink felülvizsgálatának valódi szükségességét annak érdekében, hogy a mesterséges intelligencia megfelelően szabályozza
  • Bürokratikus rémálommá válhat, amely elakad és visszaél a pénzeszközökkel
  • Más

Amint az nyilvánvaló, ennek a teljesen vitatott elképzelésnek vannak támogatói és ellenzői is.

Nehéz lenne kizárni a mesterségesintelligencia-kompenzációs alapot, mint a kárt okozó mesterséges intelligencia miatti növekvő aggodalmak lehetséges megközelítését. A javasolt megoldás sem slam dunk.

Az egyik álláspont az, hogy a mesterséges intelligencia készítőinek pénzt kell fordítaniuk az alapokba az AI kidolgozása és terjesztése során tett erőfeszítéseik részeként. Ez felfogható egyfajta díjként vagy adóként, amelyet kötelesek viselni annak részeként, hogy AI-t a világnak kiadják. De vajon ez a többletköltség esetleg elnyomja azon startupok erőfeszítéseit, amelyek megpróbálják feszegetni a mai mesterséges intelligencia határait? És hogyan kezelnék annak biztosítását, hogy az AI-gyártók befizessék a díjakat vagy az adókat?

Rengeteg kérdés merül fel, amelyeket ki kell fejteni:

  • Mely országokban lenne a legjobban megvalósítható egy mesterséges intelligencia-kompenzációs alap?
  • Létrehozható-e az összekapcsolt mesterségesintelligencia-kompenzációs alapok globális látszata?
  • Mik lennének az ilyen alapokhoz kapcsolódó részletes és működőképes mechanizmusok?
  • Hogyan finanszírozzák az AI-kompenzációs alapokat (állami, magán, jótékonysági)?
  • Ez egy hibamentes biztosítási alap lenne, vagy más megközelítést alkalmaznának?
  • Stb.

A mesterséges intelligencia-kompenzációs alapok ötletét már körbejárták az olyan autonóm rendszerek, mint az önvezető járművek és az önvezető autók. Az önvezető autókról és az AI autonóm rendszerekről szóló beszámolómat lásd az itt található link.

Íme egy vázlat arról, hogyan működhet ez az AI-alapú önvezető autóknál.

Tegyük fel, hogy egy önvezető autó nekiütközik egy kerékpárosnak. A kerékpáros megsérült. A kerékpáros jogorvoslatért fordulhat az autonóm jármű autógyártójához. Vagy célul tűzhetik ki az önvezető technológiai céget, amely az AI vezetési rendszert készítette. Ha az önvezető autót flottaként üzemeltetik, egy másik jogi út a flottaüzemeltető üldözése lenne. A mesterséges intelligencia perindítása jelenleg nem lehetséges, mivel a mesterséges intelligencia jogi személye még nem alakult ki.

Ahelyett, hogy bármelyik féllel szemben jogi lépéseket tennének, egy másik lehetőség az lenne, ha kérelmet vagy követelést nyújtanak be egy megfelelő MI-kompenzációs alaphoz. A pénztár formalizálta volna a követelés felülvizsgálatát magában foglaló eljárásokat, majd meghatározta volna, hogy a kérelmezőnek milyen kompenzációs kifizetéseket kell nyújtani. Előfordulhat olyan fellebbezési eljárás, amely segíti azokat az igénylőket, akik úgy vélik, hogy az alap tévesen utasította el őket, vagy az alap elégtelenül kompenzálta őket.

Elméletileg a mesterségesintelligencia-kompenzációs alap sokkal gyorsabb út lenne az okozott károk kompenzációjához. Elképzelheti, milyen fáradságos lehet egy per, amikor a beperelt cégek megpróbálhatják elhúzni az ügyet.

Az ügyvédek hangsúlyozhatnák, hogy az AI-kompenzációs alap lehetővé tenné, hogy a többi fél, például a mesterséges intelligencia-gyártók elkerüljenek minden egyértelmű büntetést, amiért elengedték önvezető autójukat a közutakon, ami végül elütött egy kerékpárost. Mit tehetnének még ezek a cégek „hanyagul”? Anélkül, hogy a legális kard fenyegető kísértete lóg a fejük felett, naponta szembesülhetnénk a veszélyeztető képességekkel teli mesterséges intelligenciával.

Körbe-körbe mennek az érvek.

Következtetés

A mesterséges intelligencia etika emlékeztet bennünket, hogy mindig figyelembe kell vennünk az AI etikai és jogi következményeit. A mesterségesintelligencia-kompenzációs alapok esetében csábítónak tűnik az a javasolt elképzelés, hogy a mesterséges intelligencia által károsítottakat kártalanítsák a biztosításszerű alapok. A pénzek látszólag ott várakoznának, készen arra, hogy felhasználják, és a lehető leghamarabbi kártérítést biztosítsák.

Az a kompromisszum, hogy ez megnyithatja-e a zsilipeket egy egyre kevesebb biztonsági vezérlővel rendelkező mesterséges intelligencia létrehozása felé, ijesztő és túlságosan is valós aggodalomra ad okot. Valószínűleg nem kell olajat öntnünk egy olyan tűzre, amely talán már zajlik.

Valahogy továbbra is rábírhatjuk a mesterséges intelligencia készítőit arra, hogy megfelelő etikus mesterséges intelligenciát dolgozzanak ki, és ezzel egyidejűleg létrehozzuk ezeket a mesterséges intelligencia kompenzációs alapokat?

Egyesek azt mondanák, hogy igen, megtehetjük. A meglévő törvények átalakításával, hogy azok összhangba kerüljenek a mesterséges intelligencia kompenzációs alapjaival, a mesterséges intelligencia által károsított személyeknek kettős út állhatna az igazságos kártérítésért.

Ki az első?

Igen, ez az, aki (mint mindannyiunkban) elsőre észreveszi, hogy töprengenünk kell a mesterséges intelligencia-kompenzációs alapok lehetséges felhasználásán, és módosítanunk kell a meglévő törvényeket, még ha csak enyhén is, így biztosítva a megfelelő eszközt a jó mesterséges intelligencia és a támadások elleni küzdelemhez. rossz AI.

Ebben a lényeges megfontolásban nincs félreértés.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- elszámoltathatóság/