A mesterséges intelligencia etikája és a mesterséges intelligencia törvényei szerint a jogi érvelés beültetésével az MI-be intelligensen elérhetõ az emberi érték összehangolása

Mai rovatunkban számtalan, látszólag egymástól eltérő, mesterséges intelligenciával kapcsolatos témát fogok egy szép szövésű anyagba összefűzni.

Készen állsz?

Képzelje el, hogy AI-alapú alkalmazást használ, amely segít valamilyen jelentős feladat elvégzésében. Lehet, hogy az ügy pénzügyi, vagy egészségügyi vonatkozású. A lényeg az, hogy az AI-tól függ, hogy helyesen cselekszik, és feltételezhetően biztonságosan és megbízhatóan teljesít.

Tegyük fel, hogy a mesterséges intelligencia etikátlan területre kerül.

Lehet, hogy nem veszi észre, hogy a mesterséges intelligencia ezt teszi.

Például a mesterséges intelligencia potenciálisan rejtett diszkriminatív tényezőkre támaszkodhat, mint például a faj vagy a nem, bár előfordulhat, hogy nincs életképes eszköze a nemkívánatos használat felismerésére. Egyedül kapod meg a bot rövidebb végét egy olyan mesterséges intelligencia segítségével, amelyet vagy már kezdettől fogva problémás módon találtak ki, vagy pedig sikerült kockaszerű és határos etikai veszélybe terelni (többet mondok ez egy pillanat alatt).

Mit tehet vagy mit lehet tenni az AI ellen, amely etikátlan utat választ?

Amellett, hogy megpróbáltam előzetesen megépíteni az AI-t, hogy ne hajtson végre ilyen alattomos műveleteket, korábban azt is részleteztem, hogy egyre nagyobb az érdeklődés a beágyazás iránt. AI etikai ellenőrzés komponensét az egyébként vadnyugati, bármire képes mesterséges intelligenciarendszerek virágzó mocsarába dobva a piacra. Az ötlet az, hogy megpróbáljuk megakadályozni, hogy egy mesterséges intelligencia által beoltott alkalmazás túllépjen az etikai dimenziókon, további mesterséges intelligencia segítségével végezhetnénk az ellenőrzést és az egyensúlyt. Ez a hozzáadott mesterséges intelligencia lehet a megcélzott mesterségesintelligencia-alkalmazáson kívül, vagy egy olyan komponens, amely közvetlenül az AI-ba van beágyazva vagy beültetett, és amelyet ellenőrizni szeretnénk.

Ahogy korábban is mondtam, lásd az itt található link: „A közelmúltban kialakuló trend abból áll, hogy megpróbálnak etikai védőkorlátokat építeni az MI-be, amelyek megfogják, amikor a mesterségesintelligencia-rendszer többi része kezd túllépni az előre meghatározott etikai határokon. Bizonyos értelemben a cél az, hogy magát a mesterséges intelligenciát használjuk, hogy megakadályozzuk, hogy etikailag tévedjen. Mondhatnánk, hogy arra törekszünk, hogy a mesterséges intelligencia önmagát gyógyítsa” (Lance Eliot, „Crafting Ethical AI That Monitors Unethical AI And Tries To Deter Bad AI from Acting Up”, Forbes, 28. március 2022.).

A könyvemben is érdekes lehet AI védőbotok, amelyet néha őrangyalként is emlegetnek, amely lefedi ennek a legmodernebb AI-in-in-MI beágyazott kettős ellenőrzőnek a technikai alapjait, ld. az itt található link.

A lényeg az, hogy a szalonnát szerencsére megmentheti egy beágyazott mesterséges intelligencia-ellenőrző etika-mérő elem, amelyet az Ön által használt mesterségesintelligencia-alkalmazásba fejlesztettek ki és ültettek be. De vajon ez elegendő lesz-e ahhoz, hogy megbizonyosodjon arról, hogy a mesterséges intelligencia nem merev meg teljesen, és nem merészkedik bele még a hasher káros talajába sem?

Látod, az AI alkalmazás látszólag működhet illegális cselekszik.

Az egy dolog, hogy a mesterséges intelligencia az általunk etikusnak vagy etikátlannak tartott magatartások szürke területére kerül. Ugyanilyen zavarba ejtő viselkedés és valószínűleg egyre súlyosbodó aggodalom az MI-vel jár, amely úgymond csak ugrálja a cápát, és leereszkedik a kifejezetten törvénytelen cselekedetek silány sötétségébe.

A törvénytelen mesterséges intelligencia rossz. Rossz dolog hagyni, hogy a törvénytelen mesterséges intelligencia felügyelet nélkül maradjon. Egyes jogtudósok nyíltan aggódnak amiatt, hogy a mesterséges intelligencia megjelenése és elterjedése fokozatosan és félelmetesen aláássa a látszatunkat a jogállamiság, lásd az elemzésemet itt: az itt található link.

Várj egy pillanatot, talán azt mondod.

Lehet, hogy azt gondolja, hogy az AI-fejlesztők igen soha úgy programozzák az AI-t, hogy szembemenjen a törvénnyel. Elképzelhetetlen. Csak a gonosz gazemberek tennének ilyet (amelyek mellesleg ne feledjék, hogy vannak olyanok, akik szándékosan gonosz célokra dolgozzák ki és használják az MI-t, ami egyre jobban érdekli a bűnözőket és másokat, akik aljas tevékenységekre kívánják használni az AI-t).

Elnézést, de vágyálom azt feltételezni, hogy minden nem gonosz mesterséges intelligencia fejlesztő szigorúan meg fogja győződni arról, hogy mesterséges intelligenciája teljesen törvénytisztelő. Lehetséges, hogy a mesterséges intelligencia magától beállítja magát, és illegális tevékenységbe bolyong. Természetesen az is fennáll annak a lehetősége, hogy a mesterséges intelligencia fejlesztői vagy azt akarták, hogy a mesterséges intelligencia illegálisan járjon el, vagy nem voltak tisztában azzal, hogy mi minősül illegálisnak a jogi aktussal szemben, amikor az MI-t megalkották (igen, ez teljesen lehetséges, nevezetesen, hogy A teljesen technológiát alkalmazó mesterséges intelligencia csapata tudatlan lehet a mesterséges intelligencia jogi trükkjeit illetően, ami nem menthető, és mégis riasztó gyakorisággal fordul elő).

Mit tehetünk erről?

Ismételten amellett, hogy megpróbáljuk biztosítani, hogy a mesterséges intelligencia védtelen és törvényes legyen, a lendületet növelő további módszer egy olyan AI-komponens beágyazása vagy beültetése, amely jogilag kétszeresen ellenőrzi az AI-alkalmazást. Ez a hozzáadott mesterséges intelligencia csendesen ülve és gyakran beharangozatlanul figyeli a mesterséges intelligencia többi részét, hogy megpróbálja megállapítani, hogy az MI nem lesz-e szélhámos, vagy legalábbis túllépi-e a törvényi vagy szabályozási korlátozások határait.

Mostantól kétféle mesterséges intelligencia-ellenőrzés áll rendelkezésünkre, amelyek potenciálisan be vannak ágyazva egy AI-alkalmazásba:

  • AI etikai kettős ellenőrző: Ez az összetevő vagy AI-bővítmény valós időben felméri a mesterséges intelligencia többi részét az AI által tanúsított etikus és etikátlan viselkedések szempontjából.
  • AI jogi kettős ellenőrző: Ez a komponens vagy mesterséges intelligencia-bővítmény valós időben értékeli a mesterséges intelligencia többi részét, hogy biztosítsa a jogi kulcskövek betartását, és hogy a mesterséges intelligencia elkapja-e a felmerülő illegális tevékenységeket.

Hogy tisztázzuk, ezek viszonylag új elképzelések, és mint ilyenek, a ma használt mesterséges intelligencia az alábbi feltételek bármelyikében lehet:

  • AI, amely egyáltalán nem tartalmaz kettős ellenőrzést
  • A mesterséges intelligencia etikai kettős ellenőrzőjét tartalmazza, de más kettős ellenőrzőt nem
  • Olyan mesterséges intelligencia, amely tartalmaz egy AI jogi kettős ellenőrzőt, de nincs más kettős ellenőrző
  • Olyan mesterséges intelligencia, amely rendelkezik mesterséges intelligencia etikai és AI jogi kettős ellenőrzővel is
  • Más

Van néhány kifejezetten trükkös aspektusa annak, ha a mesterséges intelligencia etikai és a mesterséges intelligencia jogi kettős ellenőrzője egymás mellett működik egy AI-alkalmazásban rokon testvérként. Ez a dualizmus egy olyan fajtája, amelyet nehezebb lehet koordinálni, mint gondolnád (azt hiszem, mindannyian tudjuk, hogy a testvérek között lehet a legszorosabb kötelék, bár ők is tudnak időnként verekedni, mint a farka, és hevesen ellenzik nézetek).

Hosszan taglaltam ezt a fajta nehéz feladatot dualizmus: „Egy elhanyagolt dualizmus jelenik meg a társadalmi jóért AI-ban, amely magában foglalja a mesterséges erkölcsi cselekvés és a mesterséges jogi érvelés szerepének hiányát a fejlett AI-rendszerekben. A mesterséges intelligencia kutatóinak és fejlesztőinek erőfeszítései általában arra irányultak, hogyan készítsenek és építsenek be olyan mesterséges erkölcsi ágenseket, amelyek irányítják az erkölcsi döntéshozatalt, amikor egy mesterséges intelligencia rendszer működik a terepen, de nem összpontosítottak a mesterséges jogi érvelési képességek használatára és nem kapcsolták össze azokat. , amely ugyanúgy szükséges a szilárd erkölcsi és jogi eredményekhez” (Lance Eliot, „The neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning in AI For Social Good”, Harvard University CRCS Annual Conference 2020, Harvard Center for Research and Computation Society)

Ha azon tészta, miért lehet feszültség egy mesterséges intelligencia etikai és egy AI jogi ellenőrző között, akkor ezt a figyelemre méltó idézetet találhatja meg az észbontó fogalmi érdemességről: „A törvény megengedhet bizonyos cselekedeteket, noha ez a cselekedet erkölcstelen; és a törvény tilthat egy cselekedetet, még akkor is, ha az erkölcsileg megengedhető, vagy akár erkölcsileg kötelező.” (Shelly Kagan, Az erkölcs határai, 1998).

Nézzük kissé át a fókuszunkat, és nézzük meg, hogyan illeszkednek ezek a kettős ellenőrzők egy másik, alaposan átvizsgált AI-témához, nevezetesen Felelős mesterséges intelligencia vagy az emberi értékek és a mesterséges intelligencia összehangolásának összehangolt mérlegelése.

Az általános elképzelés az, hogy olyan mesterséges intelligenciát akarunk, amely megfelel a megfelelő és kívánatos emberi értékeknek. Egyesek ezt úgy emlegetik Felelős mesterséges intelligencia. Mások is hasonlóan vitatkoznak Elszámoltatható AI, Megbízható AIés AI igazítás, amelyek mindegyike ugyanazt az alapelvet érinti. Ezekről a fontos kérdésekről szóló vitámat lásd az itt található link és a az itt található link, csak hogy néhányat említsek.

Hogyan érhetjük el, hogy a mesterséges intelligencia összhangba kerüljön az emberi értékekkel?

Ahogy korábban javasoltuk, reméljük, hogy a mesterséges intelligencia fejlesztői tisztában lesznek azzal, hogy olyan mesterséges intelligenciát fejlesztenek, amely eléri a felelős AI-követést. Sajnálatos módon a korábban kifejtett okok szerint esetleg nem. Ráadásul megpróbálhatják ezt megtenni, de ennek ellenére az MI végül az etikus viselkedések kiemelkedő területein túlra, vagy esetleg törvénytelen vizekre kerül.

Rendben, akkor meg kell fontolnunk a praktikus dandy kettős ellenőrző eszközeinket, mint eszközt ezeknek a kockázatoknak és kitettségeknek a megfékezésére. A jól kidolgozott mesterséges intelligencia etikai kettős ellenőrzőjének használata lényegesen segítheti a mesterséges intelligencia és az emberi értékek összehangolását. Hasonlóképpen, egy jól kidolgozott mesterséges intelligencia jogi kettős ellenőrzője érdemben segítheti a mesterséges intelligencia és az emberi értékek összehangolását.

Így a felelős mesterségesintelligencia, a megbízható mesterségesintelligencia, az elszámoltatható AI, az AI-igazítás stb. elérésének kulcsfontosságú és még nem jól ismert módja a mesterséges intelligencia ellenőrző eszközeinek, például a mesterséges intelligencia etikai kettős ellenőrzőjének és a AI Legal kettős ellenőrző, amely fáradhatatlanul működik a mesterséges intelligencia kettős ellenőrzéseként, hogy be vannak ágyazva.

Ebben a vitában szeretnék egy kicsit részletesebben kitérni az AI-ba beágyazott AI jogi kettős ellenőrzők természetére és felépítésére. Ennek érdekében hasznos lehet megosztani Önnel néhány további hátteret a témával kapcsolatban AI és jog.

A mesterséges intelligencia és a törvény egymásba keveredésének egyszerű vizsgálatához lásd a beszélgetésemet itt: az itt található link. Igényes pillantásomban a AI és jog csatolás, az AI és a törvény összekapcsolásának két fő módjáról ezt az egyértelmű koncepciót adom:

  • (1) Az AI-ra vonatkozó törvény: Társadalmunkban a mesterséges intelligencia szabályozására vagy irányítására alkalmazott törvények megfogalmazása, elfogadása és végrehajtása
  • (2) AI-applied-to-Law: Mesterséges intelligencia technológiát dolgoztak ki és alkalmaztak a törvényben, beleértve a mesterséges intelligencia alapú jogi érvelést (AILR) a LegalTech csúcstechnológiás alkalmazásaiba beágyazva, hogy autonóm vagy félig autonóm módon végezzenek ügyvédi feladatokat

Az első felsorolt ​​nézőpont annak mérlegelése, hogy a meglévő és az új törvények hogyan szabályozzák az AI-t. A második felsorolt ​​perspektíva a mesterséges intelligencia törvényi alkalmazásához kapcsolódik.

Ez utóbbi kategória általában magában foglalja az AI-alapú jogi érvelés (AILR) alkalmazását az ügyvédek által használt különféle online eszközökben. Például az AI része lehet egy szerződés életciklus-kezelési (CLM) csomagnak, amely segíti az ügyvédeket azáltal, hogy azonosítja a szerződéses nyelvezetet, amely hasznos lehet új szerződések megszövegezéséhez, vagy észlelheti azokat a szerződéseket, amelyek jogilag ócska nyelvezetet tartalmaznak, amely lehetővé teszi szerencsétlenségeket vagy jogi kiskapukat. (A mesterséges intelligencia által felismerhető úgynevezett „törvényszagok” vizsgálatához lásd az itt található link).

A mesterséges intelligencia elkerülhetetlenül arra a törvényre vonatkozik, amely elérhetővé válik a nagyközönség számára, és amelyhez nincs szükség ügyvédre. Jelenleg a különféle korlátozások – köztük az UPL (Unauthorized Practical of Law) – következtében az AI-alapú jogi tanácsadó alkalmazások elérhetővé tétele kényes és ellentmondásos kérdés, lásd a vitámat itt: az itt található link.

Ezt a bevezetőt az AI-ról és a jogról azért hoztam fel, hogy rámutassak, hogy a mesterséges intelligencia egy másik, a törvényre alkalmazott eszköze a mesterséges intelligencia jogi kettős ellenőrzőinek létrehozása lenne.

Igen, a mesterséges intelligencia törvényben történő alkalmazásában alkalmazott technológiai képesség kettős feladatként is szolgálhat, ha az MI-t beágyazott vagy beültetett mesterségesintelligencia jogi kettős ellenőrzőként használja. A mesterséges intelligencia jogi kettős ellenőrzője olyan összetevő, amelynek ismernie kell a jogi szempontokat. Amikor az AI-alkalmazás többi része különféle műveleteket hajt végre, az AI Legal kettős ellenőrzője felméri, hogy az AI-alkalmazás jogszerűen és a törvényes korlátozásokon belül végzi-e ezt.

A mesterséges intelligencia jogi kettős ellenőrző összetevőjének nem kell feltétlenül lefednie a törvényről tudnivalók teljes skáláját. A mesterséges intelligencia alkalmazás jellegétől függően, az AI általános célját és tevékenységeit illetően, az AI jogi kettős ellenőrzője sokkal szűkebb lehet a benne található jogi szakértelem szempontjából.

Hasznos keretet hoztam létre annak bemutatására, hogy a jogi tartományban az AI hogyan terjed az autonóm képességek sorozatában, amelyek az autonómia szintjei (LoA) néven ismertek. Áttekintésért lásd a Forbes 21. november 2022-i rovatbejegyzés: „A non-nonsense, átfogó kényszerítő eset, miért kell az ügyvédeknek tudniuk az AI-ról és a törvényről” itt az itt található link, a részletes technikai ábrázolásért pedig lásd a mélyreható kutatási cikkemet a MIT Computational Law Journal 7. december 2021., lásd az itt található link.

A keretrendszer a mesterséges intelligencia öt szintjét világítja meg a jogi törekvésekben:

  • 0. szint: Nincs automatizálás az AI-alapú jogi munkához
  • 1. szint: Egyszerű segítség automatizálás AI-alapú jogi munkához
  • 2. szint: Fejlett segítség automatizálás AI-alapú jogi munkához
  • 3. szint: Félautonóm automatizálás AI-alapú jogi munkához
  • 4. szint: A tartomány autonóm az AI-alapú jogi munkához
  • 5. szint: Teljesen önálló az AI-alapú jogi munkához

Itt röviden leírom őket.

A 0. szint az automatizálás nélküli szintnek számít. A jogi érvelés és a jogi feladatok kézi módszerekkel valósulnak meg, és alapvetően papíralapú megközelítéssel történnek.

Az 1. szint a mesterséges intelligencia jogi érveléséhez szükséges egyszerű segítség automatizálásból áll. Ebbe a kategóriába tartozik például a mindennapi számítógépes szövegszerkesztés, a mindennapi számítógépes táblázatok használata, az elektronikusan tárolt és visszakeresett online jogi dokumentumokhoz való hozzáférés stb.

A 2. szint a mesterséges intelligencia jogi érveléséhez szükséges fejlett segítség automatizálást tartalmazza. E kategória példái közé tartozik a lekérdezési stílusú kezdetleges természetes nyelvi feldolgozás (NLP), a gépi tanulás (ML) leegyszerűsített elemei, a jogi esetek előrejelzésére szolgáló statisztikai elemző eszközök stb.

A 3. szint félig autonóm automatizálásból áll az AI jogi érveléséhez. E kategória példái közé tartozik a fejlett tudásalapú rendszerek (KBS) használata jogi érveléshez, a gépi tanulás és a mélyreható tanulás (ML/DL) használata jogi érveléshez, a fejlett NLP stb.

A 4. szint a mesterséges intelligencia jogi érvelésére szolgáló tartományi autonóm számítógép-alapú rendszerekből áll. Ez a szint újrafelhasználja az Operational Design Domains (ODD-k) fogalmát, ahogyan az önvezető autókra használják, de a jogi tartományra alkalmazva. A jogi területek besorolhatók funkcionális területek szerint, például családjog, ingatlanjog, csődjog, környezetvédelmi jog, adójog stb.

Az 5. szint teljesen autonóm számítógép-alapú rendszerekből áll az AI jogi érvelésére. Bizonyos értelemben az 5. szint a 4. szint szuperkészlete az összes lehetséges jogi területet felölelő szempontból. Kérjük, vegye figyelembe, hogy ez elég magas megrendelés.

Az autonómia ezen szintjei egyenrangúak az önvezető autók és autonóm járművek megvitatása során alkalmazott hasonló felhasználási módokkal (szintén a hivatalos SAE szabványon alapul, lásd a tudósításomat itt: az itt található link). Még nincsenek SAE Level 5 önvezető autóink. A SAE 4-es szintű önvezető autók felé haladunk. A legtöbb hagyományos autó a 2-es SAE-szinten van, míg néhány újabb autó a SAE 3-as szintre emelkedik.

A jogi területen még nem rendelkezünk 5. szintű AILR-rel. Néhány 4-es szintet érintünk, bár rendkívül szűk ODD-kben. A 3. szint kezd meglátni a napvilágot, míg az AILR alappillére ma elsősorban a 2. szinten van.

Egy közelmúltbeli kutatási cikk a mesterséges intelligenciáról, ahogyan azt a törvényre alkalmazzák, egy tipizálást állított fel Törvény informálja kódex. A kutató ezt állítja: „Az egyik elsődleges célja a Törvény informálja kódex a napirend az, hogy megtanítsuk a mesterséges intelligenciát a törvény szellemének követésére” (John J. Nay, „Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, Northwestern Journal of Technology and Intellectual Property, 20. kötet, megjelenés alatt). Van néhány lényeges szempont, amelyek a Törvény informálja kódex A mantra felhozza, és végigvezetem Önt ezeken a záróköves előírásokon.

Mielőtt belemerülnék a témába, először szeretnék néhány alapvető alapot lefektetni a mesterséges intelligencia és különösen a mesterséges intelligencia etikájával és a mesterséges intelligencia törvényével kapcsolatban, hogy megbizonyosodjon arról, hogy a vita kontextus szempontjából ésszerű lesz.

Az etikus mesterséges intelligencia és a mesterséges intelligencia törvényének növekvő tudatossága

A mesterséges intelligencia közelmúltbeli korszakát eleinte annak tekintették AI For Good, ami azt jelenti, hogy az AI-t az emberiség jobbá tételére használhatjuk. A sarkán AI For Good jött a felismerés, hogy mi is elmerültünk AI For Bad. Ide tartozik az olyan mesterséges intelligencia, amelyet megkülönböztetővé alakítottak ki vagy alakítottak át, és számítási döntéseket hoz, amelyek indokolatlan torzításokat hordoznak magukban. Néha az AI így épül fel, míg más esetekben arra a kellemetlen területre kanyarod.

Szeretnék megbizonyosodni arról, hogy egy oldalon vagyunk a mai mesterséges intelligencia természetével kapcsolatban.

Ma nincs olyan mesterséges intelligencia, amely érző lenne. Nálunk ez nincs. Nem tudjuk, hogy az érző mesterséges intelligencia lehetséges lesz-e. Senki sem tudja pontosan megjósolni, hogy elérjük-e az érző MI-t, és azt sem, hogy az érző mesterséges intelligencia valamilyen csodálatos módon spontán módon létrejön-e számítógépes kognitív szupernóva formájában (általában szingularitásnak nevezik, lásd tudósításomat itt: az itt található link).

A mesterséges intelligencia azon típusa, amelyre fókuszálok, a mai nem érző MI-ből áll. Ha vadul akarnánk spekulálni az érző mesterséges intelligencia kapcsán, akkor ez a vita gyökeresen más irányba haladhat. Egy érző mesterséges intelligencia állítólag emberi minőségű lenne. Figyelembe kell vennie, hogy az érző mesterséges intelligencia az ember kognitív megfelelője. Sőt, mivel egyesek feltételezik, hogy szuperintelligens AI-val rendelkezünk, elképzelhető, hogy az ilyen mesterséges intelligencia végül okosabb lesz, mint az emberek (a szuperintelligens AI lehetőségének feltárásához lásd a tudósítás itt).

Nyomatékosan javaslom, hogy tartsuk a dolgokat a földön, és vegyük figyelembe a mai számítástechnikai, nem érző MI-t.

Vegye észre, hogy a mai mesterséges intelligencia nem képes az emberi gondolkodással egyenrangú módon „gondolkodni”. Amikor Alexával vagy Sirivel kommunikál, a társalgási képességek hasonlónak tűnhetnek az emberi képességekhez, de a valóság az, hogy számítási jellegű, és hiányzik az emberi megismerés. A mesterséges intelligencia legújabb korszaka széles körben alkalmazta a gépi tanulást (ML) és a mély tanulást (DL), amelyek kihasználják a számítási mintaillesztést. Ez olyan mesterséges intelligencia-rendszerekhez vezetett, amelyek emberszerű hajlamokat mutatnak. Eközben manapság nincs olyan mesterséges intelligencia, amely a józan észnek látszana, és az emberi gondolkodás kognitív csodáiból sem.

Legyen nagyon óvatos a mai mesterséges intelligencia antropomorfizálásával.

Az ML/DL a számítási mintaillesztés egyik formája. A szokásos megközelítés az, hogy egy döntési feladatról adatokat gyűjt össze. Az adatokat betáplálja az ML/DL számítógépmodellekbe. Ezek a modellek matematikai mintákat keresnek. Miután megtalálta az ilyen mintákat, ha igen, az AI rendszer ezeket a mintákat fogja használni, amikor új adatokkal találkozik. Az új adatok bemutatásakor a „régi” vagy történelmi adatokon alapuló mintákat alkalmazzák az aktuális döntés meghozatalához.

Azt hiszem, sejtheti, hová vezet ez. Ha az emberek, akik a mintaszerű döntéseket hozták, nemkívánatos elfogultságokat alkalmaztak, akkor valószínű, hogy az adatok ezt finom, de jelentős mértékben tükrözik. A Machine Learning vagy a Deep Learning számítási mintaillesztés egyszerűen megpróbálja matematikailag utánozni az adatokat ennek megfelelően. A mesterséges intelligencia által kialakított modellezésben önmagában semmi sem látszik a józan észnek vagy más érző szempontoknak.

Továbbá előfordulhat, hogy az AI-fejlesztők sem tudják, mi történik. Az ML/DL rejtélyes matematikája megnehezítheti a mára rejtett torzítások kiszűrését. Joggal remélhető és elvárható, hogy a mesterséges intelligencia fejlesztői teszteljék a potenciálisan eltemetett torzításokat, bár ez bonyolultabb, mint amilyennek látszik. Jó esély van arra, hogy még viszonylag kiterjedt tesztelés mellett is lesznek torzítások az ML/DL mintaillesztési modelljeibe.

Használhatná némileg a híres vagy hírhedt közmondást, a szemetet a szemét kiszállításáról. A helyzet az, hogy ez inkább a torzításokhoz hasonlít, amelyek alattomos módon beszivárognak az AI-ba merülő torzítások miatt. Az AI algoritmus-döntéshozatala (ADM) axiomatikusan megterhelődik egyenlőtlenségekkel.

Nem jó.

Mindez különösen jelentős AI etikai vonatkozásaival rendelkezik, és praktikus ablakot kínál a levont tanulságokba (még mielőtt az összes lecke megtörténne), amikor a mesterséges intelligencia törvénybe iktatásáról van szó.

A mesterséges intelligencia etikai előírásainak általános alkalmazása mellett felvetődik az a kérdés, hogy kellene-e törvények szabályozni az AI különféle felhasználásait. Szövetségi, állami és helyi szinten új törvényeket kötnek ki, amelyek a mesterséges intelligencia kidolgozásának körét és jellegét érintik. Az ilyen törvények kidolgozására és elfogadására irányuló erőfeszítések fokozatosak. A mesterséges intelligencia etika legalábbis megfontolt állomásként szolgál, és bizonyos mértékig bizonyos mértékig közvetlenül beépül az új törvényekbe.

Legyen tudatában annak, hogy egyesek határozottan azzal érvelnek, hogy nincs szükségünk az AI-t lefedő új törvényekre, és a meglévő törvényeink elegendőek. Előre figyelmeztetik, hogy ha bevezetünk néhány ilyen mesterséges intelligencia-törvényt, akkor megöljük az aranylibát azáltal, hogy visszaszorítjuk a mesterséges intelligencia fejlődését, amely óriási társadalmi előnyöket kínál.

Az előző rovatokban bemutattam az AI-t szabályozó törvények kidolgozására és elfogadására irányuló különféle nemzeti és nemzetközi erőfeszítéseket, ld. az itt található link, például. Kitértem a különféle nemzetek által azonosított és elfogadott különféle mesterséges intelligencia-etikai elvekre és irányelvekre is, beleértve például az Egyesült Nemzetek erőfeszítéseit, mint például az UNESCO mesterségesintelligencia-etikai készletét, amelyet közel 200 ország fogadott el, lásd az itt található link.

Íme egy hasznos kulcslistája az AI-rendszerekre vonatkozó etikus AI-kritériumokról vagy -jellemzőkről, amelyeket korábban alaposan megvizsgáltam:

  • Átláthatóság
  • Igazságosság és méltányosság
  • Nem rosszindulat
  • Felelősség
  • Adatvédelem
  • Jótékonyság
  • Szabadság és autonómia
  • Bízzon
  • Fenntarthatóság
  • Méltóság
  • Szolidaritás

A mesterséges intelligencia fejlesztőinek komolyan kellene használniuk ezeket a mesterséges intelligencia etikai elveit, valamint azokat, amelyek irányítják az AI-fejlesztési erőfeszítéseket, és még azokat is, amelyek végső soron az AI-rendszerek karbantartását és karbantartását végzik.

Az összes érdekelt fél a mesterséges intelligencia fejlesztésének és használatának teljes életciklusa során beletartozik az etikus mesterséges intelligencia elfogadott normáihoz. Ez egy fontos kiemelés, mivel a szokásos feltevés az, hogy „csak a kódolók” vagy az AI-t programozók kötelesek betartani az AI etikai elveit. Amint azt korábban hangsúlyoztuk, egy falura van szükség a mesterséges intelligencia kidolgozásához és használatához, és ehhez az egész falunak ismernie kell a mesterséges intelligencia etikai előírásait, és be kell tartania azokat.

Nemrég megvizsgáltam a AI Bill of Rights amely a Hivatalos Tudományos és Technológiai Politikai Hivatal (OSTP) egy éves erőfeszítésének eredményeként létrejött „Blueprint for an AI Bill of Rights: Makeing Automated Systems Work for the American People” című amerikai kormány hivatalos dokumentumának hivatalos címe. ). Az OSTP egy szövetségi szervezet, amely tanácsokat ad az amerikai elnöknek és az Egyesült Államok végrehajtó hivatalának különféle nemzeti jelentőségű technológiai, tudományos és mérnöki vonatkozásban. Ebben az értelemben azt mondhatjuk, hogy ez az AI Bill of Rights egy dokumentum, amelyet az Egyesült Államok jelenlegi Fehér Háza hagyott jóvá és hagyott jóvá.

Az AI Bill of Rights öt kulcskategóriát különböztet meg:

  • Biztonságos és hatékony rendszerek
  • Algoritmikus megkülönböztetés elleni védelem
  • adatvédelem
  • Figyelmeztetés és magyarázat
  • Emberi alternatívák, mérlegelés és visszaesés

Gondosan átnéztem ezeket az előírásokat, lásd az itt található link.

Most, hogy hasznos alapot fektettem le ezeken a kapcsolódó mesterségesintelligencia-etika és AI-jog témakörökön, készen állunk, hogy beleugorjunk a mesterséges intelligencia jogi kettős ellenőrzésének mámorító témájába és a Törvény informálja kódex.

A mesterséges intelligencia-beágyazott mesterséges intelligencia kettős ellenőrző elemei az emberi érték összehangolása érdekében

Néha hivatkozom AI Legal Double-checkers az AI-LDC rövidítésén keresztül. Ez vizuálisan kissé megrázó azok számára, akik nem ismerik a mozaikszót. Mint ilyen, nem ezt a rövidítést fogom használni ebben a beszélgetésben, de figyelmeztetésképpen meg akartam említeni.

A mesterséges intelligencia jogi kettős ellenőrzőinek néhány bonyolultságának feloldásához nézzük meg a következő főbb pontokat:

  • A mesterséges intelligencia jogi ellenőrzőinek használata a mesterséges intelligencia emberi értékek összehangolására szolgáló mechanizmusként
  • A kiterjedtebb mesterségesintelligencia ennek megfelelően robusztusabb mesterségesintelligencia-jogi kettős ellenőrzést igényel
  • A mesterséges intelligencia jogi ellenőrzői meghozzák a törvényt, és különösen nem alkotnak törvényt (feltehetően)
  • Kényes egyensúly a mesterséges intelligencia között A törvény jogi megtestesülése, mint szabályok és szabványok
  • A puding igazolásának megkövetelése, ha a mesterséges intelligencia betartja a törvényt

A helyszűke miatt egyelőre csak erre az öt pontra térek ki, bár kérem, legyen éber rovatom további tudósítása, amely további és ugyanilyen figyelemre méltó megfontolásokkal foglalkozik ezekkel a gyorsan fejlődő és előremutató ügyekkel kapcsolatban.

Most azonnal kapcsolja be a biztonsági övet, és készüljön fel egy élénkítő utazásra.

  • A mesterséges intelligencia jogi ellenőrzőinek használata a mesterséges intelligencia emberi értékek összehangolására szolgáló mechanizmusként

Számos módszer létezik a mesterséges intelligencia és az emberi értékek harmonikus összhangjának elérésére.

Ahogy korábban említettük, létrehozhatunk és kihirdethetünk mesterséges intelligencia etikai előírásait, és arra törekszünk, hogy a mesterséges intelligencia fejlesztőit és azokat, akik a mesterséges intelligenciával foglalkozó és üzemeltetők betartsák ezeket a kulcsköveket. Sajnos ez önmagában nem fogja megtenni a trükköt. Vannak olyan tervezői, akik elkerülhetetlenül nem veszik át az üzenetet. Vannak olyan mesterkedései, akik az Ethical AI-t fogják fitogtatni, és megpróbálják megkerülni a kissé lazán előírt elveket. Stb.

A mesterséges intelligencia etikáját magában foglaló „soft law” megközelítések alkalmazását szinte menthetetlenül párosítani kell a „hard law” módszerekkel, például olyan törvények és rendeletek elfogadásával, amelyek súlyos jelzést küldenek mindazoknak, akik mesterséges intelligenciát létrehoznak vagy használnak. A törvény hosszú karja magával ragadhatja, ha nem használja megfontoltan az AI-t. A börtönajtók csörömpölése éles figyelmet kelthet.

Nagy probléma azonban, hogy néha az istálló ajtaja már kiengedte a lovakat és kb. A kitelepített mesterséges intelligencia potenciálisan mindenféle illegális cselekményt fog produkálni, és mindaddig folytatni fogja ezt, amíg nem csak elkapják, hanem akkor is, amikor végre lép a jogellenes cselekmények megfékezése. Mindez időt vehet igénybe. Eközben az embereket ilyen vagy olyan módon sértik.

Ebbe az előretörésbe bekerül az AI jogi kettős ellenőrzője.

Az MI-alkalmazáson belül az AI Legal kettős-ellenőrző képes azonnal észlelni, ha úgy tűnik, hogy az AI törvénybe ütközik. Az AI Legal kettős ellenőrzője megállíthatja az AI-t a nyomában. Vagy az összetevő figyelmeztetheti az embereket a felismert jogellenes tevékenységekre, méghozzá időben, ami sürgős korrekciós lépésekre késztetheti a felvigyázókat. Létezik továbbá az a megfontolt formalizált naplózás, amelyet az összetevő létrehozhat, kézzelfogható látszatát keltve egy audit nyomvonalnak az MI káros hatásainak kodifikálása céljából.

Törvényeinkről azt mondják, hogy a többszereplős konglomerátum egy formája, így a törvények elkerülhetetlenül keverékei annak, amit a társadalom igyekezett egyensúlyba hozni a helyes és helytelen társadalmi viselkedésről alkotott, valószínűleg ellentmondó nézetek között. A törvényeinken alapuló mesterséges intelligencia jogi kettős ellenőrzője ezért ezt a keveréket testesíti meg.

Nevezetesen, ez több, mint a végleges jogi szabályok listájának programozása. A törvények általában képlékenyebbek, és az átfogó szabványok felé törekszenek, ahelyett, hogy a legapróbb mikroszkopikus szabályokat határoznák meg. Bonyolultság van bőven.

Visszatérve a korábban említett kutatási cikkre, a következőképpen értelmezhetők ezek a megfontolások az AI Alignment törekvésével kapcsolatban: „A jog, a többágens összehangolás alkalmazott filozófiája egyedülállóan megfelel ezeknek a kritériumoknak. Az összehangolás probléma, mert nem tudjuk előzetesen meghatározza azokat a szabályokat, amelyek teljes mértékben és bizonyíthatóan irányítják a jó mesterséges intelligencia viselkedést. Hasonlóképpen, a jogi szerződésben részes felek nem láthatják előre kapcsolatuk minden eshetőségét, és a jogalkotók nem tudják megjósolni, hogy jogszabályaikat milyen konkrét körülmények között alkalmazzák. Ezért van az, hogy a jog nagy része normák konstellációja” (uo.).

A jogot mesterséges intelligencia-ellenőrzővé alakítani sokkal nagyobb kihívás, mint elsőre gondolná.

Ahogy a mesterséges intelligencia fejlődik, ennek megfelelően ki kell használnunk ezeket az előrelépéseket. Kiderült, hogy ami jó a libának, az jó a libának is. Azok közülünk, akik a törvények értelmében haladunk a mesterséges intelligencia terén, a mesterséges intelligencia terén a borítékot tolják el, és kétségtelenül olyan új fejlesztéseket kovácsolunk, amelyek végső soron a mesterséges intelligencia fejlődéséhez is hozzájárulhatnak.

  • A kiterjedtebb mesterségesintelligencia ennek megfelelően robusztusabb mesterségesintelligencia-jogi kettős ellenőrzést igényel

Egy macska-egér gambit szembesül ezzel a témával.

Valószínű, hogy ahogy a mesterséges intelligencia tovább fejlődik, az AI Legal kettős ellenőrző komponensei egyre nehezebben kezelhetők. Például egy vizsgált mesterségesintelligencia-alkalmazás újonnan kifejlesztett szuper alattomos módszereket rejthetett el a mesterséges intelligencia által végrehajtott illegális tevékenységek elrejtésére. Még ha a mesterséges intelligencia nem is alulmaradt, a mesterségesintelligencia általános összetettsége önmagában is ijesztő akadályt jelenthet a mesterségesintelligencia-jogi kettős ellenőrző értékelésében.

Így válik ez különösen jelentőssé.

Tegyük fel, hogy egy mesterséges intelligencia fejlesztő vagy valamilyen mesterséges intelligenciát használó cég kijelenti, hogy létezik egy mesterséges intelligencia jogi ellenőrző eszköz, amely be van ágyazva az AI-alapú alkalmazásba. Voilá, úgy tűnik, most megmosták a kezüket minden további aggálytól. Az AI Legal kettős ellenőrzője mindenről gondoskodik.

Nem így van.

Előfordulhat, hogy a mesterséges intelligencia jogi ellenőrzője nem elegendő az érintett AI-alkalmazás jellegéhez. Fennáll annak a lehetősége is, hogy az AI Legal kettős ellenőrzője elavulttá válik, esetleg nem frissül az AI alkalmazásra vonatkozó legújabb törvényekkel. Számos oka lehet annak, hogy egy mesterséges intelligencia jogi ellenőrzőjének puszta jelenléte miért nem lesz ezüstgolyó.

Vegyük fontolóra a korábban idézett kutatás következő meglátásait: „Az AI legkorszerűbb fejlődésével ismételten magasabbra állíthatjuk a bizonyított jogi megértési képességeket. Ha egy fejlesztő azt állítja, hogy a rendszere fejlett képességekkel rendelkezik a feladatok elvégzésére, akkor ennek megfelelően fejlett jogi megértést és jogi, érvelési képességeket kell mutatnia az AI-ban, amelyeknek gyakorlatilag nincs nehézségi plafonja, ha figyelembe vesszük a törvények és szabályozások sok időt, precedenst és joghatóságot. ” (uo.).

  • A mesterséges intelligencia jogi ellenőrzői meghozzák a törvényt, és különösen nem alkotnak törvényt (feltehetően)

Biztos vagyok benne, hogy néhányan felháborodnak az AI Legal kettős ellenőrző rendszerének ötletétől.

Az egyik gyakran hangoztatott aggodalom az, hogy nyilvánvalóan meg fogjuk engedni, hogy az AI döntsön helyettünk a törvényeinkről. Te jó ég, azt gondolhatod, hogy valami automatizálás utoléri az emberiséget. Azok az átkozott, beágyazott mesterséges intelligencia jogi ellenőrzői lesznek törvényeink alapértelmezett királyai. Bármit is tesznek, az lesz, aminek a törvény látszik.

Az embereket az AI fogja uralni.

És ezek a mesterséges intelligencia jogi kettős ellenőrzői a csúszós lejtő, amely elvezet minket.

Az ellenérv az, hogy az ilyen beszéd az összeesküvés-elméletek tárgya. Vadul posztulálsz, és lázba kevered magad. A valóság az, hogy ezek a mesterséges intelligencia jogi ellenőrzői nem érzőek, nem fogják átvenni az uralmat a bolygón, és az egzisztenciális kockázatukról való hypegetés nyilvánvalóan ostobaság és rendkívül eltúlzott.

Mindent összevetve, higgadt és megfontolt testtartás mellett észben kell tartanunk, hogy a mesterséges intelligencia jogi ellenőrzői arra szolgálnak, hogy megfelelően tükrözzék a törvényt, és nem szándékosan és nem véletlenül mennek tovább ahhoz, hogy valamilyen módon bekerüljenek az alkotás tiszteletre méltó birodalmába. törvény. Eltekintve az érzéki extrapolációtól, minden bizonnyal egyetérthetünk abban, hogy valós és sürgető aggodalomra ad okot, hogy az AI Legal kettős ellenőrzője esetleg félreértelmezi egy adott törvény valódi természetét.

Viszont azt állíthatja, hogy ezért az a bizonyos „tévesen ábrázolt” törvény lényegében újjáalkotott, mivel már nem jelöli megfelelően azt, amit a tényleges törvény akart. Bízom benne, hogy őszintén látja, hogy ez egy finom, de sokatmondó megfontolás. A mesterséges intelligencia jogi ellenőrzője bármikor virtuális alapon új törvényeket alkothat, vagy mondjuk „hallucinálhat” azzal, hogy az AI-komponens hogyan értelmezi a törvényt, ahogyan az eredetileg kimondta vagy megtestesült az MI-ben (az én tudósításomhoz). az AI ún hallucinációkLásd: az itt található link).

Erre határozottan ügyelni kell.

Ebben a témában a fent említett kutatási tanulmány ezt a párhuzamos gondolatot kínálja a szent határ átlépésének elkerülésére: „Nem az a célunk, hogy a mesterséges intelligencia legitimitással rendelkezzen a törvényalkotáshoz, a jogi precedens létrehozásához vagy a törvények betartatásához. Valójában ez aláásná megközelítésünket (és jelentős erőfeszítéseket kell fektetnünk ennek megakadályozására). A Law Informing Code legambiciózusabb célja inkább az, hogy számítógépes kódolással kódolja és beágyazza a meglévő jogi fogalmak és szabványok általánosíthatóságát a validált AI-teljesítménybe” (uo.).

  • Kényes egyensúly a mesterséges intelligencia között A törvény jogi megtestesülése, mint szabályok és szabványok

A törvények rendetlenek.

Szinte minden könyvről szóló törvény esetében valószínűleg sokféle értelmezés létezik arról, hogy a törvény mit ír elő a gyakorlatban. A mesterséges intelligencia szóhasználatában a törvényeket szemantikailag kétértelműnek nevezzük. Ez az, ami miatt a törvény által alkalmazott mesterséges intelligencia fejlesztése olyan izgalmas és egyben bosszantó kihívássá válik. Ellentétben azzal a precíz számszakadással, amelyet mondjuk a pénzügyi orientált mesterségesintelligencia-alkalmazásoknál tapasztalhatunk, a törvényeink mesterséges intelligenciájává való átültetése a szemantikai kétértelműségek cunamijával jár.

Az alapítványomnak az AI Legal Reasoning (AILR) alapjairól szóló könyvében azt tárgyalom, hogy a korábbi kísérletek, amelyek pusztán a törvények korlátozott szabályrendszerbe történő kodifikálására irányultak, nem jutottak el olyan messzire, amennyire szeretnénk a jogi területen (lásd az itt található link). A mai AILR-nek integrálnia kell a szabályok alkalmazása és a törvény által képviselt, átfogó szabványok között.

Ez a fontos egyensúly a következőképpen fejezhető ki: „A gyakorlatban a legtöbb jogi rendelkezés valahol a tiszta szabály és a tiszta szabvány közötti spektrumban landol, és a jogelmélet segíthet megbecsülni a „szabályszerűség” és a „szabványosság” megfelelő kombinációját. az AI-rendszerek célkitűzéseinek meghatározásakor” (uo.).

  • A puding igazolásának megkövetelése, ha a mesterséges intelligencia betartja a törvényt

Valamit akarni más, mint birtokolni valamit.

Ez a fikarcnyi bölcsesség akkor merül fel, amikor azt állítjuk, hogy bár szeretnénk mesterséges intelligencia jogi ellenőrzőket, bőségesen meg kell győződnünk arról, hogy működnek, és megfelelően működnek. Vegye figyelembe, hogy ez újabb nehéz és fárasztó akadályt jelent. Korábban már foglalkoztam a mesterséges intelligencia ellenőrzésének és érvényesítésének legújabb fejlesztéseivel és kihívásaival, lásd az itt található link.

Amint a kutatási dokumentum megjegyzi: „A hiányosság megszüntetése érdekében, mielőtt az AI-modelleket egyre inkább ügynöki kapacitásokban, például teljesen autonóm járművekben alkalmaznák a főutakon, a telepítő félnek bizonyítania kell, hogy a rendszer megérti az emberi célokat, irányelveket és jogi normákat. Egy érvényesítési eljárás illusztrálhatná, hogy az MI „megérti” a jogi fogalmak „értelmét” (uo.).

Következtetés

Arra buzdítom, hogy fontolja meg, hogy csatlakozzon hozzám ebben a nemes küldetésben, hogy mesterséges intelligencia-jogi kettős ellenőrző eszközöket építsen és terjesszen ki. Több figyelmet és erőforrást kell fordítanunk erre az erényes törekvésre.

Ez kettős kötelezettséget is jelent, mint korábban említettük, az AI Legal Reasoning (AILR) elérésében, amely felhasználható ügyvédek segítésére, és potenciálisan közvetlenül a nagyközönség számára is felhasználható. Sőt, egyesek hevesen érvelnek amellett, hogy az igazságszolgáltatáshoz való teljesebb körű hozzáférés (A2J) elérésének egyetlen járható módja a jogi képességeket megtestesítő és mindenki által elérhető mesterségesintelligencia kidolgozása lesz.

Egy gyors utolsó pont most.

Az eddigi megbeszélések hangsúlyozták, hogy a mesterséges intelligencia jogi kettős ellenőrzőjét beágyaznák vagy beültetnék az MI-be. Valójában ez az elsődleges cél azoknak, akik ezt a feltörekvő területet kutatják és vállalják.

Itt van egy kérdés, amin érdemes elgondolkodni.

Vegye fel a gondolkodó sapkáját.

Miért nem használja az AI Legal kettős ellenőrzést minden szoftverben?

A lényeg az, hogy ahelyett, hogy kizárólag a mesterséges intelligencia jogi ellenőrzőit használnánk az AI-ban, talán ki kellene tágítanunk nézőpontunkat. Mindenféle szoftver jogilag tévútra mehet. A mesterséges intelligencia kétségkívül a figyelem oroszlánrészét kapta az MI használatának szokásos módjai miatt, mint például az olyan zsigerelő döntések meghozatala, amelyek hatással vannak az emberek mindennapi életére. Könnyen kijelenthetnéd azonban, hogy sok nem mesterséges intelligencia rendszer működik ugyanígy.

Lényegében nem szabad engednünk, hogy egyetlen szoftver sem szabad utat kapjon, hogy elkerülje vagy elkerülje a törvényt.

Emlékezzünk vissza arra is, hogy említettem az AI és a törvény kombinálásának két kategóriáját. Itt a mesterséges intelligencia törvényi alkalmazására összpontosítottunk. Az érem másik oldalán a törvények mesterséges intelligenciára való alkalmazása áll. Tegyük fel, hogy törvényeket hozunk, amelyek megkövetelik az AI Legal kettős ellenőrző eszköz használatát.

Ez eleinte a mesterséges intelligencia-rendszerekre korlátozódhat, különösen azokra, amelyeket különösen magas kockázatúnak minősítettek. Fokozatosan az AI Legal kettős-ellenőrzési követelménye kiterjeszthető a nem mesterséges intelligencia szoftverekre is. Ismét nincs ingyenes utazás.

Amíg a fenti megfontoláson tészta, én záró kedvcsinálóként megfűszerezem a dolgokat. Ha megpróbáljuk megkövetelni a mesterséges intelligencia jogi kettős ellenőrzőit, akkor ugyanígy járhatunk el az AI Ethics kettős ellenőrzőjeivel kapcsolatban is. A mesterséges intelligencia jogi ellenőrzőjének használata csak a történet fele, és nem hagyhatjuk figyelmen kívül a mesterséges intelligencia etikai vonatkozásait sem.

Az egyik kedvenc idézetemmel fejezem be ezt a vidám beszélgetést. Earl Warren, az Egyesült Államok főbírójaként szolgáló híres jogász bölcs szavai szerint: „A civilizált életben a jog az etika tengerében lebeg.”

Lehet, hogy a legjobb, ha a bimbózó és bugyborékoló mesterséges intelligencia-ellenőrzőket és a mesterséges intelligencia-etikai kettős-ellenőrzőket buzgón használjuk, ha a biztonságunkat veszélyeztető savanyú mesterségesintelligencia és nem mesterséges intelligencia-rendszerek potenciálisan fenyegető súlyos tengerei fölött akarjuk tartani a fejünket. .

Lehet, hogy az emberiség mentőmellényei.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- és-ai-törvény/