Íme, miért van viharos szeretet-gyűlölet viszony a vállalkozásoknak a mesterséges intelligencia etikai testületeivel

Egy vállalkozásnak létre kell hoznia egy mesterséges intelligencia etikai tanácsadó testületet?

Meglepődhet, ha rájön, hogy ez nem egy egyszerű igen vagy nem válasz.

Mielőtt belemennék a mesterségesintelligencia-etikai tanácsadó testület létrehozásának előnyei és hátrányai mögött meghúzódó bonyolultságba, győződjünk meg arról, hogy mindannyian egy lapon vagyunk abban a tekintetben, hogy miből áll az AI etikai tanácsadó testület, és miért emelkedett a főcímek szintjére. feltűnést.

Amint azt mindenki tudja, a mesterséges intelligencia (AI) és a mesterséges intelligencia gyakorlati felhasználása üzleti tevékenységekben átment a tetőn, mint a mai vállalatok kötelező eleme. Nehezen tudnál másként vitatkozni. A mesterséges intelligencia bevezetése bizonyos mértékig jobbá tette a termékeket és szolgáltatásokat, ráadásul időnként csökkentette az említett termékek és szolgáltatások nyújtásával kapcsolatos költségeket. A hatékonyságot és a hatékonyságot növelő lehetőségek remek listája valószínűleg az AI ésszerű és megfelelő alkalmazásának tulajdonítható. Röviden, a mesterséges intelligencia beépítésével végzett tevékenységének kiegészítése vagy bővítése meglehetősen jövedelmező ajánlat lehet.

Ott van még a mondjuk nagy csobbanás ami a mesterséges intelligencia hozzáadásával jár vállalati törekvéseihez.

A vállalkozások hangosak és büszkék az AI használatára. Ha az AI történetesen az áruit is javítja, az nagyszerű. Eközben a mesterséges intelligencia használatára vonatkozó állítások kellően felkeltik a figyelmet ahhoz, hogy nagyjából ugyanazt csinálhasd, mint korábban, mégis sokkal több pénzt vagy szemgolyót gyűjthetsz azzal, hogy az AI zászlaját feldobod, mint üzleti stratégiád részét, és az ajtón lévő áruk.

Ez az utolsó pont, amely arról szól, hogy néha kicsit habzsolódunk azzal kapcsolatban, hogy valóban használják-e a mesterséges intelligenciát, az AI etika színterére vezet bennünket. A vállalkozások mindenféle nyíltan hamis állítást fogalmaznak meg a mesterséges intelligencia kapcsán. Ami még rosszabb, talán az AI használata, amelyről kiderül, hogy az ún AI For Bad.

Például kétségtelenül olvasott már a gépi tanulást (ML) vagy a mély tanulást (DL) használó mesterséges intelligencia rendszerek számos esetéről, amelyekben megrögzültek a faji elfogultságok, a nemi előítéletek és más indokolatlan, nem megfelelő diszkriminatív gyakorlatok. A káros mesterségesintelligencia és a mesterséges intelligencia etika és az etikus mesterségesintelligencia iránti sürgető felhívások megjelenésével kapcsolatos folyamatos és kiterjedt tudósításomért lásd: az itt található link és a az itt található link, csak hogy néhányat említsek.

Tehát ezeket a savanyú meghajtókat rejtjük el a látszólag rózsás mesterséges intelligencia vállalkozások általi használatában:

  • Üres állítások a mesterséges intelligencia használatáról, miközben valójában nincs mesterséges intelligencia, vagy jelentéktelen AI-infúzió
  • Hamis állítások a mesterséges intelligencia használatáról, amelyeket szándékosan félrevezetésre terveztek
  • A mesterséges intelligencia véletlen bevonása, amelyről kiderül, hogy helytelen torzításokat kölcsönöz, és diszkriminatív
  • Céltudatosan kialakított mesterséges intelligencia a rossz előítéletek és aljas diszkriminatív cselekvések terjesztésére
  • Más

Hogyan jönnek létre az ilyen meggondolatlan vagy gyalázatos gyakorlatok a vállalatoknál?

A rejtvény egyik figyelemre méltó darabja a mesterséges intelligencia etikai ismereteinek hiánya.

Előfordulhat, hogy a felső vezetők nem ismerik az AI kidolgozásának fogalmát, amely megfelel az etikai AI-előírásoknak. Egy ilyen cég mesterséges intelligencia fejlesztői talán tisztában vannak a témával, bár talán csak a mesterséges intelligencia etikai elméleteit ismerik, és nem tudják, hogyan hidalják át a napi mesterséges intelligencia-fejlesztési törekvések közötti szakadékot. Az a körülmény is fennáll, hogy a mesterséges intelligencia fejlesztői magukévá akarják tenni az AI etikát, de aztán erős visszaszorítást kapnak, amikor a menedzserek és a vezetők úgy vélik, hogy ez lelassítja a mesterséges intelligencia projektjeit, és megnöveli a mesterséges intelligencia kidolgozásának költségeit.

Sok felsővezető nem veszi észre, hogy a mesterséges intelligencia etikájához való ragaszkodás hiánya valószínűleg a hátukba sodorhatja őket és a vállalatot, miután megjelent a bonyolult és teljesen csúnya problémákkal teli mesterséges intelligencia. Egy céget elkaphat egy rossz mesterséges intelligencia, ami szánalmasan aláássa a cég egyébként régóta felépített hírnevét (reputációs kockázat). Az ügyfelek dönthetnek úgy, hogy többé nem használják a vállalat termékeit és szolgáltatásait (ügyfélvesztés kockázata). A versenytársak kihasználhatják ezt a kudarcot (versenykockázat). És sok ügyvéd áll készen arra, hogy segítsen azoknak, akiket megszegtek, és komoly pereket kívánnak indítani olyan cégek ellen, amelyek beengedték a romlott mesterséges intelligenciát a vállalati áruikba (jogi kockázat).

Röviden, a befektetés megtérülése (ROI) a mesterséges intelligencia etika megfelelő használatához szinte biztosan előnyösebb, mint a rossz mesterséges intelligencia bűzével járó downstream költségekhez képest, amelyeket nem lett volna szabad kitalálni vagy kiadni.

Kiderült, hogy úgyszólván nem mindenki kapta meg ezt a feljegyzést.

Az AI etika csak fokozatosan hódít.

Egyesek úgy vélik, hogy elkerülhetetlenül a törvény hosszú karjára lehet szükség az etikus mesterséges intelligencia megközelítések elfogadásának további ösztönzéséhez.

A mesterséges intelligencia etikai előírásainak általános alkalmazása mellett felvetődik az a kérdés, hogy kell-e megkülönböztető törvények szabályozni az AI különféle fejlesztéseit és felhasználásait. Valójában nemzetközi, szövetségi, állami és helyi szinten új törvényeket kötnek, amelyek a mesterséges intelligencia kidolgozásának körét és jellegét érintik. Az ilyen törvények kidolgozására és elfogadására irányuló erőfeszítések mértéktartóak. A mesterséges intelligencia etika legalábbis megfontolt állomásként szolgál, és bizonyos mértékig bizonyos mértékig közvetlenül beépül az új törvényekbe.

Legyen tudatában annak, hogy egyesek határozottan azzal érvelnek, hogy nincs szükségünk az AI-t lefedő új törvényekre, és a meglévő törvényeink elegendőek. Valójában előre figyelmeztetnek arra, hogy ha bevezetünk néhány mesterséges intelligencia-törvényt, akkor megöljük az aranylibát azáltal, hogy visszaszorítjuk a mesterséges intelligencia fejlődését, amely hatalmas társadalmi előnyöket kínál. Lásd például a tudósításomat a címen az itt található link és a az itt található link.

Győződjünk meg arról, hogy mindannyian egy lapon vagyunk azzal kapcsolatban, hogy mit tartalmaznak az AI etika alapjai.

Rovatomban korábban már tárgyaltam a mesterséges intelligencia etikai elveinek különböző kollektív elemzéseit, például ezt az értékelést az itt található link, amely hasznos kulcsfontosságú listát kínál az AI-rendszerek etikai AI kritériumairól vagy jellemzőiről:

  • Átláthatóság
  • Igazságosság és méltányosság
  • Nem rosszindulat
  • Felelősség
  • Adatvédelem
  • Jótékonyság
  • Szabadság és autonómia
  • Bízzon
  • Fenntarthatóság
  • Méltóság
  • Szolidaritás

A mesterséges intelligencia fejlesztőinek komolyan kellene használniuk ezeket a mesterséges intelligencia etikai elveit, valamint azokat, amelyek irányítják az AI-fejlesztési erőfeszítéseket, és még azokat is, amelyek végső soron az AI-rendszerek karbantartását és karbantartását végzik.

Az összes érdekelt fél a mesterséges intelligencia fejlesztésének és használatának teljes életciklusa során beletartozik az etikus mesterséges intelligencia elfogadott normáihoz. Ez egy fontos kiemelés, mivel a szokásos feltevés az, hogy „csak a kódolók” vagy az AI-t programozók kötelesek betartani az AI etikai elveit. Egy falura van szükség a mesterséges intelligencia kidolgozásához és használatához, és ehhez az egész falunak ismernie kell a mesterséges intelligencia etikai előírásait, és be kell tartania azokat.

A mesterséges intelligencia etikai előírásainak használatára vonatkozó folyamatos figyelem bevezetésének és fenntartásának egyik eszköze egy mesterséges intelligencia etikai tanácsadó testület létrehozása lehet.

Legközelebb a mesterséges intelligencia etikai tanácsadó testületének szempontjait bontjuk ki.

AI etikai táblák és helyes végrehajtásuk

A vállalatok a mesterséges intelligencia elfogadásának különböző szakaszaiban lehetnek, és az AI etikájának különböző szakaszaiban is.

Képzelj el egy olyan vállalatot, amely az AI-etika felkarolását szeretné elérni, de nem tudja, hogyan tegye. Egy másik forgatókönyv lehet egy olyan cég, amely már foglalkozott a mesterséges intelligencia etikájával, de úgy tűnik, nem biztos abban, hogy mit kell tennie az erőfeszítések előmozdítása érdekében. A harmadik forgatókönyv egy olyan cég lehet, amelyik aktívan kidolgozta és alkalmazza az MI-t, és belsőleg sokat tett az AI-etika megtestesülése érdekében, bár felismerik, hogy fennáll annak az esélye, hogy esetleg a belső csoportgondolkodás miatt más meglátásokból is kimaradnak.

Bármely ilyen forgatókönyv esetén körültekintő lehet egy mesterséges intelligencia etikai tanácsadó testület felállítása.

Az elgondolás meglehetősen egyszerű (jó, hogy tisztázzuk, az általános fogalom a közmondás szerint a jéghegy csúcsa, és az ördög minden bizonnyal a részletekben rejlik, amint arra rövidesen kitérünk).

A mesterséges intelligencia etikai tanácsadó testülete jellemzően elsősorban külső tanácsadókból áll, akiket felkérnek, hogy a cég speciális tanácsadó testületében vagy bizottságában dolgozzanak. Lehetséges, hogy néhány belső résztvevő is bekerült az igazgatóságba, bár általában az az ötlet, hogy a cégen kívülről gyűjtsenek be tanácsadókat, és ez félig független perspektívát hozhat a vállalat tevékenységébe.

Félig függetlennek mondom, mivel kétségtelenül lesznek függetlenségi konfliktusok, amelyek az AI etikai tanácsadó testület kiválasztott tagjaival kapcsolatban merülhetnek fel. Ha a cég fizet a tanácsadóknak, az felveti azt a nyilvánvaló kérdést, hogy a fizetett tagok úgy érzik-e, hogy a cégtől függnek-e a fizetésért, vagy esetleg nem nyugtalanul kritizálják a kezükben lévő ajándéklovat. Másrészt a vállalkozások megszokták, hogy mindenféle megfontolt független véleményhez külső fizetett tanácsadókat vegyenek igénybe, így ez egyébként is megszokott és elvárható.

A mesterséges intelligencia etikai tanácsadó testületét rendszerint rendszeres időközönként kérik fel, akár személyesen, akár virtuális távoli alapon. A cég hangadóként használja őket. Az is esélyes, hogy a tagok különféle belső dokumentumokat, jelentéseket és feljegyzéseket kapnak a cégnél az MI-vel kapcsolatos erőfeszítésekről. A mesterséges intelligencia etikai tanácsadó testületének egyes tagjait felkérhetik, hogy sajátos szakértelmüknek megfelelően vegyenek részt a belső értekezleteken. Stb.

Amellett, hogy láthatja, mi történik a mesterséges intelligenciával a cégen belül, és friss szemmel látja el, az AI etikai tanácsadó testületnek általában kettős szerepe van: a mesterséges intelligencia és az etikai mesterségesintelligencia legújabb fejlesztéseinek külső-belső szállítója. Előfordulhat, hogy a belső erőforrásoknak nincs idejük beleásni abba, hogy mi történik a cégen kívül, és ezért élesen fókuszált és személyre szabott, legkorszerűbb nézőpontokat kaphatnak az AI-etikai tanácsadó testület tagjaitól.

A mesterséges intelligencia etikai tanácsadó testületének belülről kifelé történő felhasználása is létezik.

Ez trükkös lehet.

A koncepció az, hogy a mesterséges intelligencia etikai tanácsadó testületét arra használják, hogy a külvilág tudomást szerezzen arról, hogy a cég mit tesz az AI és az AI etika terén. Ez hasznos lehet a cég hírnevének erősítésének eszközeként. Az AI-vel átitatott termékek és szolgáltatások megbízhatóbbnak tűnhetnek az AI etikai tanácsadó testület aranypecsétjének köszönhetően. Ezen túlmenően a céget arra irányuló felszólítások, hogy tegyenek többet az Ethical MI-vel kapcsolatban, némileg tompíthatók, ha rámutatunk arra, hogy a vállalat már alkalmaz AI etikai tanácsadó testületet.

Az ilyen mechanizmust alkalmazó cég általában a mesterséges intelligencia etikai tanácsadó testületéhez intézett kérdések közé tartozik:

  • A cégnek mesterséges intelligenciát kell használnia egy adott termékhez vagy szolgáltatáshoz, vagy ez túlzottan aggasztónak tűnik?
  • Figyelembe veszi-e a cég a mesterséges intelligenciával kapcsolatos etikai szempontok teljes körét az AI erőfeszítései során?
  • A cég csoportgondolkodásba esett, és nem akarja vagy képtelen meglátni az AI etikai potenciálisan zavaró bukását, amelyek ezekre az erőfeszítésekre várnak?
  • Milyen legújabb megközelítéseket kellene alkalmaznia a cégnek a mesterséges intelligencia etikájában?
  • Megvalósítható lenne-e külső elismerést kivívni a mesterséges intelligenciával kapcsolatos etikai erőfeszítéseinkért és az ez iránti elkötelezettségünkért?
  • Más

A mesterségesintelligencia-etikai tanácsadó testülethez való csatlakozásnak kétségtelenül van értelme, és a cégek egyre inkább ezen az úton haladnak.

Kérjük, vegye figyelembe, hogy ennek az éremnek van egy másik oldala is.

Az érem egyik oldalán a mesterséges intelligencia etikai tanácsadó testületei a következő legjobbak lehetnek a szeletelt kenyér óta. Ne hagyja figyelmen kívül az érem másik oldalát sem, mert ezek is hatalmas fejfájást okozhatnak, és megbánhatja, hogy erre a kockás vidékre kanyarodott (ahogy ebben a beszélgetésben látni fogja, a hátrányai kezelhetők, ha tudod, mit csinálsz csinálnak).

A vállalatok kezdik felismerni, hogy egy kis pácba kerülhetnek, amikor az AI etikai tanácsadó testülete mellett döntenek. Azt állíthatod, hogy ez a machináció némileg hasonlít a tűzzel való játékhoz. Látod, a tűz egy nagyon erős elem, amellyel főzhetsz, megvédhetsz a ragadozóktól, amíg a vadonban tartózkodsz, melegen tarthatod, fényt hozol, és számos hasznos és létfontosságú előnyt biztosíthatsz.

A tűz is megégetheti, ha nem tudod jól kezelni.

A közelmúltban különféle hírek jelentek meg, amelyek élénken demonstrálják a mesterséges intelligencia etikai tanácsadó testületének lehetséges veszélyeit. Ha egy tag úgy dönt, hogy már nem hiszi el, hogy a cég a megfelelő etikus mesterségesintelligencia-tevékenységet végzi, az elégedetlen tag nagy hévvel felmondhat. Feltételezve, hogy a személy valószínűleg jól ismert a mesterséges intelligencia területén vagy az iparban mindent elmondva, ugróhajója minden bizonnyal széles körű médiafigyelmet fog felkelteni.

Ekkor egy cégnek védekeznie kell.

Miért távozott a tag?

Mire készül a cég aljasan?

Egyes cégek megkövetelik, hogy az AI etikai tanácsadó testület tagjai aláírják az NDA-kat (nem nyilvánosságra hozatali megállapodásokat), amelyek látszólag megvédik a céget, ha a tag úgy dönt, hogy „gazember” lesz, és kidobja a céget. A probléma azonban az, hogy még ha az illető viszonylag csendben is marad, valószínűsíthető, hogy elismeri, hogy már nem tagja az AI etikai tanácsadó testületének. Ez önmagában mindenféle szemöldökkeltő kérdést felvet majd.

Továbbá, még ha létezik is NDA, néha a tag megpróbálja megkerülni a rendelkezéseket. Ez magában foglalhatja a névtelen kacsintás-kacsintással végzett általános „esettanulmányok” hivatkozását, hogy rávilágítsunk az AI etikai anomáliáira, amelyekről úgy vélik, hogy a cég alattomosan teljesített.

Lehet, hogy a bukott tag teljesen pimasz, és egyenesen kimondja a céggel kapcsolatos aggályait. Az, hogy ez az NDA egyértelmű megsértése-e, talán kevésbé lényeges, mint az a tény, hogy az etikus mesterséges intelligencia félelmeiről terjed a hír. Az a cég, amely megpróbálja beperelni a tagot az NDA megsértése miatt, brutálisan forró vizet hozhat magára, felkeltve a figyelmet a vitára, és a klasszikus Dávid és Góliát párbajnak tűnik (a cég a nagy „szörnyeteg”).

Egyes vezető munkatársak azt feltételezik, hogy egyszerűen pénzügyi megegyezésre juthatnak az AI etikai tanácsadó testület bármely tagjával, aki úgy érzi, hogy a cég rossz dolgokat cselekszik, beleértve az elhangzott aggályok figyelmen kívül hagyását vagy lekicsinyítését.

Lehet, hogy ez nem olyan egyszerű, mint gondolnánk.

A tagok gyakran áhítatosan etikai beállítottságúak, és nem fognak egykönnyen meghátrálni attól, amit etikus jobb-rossz harcnak tartanak. Az is előfordulhat, hogy egyébként anyagilag stabilak, és nem hajlandók leborotválni etikai előírásaikat, vagy más munkahelyük van, amely érintetlen marad attól, hogy elhagyták az AI etikai tanácsadó testületét.

Amint az nyilvánvaló, néhányan később rájönnek, hogy az AI etikai tanácsadó testülete kétélű fegyver. Egy ilyen csoport óriási értéket és fontos betekintést tud átadni. Ugyanakkor a tűzzel játszol. Előfordulhat, hogy egy tag vagy tagok úgy döntenek, már nem hisznek abban, hogy a cég hiteles etikus mesterséges intelligencia munkát végez. A hírek szerint időnként egy egész mesterséges intelligencia etikai tanácsadó testület együtt, egyszerre kilép, vagy a tagok túlsúlyban vannak a távozásuk bejelentésében.

Készüljön fel a jóra és a felmerülő problémákra az AI etikai tanácsadó testületeivel.

Természetesen vannak esetek, amikor a vállalatok valójában nem a megfelelő dolgokat teszik meg az AI etikájával kapcsolatban.

Ezért azt reméljük és várjuk, hogy az adott cégnél egy mesterséges intelligencia etikai tanácsadó testülete fellép, hogy ezt ismertessék, feltehetőleg először a cégen belül. Ha a cég továbbra is a vélt rossz úton halad, a tagok minden bizonnyal etikailag kötelesek (esetleg jogilag is) más, általuk helyénvalónak tartott lépéseket tenni (a tagoknak személyes ügyvédjükhöz kell fordulniuk minden ilyen jogi tanácsért). Lehetséges, hogy csak így lehet rávenni a vállalatot, hogy változtasson az útjain. Egy tag vagy tagcsoport drasztikus lépése az utolsó lehetőségnek tűnhet, amely a tagok reményei szerint megfordítja a helyzetet. Ráadásul ezek a tagok valószínűleg nem akarnak részesei lenni valaminek, amiről úgy gondolják, hogy eltévedt az AI etikától.

E lehetőségek mérlegelésének hasznos módja a következő:

  • A cég kóborol, a tag úgy dönt, hogy kilép a cég megfelelésének vélt hiánya miatt
  • A cég nem kóborol, de a tag úgy véli, hogy a cég van, és így kilép a megfelelőség észlelt hiánya miatt

A külvilág nem feltétlenül tudja, hogy a kilépő tagnak van-e jóhiszemű alapja a céggel kapcsolatos aggodalmakra, vagy lehet, hogy ez valami sajátos vagy téves benyomást kelt a tag részéről. Meglehetősen egyértelmű annak a lehetősége is, hogy egy tag kilép a csoportból más kötelezettségek miatt, vagy olyan személyes okok miatt, amelyeknek semmi közük a cég tevékenységéhez.

A lényeg az, hogy minden AI etikai tanácsadó testületet elfogadó cég számára fontos, hogy figyelmesen végiggondolja a csoporthoz kapcsolódó életciklus-fázisok teljes körét.

A problémás szempontok sok beszédével nem akarom azt a benyomást kelteni, hogy távol tartanám a mesterséges intelligencia etikai tanácsadó testületét. Nem ez az üzenet. Az igazi lényeg az, hogy legyen mesterséges intelligencia etikai tanácsadó testülete, és ügyeljen arra, hogy ezt a megfelelő módon tegye. Tedd ezt a dédelgetett mantrádba.

Íme néhány, a mesterséges intelligencia etikai tanácsadó testületének gyakran emlegetett előnyei:

  • Legyen kéznél egy eszköz az AI-projektek és ötletek visszaverésére egy félig független magáncsoporttól
  • Használja ki a cégen kívülről származó mesterséges intelligencia-etika szakértelmét
  • Törekedjen arra, hogy elkerülje a mesterséges intelligencia etikai rémületeit és a cég közvetlen katasztrófáit
  • Legyen a cég és mesterséges intelligenciarendszerei PR-segítője
  • A belső csoportgondolkodás kitörése a mesterséges intelligenciával és az AI etikával kapcsolatban
  • Nézze meg új pillantást a mesterséges intelligencia innovációira és praktikumára
  • Növelje a cég helyzetét és rangját
  • Féktelen hangként szolgálhat, amikor a mesterséges intelligencia határozott erőfeszítései fergetegesek
  • Más

Íme a gyakori módok arra, hogy a cégek összezavarják és aláaknázzák a mesterséges intelligencia etikai tanácsadó testületét (ne tedd ezt!):

  • Adjon homályos és zavaros útmutatást a küldetést és a célt illetően
  • Csak kevesen tanácskoztak és gyakran rosszul időzítettek, miután a ló már kijött az istállóból
  • Sötétben tartották
  • Erősen szűrt információkkal szolgál, amelyek félrevezető képet adnak a dolgokról
  • Kizárólag kirakatnak, más értékteremtő célra nem használható
  • Tilos bármilyen látszólagos feltárást végezni belső ügyekben
  • Munkájuk megfelelő elvégzéséhez elegendő erőforrás nélkül
  • Az explicit vezetés hiánya a csoporton belül
  • A cégvezetés figyelmének hiánya a csoporttal kapcsolatban
  • Elvárják, hogy vak jóváhagyást adjon a bemutatott dolgokhoz
  • Véletlen a kiválasztott tagokat illetően
  • Kevés tisztelettel kezelték, és látszólag puszta pipa
  • Más

Egy másik gyakran zavaró probléma a mesterséges intelligencia etikai tanácsadó testületében dolgozó különböző tagok természete és viselkedése, ami néha a következő módokon jelenthet problémát:

  • Előfordulhat, hogy egyes tagok csak a mesterséges intelligencia etikájának konceptualizálói, nem pedig járatosak az AI etikában mint gyakorlatban, és mint ilyenek, minimalista üzleti betekintést nyújtanak
  • Egyesek hatalmasak lehetnek a mesterséges intelligencia etikáját illetően, és rendkívül nehéz velük foglalkozni a részvételük során
  • A belharc jelentős zavaró tényezővé válhat, gyakran nagy egók összecsapásai, és a csoport működésképtelenné válhat.
  • Vannak, akik túlságosan elfoglaltak és túl elkötelezettek, így távol maradnak a mesterséges intelligencia etikai tanácsadói tevékenységétől.
  • Vannak, akiknek mélyen megingathatatlan véleménye van az AI etikáról, amely rugalmatlan és irreális
  • Egyesek inkább érzelmi, mint analitikai és rendszerszintű megfontolásokra hajlamosak az AI-etika mögött
  • Hasonló lehet a híres közmondáshoz, miszerint olyanok, mint egy macskacsorda, amely nem koncentrál és céltalanul vándorol
  • Más

Úgy tűnik, hogy egyes cégek akarva-akaratlanul összedobnak egy mesterséges intelligencia etikai tanácsadó testületet. Nem gondolunk a kiválasztandó tagokra. Nem gondolnak arra, hogy mit hoznak az asztalra. Nem gondolunk az ülések gyakoriságára és arra, hogy az üléseket hogyan kell lebonyolítani. Mindent összevetve nem gondolunk az AI etikai tanácsadó testületének működtetésére. Stb.

Bizonyos értelemben saját találékonyságának hiánya miatt valószínűleg egy vonatbalesetet indít el.

Ne csináld.

Talán ez a lista a helyes tennivalók az eddigi diskurzus alapján most látszólag nyilvánvaló számodra, de talán megdöbbenne, ha tudná, hogy kevés cég érti ezt jól:

  • Határozza meg egyértelműen az AI etikai tanácsadó testület küldetését és célját
  • Győződjön meg arról, hogy a csoport megfelelő felsővezetői szintű figyelmet kap
  • Határozza meg a csoporthoz leginkább illő tagok típusát
  • Közelítse meg a kívánt tagokat, és ellenőrizze a csoporthoz való illeszkedést
  • A kiválasztott tagokkal megfelelő megállapodásokat kell kötni
  • A találkozók logisztikája, gyakorisága stb.
  • Határozza meg a tagok feladatait, terjedelmét és mélységét
  • Megelőlegezni a csoport segítéséhez szükséges belső erőforrásokat
  • Rendeljen elegendő erőforrást magának a csoportnak
  • Tartsa aktívan a mesterséges intelligencia etikai tanácsadó testületét, és maradjon benne
  • Tervezze meg előre az eszkalációt, ha aggályok merülnek fel
  • Jelölje meg, hogyan kell kezelni a vészhelyzet- vagy krízis-orientált eseményeket
  • Forgassa ki vagy be az elemeket, ha szükséges, hogy a keverék megfelelő legyen
  • Előzetesen tervezze meg a tagok kilépési útvonalait
  • Más

Következtetés

Néhány évvel ezelőtt sok autógyártó és önvezető technológiai cég, amelyek mesterséges intelligencia alapú önvezető autók kifejlesztésébe kezdenek, hirtelen cselekvésre késztették, hogy elfogadják az AI etikai tanácsadó testületeit. Egészen addig az időpontig úgy tűnt, kevés volt a tudat egy ilyen csoport létrehozásáról. Feltételezték, hogy az Ethical MI-re való belső összpontosítás elegendő lesz.

Rovatomban hosszasan tárgyaltam a különféle szerencsétlen mesterséges intelligencia-etikai hibákat vagy mulasztásokat, amelyek időnként önvezető autóval kapcsolatos problémákhoz, például kisebb járműbalesetekhez, nyílt autóütközésekhez és egyéb katasztrófákhoz vezettek. az itt található link. Az önvezető járműveket gyártók számára a mesterséges intelligencia biztonságának és hasonló védelmének fontosságát kell a legfőbb szempontnak tekinteni. A mesterséges intelligencia etikai tanácsadó testületei ebben a résben segítenek abban, hogy a mesterséges intelligencia biztonsága létfontosságú prioritás legyen.

A mesterséges intelligencia etikával kapcsolatos effajta kinyilatkoztatásom legkedvesebb módja az, hogy a dolgot a földrengésekhez hasonlítom.

A kaliforniaiak időről időre földrengéseknek vannak kitéve, néha meglehetősen erősek. Azt gondolhatja, hogy a földrengésre való felkészülés mindig is fontos szempont lenne. Nem úgy. A ciklus így működik. Egy jelentős földrengés történik, és az embereket emlékeztetik arra, hogy felkészültek a földrengésre. Egy rövid ideig rohanni kezdenek az ilyen előkészületek. Egy idő után az erre irányuló figyelem alábbhagy. Az előkészületek elmaradnak, vagy más módon elhanyagolják őket. Boom, újabb földrengés éri, és mindazokat, akiknek fel kellett volna készülniük, „váratlanságban” kapják, mintha nem is sejtették volna, hogy egy napon földrengés is bekövetkezhet.

A cégek gyakran ugyanezt teszik az AI etikai tanácsadó testületeivel kapcsolatban.

Nem indítanak el egyet, majd hirtelen, amikor az MI-vel kapcsolatos katasztrófa bekövetkezik, azonnal cselekvésre késztetik őket. Könnyen létrehoznak egy mesterséges intelligencia etikai tanácsadó testületet. Sok olyan probléma van benne, amelyeket korábban itt idéztem. Az AI etikai tanácsadó testülete szétesik. Hoppá, egy új mesterséges intelligencia-csapás a cégen belül újra felébreszti az AI etikai tanácsadó testületének szükségességét.

Mossa le, öblítse le, és ismételje meg.

A vállalkozások határozottan úgy találják, hogy időnként szeretet-gyűlölet kapcsolatuk van a mesterséges intelligencia etikai tanácsadó testületének erőfeszítéseivel. Amikor a dolgokat helyesen kell csinálni, a szerelem ott van a levegőben. Amikor arról van szó, hogy dolgokat rossz módon kell csinálni, a gyűlölet vadul tör elő. Győződjön meg arról, hogy mindent megtesz a szeretet fenntartásához és a gyűlölet elkerüléséhez, amikor AI etikai tanácsadó testület létrehozásáról és fenntartásáról van szó.

Változtassuk ezt szerelem-szerelem kapcsolattá.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/