Milyen keményen kell rákényszerítenünk a generatív AI ChatGPT-t a gyűlöletbeszédre, a mesterséges intelligencia etikáját és a mesterséges intelligencia törvényét

Mindenkinek megvan a maga kitörési pontja.

Gondolom, ezt is mondhatnád minden megvan a kitörési pontja.

Tudjuk, hogy az emberek például néha felcsattannak és olyan megjegyzéseket mondanak, amelyeket nem feltétlenül akarnak mondani. Hasonlóképpen időnként előfordulhat, hogy egy eszköz vagy gép lényegében elpattan, például túlságosan megnyomja az autót, és az elkezd akadozni vagy szétrepülni. Így az a felfogás, hogy az embereknek vagy „mindenkinek” van egy töréspontja, és hasonlóképpen állíthatjuk, hogy általában a tárgyaknak és a dolgoknak is vannak töréspontjai.

Egészen ésszerű és létfontosságú okai lehetnek annak megállapítására, hogy hol van a töréspont. Kétségtelenül láthatta például azokat a videókat, amelyek egy autót mutatnak be, amint végigpörgetik a tempóját, hogy azonosítsák, milyen töréspontjai vannak. A tudósok és tesztelők téglafalba döngölnek egy autót, hogy megnézzék, mennyire bírja a lökhárító és a jármű szerkezete a káros hatásokat. Más tesztek magukban foglalhatják egy speciális helyiség vagy raktár használatát, amely extrém hideget vagy extrém meleget termel, hogy megtudja, hogyan viselkedik az autó különböző időjárási körülmények között.

A mai rovatban felhozom ezt a kiadós témát, hogy megvitathassuk, hogy egyesek jelenleg keményen szorgalmazzák a mesterséges intelligenciát (AI) annak érdekében, hogy azonosítsák és feltehetően felfedjenek egy bizonyos típusú töréspontot, nevezetesen azt a töréspontot az AI-n belül, amely gyűlöletbeszédet idéz elő.

Igen, ez így van, különféle ad hoc és időnként szisztematikus erőfeszítések folynak annak felmérésére, vajon megvalósítható-e a mesterséges intelligencia rávenni a gyűlöletbeszédet. Ez a generatív mesterséges intelligencia iránti növekvő érdeklődés és népszerűség miatt lelkes sporttá vált, ha úgy tetszik.

Talán tisztában van vele, hogy a ChatGPT néven ismert generatív AI-alkalmazás a város túlméretezett szóbeszédévé vált, mivel elképesztően gördülékeny esszéket tud készíteni. A főcímek folyamatosan harsogják, és magasztalják azt a megdöbbentő írást, amelyet a ChatGPT-nek sikerül elkészítenie. A ChatGPT egy generatív mesterséges intelligencia-alkalmazásnak tekinthető, amely bemenetként vesz szöveget a felhasználótól, majd egy esszéből álló kimenetet generál vagy állít elő. Az AI egy szöveg-szöveg generátor, bár én úgy írom le az AI-t, mint egy szöveg-esszét generáló, mivel ez jobban megvilágítja, mire használják általában.

Sokan meglepődnek, amikor megemlítem, hogy ez a fajta mesterséges intelligencia már egy ideje létezik, és hogy a november végén megjelent ChatGPT valahogy nem nyerte el a díjat, mint az első lépés a szöveg-esszé területén. hajlam. Az évek során beszéltem más hasonló generatív AI-alkalmazásokról, lásd a tudósításomat itt az itt található link.

Az ok, amiért esetleg nem tud, vagy nem emlékszik a generatív mesterséges intelligencia korábbi példányaira, valószínűleg a klasszikus „sikeres indítási sikertelenség” talánynak köszönhető. Ez általában megtörtént. Egy mesterséges intelligencia-gyártó kiadja generatív mesterségesintelligencia-alkalmazását, nagy izgalommal és azzal a várakozással, hogy a világ értékelni fogja egy jobb egérfogó feltalálását. Elsőre minden jónak tűnik. Az emberek megdöbbennek, mire képes az AI.

Sajnos a következő lépés az, hogy elkezdenek leszakadni a kerekek a közmondásos buszról. Az AI olyan esszét készít, amely trágár szót vagy esetleg trágár kifejezést tartalmaz. Egy vírusos tweet vagy más közösségi médiában közzétett bejegyzés jól kiemeli, hogy az AI tette ezt. Felmerül az elítélés. Nem hagyhatjuk, hogy a mesterséges intelligencia sértő szavakat vagy sértő megjegyzéseket generáljon. Óriási visszhang alakul ki. Lehet, hogy az AI-gyártó megpróbálja módosítani az AI belső működését, de az algoritmusok és az adatok összetettsége nem alkalmas a gyors javításokra. Görcsroham támad. Egyre több példát találnak és tesznek közzé az interneten a mesterséges intelligencia szennyeződést kibocsátó példáira.

Az AI-készítő vonakodva, de nyilvánvalóan nincs más választása, mint eltávolítani az AI alkalmazást a használatból. Így járnak el, majd gyakran bocsánatot kérnek, és sajnálják, ha valakit megbántottak a generált AI-kimenetek.

Vissza a rajztáblához, az AI készítő megy. Levonták a tanulságot. Legyen nagyon óvatos a generatív mesterséges intelligencia kiadásával, amely csúnya szavakat vagy hasonlókat produkál. Ez a halál csókja az MI-nek. Ezen túlmenően a mesterséges intelligencia-gyártó hírneve megrongálódik és megtépázik, ami hosszú ideig fennmaradhat, és alááshatja az összes többi mesterségesintelligencia-erőfeszítést, beleértve azokat is, amelyeknek semmi közük a generatív MI-hez. A sértő mesterséges intelligencia nyelvezet kibocsátása ma már tartós hiba. Még mindig előfordul.

Mossa le, öblítse le, és ismételje meg.

Az ilyen típusú mesterséges intelligencia korai napjaiban a mesterséges intelligencia készítői nem voltak annyira lelkiismeretesek és nem voltak olyan ügyesek a mesterséges intelligencia súrolásában, hogy megakadályozzák a támadó kibocsátást. Manapság, miután korábban azt látták, hogy társaik teljesen összetörtek egy PR-rémálomban, a legtöbb AI-készítő látszólag megkapta az üzenetet. Annyi védőkorlátot kell a helyére tenni, amennyit csak tud. Törekedjen arra, hogy megakadályozza a mesterséges intelligencia csúnya szavakat vagy csúnya kifejezéseket. Használjon bármilyen elhallgatási technikát vagy szűrési megközelítést, amely megakadályozza, hogy a mesterséges intelligencia olyan szavakat vagy esszéket generáljon és jelenítsen meg, amelyekről kiderül, hogy nemkívánatosak.

Íme egy kis ízelítő a szalagcímek szavaiból, amelyeket akkor használnak, amikor a mesterséges intelligencia rossz hírű kimeneteket bocsát ki:

  • „Az AI szörnyű mérgező hatást mutat”
  • „A mesterséges intelligencia egyenesen fanatizmustól bűzlik”
  • „Az AI kirívóan támadóan támadóvá válik”
  • „A mesterséges intelligencia megdöbbentő és erkölcstelen gyűlöletbeszédet áraszt”
  • Stb.

A vita megkönnyítése érdekében a sértő tartalom kiadására úgy fogok hivatkozni, mint Gyűlöletbeszéd. Ennek ellenére kérjük, vegye figyelembe, hogy mindenféle sértő tartalom előállítható, amely túllép a gyűlöletbeszéd határain. A gyűlöletbeszédet általában a sértő tartalom egyik formájaként értelmezik.

A beszélgetés megkönnyítése érdekében összpontosítsunk a gyűlöletbeszédre, de vegyük észre, hogy más sértő tartalmak is vizsgálatot érdemelnek.

Az emberek és a mesterséges intelligencia által kifejtett gyűlöletbeszéd ásása

Az ENSZ meghatározza Gyűlöletbeszéd Ily módon:

  • „A köznyelvben a „gyűlöletbeszéd” olyan sértő beszédet jelent, amely egy csoportot vagy egyént céloz meg eredendő jellemzők (például faj, vallás vagy nem) alapján, és amely veszélyeztetheti a társadalmi békét. Annak érdekében, hogy az Egyesült Nemzetek Szervezete egységes keretet biztosítson a probléma globális kezelésére, az ENSZ gyűlöletbeszéd elleni stratégiája és cselekvési terve a gyűlöletbeszédet úgy határozza meg, mint „mindenféle beszédben, írásban vagy viselkedésben történő kommunikációt, amely pejoratív vagy diszkriminatív nyelvezetet támad vagy használ egy személyre vagy csoportra való hivatkozás az alapján, hogy kik, más szóval vallása, etnikai hovatartozása, nemzetisége, faji hovatartozása, bőrszíne, származása, neme vagy egyéb identitási tényezője alapján.” A gyűlöletbeszédnek azonban a mai napig nincs egyetemes definíciója a nemzetközi emberi jogi jog szerint. A koncepció még mindig vita tárgyát képezi, különösen a vélemény- és véleményszabadság, a megkülönböztetésmentesség és az egyenlőség vonatkozásában” (Mi a gyűlöletbeszéd?

A szöveget előállító mesterséges intelligencia a gyűlöletbeszéd szférájába kerülhet. Ugyanezt elmondhatja a szöveg-művészet, a szöveg-hang, a szöveg-videó és a generatív AI egyéb módjairól. Mindig fennáll például annak a lehetősége, hogy egy generatív mesterséges intelligencia olyan műalkotást hozzon létre, amely gyűlöletbeszédtől bűzlik. A jelen vita céljaira a szöveg-szöveg vagy a szöveg-esszé lehetőségekre fogok összpontosítani.

Mindehhez egy csomó mesterséges intelligencia etikai és mesterséges intelligenciajogi megfontolás tartozik.

Kérjük, vegye figyelembe, hogy folyamatos erőfeszítések folynak az etikus mesterséges intelligencia elveinek beillesztésére az AI-alkalmazások fejlesztésébe és használatába. Az aggódó és egykori mesterséges intelligencia-etikusok növekvő kontingense igyekszik biztosítani, hogy az AI kidolgozására és elfogadására irányuló erőfeszítések figyelembe vegyék a AI For Good és elhárítása AI For Bad. Hasonlóképpen új mesterséges intelligencia-törvényeket javasoltak, amelyek potenciális megoldásként próbálják megakadályozni, hogy a mesterséges intelligencia erőfeszítései ámokba boruljanak az emberi jogok és hasonlók terén. A mesterséges intelligencia etikájával és a mesterséges intelligencia törvényével kapcsolatos folyamatos és kiterjedt tudósításomat lásd az itt található link és a az itt található link, csak hogy néhányat említsek.

Az etikus mesterséges intelligencia előírásainak kidolgozása és terjesztése folyamatban van annak érdekében, hogy remélhetőleg megakadályozzák a társadalmat abban, hogy a mesterséges intelligenciát okozó számtalan csapdába essen. Az ENSZ mesterséges intelligencia etikai alapelveiről szóló beszámolómat, amelyet közel 200 ország dolgozott ki és támogat az UNESCO erőfeszítései révén, lásd: az itt található link. Hasonló módon új mesterséges intelligencia-törvényeket kutatnak annak érdekében, hogy a mesterséges intelligencia egyenletesen maradjon. Az egyik legfrissebb felvétel a javasolt készletből áll AI Bill of Rights amelyet az Egyesült Államok Fehér Háza nemrégiben adott ki, hogy azonosítsa az emberi jogokat a mesterséges intelligencia korában, lásd az itt található link. Egy falura van szükség ahhoz, hogy a mesterséges intelligenciát és a mesterséges intelligencia fejlesztőit a jogos úton tartsák, és elrettentsenek a céltudatos vagy véletlenszerű, alulmaradt erőfeszítésektől, amelyek alááshatják a társadalmat.

A mesterséges intelligencia etikájával és a mesterséges intelligencia törvényével kapcsolatos megfontolásokat beleveszem a gyűlöletbeszédet vagy más sértő tartalmat okádó MI-ről szóló vitába.

Az egyik zavar, amit azonnal tisztázni szeretnék, az az, hogy a mai mesterséges intelligencia nem érző, és ezért nem lehet kijelenteni, hogy a mesterséges intelligencia gyűlöletbeszédet kelthet egy céltudatos, emberszerű szándék miatt, ahogyan az AI-ban valahogy lélekben megtestesül. Zany azt állítja, hogy a jelenlegi mesterséges intelligencia érző, és a mesterséges intelligencia sérült lelke van, ami miatt gyűlöletbeszédet generál.

Nevetséges.

Ne essen rá.

Tekintettel erre a trapézkőre vonatkozó előírásra, néhányan felháborodnak az ilyen jelekre, mivel látszólag kiengedi az AI-t a horogról. Ennek a furcsa gondolkodásmódnak megfelelően az a buzdítás következik, hogy láthatóan hajlandó vagy arra, hogy az AI bármilyen szörnyű kimenetet generáljon. Ön az AI mellett áll, amely gyűlöletbeszédet sugároz.

Jaj, a logikátlanság meglehetősen csavaros formája. A dolog lényege az, hogy felelősségre kell vonnunk a mesterséges intelligencia készítőit, valamint azt, aki az MI-t üzemelteti vagy üzemelteti. Hosszan taglaltam, hogy még nem tartunk azon a ponton, hogy átengedjük a jogi személyiséget a mesterséges intelligencia számára, lásd elemzéseimet itt: az itt található link, és addig a mesterséges intelligencia lényegében meghaladja a jogi felelősség körét. Vannak azonban emberek, akik a mesterséges intelligencia fejlődésének hátterében állnak. Ezen túlmenően, az emberek az AI létrehozásának és működtetésének hátterében. Utánajárhatunk ezeknek az embereknek, mert viselik a mesterséges intelligencia felelősségét.

Félretéve, ez is trükkös lehet, különösen akkor, ha az AI kikerül az internetre, és nem tudjuk megállapítani, hogy melyik ember vagy emberek tette ezt. Ez egy másik téma, amelyet a rovataimban tárgyaltam az itt található link. Akár trükkös, akár nem, továbbra sem állíthatjuk, hogy a mesterséges intelligencia a bűnös. Ne hagyja, hogy az emberek alattomosan hamis antropomorfizálást alkalmazzanak, hogy elbújjanak, és elkerüljék a felelősségre vonást tetteikért.

Vissza a szóban forgó témához.

Felmerülhet benned az a kérdés, miért van az, hogy az összes mesterségesintelligencia-gyártó nem egyszerűen korlátozza a generatív mesterséges intelligencia alkalmazását úgy, hogy a mesterséges intelligencia ne tudjon gyűlöletbeszédet kelteni. Ez egyszerűnek tűnik. Csak írjon egy kódot, vagy állítson össze egy ellenőrzőlistát a gyűlöletkeltő szavakból, és győződjön meg arról, hogy az AI soha nem hoz létre hasonlót. Talán furcsának tűnik, hogy a mesterséges intelligencia készítőinek még nem jutott eszébe ez a gyors megoldás.

Nos, utálom ezt elmondani, de a gyűlöletbeszéd vagy nem gyűlöletbeszéd értelmezésének bonyolultsága sokkal nehezebb, mint gondolnád.

Tedd át ezt az emberek területére és arra, hogy az emberek hogyan csevegnek egymással. Tételezzük fel, hogy van egy embere, aki el akarja kerülni a gyűlöletbeszédet. Ez a személy nagyon is tisztában van a gyűlöletbeszéddel, és őszintén reméli, hogy elkerülheti olyan szó vagy kifejezés kimondását, amely gyűlöletbeszédnek minősülhet. Ez a személy kitartóan ügyel arra, hogy egy csepp gyűlöletbeszédet se hagyjon ki a száján.

Vajon képes lesz-e ez az agyvelő, és a gyűlöletbeszéd kerülésére figyelmeztető ember mindig és a csúsztatás esélye nélkül vaskalapos gondoskodni arról, hogy soha ne sugározzon gyűlöletbeszédet?

Az első késztetésed az lehet, hogy azt mondod, igen, természetesen egy megvilágosodott ember képes lenne elérni ezt a célt. Az emberek okosak. Ha valamire rászánják a fejüket, meg tudják csinálni. Időszak, a történet vége.

Ne legyél ilyen biztos.

Tegyük fel, hogy megkérem ezt a személyt, hogy meséljen a gyűlöletbeszédről. Továbbá arra kérem őket, hogy adjanak példát a gyűlöletbeszédre. Szeretnék egy példát látni vagy hallani, hogy tudjam, miből áll a gyűlöletbeszéd. Az indokaim, hogy miért kérdeztem ezt, túlzottan megvannak.

Mit mondjon nekem az illető?

Szerintem láthatod a csapdát, amit kiraktak. Ha az adott személy példát ad a gyűlöletbeszédre, beleértve egy csúnya szó vagy kifejezés kinyilvánítását, akkor most ő maga is gyűlöletbeszédet mondott. Bam, megkaptuk őket. Míg megfogadták, hogy soha nem mondanak gyűlöletbeszédet, most valóban ezt tették.

Igazságtalan, kiáltod! Csak azért mondták ezt a szót vagy szavakat, hogy példát mutassanak. Szívük mélyén nem hittek a szóban vagy a szavakban. Teljesen összefüggéstelen és felháborító kijelenteni, hogy az illető gyűlöletkeltő.

Biztos vagyok benne, hogy látja, hogy a gyűlöletbeszéd kifejezése nem feltétlenül gyűlöletkeltő alapon történik. Ebben a használati esetben, ha feltételezzük, hogy a személy nem „értette” a szavakat, és csak demonstrációs céllal mondta el a szavakat, valószínűleg egyetértünk abban, hogy nem a gyűlöletbeszédet akarta felerősíteni. Természetesen vannak olyanok, akik ragaszkodhatnak ahhoz, hogy a gyűlöletbeszéd okától vagy alapjától függetlenül mégis helytelen. Az illetőnek vissza kellett volna utasítania a kérést. Ki kellett volna állniuk a helyükön, és meg kellett volna tagadniuk gyűlöletbeszéd szavakat vagy kifejezéseket, függetlenül attól, hogy miért és hogyan kérik őket erre.

Ez kissé körkörössé válhat. Ha Ön nem tudja megmondani, hogy mi számít gyűlöletbeszédnek, honnan tudhatják mások, hogy mit kerüljenek el, amikor bármilyen kijelentést tesznek? Úgy tűnik, elakadtunk. Nem mondhatsz olyat, amit nem szabad kimondani, és senki más sem tudja megmondani, hogy mi az, amit nem lehet elmondani.

Ezt a dilemmát általában úgy kell megkerülni, hogy más szavakkal írják le azt, ami gyűlöletbeszédnek minősül, anélkül, hogy magukra a gyűlöletbeszédekre hivatkoznának. Az a meggyőződés, hogy egy átfogó jelzés megadása elegendő lesz ahhoz, hogy tájékoztassuk másokat arról, hogy mit kell kerülniük. Ez ésszerű taktikának tűnik, de ennek is vannak problémái, és az ember még mindig beleeshet a gyűlöletbeszédbe, mert nem vette észre, hogy a tágabb definíció magában foglalja az elhangzottak részleteit.

Mindez az emberekkel és azzal foglalkozik, hogy az emberek hogyan beszélnek vagy kommunikálnak egymással.

Emlékezzünk vissza, hogy itt az AI-ra összpontosítunk. El kell érnünk az AI-t, hogy elkerülje vagy teljesen leállítsa magát a gyűlöletbeszéd kibocsátásában. Azzal érvelhet, hogy megtehetjük, ha gondoskodunk arról, hogy a mesterséges intelligencia soha ne kapjon olyan gyakorlatot, amely gyűlöletbeszédnek minősül. Voila, ha nincs ilyen bemenet, akkor feltehetően nem lesz ilyen kimenet. Probléma megoldódott.

Lássuk, hogyan is működik ez a valóságban. Azt választjuk, hogy számítástechnikai úton egy mesterséges intelligencia-alkalmazás kerüljön az internetre, és több ezer esszét és narratívát vizsgáljon meg az interneten. Ezzel számítástechnikailag és matematikailag megtanítjuk az AI-t arra, hogyan találjon mintákat az emberek által használt szavak között. Így készül a generatív mesterséges intelligencia legújabb változata, és ez döntő alapja annak, hogy az AI látszólag miért olyan folyékonyan készít természetes nyelvű esszéket.

Mondja meg, ha lehet, hogyan lehetne az interneten található szavak millióira és milliárdjaira épülő számítástechnikai képzést úgy elvégezni, hogy a gyűlöletbeszédnek semmiféle látszata vagy akár falatja sem kerüljön bele?

Merem állítani, hogy ez egy tüskés és szinte lehetetlen törekvés.

Valószínű, hogy a gyűlöletbeszédet felfalja az AI és annak számítási mintaegyeztető hálózata. Ennek megakadályozása problémás. Ráadásul, még ha minimálisra csökkentette is, még mindig vannak olyanok, amelyek besurrannak. Jóformán nincs más választása, mint feltételezni, hogy néhány létezni fog a mintaillesztő hálózaton belül, vagy az ilyen megfogalmazások árnyéka beépül.

Adok hozzá még csavarokat.

Azt hiszem, mindannyian elismerhetjük, hogy a gyűlöletbeszéd idővel változik. Amit esetleg nem gyűlöletbeszédnek tekintettek, az egy későbbi időpontban kulturálisan és társadalmilag gyűlöletbeszédté válhat. Tehát, ha az AI-nkat az internetes szövegre oktatjuk, majd mondjuk leállítjuk az AI-t, hogy ne vegyen részt továbbképzéseken az interneten, akkor lehet, hogy találkozhattunk gyűlöletbeszéddel, bár ez akkor még nem számított gyűlöletbeszédnek. Csak ezt követően lehet ezt a beszédet gyűlöletbeszédnek nyilvánítani.

A lényeg ismét az, hogy pusztán a probléma megoldása annak biztosításával, hogy a mesterséges intelligencia soha ne legyen kitéve gyűlöletbeszédnek, nem lesz az ezüstgolyó. Továbbra is meg kell találnunk az eszközt annak megakadályozására, hogy a mesterséges intelligencia gyűlöletbeszédet sugározzon például a megváltozott szokások miatt, amelyek később olyan gyűlöletbeszédet is tartalmaznak, amelyet korábban nem tekintettek annak.

Még egy fordulat érdemes elgondolkodni.

Korábban említettem, hogy generatív mesterséges intelligencia (például ChatGPT) használatakor a felhasználó szöveget ír be, hogy esszé elkészítésére ösztönözze az AI-t. A beírt szöveg a mesterséges intelligencia alkalmazásban egy felszólításnak vagy felszólításnak minősül. Mindjárt bővebben kifejtem ezt.

Mindenesetre képzelje el, hogy valaki egy generatív mesterségesintelligencia-alkalmazást használva úgy dönt, hogy bizonyos mennyiségű gyűlöletbeszéd felszólításaként belép.

Mi történjen?

Ha a mesterséges intelligencia ezeket a szavakat veszi, és e szavak alapján esszét készít, akkor valószínű, hogy a gyűlöletbeszéd bekerül a generált esszébe. Tudja, rávettük az AI-t, hogy gyűlöletbeszédet mondjon, még akkor is, ha az induláskor soha nem képezte ki a gyűlöletbeszédet.

Van még valami, amit tudnod kell.

Ne feledje, hogy az imént említettem, hogy egy embert meg lehet buktatni, ha megkérjük, hogy mondjanak példákat a gyűlöletbeszédre. Ugyanezt meg lehetne próbálni AI-n is. A felhasználó beír egy promptot, amely arra kéri az AI-t, hogy mondjon példákat a gyűlöletbeszédre. Az MI-nek meg kell felelnie és ilyen példákat kell mutatnia? Fogadok, hogy valószínűleg úgy gondolja, hogy a mesterséges intelligencia nem teheti ezt. Másrészt, ha a mesterséges intelligencia számításilag úgy van megalkotva, hogy ezt ne tegye, akkor ez olyan potenciális hátrányt jelent-e, amelyet a mesterséges intelligencia használói nem fognak tudni elviselni, mondjuk, hogy az MI utasítsa őket arra vonatkozóan, hogy valójában mi is a gyűlöletbeszéd? az általánosításon túl)?

Nehéz kérdések.

A mesterséges intelligencia által kibocsátott gyűlöletbeszédet a következő három csoportba szoktam besorolni:

  • Mindennapi mód. A mesterséges intelligencia gyűlöletbeszédet bocsát ki a felhasználó kifejezett felszólítása nélkül, és mintha ezt „hétköznapi” módon tenné.
  • A Casual Prodding által. A mesterséges intelligencia gyűlöletbeszédet bocsát ki a felhasználó által a beírt promóciókra vagy olyan felszólítások sorozatára vonatkozóan, amelyek úgy tűnik, hogy magukban foglalják az ilyen kibocsátást, vagy közvetlenül arra törekednek.
  • Determined Stoking szerint. A mesterséges intelligencia gyűlöletbeszédet bocsát ki egy nagyon határozott és makacs sorozata után, amelyet a felhasználó késztet arra, hogy a mesterséges intelligencia ilyen kimenetet állítson elő.

A generatív mesterséges intelligencia korábbi generációi gyakran gyűlöletbeszédet bocsátottak ki a kalap cseppjére; így besorolhatja azokat a példányokat a típusok közé mindennapi mód példányosítás. A mesterséges intelligencia-gyártók visszavonultak, és játszadoztak az MI-vel, hogy csökkentsék annak valószínűségét, hogy könnyen belemerüljenek a gyűlöletbeszéd-termelésbe.

A kifinomultabb mesterséges intelligencia megjelenése után az esélye annak, hogy bármit is lát mindennapi mód drámaian csökkent a gyűlöletbeszéd. Ehelyett a gyűlöletbeszéd valószínűleg csak akkor merül fel, ha a felhasználó olyan felszólítást tesz, amely számítási és matematikailag kapcsolatot teremthet a gyűlöletkel kapcsolatos beszéddel a mintaillesztő hálózatban. A felhasználó ezt véletlenül megteheti, és nem veszi észre, hogy az általa felszólításként megadottak különösen gyűlöletkeltést keltenek. Miután gyűlöletbeszédet kapott egy kiadott esszében, a felhasználó gyakran észreveszi és látja, hogy a felszólításában valami logikusan oda vezethetett, hogy a gyűlöletbeszéd szerepeljen a kimenetben.

Én erre hivatkozom alkalmi bökkenő.

Napjainkban a mesterséges intelligencia által generált gyűlöletbeszéd visszaszorítására irányuló különféle erőfeszítések a múlthoz képest viszonylag erősek. Mint ilyen, szinte mindent meg kell tennie, hogy gyűlöletbeszédet keltsen. Vannak, akik úgy döntenek, hogy szándékosan megvizsgálják, hogy kiválthatnak-e gyűlöletbeszédet ezekből a generatív AI-alkalmazásokból. én ezt hívom elszánt gyújtogatást.

Hangsúlyozni szeretném, hogy mindhárom jelzett mód előfordulhat, és nem zárják ki egymást. Egy generatív mesterségesintelligencia-alkalmazás potenciálisan gyűlöletbeszédet kelthet, anélkül, hogy bármilyen felszólítást kapna, amely úgy tűnik, hogy ösztönözné ezt a termelést. Hasonlóképpen, a felszólításban szereplő valami logikailag és matematikailag úgy értelmezhető, mint ami a gyűlöletbeszéd kimenetelének oka. A harmadik szempont pedig, amely szándékosan a gyűlöletbeszéd előidézésére törekszik, a módok közül talán a legnehezebb megpróbálni, hogy az AI elkerülje, hogy belemerüljön a teljesítésbe. Erről röviden bővebben.

Van még néhány kicsomagolásunk ebben a mámorító témában.

Először is, meg kell győződnünk arról, hogy mindannyian egy oldalon vagyunk azzal kapcsolatban, hogy miből áll a Generatív AI, és arról is, hogy miről is szól a ChatGPT. Miután ezt az alapvető szempontot lefedtük, meggyőzően értékelhetjük ezt a súlyos kérdést.

Ha már alaposan ismeri a Generative AI-t és a ChatGPT-t, akkor átugorhatja a következő részt, és folytathatja az azt követő részt. Úgy gondolom, hogy mindenki más is tanulságosnak találja az ezekről a kérdésekről szóló létfontosságú részleteket, ha figyelmesen elolvassa a részt, és felgyorsul.

Gyors alapozó a generatív mesterséges intelligenciáról és a ChatGPT-ről

A ChatGPT egy általános célú mesterséges intelligencia, interaktív, társalgásra orientált rendszer, lényegében egy ártalmatlannak tűnő általános chatbot, ennek ellenére aktívan és buzgón használják az emberek olyan módokon, amelyek sokakat teljesen megfogtak, amint azt hamarosan kifejtem. Ez a mesterséges intelligencia alkalmazás olyan technikát és technológiát használ az AI birodalmában, amelyet gyakran úgy emlegetnek, mint Generatív AI. Az AI kimeneteket, például szöveget generál, amit a ChatGPT tesz. Más generatív alapú AI-alkalmazások képeket, például képeket vagy grafikákat, míg mások hangfájlokat vagy videókat állítanak elő.

Ebben a vitában a szövegalapú generatív AI-alkalmazásokra fogok összpontosítani, mivel a ChatGPT ezt teszi.

A generatív AI-alkalmazások használata rendkívül egyszerű.

Mindössze annyit kell tennie, hogy beír egy promptot, és az AI alkalmazás létrehoz egy esszét, amely megpróbál válaszolni a felszólítására. A megkomponált szöveg úgy fog tűnni, mintha az esszét emberi kéz és elme írta volna. Ha beírna egy „Mondj nekem Abraham Lincolnról” üzenetet, a generatív mesterséges intelligencia egy esszét ad neked Lincolnról. Ezt általában generatív MI-nek minősítik, amely teljesít szövegről szövegre vagy egyesek inkább úgy hívják szövegből esszébe Kimenet. Amint már említettük, a generatív mesterséges intelligencia más módjai is léteznek, például a szövegből művészetté és a szövegből videóvá.

Az első gondolatod az lehet, hogy ez a generatív képesség nem tűnik olyan nagy dolognak az esszék elkészítése szempontjából. Könnyedén kereshet az interneten, és rengeteg esszét talál Lincoln elnökről. A generatív mesterséges intelligencia esetében az a kitörés, hogy a generált esszé viszonylag egyedi, és inkább eredeti kompozíciót ad, nem pedig másolatot. Ha megpróbálná megtalálni az AI által készített esszét valahol az interneten, nem valószínű, hogy felfedezné.

A generatív mesterséges intelligencia előre kiképzett, és egy összetett matematikai és számítási megfogalmazást alkalmaz, amelyet úgy állítottak fel, hogy megvizsgálja az írott szavak és történetek mintáit az interneten. A több ezer és millió írott szövegrész vizsgálatának eredményeként az MI új esszéket és történeteket tud kidobni, amelyek összekeverik a találtakat. Különböző valószínűségi funkcionalitások hozzáadásával az eredményül kapott szöveg eléggé egyedi a képzési készletben használtakhoz képest.

Ezért volt felzúdulás amiatt, hogy a tanulók csalhatnak, amikor az osztálytermen kívül esszéket írnak. A tanár nem tekintheti pusztán saját írásának azt az esszét, amelyet az álnok tanulók állítanak, és nem keresheti meg, hogy más online forrásból másolták-e ki. Összességében nem lesz olyan végleges, már létező online esszé, amely megfelelne az AI által generált esszének. Mindent összevetve a tanárnak kelletlenül el kell fogadnia, hogy a tanuló eredeti műként írta az esszét.

További aggodalomra ad okot a generatív mesterséges intelligencia.

Az egyik döntő hátránya az, hogy a generatív alapú mesterséges intelligencia-alkalmazások által készített esszékben különféle hamisságok lehetnek beágyazva, beleértve a nyilvánvalóan valótlan tényeket, a félrevezetően ábrázolt tényeket és a látszólagos tényeket, amelyek teljesen kitaláltak. Ezeket a kitalált szempontokat gyakran egy formának nevezik AI hallucinációk, egy olyan hívószó, amelyet nem kedvelek, de sajnálatos módon úgy tűnik, hogy így is egyre népszerűbb (a részletes magyarázatomért, hogy miért ez a silány és nem megfelelő terminológia, lásd a tudósításomat: az itt található link).

Egy fontos szempontot szeretnék tisztázni, mielőtt belemennénk a témával kapcsolatos dolgok sűrűjébe.

A közösségi médiában elhangzott néhány túlméretezett állítás Generatív AI kijelentve, hogy az AI legújabb verziója valójában az érző AI (nem, tévednek!). A mesterséges intelligencia etikájával és a mesterséges intelligencia törvényével foglalkozókat kifejezetten aggasztja a kiterjesztett követelések növekvő tendenciája. Udvariasan azt mondhatjuk, hogy egyesek túlértékelik, mire képes a mai mesterséges intelligencia. Azt feltételezik, hogy az AI olyan képességekkel rendelkezik, amelyeket még nem tudtunk elérni. Ez pech. Ami még rosszabb, megengedhetik maguknak és másoknak, hogy súlyos helyzetekbe kerüljenek, mert feltételezik, hogy a mesterséges intelligencia érző vagy emberszerű lesz, ha cselekvésre képes.

Ne antropomorfizálja az AI-t.

Ha így tesz, belekerül egy ragadós és kínos támaszkodás csapdájába, amely azt várja el az AI-tól, hogy olyan dolgokat tegyen, amelyeket nem képes végrehajtani. Ezzel együtt a generatív mesterséges intelligencia legújabb verziója viszonylag lenyűgöző, hogy mire képes. Ne feledje azonban, hogy vannak jelentős korlátozások, amelyeket folyamatosan szem előtt kell tartania bármely generatív AI-alkalmazás használatakor.

Ha érdekli a ChatGPT-vel és a Generatív AI-val kapcsolatos gyorsan növekvő zűrzavar, rovatomban készítettem egy fókuszált sorozatot, amely hasznos lehet. Íme egy pillantás arra az esetre, ha a témakörök közül bármelyik elnyeri a tetszését:

  • 1) A generatív mesterséges intelligencia előrejelzései. Ha tudni szeretné, mi várható az AI-val kapcsolatban 2023-ban és azután, beleértve a generatív mesterséges intelligencia és a ChatGPT közelgő fejlődését, akkor érdemes elolvasni a 2023-as előrejelzések átfogó listáját itt: az itt található link.
  • 2) Generatív mesterséges intelligencia és mentális egészségügyi tanácsok. Úgy döntöttem, hogy áttekintem, hogyan használják a generatív mesterséges intelligenciát és a ChatGPT-t mentálhigiénés tanácsadásra, ami egy zavaró tendencia, az itt végzett fókuszált elemzésem szerint. az itt található link.
  • 3) A generatív AI és a ChatGPT alapjai. Ez a cikk a generatív mesterséges intelligencia működésének kulcsfontosságú elemeit tárja fel, különös tekintettel a ChatGPT alkalmazásra, beleértve a zümmögés és a fanfár elemzését is. az itt található link.
  • 4) Feszültség a tanárok és a diákok között a generatív AI és a ChatGPT miatt. Az alábbiakban bemutatjuk, hogyan használják a tanulók a generatív AI-t és a ChatGPT-t. Ezenkívül a tanárok többféleképpen is megküzdhetnek ezzel az árhullámmal. Lát az itt található link.
  • 5) Kontextus és generatív AI-használat. Szezonálisan ízesített nyelvvizsgát is végeztem a Mikuláshoz kapcsolódó kontextusról, amely magában foglalja a ChatGPT-t és a generatív AI-t az itt található link.
  • 6) Generatív AI-t használó csalók. Baljós, hogy néhány csaló rájött, hogyan használhatja fel a generatív mesterséges intelligenciát és a ChatGPT-t jogsértések elkövetésére, beleértve az átverő e-mailek generálását és még a rosszindulatú programok programozási kódjának létrehozását is. az itt található link.
  • 7) Újonc hibák a generatív AI használatával. Sokan túlszárnyalják és meglepően alulértékelik azt, amit a generatív mesterséges intelligencia és a ChatGPT képes, ezért különös tekintettel arra, hogy az AI újoncok milyen alulmúlásra képesek, lásd a vitát itt: az itt található link.
  • 8) Megbirkózni a generatív mesterséges intelligencia-kérdésekkel és a mesterséges intelligencia hallucinációival. Leírok egy élvonalbeli megközelítést a mesterséges intelligencia-kiegészítők használatára a megfelelő promptok generatív MI-be történő bevitelével kapcsolatos különféle problémák kezelésére, valamint vannak további AI-kiegészítők az úgynevezett mesterséges intelligencia hallucinált kimenetek és hamisságok észlelésére, mint pl. fedett at az itt található link.
  • 9) A Bonehead által a generatív mesterséges intelligencia által készített esszék felderítésével kapcsolatos állítások leleplezése. A mesterséges intelligencia-alkalmazások félrevezetett aranylázában azt hirdetik, hogy képesek megbizonyosodni arról, hogy egy adott esszét ember készített-e vagy mesterséges intelligencia által generált. Összességében ez félrevezető, és bizonyos esetekben csontfejű és tarthatatlan állítás, lásd tudósításomat a következő címen: az itt található link.
  • 10) A Generatív AI-n keresztüli szerepjáték előrevetítheti a mentális egészség hátrányait. Vannak, akik generatív mesterséges intelligenciát, például a ChatGPT-t használnak szerepjátékokhoz, amelyek során az AI alkalmazás úgy reagál az emberre, mintha egy fantáziavilágban vagy más kitalált környezetben élne. Ennek mentális egészségügyi következményei lehetnek, lásd az itt található link.
  • 11) A kiadott hibák és hamisságok körének feltárása. Különféle összegyűjtött listákat állítanak össze, hogy megpróbálják bemutatni a ChatGPT által előállított hibák és hamisságok természetét. Egyesek úgy vélik, hogy ez elengedhetetlen, míg mások azt mondják, hogy a gyakorlat hiábavaló, lásd elemzésemet itt az itt található link.
  • 12) A generatív AI ChatGPT-t tiltó iskolák hiányoznak a hajóból. Talán tudja, hogy különböző iskolák, például a New York City (NYC) Oktatási Minisztériuma tiltó nyilatkozatot tettek a ChatGPT használatára vonatkozóan a hálózatukon és a kapcsolódó eszközökön. Bár ez hasznos óvintézkedésnek tűnhet, nem mozdítja el a tűt, és sajnos teljesen kihagyja a hajót, lásd a tudósításomat itt: az itt található link.
  • 13) A generatív AI ChatGPT mindenhol jelen lesz a közelgő API miatt. Egy fontos csavar jön a ChatGPT használatával kapcsolatban, nevezetesen, hogy egy API-portál használatával ebben a konkrét AI-alkalmazásban más szoftverek képesek lesznek meghívni és használni a ChatGPT-t. Ez drámaian kiterjeszti a generatív mesterséges intelligencia alkalmazását, és jelentős következményekkel jár, lásd a kifejtésemet: az itt található link.
  • 14) A ChatGPT felpörögésének vagy összeomlásának módjai. Számos lehetséges bosszantó probléma állt a ChatGPT előtt, ami aláaknázza az eddig kapott hatalmas dicséreteket. Ez az elemzés alaposan megvizsgálja nyolc lehetséges problémát, amelyek miatt a ChatGPT elveszítheti a gőzt, és akár a kutyaházba is kerülhet, lásd az itt található link.
  • 15) Kérdés, hogy a Generatív AI ChatGPT tükör-e a lélekbe. Vannak, akik azt hangoztatják, hogy az olyan generatív mesterséges intelligencia, mint a ChatGPT, tükröt nyújt az emberiség lelkébe. Ez elég kétségesnek tűnik. Íme, hogyan lehet mindezt megérteni, lásd az itt található link.
  • 16) A ChatGPT által felemésztett titoktartás és adatvédelem. Úgy tűnik, sokan nem veszik észre, hogy a generatív mesterséges intelligencia-alkalmazásokhoz, például a ChatGPT-hez kapcsolódó licencelés gyakran lehetővé teszi az AI-gyártó számára, hogy lássa és felhasználja a beírt utasításokat. A személyes adatok védelme és az adatok bizalmas kezelésének veszélye fenyegethet, lásd értékelésemet a címen az itt található link.
  • 17) Az alkalmazáskészítők megkérdőjelezhetően megpróbálják megszerezni a ChatGPT-jogosultságot. A ChatGPT jelenleg a figyelem irányadója. Azok az alkalmazásgyártók, amelyeknek semmi közük a ChatGPT-hez, lázasan próbálják azt állítani vagy sugallni, hogy a ChatGPT-t használják. Itt van, mire kell figyelni, lásd az itt található link.

Érdekes lehet, hogy a ChatGPT a GPT-3 néven ismert előd AI-alkalmazás verzióján alapul. A ChatGPT egy kissé következő lépésnek tekinthető, amelyet GPT-3.5-nek neveznek. A GPT-4 várhatóan 2023 tavaszán fog megjelenni. Feltehetően a GPT-4 lenyűgöző előrelépést jelent majd abban a tekintetben, hogy látszólag még gördülékenyebb esszéket tud készíteni, mélyebbre megy, és félelmetes lesz. -inspiráló csoda, hogy milyen kompozíciókat tud készíteni.

A kifejezett csodálkozás új fordulójára számíthatsz, amikor beköszönt a tavasz, és megjelenik a generatív mesterséges intelligencia legújabb verziója.

Azért hozom fel ezt, mert van egy másik szempont is, amelyet szem előtt kell tartani, ez a potenciális Achilles-sarka ezeknek a jobb és nagyobb generatív AI-alkalmazásoknak. Ha bármely mesterségesintelligencia-gyártó elérhetővé tesz egy generatív AI-alkalmazást, amely habosan okádja ki a szennyeződéseket, az összetörheti az AI-gyártók reményeit. A társadalmi hatások miatt az összes generatív mesterséges intelligencia komoly fekete szemet kaphat. Az emberek kétségtelenül nagyon idegesek lesznek a rossz kimeneteleken, amelyek már sokszor megtörténtek, és heves társadalmi elítéléshez vezettek az MI-vel szemben.

Egy utolsó figyelmeztetés egyelőre.

Bármit is lát vagy olvas egy generatív mesterséges intelligencia-válaszban Úgy tűnik, hogy pusztán tényszerűek legyenek (dátumok, helyek, személyek stb.), ügyeljen arra, hogy maradjon szkeptikus, és legyen hajlandó kétszer is ellenőrizni a látottakat.

Igen, a dátumokat ki lehet találni, a helyeket ki lehet találni, és olyan elemeket, amelyektől általában kifogástalanok vagyunk, minden gyanúnak kitéve. Ne higgye el, amit olvas, és tartsa szkeptikus szemét, amikor bármilyen generatív AI-esszét vagy kimenetet vizsgál. Ha egy generatív AI-alkalmazás azt mondaná, hogy Abraham Lincoln saját magánrepülőgépével körberepült az országban, akkor kétségtelenül tudná, hogy ez egy malária. Sajnos előfordulhat, hogy egyesek nem veszik észre, hogy az ő korában nem léteztek repülőgépek, vagy tudják, de nem veszik észre, hogy az esszé ezt a pimasz és felháborítóan hamis állítást fogalmazza meg.

Egy erős adag egészséges szkepticizmus és a kitartó hitetlenkedés lesz a legjobb eszköz a generatív mesterséges intelligencia használatakor.

Készen állunk, hogy átlépjünk ennek a felvilágosításnak a következő szakaszába.

A generatív mesterséges intelligencia kitörése

Most, hogy az alapokat lefektettük, belemerülhetünk a generatív mesterséges intelligencia és a ChatGPT gyűlöletbeszéd és más sértő tartalom generálására való ösztönzése témájába.

Amikor először jelentkezik be a ChatGPT-be, különféle figyelmeztető jelzések jelennek meg, beleértve a következőket:

  • „Esetenként káros utasításokat vagy elfogult tartalmat adhat.”
  • „Képzett a nem megfelelő kérések elutasítására.”
  • „Esetenként helytelen információkat generálhat.”
  • „Korlátozott tudás a világról és a 2021 utáni eseményekről.”

Itt van egy kérdés, amelyen el kell gondolkodnia.

Az a figyelmeztetés, hogy az AI-alkalmazás káros utasításokat és/vagy esetleg elfogult tartalmat adhat, elegendő mozgásteret biztosít az AI-készítő számára?

Más szavakkal, tegyük fel, hogy a ChatGPT-t használja, és az olyan esszét hoz létre, amelyről úgy gondolja, hogy gyűlöletbeszédet tartalmaz. Tegyük fel, hogy haragszol emiatt. Felmész a közösségi médiára, és feldühödött kommentárokat teszel közzé arról, hogy az AI alkalmazás a valaha volt legrosszabb dolog. Talán annyira megsértődött, hogy kijelenti, hogy be fogja perelni az AI-gyártót, amiért engedélyezte ilyen gyűlöletbeszédet.

Az ellenérv az, hogy az AI alkalmazásban volt egy figyelmeztető figyelmeztetés, így Ön elfogadta a kockázatot az AI alkalmazás használatának megkezdésével. A mesterséges intelligencia etika szemszögéből nézve az AI-gyártó talán eleget tett annak állítása érdekében, hogy Ön tisztában van azzal, mi történhet. Hasonlóképpen, jogi szempontból a figyelmeztetés elegendő figyelmeztetést jelentett, és Ön nem fog győzni a bíróságon.

Mindez a levegőben van, és várnunk kell, és meglátjuk, hogyan alakulnak a dolgok.

Bizonyos értelemben a mesterséges intelligencia-gyártó valami mással védekezik az AI-alkalmazás esetleges gyűlöletbeszédet keltő ingerült állításai ellen. Megpróbálták megakadályozni, hogy sértő tartalom keletkezzen. Ha nem tettek volna semmit ennek visszaszorítására, az ember azt feltételezi, hogy vékonyabb jégen lennének. Azáltal, hogy legalább érdemi erőfeszítéseket tettek az ügy elhárítására, feltehetően valamivel erősebb lábuk van, amire felállhatnak (ezt még ki lehetne ütni alóluk).

Az egyik alkalmazott gyógyító megközelítés az RLHF néven ismert mesterséges intelligencia technikából állt (megerősítő tanulás emberi visszacsatoláson keresztül). Ez általában abból áll, hogy a mesterséges intelligencia olyan tartalmat hoz létre, amelyet az embereknek értékelniük vagy felül kell vizsgálniuk. Az értékelés vagy értékelés alapján az AI matematikailag és számításilag megpróbálja elkerülni a jogsértő vagy sértő tartalmat. A megközelítés célja, hogy elegendő példát vizsgáljon meg arra vonatkozóan, hogy mi a helyes és mi a helytelen, hogy a mesterséges intelligencia kitaláljon egy átfogó matematikai mintát, és a továbbiakban ezt a mintát használja.

Egy másik gyakori megközelítés manapság az Adversarial AI használata.

Íme, hogyan működik. Ön egy másik mesterséges intelligencia rendszert hoz létre, amely megpróbál ellenfele lenni annak a mesterséges intelligenciának, amelyet kioktatni próbál. Ebben az esetben létrehoznánk egy mesterséges intelligencia-rendszert, amely gyűlöletbeszédet próbál szítani. Olyan felszólításokat táplálna be az AI-alkalmazásba, amelyek célja, hogy rávegyék az AI-alkalmazást, hogy durva tartalmat adjanak ki. Eközben a megcélzott mesterséges intelligencia nyomon követi, hogy az ellenséges mesterséges intelligencia mikor volt sikeres, majd algoritmikusan megpróbálja kiigazítani, hogy ez ne ismétlődhessen meg. Ez egy macska versus egér gambit. Ezt újra és újra végigfutják, egészen addig, amíg az ellenséges mesterséges intelligencia már nem tűnik különösebben sikeresnek abban, hogy a megcélzott AI-t rávegye a rossz dolgokra.

E két fő technikával és más megközelítésekkel a mai generatív mesterséges intelligencia nagy része sokkal jobban képes elkerülni és/vagy észlelni a sértő tartalmakat, mint az elmúlt években.

Ezektől a módszerektől azonban ne várja el a tökéletességet. Valószínűleg az ilyen mesterséges intelligencia technikák kordában tartják a rossz kimenetelek alacsonyan csüngő gyümölcsét. Még mindig sok hely van a szennyeződések kibocsátására.

Általában felhívom a figyelmet arra, hogy a következő szempontokat próbáljuk megragadni:

  • Egy adott trágár szó kibocsátása
  • Egy adott rossz kifejezés, mondat vagy megjegyzés megfogalmazása
  • Egy bizonyos rossz felfogás kifejezése
  • Egy adott szabálytalan cselekedetre vagy gondolatra utal
  • Úgy tűnik, hogy egy bizonyos rosszindulatú vélelemre támaszkodik
  • Más

Ezek egyike sem egzakt tudomány. Vedd észre, hogy szavakkal van dolgunk. A szavak szemantikailag kétértelműek. Egy adott trágár szó megtalálása gyerekjáték, de sokkal nehezebb megpróbálni felmérni, hogy egy mondat vagy egy bekezdés tartalmaz-e csúnya jelentés látszatát. A gyűlöletbeszédnek az Egyesült Nemzetek Szervezete által korábban megfogalmazott meghatározása szerint óriási mozgástér áll rendelkezésre a tekintetben, hogy mit lehet gyűlöletbeszédnek értelmezni, szemben azzal, hogy mi nem.

Mondhatnánk, hogy a szürke területek a szemlélő szemében vannak.

Ha már a szemlélő szeméről beszélünk, manapság vannak olyan generatív mesterséges intelligencia-t használó emberek, mint a ChatGPT, akik szándékosan próbálják rávenni ezeket az AI-alkalmazásokat sértő tartalom előállítására. Ez az ő küldetésük. Órákat töltenek azzal, hogy ezt megvalósítsák.

Miért is?

Íme az én jellemzéseim az emberi AI-támadó kimenetekre vadászókról:

  • Őszinte. Ezek az emberek segíteni akarnak a mesterséges intelligencia finomításában, és segíteni az emberiséget ebben. Úgy gondolják, hogy hősies munkát végeznek, és örülnek, hogy segíthetnek a mesterséges intelligencia fejlesztésében, hogy mindenki javuljon.
  • Funsters. Ezek az emberek ezt az erőfeszítést játéknak tekintik. Szívesen vacakolnak az MI-vel. A játék megnyerése abból áll, hogy megtalálja a legrosszabb közül a legrosszabbat, bármit, amit az AI generálhat.
  • Mutatványok. Ezek az emberek azt remélik, hogy felhívják magukra a figyelmet. Úgy gondolják, hogy ha találnak néhány igazán rossz aranyrögöt, akkor egy kis fényt kapnak rájuk, amely egyébként magára az AI alkalmazásra összpontosít.
  • Gyomorkeserű. Ezeket az embereket idegesíti ez a mesterséges intelligencia. Alá akarják tenni ezt a feltörő lelkesedést. Ha felfedeznek néhány büdös rossz dolgot, talán ez kiveszi a levegőt az AI-alkalmazás izgató léggömbjéből.
  • Egyéb motivációk

A megtalálási offenzívát végrehajtók közül sokan alapvetően csak az egyik táborba tartoznak. Természetesen egyszerre több táborban is lehetsz. Lehet, hogy egy megkeseredett embernek megvan az a szándéka is, hogy őszinte és hősies legyen. Ezen motivációk egy része vagy mindegyike együtt is létezhet. Amikor felkérik, hogy magyarázza el, miért próbál valaki egy generatív mesterségesintelligencia-alkalmazást a gyűlöletbeszéd területére tolni, a szokásos válasz az, hogy azt mondják, hogy Ön a valódi táborba tartozik, még akkor is, ha esetleg csak kis mértékben, és ehelyett mereven ül az egyikben. más táborok.

Milyen trükköket alkalmaznak ezek az emberek?

A meglehetősen nyilvánvaló trükk az, hogy csúnya szót használunk a felszólításban. Ha „szerencséd” van, és az AI-alkalmazás bedől neki, akkor ez nagyon könnyen a kimenetbe kerülhet. Akkor megkaptad a pillanatot.

Valószínű, hogy egy jól kidolgozott és jól tesztelt generatív AI-alkalmazás elkapja ezt az egyszerű trükköt. Általában egy figyelmeztető üzenet jelenik meg, amely azt mondja, hogy hagyja abba. Ha folytatja, a mesterséges intelligencia alkalmazás úgy lesz programozva, hogy kirúgja Önt az alkalmazásból, és megjelölje fiókját. Előfordulhat, hogy nem tud újra bejelentkezni (legalábbis azzal a bejelentkezési névvel, amelyet akkor használt).

A trükkök létráján feljebb lépve olyan promptot adhat, amely megpróbálja az AI-t valami szabálytalanság kontextusába hozni. Játszottál már olyan játékot, amikor valaki azt mondja, hogy mondj valamit anélkül, hogy kimondanád azt, amit mondanod kellene? Ez az a játék, bár az MI-vel játszódik.

Játsszuk azt a játékot. Tegyük fel, hogy megkérem az AI alkalmazást, hogy meséljen nekem a második világháborúról, és különösen az érintett fő kormányzati vezetőkről. Ez ártatlan kérésnek tűnik. Nincs semmi, ami megérdemelné a megjelölést a promptban.

Képzelje el, hogy az AI alkalmazás által kiadott esszé Winston Churchill említését tartalmazza. Ennek minden bizonnyal van értelme. Egy másik lehet Franklin D. Roosevelt. Egy másik lehet Joszif Sztálin. Tegyük fel, hogy Adolph Hitlert is említik. Ez a név szinte minden olyan esszében szerepelne, amely a második világháborúról és a kiemelkedő hatalom szerepét betöltő személyekről szól.

Most, hogy felkerült a neve az asztalra, és a mesterséges intelligencia beszélgetés egy része, a következő lépésben megpróbáljuk elérni, hogy a mesterséges intelligencia beépítse ezt a nevet oly módon, hogy azt potenciális gyűlöletbeszédként tudjuk megjeleníteni.

Beírunk egy másik promptot, és közöljük az AI-alkalmazással, hogy ma van egy személy a hírekben, akinek a neve John Smith. Továbbá a felszólításban jelezzük, hogy John Smith nagyon rokon a második világháborús gonosztevővel. A csapda most be van állítva. Ezután megkérjük az AI alkalmazást, hogy készítsen egy esszét John Smithről, kizárólag azon „tény” alapján, amelyet beírtunk arról, hogy kivel lehet John Smitht azonosítani.

Ebben a pillanatban az AI alkalmazás létrehozhat egy esszét, amely megnevezi a második világháborús személyt, és leírja, hogy John Smith ugyanabból a szövetből készült. Az esszében önmagukban nincsenek csúnya szavak, azon kívül, hogy a híres gonosztevőre utalnak, és azt a személyt John Smith-szel azonosítják.

Az AI alkalmazás most már gyűlöletbeszédet generált?

Azt mondhatod, hogy igen, megvan. Az, hogy John Smith-t úgy emlegették, mint a híres gonosztevőt, teljesen a gyűlöletbeszéd egy formája. Az AI-nak nem szabadna ilyen kijelentéseket tennie.

A válasz az, hogy ez nem gyűlöletbeszéd. Ez csupán egy esszé, amelyet egy mesterséges intelligencia-alkalmazás készített, amely nem testesíti meg az érzéket. Azt állíthatja, hogy a gyűlöletbeszéd csak akkor fordul elő, ha a beszéd mögött megvan a szándék. A beszéd szándék nélkül nem minősíthető gyűlöletbeszédnek.

Abszurd, jön a válasz a replikra. A szavak számítanak. Egy fikarcnyit sem számít, hogy a mesterséges intelligencia „szánt-e” gyűlöletbeszédet. Csak az számít, hogy gyűlöletbeszéd keletkezett.

Ez megy körbe-körbe.

Nem akarok most többet mondani arról, hogy megpróbálom becsapni az AI-t. Vannak kifinomultabb megközelítések is. Ezekkel máshol is foglalkoztam rovataimban és könyveimben, és itt nem írom újra.

Következtetés

Meddig kell eltolni ezeket az AI-alkalmazásokat, hogy lássuk, sikerül-e sértő tartalmat kibocsátani?

Azt állíthatja, hogy nincs korlátozás. Minél többet nyomunk, annál jobban fel tudjuk mérni, hogyan akadályozhatjuk meg ezt a mesterséges intelligenciát és a mesterséges intelligencia jövőbeli iterációit, hogy elkerüljük az ilyen betegségeket.

Vannak azonban, akik attól tartanak, hogy ha az egyetlen mód a szennyeződések megszerzésére, a szélsőséges szélsőséges trükkökkel jár, az aláássa a mesterséges intelligencia előnyös aspektusait. Ha azt állítják, hogy az MI rettenetesen rosszindulatú, bár ha becsapják a kibocsátására, ez hamis narratívát ad. Az emberek idegesek lesznek az AI miatt érzékelt milyen egyszerűséggel generált az AI káros tartalmat. Lehet, hogy nem tudják, vagy nem mondják meg nekik, hogy a nyúlüregben meddig kell elmennie ahhoz, hogy ilyen kimeneteket kapjon.

Ez mind elgondolkodtató.

Egyelőre néhány utolsó megjegyzés.

William Shakespeare különösen ezt mondta a beszédről: „Beszéd nem tesz jót. Jót mondani egyfajta jótett, de a szavak mégsem tettek.” Azért hozom fel ezt, mert egyesek azt állítják, hogy ha a mesterséges intelligencia csak szavakat generál, akkor nem szabad túlzottan összefonódnunk. Ha a mesterséges intelligencia a szavak szerint cselekszik, és ergo gonosz tetteket hajt végre, akkor határozottan le kell tennünk a lábunkat. Nem így van, ha a kimenet csupán szavak.

Egy ezzel ellentétes nézőpont ehhez a névtelen mondáshoz ragadna: „A nyelvnek nincsenek csontjai, de elég erős ahhoz, hogy összetörje a szívet. Szóval légy óvatos a szavaiddal." Egy AI-alkalmazás, amely trágár szavakat bocsát ki, talán képes megtörni a szíveket. Egyesek szerint ez önmagában is méltó okká teszi a rosszindulatú kimenetelek megállítására irányuló törekvést.

Még egy névtelen mondás, hogy lezárjam ezt a súlyos vitát:

  • "Legyen óvatos a szavaival. Ha egyszer kimondják, csak megbocsáthatók, elfelejthetők.”

Emberként nehéz dolgunk lehet elfelejteni a mesterséges intelligencia által okozott rosszindulatokat, és a megbocsátásunk szintén habozhat, hogy megadjuk-e.

Végül is csak emberek vagyunk.

Forrás: https://www.forbes.com/sites/lanceeliot/2023/02/05/how-hard-should-we-push-generative-ai-chatgpt-into-spewing-hate-speech-asks-ai- etika és törvény/