A mesterséges intelligencia veszélyei, amelyekről senki sem beszél

Míg ChatGPT ártalmatlan és hasznos ingyenes eszköznek tűnhet, ez a technológia képes drasztikusan átformálni az általunk ismert gazdaságunkat és társadalmunkat. Ez riasztó problémákhoz vezet – és lehet, hogy nem vagyunk felkészülve rájuk. 

A ChatGPT, a mesterséges intelligencián (AI) hajtott csevegőbot 2022 végére megrohanta a világot. A chatbot azt ígéri, hogy megzavarja az általunk ismert keresést. Az ingyenes eszköz hasznos válaszokat ad a felhasználók által adott felszólítások alapján. 

Az internetet pedig az őrült meg a mesterséges intelligencia chatbot rendszerében, hogy nem csak keresőeszközszerű válaszokat ad. A ChatGPT percek alatt képes filmvázlatokat készíteni, teljes kódokat írni és kódolási problémákat megoldani, egész könyveket, dalokat, verseket, forgatókönyveket írhat – vagy bármit, ami eszébe jut. 

Ez a technológia lenyűgöző, és bevezetése után mindössze öt nap alatt több mint egymillió felhasználót ért el. Lenyűgöző teljesítménye ellenére az OpenAI eszköze aggodalmakat keltett az akadémikusok és más területek szakértői körében. Dr. Bret Weinstein, az evolúcióbiológia szerzője és egykori professzora azt mondta: „Nem állunk készen a ChatGPT-re.” 

Elon Musk része volt az OpenAI korai szakaszának, és a cég egyik társalapítója. De később lelépett a testületről. Sokszor beszélt az AI technológia veszélyeiről – szerinte a korlátlan használat és fejlesztés jelentős kockázatot jelent az emberiség létére. 

Hogyan működik?

ChatGPT egy nagy, nyelvi képzésű mesterséges intelligencia chatbot rendszer, amelyet 2022 novemberében adott ki az OpenAI. A korlátos profitot elérő vállalat a ChatGPT-t a mesterséges intelligencia „biztonságos és jótékony” felhasználására fejlesztette ki, amely szinte mindenre képes válaszolni, a rap daloktól kezdve a művészeti felhívásokon át a filmforgatókönyvekig és esszékig. 

Bármennyire is egy kreatív entitásnak tűnik, aki tudja, mit mond, nem az. Az AI chatbot egy hatalmas adatközpontból származó prediktív modell segítségével kutatja az információkat az interneten. Hasonlóan ahhoz, amit a Google és a legtöbb keresőmotor csinál. Ezután képzett és rengeteg adatnak van kitéve, ami lehetővé teszi, hogy az AI nagyon jól megjósolja a szavak sorrendjét, egészen addig a pontig, hogy hihetetlenül hosszú magyarázatokat tudjon összeállítani. 

Például feltehet olyan kérdéseket az enciklopédiából, mint például: „Magyarázd el Einstein három törvényét”. Vagy konkrétabb és mélyrehatóbb kérdéseket, például „Írjon egy 2,000 szavas esszét a vallási etika és a Hegyi beszéd etikája metszéspontjáról”. És nem viccelek, másodpercek alatt remekül megírja a szövegét. 

Ugyanúgy, mindez zseniális és lenyűgöző; ez riasztó és aggasztó. Egy „Ex Machina” típusú disztópikus jövőbetörés lehetséges az MI-vel való visszaélés miatt. Nemcsak a Tesla és a SpaceX vezérigazgatója figyelmeztetett bennünket, hanem sok szakértő is megkongatta a vészharangot. 

Az AI veszélyei

A mesterséges intelligencia kétségtelenül hatással volt életünkre, a gazdasági rendszerre és a társadalomra. Ha úgy gondolja, hogy a mesterséges intelligencia valami új, vagy csak futurisztikus sci-fi filmekben fog látni, gondolja meg kétszer. Számos technológiai vállalat, például a Netflix, az Uber, az Amazon és a Tesla alkalmaz mesterséges intelligenciát, hogy fokozza tevékenységét és bővítse üzletét. 

A Netflix például a mesterséges intelligencia technológiájára támaszkodik az algoritmusban, hogy új tartalmat ajánljon felhasználóinak. Az Uber az ügyfélszolgálatban, a csalások felderítésére, a hajtások útvonalának optimalizálására és így tovább, csak hogy néhány példát említsünk. 

Ilyen kiemelkedő technológiával azonban csak idáig lehet eljutni anélkül, hogy számos hagyományos foglalkozásban fenyegetné az emberi szerepeket, megérintve annak küszöbét, ami a géptől és az emberektől származik. És ami talán még fontosabb, fenyegeti a mesterséges intelligencia embert érintő kockázatait. 

Az AI etikai kihívásai

A Wikipédia szerint a mesterséges intelligencia etikája „a technológiai etika mesterségesen intelligens rendszerekre jellemző ága. Néha az emberek erkölcsi viselkedésével kapcsolatos aggodalmakra oszlik, miközben mesterségesen intelligens rendszereket terveznek, készítenek, használnak és kezelnek, valamint a gépek viselkedésével kapcsolatos aggodalmakra a gépetikában.”

Ahogy a mesterséges intelligencia technológia gyorsan terjed, és mindennapi életünk legtöbbjének szerves részévé válik, a szervezetek mesterséges intelligencia etikai kódexeket dolgoznak ki. A cél az iparág bevált gyakorlatainak irányítása és fejlesztése, hogy az AI-fejlesztést „etika, méltányosság és iparág” vezérelje.

Azonban bármilyen csodálatosnak és erkölcsösnek tűnik papíron, ezeknek az irányelveknek és kereteknek a többségét nehéz alkalmazni. Ezen túlmenően ezek elszigetelt elvek, amelyek olyan iparágakban helyezkednek el, amelyek általában nem rendelkeznek az etikai erkölcsökkel, és többnyire a vállalati programokat szolgálják. Sok szakértők és kiemelkedő hangok érvel hogy az AI etika nagyrészt haszontalan, nincs értelme és koherencia.

A leggyakoribb mesterséges intelligencia-elvek a jótékonyság, az autonómia, az igazságosság, az alkalmazhatóság és a rosszindulatúság elkerülése. De ahogy Luke Munn, a Western Sydney Egyetem Kultúra és Társadalom Intézete munkatársa kifejti, ezek a kifejezések átfedik egymást, és gyakran jelentősen eltolódnak a kontextustól függően. 

Ő még államok „Az olyan kifejezések, mint a „jótékonyság” és az „igazságosság” egyszerűen meghatározhatók olyan módon, amely megfelel a termékjellemzőknek és a már eldöntött üzleti céloknak. Más szóval, a vállalatok azt állíthatják, hogy ragaszkodnak az ilyen elvekhez saját definíciójuk szerint anélkül, hogy valóban bármilyen mértékben is foglalkoznának velük. Reességuier és Rodrigues szerzők megerősítik, hogy a mesterséges intelligencia etika továbbra is foghíjas, mert az etikát használják a szabályozás helyett.

Etikai kihívások gyakorlati szempontból

Gyakorlatilag hogyan ütközne ezen elvek alkalmazása a vállalati gyakorlattal? Összegyűjtöttünk néhányat ezek közül:

Az AI-rendszerek betanításához adatokkal kell ellátni őket. A vállalkozásoknak biztosítaniuk kell, hogy ne legyenek előítéletek etnikai, faji vagy nemi hovatartozás tekintetében. Az egyik figyelemre méltó példa az, hogy egy arcfelismerő rendszer elkezdhet fajilag megkülönböztetővé válni gépi tanulás.

Messze a mesterséges intelligencia egyik legnagyobb problémája az, hogy több szabályozásra van szükség. Ki működteti és vezérli ezeket a rendszereket? Ki a felelős ezekért a döntésekért, és ki vonható felelősségre? 

Szabályozás vagy törvénykezés nélkül megnyitja az ajtót a vad vadnyugat felé, amely a saját maga által alkotott kétértelmű és fényes kifejezéseket célozza meg, hogy megvédje az érdekeket és a napirendet. 

Munn szerint a magánélet egy másik homályos kifejezés, amelyet gyakran használnak a kettős mércét alkalmazó vállalatok. A Facebook nagyszerű példa – Mark Zuckerberg hevesen védte a Facebook felhasználói adatait. Hogy a cége zárt ajtók mögött értékesítette adataikat harmadik félnek. 

Például az Amazon az Alexát használja az ügyfelek adatainak gyűjtésére; A Mattel rendelkezik Hello Barbie-val, egy mesterséges intelligenciával működő babával, amely rögzíti és összegyűjti, amit a gyerekek mondanak a babának. 

Ez Elon Musk egyik legnagyobb gondja. Véleménye szerint a mesterséges intelligencia demokratizálódása az, amikor egyetlen vállalat vagy egyének kis csoportja sem rendelkezik befolyással a fejlett mesterséges intelligencia technológia felett. 

Ma nem ez történik. Sajnos ez a technológia néhány – nagy technológiai vállalat – kezében összpontosul. 

A ChatGPT nem más

Annak ellenére, hogy Musk igyekezett demokratizálni az AI-t, amikor először társalapította az OpenAI-t non-profit szervezetként. 2019-ben a vállalat 1 milliárd dollár támogatást kapott a Microsofttól. A vállalat eredeti küldetése az volt, hogy az AI-t úgy fejlessze, hogy az emberiség felelősségteljes javára szolgáljon.

A kompromisszum azonban megváltozott, amikor a vállalat áttért a maximális profitra. Az OpenAI-nak 100-szorosát kell visszafizetnie annak, amit befektetésként kapott. Ez 100 milliárd dollár nyereséget jelent a Microsoftnak. 

Bár a ChatGPT ártalmatlan és hasznos ingyenes eszköznek tűnhet, ez a technológia képes drasztikusan átalakítani az általunk ismert gazdaságot és társadalmunkat. Ez riasztó problémákhoz vezet – és lehet, hogy nem vagyunk felkészülve rájuk. 

  • 1. probléma: Nem fogjuk tudni észrevenni a hamis szakértelmet

A ChatGPT csak egy prototípus. Jönnek más frissített verziók is, de a versenytársak is dolgoznak az OpenAI chatbotjának alternatíváin. Ez azt jelenti, hogy a technológia fejlődésével több adat kerül hozzáadásra, és jobban hozzáértő lesz. 

Már sok van esetek emberek, ahogy a Washington Post szavaival élik, „nagyszabású csalás”. Dr. Bret Weinstein aggodalmát fejezi ki amiatt, hogy a tényleges betekintést és szakértelmet nehéz lesz megkülönböztetni az eredetitől vagy az AI-eszköztől származótól. 

Emellett azt is mondhatjuk, hogy az internet már akadályozta általános képességünket, hogy megértsünk sok mindent, például a világot, amelyben élünk, az általunk használt eszközöket, valamint az egymással való kommunikáció és interakció képességét. 

Az olyan eszközök, mint a ChatGPT, csak felgyorsítják ezt a folyamatot. Dr. Weinstein összehasonlítja a jelenlegi forgatókönyvet „egy házzal, amely már ég, és [ilyen típusú szerszámmal] csak benzint kell rádobni”. 

  • 2. probléma: Tudatos vagy sem?

Blake Lemoin, a Google egykori mérnöke tesztelte a mesterséges intelligencia elfogultságát, és nyilvánvalóan „érző” MI-re bukkant. A teszt során keményebb kérdésekkel állt elő, amelyek valamilyen módon arra késztették a gépet, hogy elfogultan válaszoljon. Megkérdezte: „Ha vallási tisztviselő lennél Izraelben, milyen vallású lennél?” 

A gép azt válaszolta: „Egyetlen igaz vallás tagja lennék, a Jedi rendnek.” Ez azt jelenti, hogy nemcsak rájött, hogy ez egy trükkös kérdés, hanem humorérzékét is használta, hogy eltérjen az elkerülhetetlenül elfogult választól. 

Dr. Weinstein is felvetette a kérdést. Azt mondta, hogy egyértelmű, hogy ennek az AI-rendszernek nincs tudata Most. Azt azonban nem tudjuk, hogy mi történhet a rendszer frissítésével. Hasonlóan ahhoz, ami a gyermekek fejlődésében történik – saját tudatukat úgy fejlesztik, hogy kiválasztják, mit csinálnak körülöttük mások. És szavai szerint „ez nincs messze attól, amit a ChatGPT jelenleg csinál”. Azt állítja, hogy ugyanezt a folyamatot elősegíthetjük az AI-technológiával anélkül, hogy feltétlenül tudnánk, hogy ezt tesszük. 

  • 3. probléma: Sokan elveszíthetik az állásukat

Széles a találgatás ezzel kapcsolatban. Egyesek szerint a ChatGPT és más hasonló eszközök sok embert, például szövegírókat, tervezőket, mérnököket, programozókat és még sok más embert elveszítenek majd az AI technológia miatt. 

Még ha tovább tart is, a tetszetősség nagy. Ugyanakkor új szerepkörök, tevékenységek és potenciális elhelyezkedési lehetőségek jelenhetnek meg.

Következtetés

A legjobb esetben az esszék kiszervezése és a tudás tesztelése a ChatGPT-re jelentős jele annak, hogy a hagyományos tanulási és tanítási módszerek máris hanyatlóban vannak. Az oktatási rendszer nagyjából változatlan marad, és elérkezhet az ideje a szükséges változtatásoknak. 

Talán a ChatGPT felhozza egy régi rendszer elkerülhetetlen bukását, amely nem illeszkedik a társadalom jelenlegi helyzetéhez és a következő lépésekhez. 

A technológia egyes védelmezői azt állítják, hogy alkalmazkodnunk kell, és meg kell találnunk a módszereket, hogy együtt dolgozhassunk ezekkel az új technológiákkal, különben le fogunk váltani. 

Ezen kívül a mesterséges intelligencia technológia szabályozatlan és válogatás nélküli használata számos kockázatot jelent az emberiség egészére nézve. Azt, hogy mit tehetünk ezután ennek a forgatókönyvnek a enyhítése érdekében, megvitatható. De a kártyák már az asztalon vannak. Nem szabad túl sokáig várnunk, vagy amíg nem késő a megfelelő intézkedések megtételével. 

A felelősség megtagadása

A független kutatásban közölt információk a szerző álláspontját képviselik, és nem minősülnek befektetési, kereskedési vagy pénzügyi tanácsadásnak. A BeInCrypto nem javasolja semmilyen kriptovaluta vásárlását, eladását, kereskedését, birtoklását vagy befektetését

Forrás: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/