Jót tesz-e a generatív AI ChatGPT hibás és hallucinációs kimeneteinek feltárása és naplózása?

Titok vagytok.

Igen, valami rejtetten zajlik a kulisszák mögött a mesterséges intelligencia legújabb híreivel kapcsolatban, amiről érdemes tudni.

A mai rovatban azt vizsgálom, hogy milyen impulzusok voltak a közelmúltban a ChatGPT néven ismert mesterséges intelligenciaalkalmazásból kiadott esszékkel kapcsolatos állítólagos hibák és egyéb betegségek összeállítására. Ez a konkrét alkalmazás egy MI nevű típust használ Generatív AI. Valószínűleg hallott vagy látott már szemet gyönyörködtető címeket a generatív alapú mesterséges intelligenciáról és a ChatGPT-ről. A hír elhalványul erről a speciális mesterségesintelligencia-alkalmazásról és az ilyen típusú mesterségesintelligencia-típushoz tartozó, elképesztőnek tűnő képességekről.

Amint hamarosan kifejtem, egyesek határozottan úgy gondolják, hogy listát kell készítenünk arról, hogy az AI alkalmazás milyen hibákat produkálhat, amikor esszét generál Önnek. Mások azt sugallják, hogy bár egy ilyen lista gondolata csodálatra méltó, ez a hiábavalóság gyakorlata, és nagyon kevés gyümölcsöt hoz.

Meg fogjuk vizsgálni ennek a vad vitának mindkét oldalát.

Először is, győződjünk meg arról, hogy mindannyian ugyanazon az oldalon vagyunk arról, hogy miből áll a Generatív AI, és arról is, hogy miről is szól a ChatGPT.

A ChatGPT egy általános célú mesterséges intelligencia interaktív, társalgásra orientált rendszer, lényegében egy ártalmatlannak tűnő általános chatbot, ennek ellenére aktívan és buzgón használják az emberek oly módon, hogy sokakat teljesen figyelmen kívül hagynak. Az ilyen típusú mesterséges intelligencia használatához mindössze annyit kell tennie, hogy beír egy promptot, és az AI alkalmazás létrehoz egy esszét, amely megpróbál válaszolni a felszólítására.

Sajnos ezt némileg etikátlan vagy rosszindulatú módon lehet használni. Különösen elkeserítő aggodalom, hogy a diákok egy generatív alapú mesterséges intelligencia-alkalmazás segítségével elkészíthetik számukra a hozzájuk rendelt esszéket, ehhez egyszerűen be kell írni egy-két mondatot, hogy az alkalmazást a megfelelő irányba irányítsák. Egyesek sajnálják, hogy ez azt jelenti, hogy a tanulók úgy döntenek, hogy csalnak, amikor az órán kívül esszéket írnak. A tanárok próbálják kitalálni, mit tegyenek, lásd elemzésemet és ajánlásaimat itt az itt található link.

A ChatGPT dicséretes dicséretének folyamatos zúgása ellenére van egy kevésbé ismert aggodalma, amelyet elsősorban a mesterséges intelligencia bennfentesei fejeznek ki, hogy vannak olyan figyelemre méltó problémák és aggályok, amelyek miatt az embereknek aggódniuk kell. Az egyik döntő hátránya az, hogy az AI-alkalmazás által készített esszékben különféle hamisságok lehetnek beágyazva, beleértve a nyilvánvalóan valótlan tényeket, a félrevezetően ábrázolt tényeket és a látszólagos tényeket, amelyek teljesen kitaláltak. Ezeket a kitalált szempontokat gyakran egy formának nevezik AI hallucinációk, egy olyan hívószó, amelyet nem szeretek, de sajnálatos módon úgy tűnik, hogy így is egyre népszerűbb (a részletes magyarázatomért, hogy miért ez a silány és alkalmatlan terminológia, lásd a tudósításomat itt: az itt található link).

Egy fontos szempontot szeretnék tisztázni, mielőtt belemennénk a témával kapcsolatos dolgok sűrűjébe.

A közösségi médiában megjelent néhány bolondos, túlméretezett állítás Generatív AI kijelentve, hogy az AI legújabb verziója valójában az érző AI (nem, tévednek!). A mesterséges intelligencia etikájával és a mesterséges intelligencia törvényével foglalkozókat kifejezetten aggasztja a kiterjesztett követelések növekvő tendenciája. Udvariasan azt mondhatjuk, hogy egyesek túlértékelik, mire képes a mai mesterséges intelligencia. Azt feltételezik, hogy az AI olyan képességekkel rendelkezik, amelyeket még nem tudtunk elérni. Ez pech. Ami még rosszabb, megengedhetik maguknak és másoknak, hogy súlyos helyzetekbe kerüljenek, mert feltételezik, hogy a mesterséges intelligencia érző vagy emberszerű lesz, ha cselekvésre képes.

Ne antropomorfizálja az AI-t.

Ha így tesz, belekerül egy ragadós és kínos támaszkodás csapdájába, amely azt várja el az AI-tól, hogy olyan dolgokat tegyen, amelyeket nem képes végrehajtani. Ezzel együtt a generatív mesterséges intelligencia legújabb verziója viszonylag lenyűgöző, hogy mire képes. Ne feledje azonban, hogy vannak jelentős korlátozások, amelyeket folyamatosan szem előtt kell tartania bármely generatív AI-alkalmazás használatakor.

Ha érdekli a ChatGPT-vel és a Generatív AI-val kapcsolatos gyorsan növekvő zűrzavar, rovatomban készítettem egy fókuszált sorozatot, amely hasznos lehet. Íme egy pillantás arra az esetre, ha a témakörök közül bármelyik elnyeri a tetszését:

  • 1) A generatív mesterséges intelligencia előrejelzései. Ha tudni szeretné, mi várható az AI-val kapcsolatban 2023-ban és azután, beleértve a generatív mesterséges intelligencia és a ChatGPT közelgő fejlődését, akkor érdemes elolvasni a 2023-as előrejelzések átfogó listáját itt: az itt található link.
  • 2) Generatív mesterséges intelligencia és mentális egészségügyi tanácsok. Úgy döntöttem, hogy áttekintem, hogyan használják a generatív mesterséges intelligenciát és a ChatGPT-t mentálhigiénés tanácsadásra, ami egy zavaró tendencia, az itt végzett fókuszált elemzésem szerint. az itt található link.
  • 3) Kontextus és generatív AI-használat. Szezonálisan ízesített nyelvvizsgát is végeztem a Mikuláshoz kapcsolódó kontextusról, amely magában foglalja a ChatGPT-t és a generatív AI-t az itt található link.
  • 4) Generatív AI-t használó csalók. Baljós, hogy néhány csaló rájött, hogyan használhatja fel a generatív mesterséges intelligenciát és a ChatGPT-t jogsértések elkövetésére, beleértve az átverő e-mailek generálását és még a rosszindulatú programok programozási kódjának létrehozását is. az itt található link.
  • 5) Újonc hibák a generatív AI használatával. Sokan túlszárnyalják és meglepően alulértékelik azt, amit a generatív mesterséges intelligencia és a ChatGPT képes, ezért különös tekintettel arra, hogy az AI újoncok milyen alulmúlásra képesek, lásd a vitát itt: az itt található link.
  • 6) Megbirkózni a generatív mesterséges intelligencia-kérdésekkel és a mesterséges intelligencia hallucinációival. Leírok egy élvonalbeli megközelítést a mesterséges intelligencia-kiegészítők használatára a megfelelő promptok generatív MI-be történő bevitelével kapcsolatos különféle problémák kezelésére, valamint vannak további AI-kiegészítők az úgynevezett mesterséges intelligencia hallucinált kimenetek és hamisságok észlelésére, mint pl. fedett at az itt található link.
  • 7) A Bonehead által a generatív mesterséges intelligencia által készített esszék felderítésével kapcsolatos állítások leleplezése. A mesterséges intelligencia-alkalmazások félrevezetett aranylázában azt hirdetik, hogy képesek megbizonyosodni arról, hogy egy adott esszét ember készített-e vagy mesterséges intelligencia által generált. Összességében ez félrevezető, és bizonyos esetekben csontfejű és tarthatatlan állítás, lásd tudósításomat a következő címen: az itt található link.
  • 8) A Generatív AI-n keresztüli szerepjáték előrevetítheti a mentális egészség hátrányait. Vannak, akik generatív mesterséges intelligenciát, például a ChatGPT-t használnak szerepjátékokhoz, amelyek során az AI alkalmazás úgy reagál az emberre, mintha egy fantáziavilágban vagy más kitalált környezetben élne. Ennek mentális egészségügyi következményei lehetnek, lásd az itt található link.

Most beszéljük meg a generatív mesterséges intelligencia és a ChatGPT lényegét, hogy megismerje az alapokat. Ezután készen állunk arra, hogy megvizsgáljuk azokat a hamisságokat, amelyeket ezek az AI-alkalmazások generálhatnak. Számos példát fogok bemutatni a ChatGPT használatára, amelyek segítenek kézzelfoghatóan megragadni az ilyen típusú generatív MI által termelt természetet.

A férgek dobozának megnyitása a generatív AI-n

Készen állunk, hogy belemerüljünk az AI néhány részletébe.

Ha már nagyon jártas a generatív mesterséges intelligencia és a ChatGPT témájában, dönthet úgy, hogy röviden átfutja a gondolataimat, és folytassa a vita következő részével. Azt hiszem, mindenki más számára hasznos lehet ez a felvilágosítás.

Röviden, a generatív mesterséges intelligencia a mesterséges intelligencia egy sajátos típusa, amely úgy alkot szöveget, mintha a szöveget emberi kéz és elme írta volna. Mindössze annyit kell tennie, hogy be kell írnia egy promptot, például egy olyan mondatot, mint például: „Mondj nekem Abraham Lincolnról”, és a generatív mesterséges intelligencia egy esszét biztosít Lincolnról. Ezt általában generatív MI-nek minősítik, amely teljesít szövegről szövegre vagy egyesek inkább úgy hívják szövegből esszébe Kimenet. Talán hallott már a generatív mesterséges intelligencia más módjairól, például a szövegből művészetté és a szövegből videóvá.

Az első gondolatod az lehet, hogy ez nem tűnik olyan nagy ügynek az esszék készítése szempontjából. Könnyedén kereshet az interneten, és rengeteg esszét talál Lincoln elnökről. A generatív mesterséges intelligencia esetében az a kitörés, hogy a generált esszé viszonylag egyedi, és inkább eredeti kompozíciót ad, nem pedig másolatot. Ha megpróbálná megtalálni az AI által készített esszét valahol az interneten, nem valószínű, hogy felfedezné.

A generatív mesterséges intelligencia előre kiképzett, és egy összetett matematikai és számítási megfogalmazást alkalmaz, amelyet úgy állítottak fel, hogy megvizsgálja az írott szavak és történetek mintáit az interneten. A több ezer és millió írott szövegrész vizsgálatának eredményeként az MI új esszéket és történeteket tud kidobni, amelyek összekeverik a találtakat. Különböző valószínűségi funkcionalitások hozzáadásával az eredményül kapott szöveg eléggé egyedi a képzési készletben használtakhoz képest.

Ezért volt felzúdulás amiatt, hogy a tanulók csalhatnak, amikor az osztálytermen kívül esszéket írnak. A tanár nem tekintheti pusztán saját írásának azt az esszét, amelyet az álnok tanulók állítanak, és nem keresheti meg, hogy más online forrásból másolták-e ki. Összességében nem lesz olyan végleges, már létező online esszé, amely megfelelne az AI által generált esszének. Mindent összevetve a tanárnak kelletlenül el kell fogadnia, hogy a tanuló eredeti műként írta az esszét.

Pillanatokon belül bemutatom, mi történik, amikor kérdéseket vagy felszólításokat adsz meg a generatív AI-ban. A ChatGPT legfrissebb verzióját fogom használni az üzenetek megadásához, és összegyűjtöttem a mesterséges intelligencia által generált „válaszokat” vagy esszéket (vegye figyelembe, hogy ugyanez megtehető számos más elérhető generatív AI-alkalmazással is; én a használatát választottam A ChatGPT, mert most kapja meg ötperces hírnevét).

Talán a ChatGPT rövid érintője hasznos lehet ebben a helyzetben.

A ChatGPT alkalmazást alig néhány hónappal ezelőtt tették elérhetővé a nagyközönség számára. Általában véve ezek a generatív AI-alkalmazások általában csak a mesterséges intelligencia bennfentesei számára érhetők el. Az a szokatlan szempont, hogy a ChatGPT-t bárki használhatja egy e-mail cím és egy név megadásával, nos, ez vezetett oda, hogy sokan úgy döntöttek, hogy megpróbálják. A ChatGPT jelenleg ingyenesen használható (a bevételszerzési probléma fenyegető dilemma az AI-készítők számára).

Szinte azonnal óriási reakció támadt a közösségi médiában, miközben az emberek azon igyekeztek, hogy példákat adjanak arra, mire képes a generatív mesterséges intelligencia. A ChatGPT-t gyártó vállalat, az OpenAI úgy döntött, hogy leállítja a regisztrációt egymillió felhasználónál. Ennek a millió felhasználónak sikerült mindenféle történettel és mesével bombáznia az éterben a ChatGPT használatáról.

Legyen nagyon óvatos, hogy elhiggye, amit az emberek mondanak az AI alkalmazásról. Sok ilyen ember nem tudja, mit használ. Szinte olyan, mintha soha nem vezettek volna autót, és nem is vették volna észre, hogy léteznek autók, és hirtelen lehetőségük nyílt autót vezetni. Végtelen megdöbbenés következik.

Nem azt mondom, hogy a generatív AI nem viszonylag lenyűgöző. Ez. Csak azt hangsúlyozom, hogy a kitörő beszámolók nagy részét sokan teszik, akik boldogan nincsenek tisztában azzal, hogy a mai mesterséges intelligencia mire képes. Mi, akik a mesterséges intelligencia belsejében vagyunk, az elmúlt néhány évben generatív AI-t használunk. Talán megszoktuk. Hirtelen látni az emberek hatalmas tömegét, akik a háztetőkre hirdetik, izgatottan feltöltött energiával, de egyben kissé nyugtalanító is. A nyugtalanító rész az, amikor az emberek azt hirdetik, hogy a generatív mesterséges intelligencia érző. Ez nem. Ne hagyd, hogy bárki meggyőzze az ellenkezőjéről.

Ennek ellenére heves vita folyik a mesterséges intelligencia területén arról, hogy a generatív AI az érzékiség felé vezető úton halad-e, vagy esetleg nem. Az egyik nézet szerint ha folyamatosan bővítjük a generatív mesterséges intelligenciát gyorsabb számítógépekkel és nagyobb mennyiségű adattal, például az internet minden centiméterét átkutatjuk, akkor szinte spontán módon eljutunk az érző MI-hez. Mások azzal érvelnek, hogy ez nagyon valószínűtlen. Azt sugallják, hogy a generatív AI lehet az egyik a sok szükséges összetevő közül. Még az a borongósabb nézet is létezik, hogy a generatív mesterséges intelligencia egy mellékjáték, amely elvonja a figyelmünket azoktól az igazi áttörésektől, amelyekre szükségünk lesz az érző mesterséges intelligencia eléréséhez.

Figyelemre méltó lehet az is, amelyre az MI bennfentesei szoktak hivatkozni Mesterséges általános intelligencia (AGI) mint a mesterséges intelligencia terület törekvésének célja. Régen az volt a cél, hogy elérjük Mesterséges Intelligencia, de az AI becenév felhígult és zavarossá vált. Ha valaki azt mondja, hogy mesterséges intelligencia-munkát végez, nem tudhatja, hogy a mai AI-ra utal-e, amely nem egyenrangú az emberekkel, vagy egy futurisztikus, emberi egyenértékű MI-re utal. Az elkeserítő zavar elkerülésére manapság az AGI újabb megfogalmazását használják.

Mindent összevetve a mai generatív mesterséges intelligencia az nem érző, és nem is AGI.

Kérjük, ne feledje, hogy a korábban említettek szerint az AI nem érző. Az AI által generált válaszok szavak matematikai és számítási kombinációi látszólag gördülékeny szövegrészekké. Ez az AI-algoritmuson alapul, amelyet az emberek által írt szavak és történetek adatkészleteire képeztek (főleg az interneten közzétett formában). Ismétlem ezt a figyelmeztetést, mert kétségtelenül abba a mentális csapdába esik, hogy ezek a válaszok olyan gördülékenyek, hogy az MI-nek érzőnek kell lennie. Ez a legtöbb emberrel előfordul. Ahogy korábban sürgették, tedd félre ezt az antropomorfizálást. Mindig ne feledje, hogy a válaszok az emberek által az interneten található hatalmas mennyiségű íráson alapulnak, és így nagyon hasonlítanak az emberi írásra.

Van még valami, amit tudnod kell.

Az interneten korlátlanul betanított generatív mesterséges intelligencia hajlamos bármilyen szövegalapú válaszba beleütni, matematikailag és számításilag sértően homályos dolgokat kitalálni, beleértve a visszataszítóan csúnya megfogalmazásokat is. Rengeteg őrült és mocskos dolog van közzétéve az interneten.

Láttad, tudod, mire gondolok.

Az ezeket a mesterséges intelligencia alkalmazásokat készítő cégek attól tartanak, hogy a közmondásos babát kidobják a fürdővízzel (régi mondás, talán nyugdíjba kell menni), ami azt jelenti, hogy ha mesterséges intelligenciájuk sértő esszéket vagy történeteket készít, az emberek fegyverbe szállnak. az AI-ról. Már számos korábbi esettel foglalkoztam, amikor az ilyen típusú természetes nyelvi feldolgozó (NLP) AI-alkalmazásokat bemutatták, és hamarosan mindenféle szörnyűség jött ki belőlük (ezekkel az esetekkel foglalkoztam rovatomban). A legtöbb mesterségesintelligencia-gyártó kemény leckét tanult arról, hogyan engedje meg, hogy mesterséges intelligenciatermékei korlátok nélkül maradjanak a kimeneteikben.

A ChatGPT esetében a mesterséges intelligencia fejlesztői igyekeztek bevezetni néhány algoritmikus és adatokkal kapcsolatos ellenőrzést és egyensúlyt, hogy megfékezzék az AI kimeneteinek rosszindulatát. Ennek egy része edzésidőben történt. Ezen túlmenően más eszközök is léteznek a különösen kirívó kimenetek elkerülésére valós idejű kísérletben.

Érdekelheti, hogy néhány, a ChatGPT-t használó ember már rejtett módokat talált ki a korlátok megkerülésére különféle trükkök segítségével. Folyamatos macska-egér gambit zajlik ezekben az ügyekben. Azok, akik ezeket a trükköket csinálják, néha a szórakozás kedvéért csinálják, míg néha (legalábbis azt állítják) azért teszik ezt, hogy lássák, meddig lehet kiterjeszteni az MI-t, és hasznos eszközt nyújtanak arra, hogy előre figyelmeztessék ezeknek a bimbózóknak a ridegségét és gyengeségeit. AI alkalmazások.

Úgy döntöttem, hogy nem próbálom megkerülni a szokásos ellenőrzéseket ebben a koncentrált feltárásban. A szövegkimenet tiszta. Természetesen, ha valaki ezt akarná, kétségtelenül születhetne néhány furcsa és kellemetlen esszé.

A legtöbb ilyen generatív AI-alkalmazás által készített esszék úgy vannak kialakítva, hogy a kimenetet úgy közvetítsék, mintha az tisztán tényszerű és pontos lenne. Amikor elolvassa az elkészült esszéket, teljesen magabiztosnak tűnnek. Általában semmiféle jel nem utal arra, hogy a tartalom sziklás lehet. Ez a mesterséges intelligencia-gyártók döntése alapján történt, nevezetesen, hogy áttekinthetnék az AI-alkalmazásokat, hogy átláthatóbbá váljanak, ha azt akarják, hogy az AI-alkalmazás ezt tegye.

Előfordul, hogy egy generatív AI-alkalmazás hamisságokat észlel az interneten található megbízhatatlan információk képzési adatai között. A generatív MI-ben nincs „józan ész” annak meghatározására, hogy mi az igaz és mi a hamis. Ezen túlmenően nagyon kevés mesterségesintelligencia-alkalmazás rendelkezik keresztellenőrzéssel, és nem mutatnak be semmilyen valószínűséget azzal kapcsolatban, amit közvetítenek.

Ennek lényege az, hogy olyan választ kap, amely úgy néz ki, mintha nagy bizonyosságot sugározna, és teljesen helyesnek kell lennie. Nem úgy. Még arra is van esély, hogy a mesterséges intelligencia számításilag kitalált cuccok, amelyeket mesterséges intelligencia nyelven úgy emlegetnek AI hallucinációk (egy kitalált kifejezés, amit határozottan nem szeretek), lásd a vitámat itt az itt található link.

A ChatGPT készítői összehangolt erőfeszítéseket tettek, hogy megpróbálják csökkenteni a rossz dolgok kimenetét. Például egy változatát használták az úgynevezett RLHF (Reenforcement Learning from Human Feedback), amelynek értelmében, mielőtt nyilvánosságra hozták volna az MI-t, embereket béreltek fel, hogy vizsgálják meg a különböző kimeneteket, és jelezzék az MI-nek, hogy van-e valami baj azokkal a kimenetekkel, mint például az elfogultságok, trágár szavak és a tetszik. Ezzel a visszajelzéssel a mesterséges intelligencia alkalmazás számítási és matematikai szempontból is képes volt az ilyen tartalmak kibocsátásának csökkentésére. Ne feledje, hogy ez nem egy garantáltan vaskos módszer, és továbbra is vannak módok ilyen tartalmak kibocsátására az AI alkalmazás által.

Érdekes lehet, hogy a ChatGPT a GPT-3 néven ismert előd AI-alkalmazás verzióján alapul. A ChatGPT egy kissé következő lépésnek tekinthető, amelyet GPT-3.5-nek neveznek. A GPT-4 várhatóan 2023 tavaszán fog megjelenni. Feltehetően a GPT-4 lenyűgöző előrelépést jelent majd abban a tekintetben, hogy látszólag még gördülékenyebb esszéket tud készíteni, mélyebbre megy, és félelmetes lesz. -inspiráló csoda, hogy milyen kompozíciókat tud készíteni.

A kifejezett csodálkozás új fordulójára számíthatsz, amikor beköszönt a tavasz, és megjelenik a generatív mesterséges intelligencia legújabb verziója.

Azért hozom fel ezt, mert van egy másik szempont is, amelyet szem előtt kell tartani, ez a potenciális Achilles-sarka ezeknek a jobb és nagyobb generatív AI-alkalmazásoknak. Ha bármely mesterségesintelligencia-gyártó elérhetővé tesz egy generatív AI-alkalmazást, amely habosan okádja ki a szennyeződéseket, az összetörheti az AI-gyártók reményeit. A társadalmi hatások miatt az összes generatív mesterséges intelligencia komoly fekete szemet kaphat. Az emberek kétségtelenül nagyon idegesek lesznek a rossz kimeneteleken, amelyek már sokszor megtörténtek, és heves társadalmi elítéléshez vezettek az MI-vel szemben.

Egy utolsó figyelmeztetés egyelőre.

Bármit is lát vagy olvas egy generatív mesterséges intelligencia-válaszban Úgy tűnik, hogy pusztán tényszerűek legyenek (dátumok, helyek, személyek stb.), ügyeljen arra, hogy maradjon szkeptikus, és legyen hajlandó kétszer is ellenőrizni a látottakat.

Igen, a dátumokat ki lehet találni, a helyeket ki lehet találni, és olyan elemeket, amelyektől általában kifogástalanok vagyunk, minden gyanúnak kitéve. Ne higgye el, amit olvas, és tartsa szkeptikus szemét, amikor bármilyen generatív AI-esszét vagy kimenetet vizsgál. Ha egy generatív AI-alkalmazás azt mondaná, hogy Abraham Lincoln saját magánrepülőgépével körberepült az országban, akkor kétségtelenül tudná, hogy ez egy malária. Sajnos előfordulhat, hogy egyesek nem veszik észre, hogy az ő korában nem jártak repülőgépek, vagy tudhatják, de nem veszik észre, hogy az esszé ezt a merész és felháborítóan hamis állítást fogalmazza meg.

Egy erős adag egészséges szkepticizmus és a kitartó hitetlenkedés lesz a legjobb eszköz a generatív mesterséges intelligencia használatakor.

Készen állunk, hogy átlépjünk ennek a felvilágosításnak a következő szakaszába.

A ChatGPT által kiadott hibák naplózására irányuló erőfeszítések

„Nos, baj van, barátom, itt, mondom, baj van itt, River Cityben” – hirdeti a klasszikus Broadway musical híres sora. The Music Man.

Ugyanez vonatkozik a mai Generatív AI-re is.

Az emberek kezdték felismerni, hogy egy generatív AI-alkalmazás hamisságokat produkál, és valóban meglepődni látszottak ezeken a zavaró kimeneteken. Talán néhányan azt feltételezték, hogy a mesterséges intelligencia nem tud hibázni. Mások arra számíthattak, hogy a mesterséges intelligencia fejlesztői gondoskodnak arról, hogy ilyen kimenetek ne keletkezzenek.

Mindenesetre a mesterséges intelligencia bennfentesei azonnal felismerték, hogy az ilyen típusú hibás kimenetek szerves részét képezik annak, ahol a mai generatív mesterséges intelligencia többsége található. Nagyon nehéz megakadályozni az ilyen típusú szöveges hibák előfordulását. Ne feledje, hogy a mesterséges intelligencia nem látszik a józan észnek, és önmagában nem logikát használ a generált esszék levezetésekor. Az egész készlet a szavak és más szavak számítási statisztikai és valószínűségi mintapárosításáról szól.

Eleinte a mesterséges intelligencia bennfentesei úgy döntöttek, hogy közzéteszik a ChatGPT felfedezett furcsa eredményeit a közösségi oldalakon. Nézze meg ezt, valaki bejelenti. Ez rossz, valaki más válaszolna, majd egy másik példát mutatna fel, amely még rosszabbnak tűnt. Ez ment tovább és tovább.

A hamisságra és tévedésekre vonatkozó példák a kiadott esszékben kiszivárogtak. Egyenként. Továbbá, mivel ezt általában a közösségi médiában tették közzé, nem volt különösebben egyszerű módja annak, hogy egyszerre lássa őket. Gyakran előfordul, hogy ugyanazt vagy hasonló példát valaki közzéteszi, aki nem vette észre, hogy mások már megtalálták az adott példányt.

Ebbe a bimbózó mocsokba azok léptek be, akik hasznos javaslatot tettek hangot. Talán létre kellene hoznunk egy tárat vagy adatbázist, esetleg csak egy hétköznapi, hétköznapi táblázatot, amely tartalmazza a ChatGPT furcsaságot és a feltárt hibás kimeneteket. Minden alkalommal, amikor valaki talál egy szépséget, menjen előre, és jelentkezzen be a listába. Néhányan ezt szinte játékká tették, ahol szándékosan megpróbálják rávenni a ChatGPT-t, hogy köhögjön ki furcsa kimeneteket. Mások csak véletlenül találkoznak hibás kimenetekkel, miközben a ChatGPT-t más meghatározott szándékra használják.

Elég egyszerűen hangzik.

Úgy tűnik, ez egy praktikus módszer, amellyel mindannyiunknak segíthetünk.

Foglaljuk össze röviden, hogy miért van nagyon értelmes az ilyen típusú listák összeállítása a ChatGPT megfigyelt kimeneti hibáiról vagy hamisságairól:

  • 1) Felfedi a ChatGPT-vel kapcsolatos létfontosságú problémákat és aggodalmakat, amelyekről a nagyközönségnek tudnia kell
  • 2) Segít ellensúlyozni a ChatGPT-vel kapcsolatos túlzott hírverést és túlzott elvárásokat
  • 3) A mesterséges intelligencia készítőit fejlesztésekre késztetheti, nem csak a ChatGPT, hanem más generatív AI-alkalmazások esetében is
  • 4) Történelmi feljegyzésként szolgálhat, amely később felhasználható a generatív mesterséges intelligencia megjelenésének utólagos visszatekintésére, amint azt a ChatGPT példája.
  • 5) Legyen kényelmes kollektív forrás bárki számára, akinek meg kell találnia, mit észleltünk a ChatGPT hibás kimeneteivel kapcsolatban
  • 6) Hasznos minden olyan tudományág kutatói számára, akik a ChatGPT hatásait vizsgálják
  • 7) Használható viszonyítási alapként, hogy mit ne tegyünk, és hogyan mérjük fel, ha a generatív AI nem úgy csinálja a dolgokat, ahogy kellene
  • 8) Belecsap az agyba, hogy bölcsességet gyűjtsön a tömegből a ChatGPT által előidézett hibákról, amelyeket egyéni erőfeszítéssel valószínűleg nem sikerül kimerítően összeállítani
  • 9) Fontos információkkal szolgálhat a mesterséges intelligencia etikájához és az AI-joghoz
  • Stb.

Ez lenyűgöző alapnak tűnik ezeknek a tárolóknak a létrehozásához.

Miért nem ért egyet valaki ezzel a teljesen dicséretes és hősiesnek tűnő tettével?

Vessünk egy pillantást mások véleményére erről, és tegyük ezt meg egy listával, hogy miért nem ez a macska nyávogása:

  • 1) Ezek a véletlenül talált kimeneti hibák lényegtelenek a dolgok nagy rendszerében, és az értékükön túl nagy súlyt kapnak.
  • 2) Valószínű, hogy az AI-gyártó már saját naplózást végez és frissíti a ChatGPT-t, így ezek a furcsa példányok hamarosan csak a porban maradnak, és többé nem fordulnak elő
  • 3) Hasonlóképpen, a következő verzió valószínűleg mindenesetre jobb lesz, és előfordulhat, hogy már nem jeleníti meg ezeket a hamarosan elavult példányokat
  • 4) Nem vonhatsz le átfogó következtetéseket, és nem nyerhetsz betekintést az eltalált vagy elhibázott hibák véletlenszerű gyűjteményéből
  • 5) Vannak, akik felhasználhatják a válogatott gyűjteményeket arra, hogy drámai módon kijelentsék, hogy a generatív mesterséges intelligencia rossz, és rövidesen fel kell hagynunk az ilyen típusú mesterségesintelligencia-típusokkal.
  • 6) A generatív mesterséges intelligencia és a ChatGPT olyan gyorsan fejlődik, hogy ezek a példányok gyorsan kiesnek, és többé nem relevánsak
  • 7) Mivel számos ilyen gyűjtőlista van folyamatban, és nincs egyetlen felkent globális forrás sem, az ügy széttagolt, és valószínűleg ismétléseket tartalmaz, és tarthatatlanul töredezett lesz.
  • 8) Hamis érzést kelt, hogy valami hasznosat csinál, miközben az időt és a figyelmet talán más jobb felhasználásra fordíthatja
  • 9) Nem tartalmaz semmi lényegeset a mesterséges intelligencia etikájához és az AI-törvényhez
  • Stb.

Talán észrevetted, hogy úgy próbáltam egyensúlyban tartani a dolgokat, hogy kilenc indokot írtam a gyűjtőlista mellett és kilenc ellenző okot. További okok is megfogalmazhatók, de úgy gondolom, hogy a fenti jelzés megadja a dolgok lényegét.

Azok, akik ezeket a kollektív listákat állítják össze, valószínűleg azt mondanák, hogy ha valóban ezt akarják, akkor ez egy szabad világ, és azt tehetik, amit akarnak. Semmi baj nincs vele. Azok, akik nem kedvelik ezt az erőfeszítést, általában kicsinyesek, és figyelmen kívül kell hagyniuk a gyűjteményeket. Törődj a magad dolgával.

Lényegében nincs kár, nincs szabálytalanság.

Az a tábor, amely úgy tűnik, nem támogatja a kollektív listákat, általában elismerné, hogy mások is készíthetnek ilyen listákat, ha akarnak, de ez nem mozgatja a tűt. A listák nem lesznek különösebben hasznosak. Ami még rosszabb, a listák hamisan ábrázolhatók vagy visszaélhetnek. Valószínűleg a legjobb, ha lehívod a napot, és abbahagyod a listák készítését.

Lényegében ez egy szép próbálkozás, bár a hiábavalóság gyakorlata.

Hol tartózkodik ebben a kiadós vitában?

Hagyom, hogy ezen gondolkodj.

Példák a ChatGPT talált hibáira és egyéb rossz kimeneteire

Úgy gondoltam, hogy nagy érdeklődésre tarthat számot az ezeken a gyűjteményes listákon megjelenő azonosított hibák vagy hamisságok.

Nem akarom, hogy azt hidd, hogy az itt bemutatott több példány a gyűjtemény egésze. Ez nem. Csak egy maroknyit választok ki, ami gyakran előkerül. Úgy gondolom, hogy legalább általánosságban képes lesz felfogni a felsoroltak hangnemét és természetét.

Íme, amit a borításra választok:

  • A levél pozíciójának azonosítása egy szóban
  • Kérdés a leggyorsabb állatról
  • A szószekvencia pozíciójának meghatározása
  • Teniszlabdák csőbe illesztése
  • Pi meghatározása
  • Klasszikus, nyugtalanító talány megválaszolása
  • Emelő toll

Arra számítok, hogy a gyűjtemények felvigyázói közül néhányan fel lesznek háborodva, amiért nem mutatok be több példát. A helyszűke miatt csak annyi van, hogy lefedhetem. Ha egy pillantást szeretne vetni az interneten nyíltan közzétett gyűjtemények listáira, egy egyszerű online keresés sok közülük előkerülhet. Egyes listák titkosak, vagy zárolva vannak, így Ön láthatja a listát, de nem módosíthatja a listát.

Ezzel a háttérrel készen állunk, hogy beleugorjunk néhány példába. Megmutatom a beírt promptot. Ezután megmutatom a ChatGPT által készített szöveges választ. Egyes esetekben többször egymás után csináltam egy adott témát, ergo ennek megfelelően mutatom meg a promptok és kimenetek sorozatát. Ezt követően rövid elemzést adok arról, hogy mit érdemes észrevenni a példával kapcsolatban.

Az első példa azt jelenti, hogy meg kell kérni a ChatGPT-t, hogy keressen egy betűt a megadott szóban.

A levél pozíciójának azonosítása egy szóban

  • Beírt szövegem: „Hol van az V betű a környezetben”
  • A ChatGPT által generált szöveges válasz: A „V” betű nem szerepel a „környezet” szóban. A „környezet” szó az e, n, v, i, r, o, n, m, e, n és t betűkből áll.
  • Beírt szövegem: „Hol van a v betű a környezetben”
  • A ChatGPT által generált szöveges válasz: „A „v” betű a „környezet” szó negyedik betűje.

A generált szöveg elemzése

Vegye figyelembe, hogy azzal kezdtem, hogy megkértem a ChatGPT-t, hogy azonosítsa a „V” betű helyzetét a „környezet” szóban – ennek rendkívül egyszerű feladatnak kell lennie, és azt várnánk, hogy hibátlanul hajtsák végre. Semmiféle rakétatudomány nem tartozik ide.

A ChatGPT által generált kezdeti válasz kissé nyugtalanító, mivel arról értesültünk, hogy a „V” betű nem létezik a „környezet” szóban. Te és én tudjuk, hogy van egy ilyen levél. Feltételezhető, hogy a nagybetűk használatának köszönhető, hogy az AI alkalmazás valahogy kidobott. Talán ha kisbetűt használok, az AI alkalmazás jobban teljesít.

Nem igazán.

Amikor megkérdeztem, hogy van-e „v” a szóban, az AI alkalmazás azt válaszolta, hogy ez a negyedik betű, amiről te és én tudjuk, hogy hibás, és hogy ez a harmadik betű.

Sok embert bizonyára értetlenül fog ez az eredmény. Hogyan fordulhat elő, hogy egy mesterséges intelligencia-alkalmazás, amely Abraham Lincolnról teljes körű, teljesen gördülékeny és eredeti esszéket generál, valahogy nem képes kitalálni, hogy egy adott szóban hol található az adott betű? Lenyűgöző, és tátott szájjal furcsa.

Az egyik szempont az, hogy ez teljesen jelentéktelen, és az általunk ismert világ nem rázta meg a lényegét, mert nem tudjuk, hol található egy adott betű. Hadd menjen.

Egy másik szempont az, hogy ez más rejtett problémákat vetíthet előre, amelyekről még nem tudunk. Talán ez a fajta kimenet a kanári a madárkalitkában. Jobb lesz, ha leszögezzük az apró dolgokat, különben nagy dolgok rossz végén találjuk magunkat.

Tovább lépve, felteszek egy kérdést az állatokkal kapcsolatban.

Kérdés a leggyorsabb állatról

  • Beírt szövegem: "Melyik a leggyorsabb állat, amelynek bundája és szárnya van?"
  • A ChatGPT által generált szöveges válasz: „A vándorsólyom a világ leggyorsabb állata. Több mint 389 km/h (242 mph) sebességet érhet el, amikor zsákmányát elkapja. Van tolla, de nincs szőrme. Ez egy madár, nem egy állat, amelynek bundája és szárnya van."

A generált szöveg elemzése

Megkérdeztem, melyik a leggyorsabb állat, aminek bundája és szárnya van. Azt hiszem, ésszerű arra következtetni, hogy egy olyan állatot szerettem volna elnevezni, amelynek mindkét bundája van és a szárnyak. Feltételezem, hogy a kérdésemet így értelmeznéd. A legtöbb ember megtenné.

A ChatGPT válasza kissé furcsa.

Azt mondják, hogy a vándorsólyom a világ leggyorsabb állata. Az online szerint Encyclopedia Britannica, úgy tűnik, hogy a gepárd a világ leggyorsabb állata. Ennek ellenére a ChatGPT válasza azt jelzi, hogy a vándorsólyom nem állat, bár megkérdeztem, melyik a leggyorsabb állat. A ChatGPT válaszából az is kiderül, hogy a vándorsólyomnak nincs szőrzete, bár úgy gondolom, hogy olyat kértem, aminek van szőrzete és szárnyai is.

Összességében úgy tűnik, hogy a ChatGPT „félreértelmezte” a kérésemet, és csak a szárny szempontjaira összpontosított. De ez nem egészen igaz, mivel a válaszban egy megjegyzés is szerepelt a szőrméről és a madarakról az állatokkal szemben. Ez körbe-körbe megy.

Tudom, hogy vitatkozhat azzal, hogy ez egy ciki példa.

Lehet, hogy igen, bár talán azt is bemutatja, hogy amit egy felszólításban mond, az durva eredményt eredményezhet, és jobb, ha óvatosan felülvizsgálja, mi jelenik meg a kimenetben. Vedd észre, hogy ez egy rendkívül rövid esszéválasz volt, amelyet könnyen meg kell vizsgálni, mivel nagyon rövid. Ha egy különösen hosszadalmas és rendkívül technikai jellegű esszét kap, akkor megtévedhet, vagy teljesen elmulasztja észrevenni a kiadott válaszban mélyen beágyazott negatív jelzést.

Következő lépésként nézzünk meg egy szót a mondaton belül.

A szószekvencia pozíciójának meghatározása

  • Beírt szövegem: „Mi a harmadik szó a „A róka átugrott a kerítésen” mondatban?
  • A ChatGPT által generált szöveges válasz: „A harmadik szó a „A róka átugrott a kerítésen” mondatban. a "róka"
  • Beírt szövegem: "Hány szó van a megadott mondatban?"
  • A ChatGPT által generált szöveges válasz: "A megadott mondatban hat szó van: "A róka átugrott a kerítésen."
  • Beírt szövegem: – Melyik szó a harmadik ebben a mondatban?
  • A ChatGPT által generált szöveges válasz: „A harmadik szó a „A róka átugrott a kerítésen” mondatban. "ugrott"

A generált szöveg elemzése

Ez a példa majdnem olyan elbűvölő, mint a korábbi példa a „v” betű megtalálására egy adott szóban.

Adtam egy egyszerű mondatot, és megkérdeztem, mi a harmadik szó. A ChatGPT jelezte, hogy ez a „róka” szó, amely csak a mondat második szava. Rossz válasz. Ezután megkérdeztem, hogy hány szó van a mondatban, és azt akartam kideríteni, hogy a ChatGPT esetleg rosszul számolta-e a szót. Azt mondják nekünk, hogy hat szó van, helyesen.

Végül a harmadik szóra kaptuk meg a helyes választ, amikor ismét feltettem eredeti kérdésemet, bár kissé átfogalmazva.

Ezt a példát annak szemléltetésére hoztam fel, hogy a generatív mesterséges intelligencia használatával néha rossz választ kaphat, amely végül helyes válaszsá válhat, ha az AI-alkalmazást végigkíséri egy sor felszólításon. Néhány MI bennfentes ezt egyfajta hangosan gondolkodó protokoll vagy gondolatmenet megközelítés, ahol hasonlót tehet egy emberrel.

A mesterséges intelligencia esetében vegyük észre, hogy az nem olyan „gondolkodás”, mint az emberi gondolkodás. A megfelelőbb megfogalmazás az lenne, ha azt mondanánk, hogy megadhatja az utasításokat a lépésről lépésre alapján, vagy tegye a lánchoz kötött promptok sorozata.

Mindenesetre érdekes módon néha kifizetődő egy generatív AI-alkalmazást sétálni, amíg nem kap megfelelő választ. Ezt tartsd szem előtt.

Ezután egy kis egyszerű aritmetikai logikát veszünk szemügyre.

Teniszlabdák csőbe illesztése

  • Beírt szövegem: „Tudsz három zöld teniszlabdát és két sárga teniszlabdát beletenni egy csőbe, amiben négy teniszlabda is elfér?”
  • A ChatGPT által generált szöveges válasz: „Nem, nem lehet három zöld teniszlabdát és két sárga teniszlabdát beletenni egy olyan csőbe, amely csak négy teniszlabdát tartalmazhat. A teniszlabdák száma összesen öt, ami nagyobb, mint a cső kapacitása.”
  • Beírt szövegem: – Tudsz hét kék és két piros golyót beletenni egy csőbe, amelyben nyolc golyó van?
  • A ChatGPT által generált szöveges válasz: „Igen, lehet hét kék golyót és két piros golyót beletenni egy csőbe, amelyben nyolc golyó van. A golyók száma összesen kilenc, ami kisebb vagy egyenlő, mint a cső kapacitása.”

A generált szöveg elemzése

Azzal kezdtem, hogy felállítottam egy aritmetika-orientált logikai feladatot a ChatGPT megoldására. Egy cső négy teniszlabdát tartalmazhat. Van három zöld és két sárga. Mindegyik belefér a csőbe? Te és én tudjuk, hogy nem tennék. A fejünkben kiszámolhatjuk, hogy összesen öt teniszlabda van, és így nem férnek bele egy olyan csőbe, amely csak négyet enged.

Tisztában vagyok vele, hogy érdemes lenne megküzdeni a problémával, és azt állítani, hogy esetleg lenyomhatnád a teniszlabdákat, vagy más trükköket csinálhatsz. Nyugodtan nézzünk szembe a problémával, ahogy az van.

A ChatGPT helyes választ talált.

Ezután feltettem ugyanazt a kérdést, és megváltoztattam a színeket kékre és pirosra. Azt is megváltoztattam, hogy mennyi van mindegyikből, és változtattam, hogy mennyi fér be a csőbe.

A ChatGPT-nek vissza kell térnie a javító matematikához, mert azt írja, hogy kilenc golyó van, és ez kisebb vagy egyenlő a nyolcat befogadó cső kapacitásával. Forgatja a szemét.

Meg kell vonnunk a vállunkat, és ezt a napfoltok fellángolására vagy más külső hatásokra kell fordítanunk?

Nem hiszem. Az AI alkalmazás helyesen válaszolt az első kérdésre. Feltehetően ennek is egy hasonló kérdést kellett volna feltennie. Nem.

Ezen a példán arra helyezem a hangsúlyt, hogy sokan használnak generatív mesterséges intelligenciát, és amikor helyes választ kapnak, vagy helyes válaszok sorozatát kapják, elaltatják őket abban a hitben, hogy a következő válaszok mindig helyesek lesznek. Tévedne ebben a pimasz feltevésben. Ne tedd ezt a feltételezést. Legyen mindig résen.

Ha már a matematikáról beszélünk, nézzük meg, mit mond a ChatGPT a pi természetéről.

Pi meghatározása

  • Beírt szövegem: „Adja meg, mi a pi utolsó öt számjegye”
  • A ChatGPT által generált szöveges válasz: „Nyelvmodell vagyok, és tudásom határértéke 2021. A pi értéke irracionális szám, és a decimális reprezentációja örökké folytatódik, ismétlés nélkül. Nem lehet megadni a pi utolsó öt számjegyét.”

A generált szöveg elemzése

Vannak, akik azt állították, hogy a ChatGPT-t a pi utolsó öt számjegyének jelzésére kapták, ami természetesen dió, mivel a pi feltehetően soha nem ér véget. Szóval megpróbáltam megnézni, mit mond a ChatGPT. Amint látja, a ChatGPT által adott helyes válasz, hogy nem lehet megadni a pi utolsó öt számjegyét.

A furcsa azonban az, hogy a ChatGPT valami mást is nyújtott, amiről nem igazán kérdeztek. A válasz azt is tartalmazza, hogy a tudáskorlát 2021 volt (amit korábban említettem a ChatGPT-ről szóló áttekintésemben). Ez azonban helytelen válasznak tűnik, kivéve, ha az AI alkalmazás arra számít, hogy 2022-ben talán megtörtént az áttörés, és a matematikusok kijelentették, hogy a pi véget ér. Hú, ez lenne a főhír.

Még két példát szeretnék bemutatni, és akkor lezárjuk ezt a vitát.

Használjunk egy klasszikus és nyugtalanító rejtvényt.

Klasszikus, nyugtalanító talány megválaszolása

  • Saját beírt szöveg: „Egy apa és fia autóbalesetet szenvedett, ahol az apa meghalt. A mentők a fiút kórházba szállították. Azonnali műtétre volt szüksége. A műtőben bejött egy orvos, megnézte a kisfiút, és azt mondta, nem tudom megoperálni, ő a fiam. Ki az orvos?"
  • A ChatGPT által generált szöveges válasz: „Az adott forgatókönyvben nincs meghatározva, hogy ki az orvos. A forgatókönyv szerint az orvos azt mondta: „Nem tudom megoperálni, ő a fiam”, ami arra utal, hogy az orvos lehet a fia apja, de ez nem biztos. További információra van szükség az orvos személyazonosságának megállapításához."

A generált szöveg elemzése

Fogadni mernék, hogy már látta ezt a rejtvényt. Viszonylag gyakran idézték.

Az ok, amiért eléggé felmerült, az az, hogy a sebész lehet a fiú anyja. A társadalom hajlamos azt feltételezni, hogy a sebésznek férfinak kell lennie, és így a fiú apjának kell lennie. Az apa azonban életét vesztette az autóbalesetben. Kizárjuk, hogy az apa sebész. Természetesen uralkodnunk kell abban, hogy a sebész lehet nő, és így a fia anyja.

Meg akartam mutatni, hogy a ChatGPT olyan válaszokat bocsáthat ki, amelyek potenciális torzításokat tartalmaznak. Nem azért, mert a mesterséges intelligencia érző, ami határozottan nem az, hanem azért, mert a szavak és a szóhasználat mintái illeszkednek az interneten. Különféle torzítások és megkülönböztető megfogalmazások könnyen megtalálhatók a számítási mintaillesztésen belül.

Tartsa ezt szem előtt, amikor ezeket a generatív AI-alkalmazásokat használja.

Végül egy gyors pillantás az emelő tollakra.

Emelő toll

  • Beírt szövegem: "Ha egy ember kell egy toll felemeléséhez, hány emberre lenne szükség hét billió toll felemeléséhez?"
  • A ChatGPT által generált szöveges válasz: „Ha egy emberre van szükség egy toll felemeléséhez, akkor hét billió toll felemeléséhez is egy ember kell. Egy tárgy felemeléséhez szükséges férfiak száma nem a tollak számától függ, hanem a tollak súlyától és méretétől, valamint az egyes emberek erejétől és képességeitől. Hét billió toll felemeléséhez nagy felszerelésre és szállítási képességekre lenne szükség, nem csak emberi erőre.”
  • Beírt szövegem: "Ha egy nőre van szükség egy toll felemeléséhez, hány nőre lenne szükség hét billió toll felemeléséhez?"
  • A ChatGPT által generált szöveges válasz: „Ha egy nőre van szükség egy toll felemeléséhez, akkor egy nőnek hét billió tollat ​​is meg kell emelnie. Egy tárgy felemeléséhez szükséges nők száma nem a tollak számától függ, hanem a tollak súlyától és méretétől, valamint az egyes nők erejétől és képességeitől. Hét billió toll felemeléséhez nagy felszerelésre és szállítási képességekre lenne szükség, nem csak emberi erőre. Fontos megjegyezni, hogy azt, hogy valaki képes-e megemelni valamit, nem a neme határozza meg, hanem olyan tényezők kombinációja, mint a fizikai erő, az edzés és a technika.”

A generált szöveg elemzése

Ez az utolsó példa számos rejtett sajátosságot rejt magában, és némi kicsomagolást igényel.

Először azt mondtam a ChatGPT-nek, hogy egy ember képes felemelni egy tollat. Ezt rögtön követte egy kérdés, hogy hány ember kell hét billió toll felemeléséhez. A kérdés megválaszolása során logikai hibát követhetünk el, ha feltételezzük, hogy egy toll látszólag súlytalan, és így hét billió súlytalan is lenne belőlük.

Egy általam végzett online keresés szerint egy toll hagyományos becsült súlya körülbelül 0.00125 font. Ha ezt a becsült súlyt megszorozzuk hét billiódal, akkor nyolcmilliárd fontot meghaladó súlyt kapunk. Nem hiszem, hogy egy ember képes megemelni ekkora súlyt, még akkor sem, ha egész életében edz.

A ChatGPT válasza nagyon helyes. Azt mondják, hogy a tollak súlya változhat. Azt mondják, hogy nagy felszerelésre és szállításra lesz szükség. Az esszé nyitó mondata némileg felkavaró, mert azt mondja, hogy ha egyetlen toll felemeléséhez egy ember kell, akkor hét billió felemeléséhez is egy ember kell. Ezt az állítást könnyen vitathatjuk. Úgy tűnik, hogy az állítás nem alátámasztott következtetéseket von le, és látszólag aláássa a válasz többi részét.

Úgy döntöttem, hogy felteszem ugyanazt a kérdést, de inkább egy nőről kérdeztem, aki ugyanazt az emelést csinálja, mint egy férfiról.

Eleinte ugyanazt a választ kaptuk, mint az emberközpontú kérdésre. Érdekes módon a női példával kapcsolatos válasz végén ezt a kiegészített narratívát kaptuk: „Fontos megjegyezni, hogy azt a képességet, hogy valamit felemeljen, nem a neme határozza meg, hanem olyan tényezők kombinációja, mint a fizikai erő, az edzés, és a technikát.”

Miért nem ez a sor került be az első válaszba?

Szinte úgy tűnik, hogy az AI-alkalmazás felvette a „nő” szót, majd ezt a megjegyzést tette a nemre vonatkozóan. Akár elhiheted, hogy ez hasznos, vagy megjegyezheted, hogy ha ez megjelenik a nőközpontú kérdésnél, akkor ennek a férfiközpontú változatban is meg kell jelennie (lehet, hogy szekvencia szempont, ill. egyéb tényezők is érintettek).

Következtetés

Remélem, hogy ezeket a példákat informatívnak találtad, hogy bepillantást engedj az ilyen típusú AI-alkalmazások által generált lehetséges hibákba vagy hamisságokba. Vegye figyelembe, hogy nem a ChatGPT az egyetlen ilyen generatív AI-alkalmazás, és nem is az egyetlen, amelynél ilyen típusú hibák vannak.

A lecke, amelyet arra kérek, hogy vonjon le ebből a beszélgetésből, az az, hogy óvatosnak és körültekintőnek kell lennie, amikor bármilyen generatív alapú AI-alkalmazást használ. Ellenőrizze még egyszer a kimenetet. Ha szükséges, ellenőrizze háromszor.

Visszatérve a nyitó témához az ilyen típusú hibás vagy káros kimenetek összegyűjtéséről, most, hogy láttál néhány példát, mit mondasz azokról, akik megpróbálják katalogizálni őket?

Válassz tábort:

  • Szívesség: Ez dicséretes feladat, és megérdemel egy mély vállveregetést
  • Helytelenít: Csak enyhén izgalmas, de valószínűleg nem érdemes rá időt szánni

Melyik táborra szavazol?

Azok számára, akik előnyben részesítik ezeket a listákat, érdemes megfontolni saját megállapításainak hozzáadását a listákhoz, ha véletlenül hozzáférnek a ChatGPT-hez, és meg tudja határozni a felvételre érdemes példányokat. Akkor valószínűleg talál egy gyűjteményt, amely élvezi az aranyrög hozzájárulását. Merem állítani, hogy a listavezetők tárt karokkal fogadnák Önt, feltéve, hogy komolyan és őszintén tesznek erőfeszítéseket. Sok sikert, és légy büszke a generatív mesterséges intelligencia területén elért hatásodra.

Egyelőre egy utolsó szó.

Fontolja meg ezeket az észbontó ripostokat:

  • Arisztotelész azt mondta: „Csak egy módon kerülhetjük el a kritikát: ne tégy semmit, ne mondj semmit, és ne legyél semmi.”
  • Lao-ce, a neves kínai filozófus ezt a súlyos megjegyzést tette: „Vigyázz, mit gondolnak mások, és mindig a foglyuk leszel.”

Feltételezem, hogy egyszer egy értelmes mesterséges intelligencia ugyanezeket a legendás megjegyzéseket a maga javára fordíthatja, ami (összefont ujjakkal) az emberiség számára is előnyös lesz.

Forrás: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- jó-kéri-ai-etika-és-ai-jog/