Így tervezi az OpenAI megtisztítani a ChatGPT-t a hamis információktól

Az OpenAI május 31-én jelentette be a ChatGPT matematikai problémamegoldó képességeinek fejlesztésére irányuló erőfeszítéseit, amelyek célja a mesterséges intelligencia (AI) hallucinációinak visszaszorítása. Az OpenAI hangsúlyozta, hogy a hallucinációk enyhítése kulcsfontosságú lépés az összehangolt AGI fejlesztése felé.

Márciusban a ChatGPT legújabb verziójának, a GPT-4-nek a bevezetése tovább lendítette a mesterséges intelligenciát a fősodorba. A generatív AI chatbotok azonban régóta küzdenek a tények pontosságával, és időnként hamis információkat generálnak, amelyeket általában „hallucinációknak” neveznek. A mesterséges intelligencia hallucinációinak csökkentésére irányuló erőfeszítéseket a webhelyükön közzétett bejegyzésben jelentették be.

A mesterséges intelligencia hallucinációi azokra az esetekre utalnak, amikor a mesterséges intelligencia rendszerek tényszerűen hibás, félrevezető vagy valós adatokkal nem alátámasztott kimeneteket generálnak. Ezek a hallucinációk különféle formákban nyilvánulhatnak meg, például hamis információk generálásával, nem létező események vagy emberek kitalálásával vagy pontatlan adatok megadásával bizonyos témákról.

Az OpenAI kutatást végzett kétféle visszacsatolás – az „eredményfelügyelet” és a „folyamatfelügyelet” – hatékonyságának vizsgálatára. Az eredményfelügyelet a végeredményen alapuló visszacsatolást foglalja magában, míg a folyamatfelügyelet a gondolati lánc minden lépéséhez ad inputot. Az OpenAI matematikai feladatok segítségével értékelte ezeket a modelleket, több megoldást generált, és az egyes visszacsatolási modelleknek megfelelően kiválasztotta a legmagasabb rangú megoldást.

Alapos elemzést követően a kutatócsoport megállapította, hogy a folyamatfelügyelet kiváló teljesítményt nyújtott, mivel arra ösztönözte a modellt, hogy az ember által jóváhagyott folyamathoz ragaszkodjon. Ezzel szemben az eredményfelügyeletet nagyobb kihívásnak bizonyult a következetes vizsgálat.

Az OpenAI felismerte, hogy a folyamatfelügyelet következményei túlmutatnak a matematikán, és további vizsgálatokra van szükség a különböző területeken gyakorolt ​​hatások megértéséhez. Kifejezte annak lehetőségét, hogy ha a megfigyelt eredmények tágabb összefüggésekben igazak, akkor a folyamatfelügyelet a teljesítmény és az összehangolás kedvező kombinációját kínálhatja az eredményfelügyelethez képest. A kutatás megkönnyítése érdekében a vállalat nyilvánosan közzétette a folyamatfelügyelet teljes adatállományát, felkutatva és tanulmányozva ezen a területen.

Kapcsolódó: Az AI-igény rövid időre az Nvidiát 1T dolláros klubba katapultálja

Bár az OpenAI nem közölt olyan explicit eseteket, amelyek a hallucinációk kivizsgálását ösztönözték volna, két közelmúltbeli esemény a valós forgatókönyvekben példázta a problémát.

Egy közelmúltbeli incidensben Steven A. Schwartz ügyvéd a Mata kontra Avianca Airlines ügyben elismerte, hogy a chatbotra támaszkodik kutatási forrásként. A ChatGPT által szolgáltatott információk azonban teljesen kitaláltnak bizonyultak, ami rávilágított a szóban forgó problémára.

Az OpenAI ChatGPT-je nem az egyetlen példa arra, hogy a mesterséges intelligencia rendszerek hallucinációkkal találkoznak. A Microsoft mesterséges intelligencia a chatbot technológiájának márciusi bemutatója során megvizsgálta a bevételi jelentéseket, és pontatlan adatokat generált az olyan vállalatoknál, mint a Gap és a Lululemon.

Magazin: 25 XNUMX kereskedő fogad a ChatGPT tőzsdei választásaira, a mesterséges intelligencia szívja a kockadobásokat, és így tovább

Forrás: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information