A Ripple technológiai igazgatója és a decentralizált megoldás egyik megalkotója ismét bírálta a modern AI-eszközöket
tartalom
- A ChatGPT válaszai csak úgy néznek ki, mint a helyes válaszok, mondja a Ripple műszaki igazgatója
- A kriptográfiai szegmens elege van az AI-hype-ből?
David Schwartz híres mesterséges intelligencia-szkeptikus. Gyakran megosztja emlékeztetőit a mesterséges intelligencia által működtetett eszközök modern kialakításában való használatának lehetséges veszélyeiről. Most az AI használatának gyakorlatát kommentálta a bírósági dokumentumokkal való munka során.
A ChatGPT válaszai csak úgy néznek ki, mint a helyes válaszok, mondja a Ripple műszaki igazgatója
A mesterséges intelligencia által vezérelt chatbot A ChatGPT és a generatív mesterséges intelligencia programok mögött álló hasonló nagy nyelvi modellek (LLM-ek) olyan válaszokat adnak, amelyek nem igazak, de határozottan annak tűnnek. Mint ilyenek, nem használhatók „komoly” kérdésekre való igaz válaszok megtalálására.
Emlékeztetőül, hogy a ChatGPT és más LLM generatív AI programok a megfelelő válaszokat adják. Ez nem jelenti azt, hogy ők * a helyesek. Ha olyan válaszokra van szüksége, amelyek nem csak jól néznek ki, hanem valójában *igazak*, ne használjon generatív AI-t! https://t.co/MdZhCrik7d
- David "JoelKatz" Schwartz (@JoelKatz) May 27, 2023
Ezt a kijelentést Schwartz egy prominens ügyvéd, Steve Vladeck, Charles Alan Wright, a Texasi Egyetem Jogi Karának szövetségi bírósági elnökének elemzéséhez kommentálta. Vladeck példákat osztott meg a ChatGPT által generált hamisított bírósági ügyiratokra.
Az ügyvéd azt javasolta, hogy soha ne használjon ChatGPT-t vagy hasonló eszközöket jogi kutatásokhoz. Ezenkívül azt kérte, hogy ne próbálják meg hamis bírósági dokumentumokkal oktatni az LLM-eket.
Schwartzot leginkább a mesterséges intelligencia által generált hamis dokumentumok és a valódi dokumentumok közötti veszélyes hasonlóságok aggasztják. Még egy képzett kutató sem tudja megállapítani, melyik igaz:
A ChatGPT feladata, hogy olyan kimenetet adjon, amely a lehető legjobban hasonlít ahhoz a kimenethez, amelyet az adott kérdés általában megkap. Az, hogy valójában *igaz-e* abban az értelemben, hogy megfelel a való világ tényleges dolgainak, egyszerűen nem szempont.
Amint arról az U.Today korábban írt, Schwartz a ChatGPT hírverés első szakaszában aggodalmát fejezte ki a mesterséges intelligencia lehetséges veszélyeivel kapcsolatban.
Úgy vélte, hogy a közeljövőben az AI képes lesz élő felvételeket készíteni olyan terrortámadásokról, amelyek meg sem történtek.
A kriptográfiai szegmens elege van az AI-hype-ből?
Míg a mesterséges intelligencia-mánia elképesztő tömegeket váltott ki az alacsony kapitalizációjú altcoinokról, amelyeknek valahogy sikerült meghaladniuk az „AI narratívát”, nem mindenki lelkesedik érte a kriptográfia területén.
A DeFi elemzője és a Cinneamhain Ventures partnere, Adam Cochran felvételt nyer hogy számára az AI alkalmazása a kriptotechnológiai marketingstratégiákban 2023-ban „piros zászlónak” tűnik:
100%-ban eladom az insta piacon minden olyan tokenem, amely valamihez kapcsolódik az AI-térben. A trendhajszolás csak azt jelenti, hogy nem tudnak valódi terméket építeni
Az AI kriptográfiai és blokkláncra gyakorolt hatása erősen túlértékesíthető. Amint azt az útmutatónkban bemutattuk, a mesterséges intelligencia által generált szövegek jók lehetnek az intelligens szerződések kódolási alapkészségeinek képzésére, de a ChatGPT válaszai túl homályosak és zavaróak a kriptográfiai kutatáshoz.
Például az XRP Ledger jellemzői részletesnek és pontosnak tűnnek, de valójában félrevezetőek lehetnek, és nem sokat adnak hozzá ehhez a blokklánchoz.
Forrás: https://u.today/ripple-cto-schwartz-on-ai-if-you-need-true-answers-dont-use-it