"Ha igaz válaszokra van szüksége, ne használja"

cikk kép

Vladislav Sopov

A Ripple technológiai igazgatója és a decentralizált megoldás egyik megalkotója ismét bírálta a modern AI-eszközöket

tartalom

  • A ChatGPT válaszai csak úgy néznek ki, mint a helyes válaszok, mondja a Ripple műszaki igazgatója
  • A kriptográfiai szegmens elege van az AI-hype-ből?

David Schwartz híres mesterséges intelligencia-szkeptikus. Gyakran megosztja emlékeztetőit a mesterséges intelligencia által működtetett eszközök modern kialakításában való használatának lehetséges veszélyeiről. Most az AI használatának gyakorlatát kommentálta a bírósági dokumentumokkal való munka során.

A ChatGPT válaszai csak úgy néznek ki, mint a helyes válaszok, mondja a Ripple műszaki igazgatója

A mesterséges intelligencia által vezérelt chatbot A ChatGPT és a generatív mesterséges intelligencia programok mögött álló hasonló nagy nyelvi modellek (LLM-ek) olyan válaszokat adnak, amelyek nem igazak, de határozottan annak tűnnek. Mint ilyenek, nem használhatók „komoly” kérdésekre való igaz válaszok megtalálására.

Ezt a kijelentést Schwartz egy prominens ügyvéd, Steve Vladeck, Charles Alan Wright, a Texasi Egyetem Jogi Karának szövetségi bírósági elnökének elemzéséhez kommentálta. Vladeck példákat osztott meg a ChatGPT által generált hamisított bírósági ügyiratokra.

Az ügyvéd azt javasolta, hogy soha ne használjon ChatGPT-t vagy hasonló eszközöket jogi kutatásokhoz. Ezenkívül azt kérte, hogy ne próbálják meg hamis bírósági dokumentumokkal oktatni az LLM-eket.

Schwartzot leginkább a mesterséges intelligencia által generált hamis dokumentumok és a valódi dokumentumok közötti veszélyes hasonlóságok aggasztják. Még egy képzett kutató sem tudja megállapítani, melyik igaz:

A ChatGPT feladata, hogy olyan kimenetet adjon, amely a lehető legjobban hasonlít ahhoz a kimenethez, amelyet az adott kérdés általában megkap. Az, hogy valójában *igaz-e* abban az értelemben, hogy megfelel a való világ tényleges dolgainak, egyszerűen nem szempont.

Amint arról az U.Today korábban írt, Schwartz a ChatGPT hírverés első szakaszában aggodalmát fejezte ki a mesterséges intelligencia lehetséges veszélyeivel kapcsolatban.

Úgy vélte, hogy a közeljövőben az AI képes lesz élő felvételeket készíteni olyan terrortámadásokról, amelyek meg sem történtek.

A kriptográfiai szegmens elege van az AI-hype-ből?

Míg a mesterséges intelligencia-mánia elképesztő tömegeket váltott ki az alacsony kapitalizációjú altcoinokról, amelyeknek valahogy sikerült meghaladniuk az „AI narratívát”, nem mindenki lelkesedik érte a kriptográfia területén.

A DeFi elemzője és a Cinneamhain Ventures partnere, Adam Cochran felvételt nyer hogy számára az AI alkalmazása a kriptotechnológiai marketingstratégiákban 2023-ban „piros zászlónak” tűnik:

100%-ban eladom az insta piacon minden olyan tokenem, amely valamihez kapcsolódik az AI-térben. A trendhajszolás csak azt jelenti, hogy nem tudnak valódi terméket építeni

Az AI kriptográfiai és blokkláncra gyakorolt ​​hatása erősen túlértékesíthető. Amint azt az útmutatónkban bemutattuk, a mesterséges intelligencia által generált szövegek jók lehetnek az intelligens szerződések kódolási alapkészségeinek képzésére, de a ChatGPT válaszai túl homályosak és zavaróak a kriptográfiai kutatáshoz.

Például az XRP Ledger jellemzői részletesnek és pontosnak tűnnek, de valójában félrevezetőek lehetnek, és nem sokat adnak hozzá ehhez a blokklánchoz.

Forrás: https://u.today/ripple-cto-schwartz-on-ai-if-you-need-true-answers-dont-use-it