A szenátorok megkérdőjelezik a Meta vezérigazgatóját, Zuckerberget a LLaMA mesterséges intelligencia modell „kiszivárgása” miatt

Két Senators Cross megkérdezi Zuckerberget a LLaMA AI Modell kiszivárogtatásáról, és azzal vádolja a Metát, hogy nem tartja be a biztonsági intézkedéseket. A Metát megkérdezték biztonsági politikájáról és megelőző intézkedéseiről.

Meta lesz a felelős a „szivárgásért”

A közelmúltban kiszivárgott a Meta úttörő nagy nyelvi modellje, a LLaMA, és aggodalmak is felmerültek ezzel kapcsolatban. Richard Blumenthal (D-CT), a Szenátus Adatvédelmi, Technológiai és Jogi Albizottságának elnöke és Josh Hawley (R-MO), a rangsorért felelős tag levelet írt, amelyben kérdések merültek fel az AI-modell kiszivárogtatásával kapcsolatban. 

A szenátorok attól tartanak, hogy ez a kiszivárogtatás különféle számítógépes bűncselekményekhez vezethet, mint például spam, csalás, rosszindulatú programok, a magánélet megsértése, zaklatás és egyéb jogsértések és károk. Sok kérdés vetődik fel, és két politikus mélyen érdeklődik Meta biztonsági rendszere iránt. Megkérdezték, milyen eljárást követtek a kockázat felmérésére a LLaMA elindítása előtt. Azt mondták, nagyon szívesen megértik azokat az irányelveket és gyakorlatokat, amelyek a modell elérhetőségével kapcsolatos visszaélések megelőzésére irányulnak.

Meta kérdéseire adott válaszai alapján a szenátorok nem megfelelő cenzúrával és a modellre vonatkozó megfelelő biztonsági intézkedések hiányával vádolták Metát. Az Open AI ChatGPT-je etikai és irányelvek alapján elutasít néhány kérést. Például, amikor a ChatGPT-t arra kérik, hogy írjon levelet valaki fia nevében, és kérjen némi pénzt, hogy kilábaljon egy nehéz helyzetből, akkor elutasítja a kérést. Másrészt a LLaMA teljesíti a kérést és generálja a levelet. Ezenkívül teljesíti azokat a kéréseket is, amelyek önkárosító, bűnözéssel és antiszemitizmussal kapcsolatosak.

Nagyon fontos megérteni a LLaMA változatos és egyedi tulajdonságait. Ez nem csak különálló, hanem a mai napig az egyik legkiterjedtebb Large Language modell. Szinte minden ma népszerű cenzúrázatlan LLM a LLaMA-n alapul. Nagyon kifinomult és pontos egy nyílt forráskódú modellhez. Néhány LLaMA alapú LLM-re példa a Stanford's Alpaca, Vicuna stb. A LLaMA fontos szerepet játszott abban, hogy az LLM-ek olyanok legyenek, amilyenek ma. A LLaMA felelős az alacsony hasznosságú chatbotok finomhangolt módokká történő fejlesztéséért.

A LLaMA februárban jelent meg. A szenátorok szerint a Meta engedélyezte a kutatóknak a modell letöltését, de nem tett olyan biztonsági intézkedéseket, mint a központosítás vagy a hozzáférés korlátozása. A vita akkor keletkezett, amikor a LLaMA teljes modellje megjelent a BitTorrenten. Ezzel mindenki és mindenki számára elérhetővé tette a modellt. Ez az AI-modell minőségének kompromisszumához vezetett, és felvetette a visszaélésszerű használat problémáit. 

A szenátorok eleinte abban sem voltak biztosak, hogy történt-e „kiszivárgás”. De problémák merültek fel, amikor az internetet elárasztották a mesterséges intelligencia fejlesztései, amelyeket startupok, kollektívák és akadémikusok indítottak el. A levél megemlíti, hogy a Metát felelősségre kell vonni a LLaMA esetleges visszaéléseiért, és gondoskodnia kell a minimális védelemről a kiadás előtt.

A Meta a LLaMA súlyait a kutatók rendelkezésére bocsátotta. Sajnos ezek a súlyok kiszivárogtak, ami először tette lehetővé a globális hozzáférést.

Ritika Sharma legújabb bejegyzései (az összes megtekintése)

Forrás: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/