A mesterséges intelligencia által generált szoftvercsomagok biztonsági fenyegetést jelentenek

Bar Lanyado biztonsági szakértő a közelmúltban végzett néhány kutatást arról, hogy a generatív mesterséges intelligencia modellek miként járulnak hozzá véletlenül a hatalmas potenciális biztonsági fenyegetésekhez a szoftverfejlesztés világában. A Lanyado ilyen kutatásai riasztó tendenciát találtak: az AI képzeletbeli szoftvercsomagokat javasol, és a fejlesztők anélkül, hogy tudnák, beépítik a kódbázisukba.

A probléma nyilvánosságra hozatala

A probléma az, hogy a generált megoldás egy fiktív név volt – ez az AI-ra jellemző. Azonban ezeket a fiktív csomagneveket azután magabiztosan ajánljuk azoknak a fejlesztőknek, akiknek nehézségeik vannak az AI-modellek programozásában. Valójában néhány kitalált csomagnév részben embereken alapult – mint például a Lanyado –, és néhányan elmentek, és valódi csomagokká alakították őket. Ez viszont oda vezetett, hogy véletlenül potenciálisan rosszindulatú kódok kerültek bele a valódi és legitim szoftverprojektekbe.

Az egyik olyan vállalkozás, amelyre ez a hatás vonatkozik, az Alibaba volt, a technológiai iparág egyik fő szereplője. A GraphTranslator telepítési útmutatójában Lanyado megállapította, hogy az Alibaba egy „huggingface-cli” nevű csomagot tartalmazott, amelyet hamisítottak. Valójában a Python Package Index (PyPI) egy valódi csomagot is tárolt ugyanilyen néven, de az Alibaba útmutatója hivatkozott arra, amelyet Lanyado készített.

A kitartás tesztelése

Lanyado kutatásának célja ezen AI által generált csomagnevek élettartamának és potenciális kihasználásának felmérése volt. Ebben az értelemben az LQuery különálló mesterséges intelligencia-modelleket készített a programozási kihívásokról és a nyelvek között annak megértése során, hogy hatékonyan, szisztematikusan ajánlották-e ezeket a fiktív neveket. Ebben a kísérletben egyértelmű, hogy fennáll annak a veszélye, hogy a káros entitások visszaélhetnek a mesterséges intelligencia által generált csomagnevekkel rosszindulatú szoftverek terjesztésére.

Ezeknek az eredményeknek mély következményei vannak. A rossz szereplők kihasználhatják a fejlesztők által a beérkezett ajánlásokba vetett vak bizalmat oly módon, hogy hamis identitás alatt elkezdhetnek káros csomagokat publikálni. Az AI-modellek esetében a kockázat növekszik azáltal, hogy következetes AI-ajánlásokat tesznek a kitalált csomagnevekre, amelyeket a tudatlan fejlesztők rosszindulatú programként tartalmaznak. **Az út előre**

Ezért, ahogy a mesterséges intelligencia egyre jobban integrálódik a szoftverfejlesztésbe, felmerülhet a biztonsági rések javításának szükségessége, ha az AI által generált ajánlásokhoz kapcsolódik. Ilyen esetekben kellő gondossággal kell eljárni, hogy az integrációra javasolt szoftvercsomagok legitimek legyenek. Ezenkívül biztosítani kell, hogy a szoftvertárat tároló platform ellenőrizni tudja, és elég erősnek kell lennie ahhoz, hogy ne kerüljön terjesztésre rosszindulatú kód.

A mesterséges intelligencia és a szoftverfejlesztés metszéspontja aggasztó biztonsági fenyegetést tárt fel. Ezenkívül az AI-modell hamis szoftvercsomagok véletlenszerű ajánlásához vezethet, ami nagy kockázatot jelent a szoftverprojektek integritására nézve. Az a tény, hogy az utasításaiban Alibaba egy olyan dobozt is tartalmazott, aminek soha nem kellett volna ott lennie, csak bizonyítja, hogyan nyílhatnak meg a lehetőségek, ha az emberek robotszerűen követik az ajánlásokat. 

AI adta. A jövőben éberen kell proaktív intézkedéseket tenni annak érdekében, hogy elkerülhető legyen a mesterséges intelligencia szoftverfejlesztési célú visszaélése.

Forrás: https://www.cryptopolitan.com/ai-generated-software-packages-threats/