3 ok, amiért szervezetének szüksége lesz külső algoritmus-értékelőkre

Írta: Satta Sarmah-Hightower

A cégvezetők minden tőlük telhető értéket kipréselnek a mesterséges intelligenciából (AI). A KPMG 2021-es tanulmánya megállapítja a kormányzat, az ipari gyártás, a pénzügyi szolgáltatások, a kiskereskedelem, az élettudomány és az egészségügyi vállalkozások vezetőinek többsége szerint a mesterséges intelligencia legalább közepesen működőképes szervezetükben. A tanulmány azt is megállapítja, hogy a válaszadók fele szerint szervezetük felgyorsította a mesterséges intelligencia bevezetését a Covid-19 világjárványra válaszul. Azoknál a szervezeteknél, ahol alkalmazták a mesterséges intelligenciát, legalább a fele szerint a technológia felülmúlta a várakozásokat.

Az AI-algoritmusok egyre inkább felelősek napjaink különféle interakcióiért és innovációiért – a személyre szabotttól kezdve termékajánlatok és a Vevőszolgálat banki tapasztalatok hitelezési döntések és még rendőri válasz.

De az általuk kínált előnyök ellenére az AI-algoritmusok nagy kockázatokkal járnak, ha nem ellenőrzik és értékelik őket hatékonyan rugalmasságuk, méltányosságuk, magyarázhatóságuk és integritásuk szempontjából. A fent hivatkozott tanulmány azt mutatja, hogy a vállalkozások vezetőinek segítséget nyújtanak a mesterséges intelligencia nyomon követésében és értékelésében egyre több vállalatvezető szeretné, ha a kormány szabályozná az AI-t, hogy lehetővé tegye a szervezetek számára a megfelelő technológiába és üzleti folyamatokba való befektetést. A szükséges támogatás és felügyelet érdekében bölcs dolog megvizsgálni az ilyen szolgáltatások nyújtásában tapasztalattal rendelkező szolgáltató által kínált külső értékeléseket. Íme három ok, hogy miért.

1. Az algoritmusok „fekete dobozok”

Az AI-algoritmusok – amelyek az adatokból tanulnak a problémák megoldása és a feladatok optimalizálása érdekében – intelligensebbé teszik a rendszereket, lehetővé téve számukra, hogy sokkal gyorsabban gyűjtsenek és generáljanak betekintést, mint az emberek.

Egyes érdekelt felek azonban „fekete dobozoknak” tartják ezeket az algoritmusokat – magyarázza Drew Rosen, a KPMG, a vezető professzionális szolgáltató cég könyvvizsgálati ügyvezető igazgatója. Konkrétan előfordulhat, hogy bizonyos érdekeltek nem értik, hogyan jutott az algoritmus egy bizonyos döntéshez, és ezért nem biztos, hogy a döntés tisztességes vagy pontos.

"Az algoritmusból gyűjtött eredmények hajlamosak lehetnek torzításra és az eredmények félreértelmezésére" - mondja Rosen. „Ez bizonyos kockázatokhoz is vezethet a szervezet számára, mivel kihasználják ezeket az eredményeket, és megosztják [azokat] a nyilvánossággal és az érdekelt felekkel.”

Egy hibás adatokat használó algoritmus például a legjobb esetben hatástalan, a legrosszabb esetben pedig káros. Hogyan nézhet ki ez a gyakorlatban? Vegyük fontolóra az AI-alapú chatbotot, amely rossz fiókadatokat ad meg a felhasználóknak, vagy egy automatizált nyelvi fordítóeszközt, amely pontatlanul fordít szöveget. Mindkét eset súlyos hibákat vagy félreértelmezéseket eredményezhet a kormányzati szervek vagy vállalatok, valamint az ezen algoritmusok által hozott döntésekre támaszkodó komponensek és ügyfelek számára.

A feketedoboz-probléma másik oka az, amikor az inherens torzítás beszivárog az AI-modellek fejlesztésébe, és potenciálisan elfogult döntéshozatalt okozhat. A hitelezők például egyre gyakrabban használnak mesterséges intelligenciát a potenciális hitelfelvevők hitelképességének előrejelzésére, hogy hitelezési döntéseket hozzanak. Kockázat azonban felmerülhet, ha kulcsfontosságú inputokat adnak be az MI-be, például a potenciális hitelfelvevő hitelképességét, lényeges hibája van, ami ahhoz vezet, hogy az érintett személyektől megtagadják a kölcsönt.

Ez rávilágít arra, hogy szükség van egy külső értékelőre, aki elfogulatlan értékelőként szolgálhat, és az elfogadott kritériumok alapján célzott értékelést nyújthat az algoritmust meghatározó történelmi adatok és feltételezések relevanciájáról és megbízhatóságáról.

2. Az érdekeltek és a szabályozók átláthatóságot követelnek

2022-ben nem volt jelenlegi jelentéstételi követelmény a felelős mesterséges intelligencia számára. Rosen azonban azt mondja, „mint ahogy az irányító testületek bevezették az ESG [környezetvédelmi, szociális és irányítási] szabályozást jelentést bizonyos ESG mérőszámokról, csak idő kérdése, hogy a felelős mesterséges intelligencia tekintetében további szabályozási jelentési követelményeket látunk-e.”

Valójában 1. január 2023-jétől New Yorkban Helyi törvény 144 előírja, hogy egy automatizált foglalkoztatási döntési eszközön elfogultsági auditot kell végezni annak használata előtt.

Szövetségi szinten pedig a A mesterséges intelligencia kezdeményezéséről szóló 2020. évi nemzeti törvény– amely a 2019-ös végrehajtási rendelet– a mesterséges intelligencia technikai szabványaira és útmutatásaira összpontosít. Ezenkívül a Algoritmikus elszámoltathatóságról szóló törvény szükség lehet az automatizált döntési rendszerek és a kibővített kritikus döntési folyamatok hatásvizsgálatára. A tengerentúlon pedig a Mesterséges intelligencia törvény javaslatot tettek, amely átfogó szabályozási keretet kínál konkrét célkitűzésekkel a mesterséges intelligencia biztonságára, megfelelőségére, irányítására és megbízhatóságára vonatkozóan.

Ezekkel az eltolódásokkal a szervezetek irányítási mikroszkóp alá kerülnek. Az algoritmus értékelő olyan jelentéseket készíthet, amelyek foglalkoznak a szabályozási követelményekkel és fokozzák az érdekelt felek átláthatóságát, miközben elkerülik annak kockázatát, hogy az érdekelt felek félreértelmezzék vagy félrevezette az értékelés eredményei alapján.

3. A vállalatok profitálnak a hosszú távú kockázatkezelésből

Steve Camara, a KPMG technológiabiztosítási gyakorlatának partnere azt jósolja, hogy a mesterséges intelligencia-befektetések továbbra is növekedni fognak, ahogyan az entitások automatizálják a folyamatokat, olyan innovációkat dolgoznak ki, amelyek javítják az ügyfelek élményét, és elosztják az AI-fejlesztést az üzleti funkciók között. Ahhoz, hogy versenyképesek maradjanak és nyereségesek maradjanak, a szervezeteknek hatékony ellenőrzésekre van szükségük, amelyek nemcsak az AI azonnali hiányosságait kezelik, hanem csökkentik az AI-alapú üzleti műveletekkel kapcsolatos hosszú távú kockázatokat is.

Itt a külső értékelők megbízható, hozzáértő erőforrásként lépnek be. Camara magyarázza, mivel a szervezetek egyre inkább az AI integritását veszik figyelembe, mint üzleti lehetőséget.

„Úgy látunk előremutató utat, hogy folyamatos kapcsolatra van szükség az AI-t folyamatosan fejlesztő és működtető szervezetek és egy objektív külső értékelő között” – mondja.

Kitekintés a következőre

A jövőben a szervezetek inkább ciklikus alapon alkalmazhatják a külső értékeléseket, például új modellek kidolgozása, új adatforrások felhasználása, harmadik féltől származó szállítói megoldások integrálása vagy új megfelelőségi követelmények eligazodása során.

Ha további szabályozási és megfelelőségi követelményeket írnak elő, a külső értékelők képesek lehetnek arra, hogy szolgáltatásokat nyújtsanak annak közvetlen értékelésére, hogy egy szervezet mennyire telepítette vagy használta a mesterséges intelligenciát a követelményekhez képest. Ezek az értékelők lennének a legjobb helyzetben az értékelési eredmények egyértelmű és következetes megosztására.

Annak érdekében, hogy a technológiából hasznot húzzon, ugyanakkor megvédje magát annak korlátaitól, a szervezetnek külső értékelőket kell felkeresnie, hogy olyan jelentéseket készítsenek, amelyekre támaszkodva nagyobb átláthatóságot mutathat be az algoritmusok telepítése során. Innentől kezdve mind a szervezet, mind az érdekelt felek jobban megérthetik az AI erejét – és korlátait.

Forrás: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/