Az AI Hype Cry Wolf pillanata nem hasznos

Bár én vagyok az, aki az emberiség végének forgatókönyveit tanulmányozom, úgy gondolom, hogy a 6 hónapos mesterségesintelligencia-moratóriumot javasoló „szakértői levél”, vagy az újabb kijelentés, miszerint a mesterséges intelligencia kockázata a világjárvány és a nukleáris kockázat szintjén van, mindkettő túlzásba esik. Az a még vadabb vélemény, hogy le kell állítani az AI-t, felelőtlen. Minden aggodalomnak arányosnak kell lennie az előttünk álló kockázatokkal. Jelenleg nincs közvetlen veszélyben a mesterséges intelligencia.

A jelenlegi mesterséges intelligencia nem képes átvenni a társadalmat. Nincsenek érzéseik, és nem érdemelnek védelmet, mint az emberi élet. Nem szuperintelligensek, és általánosságban sem múlják felül az embereket. Valójában egyáltalán nem gondolkodnak. Jelenleg, ha bőséges adatot szolgáltatnak, az AI-k nagyon jók bizonyos feladatokban, például számításban és előrejelzésben. Ez nem aggasztó, ezek a rendszerek tervezési jellemzői. Az AI-k ígérete magában foglalja a rák megoldását, az ipari termelés átalakítását, a jövőbeli forgatókönyvek modellezését és a környezeti kihívások kezelését. Ennek ellenére jogos okunk van kritizálni a jelenlegi mesterséges intelligenciákat az erőforrás-felhasználás, az átláthatóság, az elfogultság, a kiberbiztonság és a foglalkoztatásra gyakorolt ​​jövőbeni hatása miatt.

Az AI-k számítástechnikailag drágák – ami azt jelenti, hogy a szűkös, fosszilis energia hatalmas pazarlása. Ezzel azonnal foglalkozni kell. De ez nem egzisztenciális, hanem racionális erőforrás-felhasználás kérdése. Valós probléma, hogy a nagy és nem hatékony adatmodellekre támaszkodó mesterséges intelligencia túlságosan költségessé válik ahhoz, hogy a tudományos körök vagy a kormányzat nyomon kövesse és vizsgálja. De hamarosan javítható. Az elit akadémiai intézmények vagy kormányok konzorciumai összefoghatnának, és megoszthatnák a számítási erőforrásokat úgy, ahogyan a szuperszámítástechnika esetében tették.

A Large Language Models (LLM) olyan mesterséges intelligencia modellek, amelyek nagy mennyiségű adatból természetes nyelvű szövegeket tudnak generálni. Az egyik probléma ezzel az, hogy ezek a szövegek közvetlenül mások őszinte intellektuális hozzájárulásaiból származnak. Valójában ellopták őket. A generatív mesterséges intelligencia elsősorban a fogyasztói és szervezeti adatokat, valamint a kreatív tartalmakat kombinálja újra a szerzői jogok súlyos megsértésével. Ez komoly, de nem egzisztenciális, ráadásul az EU, hollywoodi lobbisták és az „ötös nagy” könyvkiadók már ott vannak az ügyön. Várható, hogy ez lelassítja az AI hevességét. A jelenlegi ütemben az AI-k jóval azelőtt kifogynak a jó képzési adatokból, hogy megközelítenék az érzéket.

Az adóink kiszámításához, online hírfolyamaink kiválasztásához vagy az emberek börtönbe zárásához már használt algoritmusok feltűnően hiányosak az átláthatóságból. Ez azonban évek óta így van, és semmi köze a legújabb AI-fejlesztésekhez. Az AI torzítás egy szolgáltatás, nem pedig hiba. Valójában a sztereotipizálás a fő megközelítés, amelyen keresztül ezek a modellek működnek. Kivéve, hogy az előítélet a gépi érvelés áthatolhatatlan rétegeiben rejtőzik, amelyeket az emberek megfoghatatlanok, akár szakértők, akár nem. Amit meg kell kérdőjeleznünk, az az ilyen rendszereket fejlesztő fejlesztők bölcsessége, nem pedig az általuk létrehozott rendszer képessége, ami adott. A rendszerek ritkán lesznek jobbak azok bölcsességénél vagy szándékainál, akik építik vagy működtetik.

A mesterséges intelligencia képzési adatai tükrözik a társadalomban jelenlévő torzításokat, amelyekből az adatokat gyűjtötték. A rossz képzési adatok újrafelhasználása aggasztó gyakorlat, amely már szennyezi az AI-modelleket. A jelenlegi AI-megközelítések egyszerűen felerősítik a torzítást, hogy gyorsan elérjék az eredményt. Ez kétségtelenül az ellenkezője annak, amit akarunk. Amit tenni akarunk, az az, hogy technológiát használunk az emberi hibák kivédésére. A géphibák miatti aggódás az emberi intelligencia pazarló felhasználása.

A „neurális hálózat” metafora ellenére a jelenlegi mesterséges intelligencia egyáltalán nem hasonlít az agyra. A jelenlegi AI-rendszerek nem képesek analógiával érvelni, mint az emberek. Ez jó. Lehet, hogy valójában nem akarjuk azt a fajta mesterséges intelligencia igazodást, amelyet a lelkesek szorgalmaznak és utánozni próbálnak. A gépeknek különbözniük kell az emberektől. Így tudjuk maximalizálni egymás erősségeit. És hogyan tudjuk a gépeket megkülönböztetni és egymástól elkülöníteni. A gépeknek nem lehetnek érdekeik igazodni.

Az AI egyre inkább jelentős kiberbiztonsági fenyegetést jelent a bűnözők és az ellenséges államok számára. A kiberbiztonság azonban egy kiforrott iparág, rengeteg szakértővel, aki jól felkészült a kihívás kezelésére. Nincs ok a mesterséges intelligencia leállítására a kiberbiztonsági félelmek miatt.

A foglalkoztatás mesterséges intelligencia miatti megszakítása évek óta politikai probléma, először a robotok, ma már a szoftveralapú AI-rendszerek esetében. Ez azt jelenti, hogy a kormányok készek lesznek foglalkozni ezzel. Az MIT Work of The Future tanulmánya túlzottnak találta a robotok miatti munkanélküliséggel kapcsolatos aggodalmat. Az emberek mindig is megtalálták a munkamódszereket, és így fognak tenni a jövőben is. Átalakítja a gyártást az AI? Ez már megtörténik, de meglehetősen ellenőrzött módon.

A mesterséges intelligencia időről időre túlzásba vitt ígéreteket kap a jelenlegi funkcionalitásról vagy a jövőbeli hatókörről. Az első mesterséges intelligencia tél 1974–1980-ban kezdődött, amikor az Egyesült Államok kormánya megvonta a finanszírozást. A második 1987 és 1993 között volt, amikor a költségek emelkedtek, és az AI nem váltotta be magasztos ígéreteit.

Az új paradigmák érkezésére várva, a 2025 és 2030 közötti időszakban valószínűleg a harmadik mesterséges intelligencia télbe lépünk. Legalábbis a forró mesterséges intelligencia nyárhoz képest azt ígérik. Ennek az az oka, hogy a hype ellenére, a fent vázolt okok miatt, a nagy nyelvi modellek hamarosan elérik maximális hasznosságukat, és végül számításilag elegánsabb, átláthatóbb megközelítésekre kell felváltani őket.

Az egyik ilyen jelölt a hiperdimenziós számítástechnika, amely hatékonyabbá tenné a gépek okoskodását, mivel szemantikai megértést, valamint a valós információ mögötti jelentés és kontextus feldolgozásának képességét biztosítják. Jelenleg az AI-rendszerek nem értik a szavak és kifejezések közötti kapcsolatot, egyszerűen csak jók a találgatások. Ez elégtelen. Végül szükségünk lesz a megtestesült mesterséges intelligenciára, mert a gondolkodás a tér érzékeléséhez kötődik. Ez határozottan így van a gyártásban, amely egy erősen fizikai játék. Szükségünk lesz olyan mesterséges intelligenciára is, amely képes az emberi memória funkcióira, például bizonyos információk előtérbe helyezése és más információk háttérbe helyezése alapján történő rangsorolásra. A felejtés egy olyan eszköz, amelyet az emberek az elvont gondolkodásra, az elavult szervezeti gyakorlatokra való áttérésre, a döntések meghozatalára és a pillanatban való tartózkodásra használnak, és nem egyszerűen hiba. Erre még egyetlen gép sem képes túl jól.

Addig is szabályoznunk kell, de ezt a másodikat nem. És ha szabályozunk, jobb, ha jól csináljuk. Az AI rossz szabályozása valószínűleg tovább ront a helyzeten. Hasznos lehet ráébreszteni a szabályozókat erre a kihívásra, de nem vagyok benne biztos, hogy a szabályozók jelenlegi generációja készen áll az ilyen átfogó változtatásokra, amelyek szükségesek ahhoz, hogy jól csinálják. Ez a nagy teljesítményű vállalatok (esetleg az összes tőzsdén jegyzett társaság) megnyirbálásával járna, a mesterséges intelligencia irányításban való felhasználásának korlátozásával, és óriási változásokat jelentene a fogyasztói piacok jelenlegi működésében. Lényegében újra kell kötnünk a társadalmat. Ez néhány évtizeddel hamarabb tönkretenne bennünket, mint azt szeretnénk. A mesterséges intelligencia körüli átláthatóság kihívása talán nagyobb, mint azok a kontrollváltozók, amelyek miatt úgy tűnik, mindenki annyira aggódik, persze nem mintha nem lennének kapcsolatban egymással.

Sőt, nem aggódhatunk minden alkalommal, amikor egy mesterséges intelligencia-referenciaértéket elérünk. Takarékoskodnunk kell az energiáinkkal a lépcsőzetes kockázatok igazán nagy pillanataihoz. Jönni fognak, és őszintén szólva, nem vagyunk felkészülve. Elképzelt jövőbeli forgatókönyveim (lásd: Kihalási forgatókönyvek 2075-re) olyan hatalmas adatszivárgásokat tartalmaznak, amelyek hónapokon keresztül egész országokat ki vannak zárva saját folyamataikból. Aggódom az AI-k miatt is, amelyeket bűnözői csoportok vagy állami szereplők segítenek. Leginkább amiatt aggódom, hogy mesterséges intelligencia, nanotechnológia, szintetikus biológia és kvantumtechnológia kombinációi – a szinte láthatatlan, kvázi-szerves intelligencia, ismeretlen képességű, talán csak néhány évtizednyire lévő – kombinációja éppen akkor történik meg, amikor a világot felemészti az éghajlat lépcsőzetes hatásai. változás.

A jelenlegi mesterséges intelligencia modellek még nem működnek elég jól ahhoz, hogy veszélyt jelentsenek az emberiségre. Mielőtt fontolóra vehetnénk a leállításukat, jobb mesterséges intelligencia szükséges. Ezen túlmenően bölcsebb fejlesztőkre, érzékenyebb polgárokra és tájékozottabb döntéshozókra van szükségünk. Szükségünk van egy koncepcióra is, hogy HOGYAN szabályozzuk az AI-t. De ez megtehető anélkül, hogy bármit is lassítana. Ez egy oktatási utazás lesz mindenki számára. A GPT 4-re (2023) vonatkozó moratóriumi levél egy farkaskiáltó pillanat, amely csak halványan hasonlít azokra a lépcsőzetes kockázatokra, amelyekkel az emberiség az elkövetkező évtizedekben szembesül. A mesterséges intelligencia kockázatát 2023-ban a pandémiás és a nukleáris kockázat szintjére helyezni még korai. Odaérünk? Talán. De a síró farkasnak következményei vannak. Kiszívja az oxigént a valódi ijesztgetésekről szóló vitákból.

Forrás: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/