A mesterséges intelligencia etika és a mesterséges intelligencia által kiváltott pszichológiai oltás segít az embereknek a dezinformációban

Mit fogunk kezdeni a dezinformáció és a félretájékoztatás tömegével?

Nyilvánvalóan minden napról napra egyre rosszabb és rosszabb.

Talán a mesterséges intelligencia (AI) jöhet a segítségünkre. Igen, ez így van, talán ki tudjuk használni az AI jótékony hasznát, hogy megbirkózzunk a dezinformáció és félretájékoztatás könyörtelen szökőárjával. Lehet, hogy okosak vagyunk, ha megpróbáljuk megtenni. A lehetséges megoldások minden útja érdemesnek tűnik a kutatásra.

Félretéve szeretném azonnal elismerni és megjegyezni, hogy az AI kétségtelenül meg fog tenni Is te is részese legyen a problémának. Kétségtelen, hogy az emberek könnyen felhasználhatják az MI-t dezinformáció és félretájékoztatás generálására. Ezenkívül a mesterséges intelligencia alattomosan felhasználható arra, hogy a dezinformációt és a félretájékoztatást elképesztően érvényesnek tűnjék, és elhitethetik az emberekkel, hogy a bemutatott információ csábítóan pontos és tényszerű. Határozottan szomorú arcoldala annak, amit a mesterséges intelligencia terítékre hoz. A vita végén visszatérünk erre a hátrányos rejtvényre.

Egyelőre öltsük fel mosolygós arcunkat, és fedezzük fel, hogy a mesterséges intelligencia milyen jótékony hatással van a dezinformáció és a félretájékoztatás hatalmas térdére. Az egyik fontos mozzanat az lesz, hogy mindez az AI-etika létfontosságú elemeihez illeszkedik. Az AI Ethics és Ethical AI rovatom folyamatos és kiterjedt, többek között az itt található link és a az itt található link, csak hogy néhányat említsek.

Fontolja meg ezeket a sarokkövei, hogy a mesterséges intelligencia különösen hasznos szövetségese lehet a dezinformáció és a félretájékoztatás elleni háborúban:

  • Állj meg a Get-Go-nál: A mesterséges intelligencia felhasználható a dezinformáció és a félretájékoztatás észlelésére és kivágására, mielőtt azok elszabadulnának
  • Szűrés előtt: A mesterséges intelligencia a dezinformáció és a félretájékoztatás kiszűrésére használható, így nem kell aggódnia, hogy meglátja azokat
  • Készülj fel az immunitásra: A mesterséges intelligencia felhasználható arra, hogy megerősítse készségét és képességét a dezinformációval és félretájékoztatással szembeni küzdelemre (amely formálisan egyfajta pszichológiai beoltásként ismert)
  • Más

Az első felsorolt ​​pont azt jelenti, hogy a dezinformációt és a félretájékoztatást a lehető legkorábbi pillanatban, még azelőtt, hogy a tartalom világra kerülne, meg kell akadályozni.

Ez egy nagyon problematikus megközelítés. Egyesek harsányan azzal érvelnek, hogy ez a Big Brother kísérlete lehet a szólásszabadság elnyomására. Meddig tudna elmenni ez a mesterséges intelligencia? Megakadályozhatja az embereket abban, hogy szabadon kinyilvánítsák véleményüket? Ez a hátborzongató módon a mesterséges intelligencia csúszós lejtőjévé válhat, és végül a gonosz eredmények legrosszabb rémálmává válhat, amely ártatlanul, a legjobb szándékkal kezdődött.

Biztosan érted a képet.

A második pont egy kicsit mérsékeltebb, és azt sugallja, hogy használhatjuk az AI-t a tartalom szűrésére.

Lehet, hogy van egy mesterséges intelligenciaszűrő robotja, amely átvizsgálja az összes bejövő adatfolyamot a különböző hírekből és más forrásokból. Az AI úgy lett kialakítva, hogy elkapjon minden olyan dezinformációt vagy téves információt, amely megfelel az Ön személyes kritériumainak. Így egy ilyen forgatókönyv szerint ez nem a Big Brother cenzúra helyzete. Ön irányítja a mesterséges intelligenciát, és azt, hogy az Ön nevében hogyan szűri a valódi információs postafiókját.

Elég jól hangzik.

Vannak azonban figyelemre méltó aggályok.

Például már most is erősen polarizáltak a nézeteink, és az AI ilyen használata mélyebbé és sötétebbé teheti ezt a polarizációt. Képzelje el, hogy ezzel a sima mesterséges intelligenciával, amely folyamatosan, éjjel-nappal működik, soha nem kell látnia egy fikarcnyi információt sem, amelyet potenciálisan dezinformációnak és félretájékoztatásnak minősített. Polarizált perspektívája most már szinte garantáltan érintetlen marad. Egész nap és bármikor, amikor meg akarja nézni a figyelmére váró információkat, az mindig teljesen előre kiválasztott, és nincs esélye az úgynevezett dezinformációra és félretájékoztatásra pillantani.

Én azt mondom, hogy lehet dezinformáció és félretájékoztatás úgynevezett mert óriási vita folyik arról, hogy valójában mi minősül dezinformációnak és félretájékoztatásnak. Egyes szakértők ragaszkodnak ahhoz, hogy abszolút alapja van annak megállapításának, hogy mi a dezinformáció és mi a félretájékoztatás. Van jó és helytelen. Mindent ki lehet számítani anélkül, hogy azt tévednénk, hogy valami dezinformáció vagy félretájékoztatás.

Nem mindenki látja a dolgokat ennyire egyértelműnek.

A közmondásos, egymást kölcsönösen kizáró kettősség-ellentétről azt mondják, hogy félrevezető elme. Előfordulhat, hogy egy személy félretájékoztatása nem tekinthető egy másik személy félretájékoztatásának. Ugyanígy a félretájékoztatásról. Az állítás az, hogy a dezinformáció és a félretájékoztatás természetét és nagyságát tekintve széles skálán mozog. Megpróbálni minden információt határozottan az egyik vagy a másik halomba sorolni, sokkal nehezebb, mint azt a kézlengetés sugallja.

A lényeg az, hogy a mesterséges intelligencia szűrőmechanizmusként való használatával kapcsolatos második pontnak megvannak a kompromisszumai. Nem kérdéses, hogy a mesterséges intelligencia egyre gyakrabban kerül erre a célra. Ugyanakkor szem előtt kell tartanunk azokat a kihívásokat, amelyeket az ilyen mesterséges intelligencia előtérbe hoz. A mesterséges intelligencia, mint a dezinformáció és félretájékoztatás szűrője, nem valami ezüstgolyó vagy slam dunk.

Ez elvezet minket a harmadik ponthoz, nevezetesen annak lehetőségéhez, hogy mesterséges intelligencia segítségével az emberek jobban kezeljék a dezinformációt és a félretájékoztatást.

Kétlem, hogy valószínűleg sokat hallottál az AI használatának harmadik lehetőségéről ebben az összefüggésben. Még csak most kezd kirajzolódni. Ön most valaminek az élén áll, ami valószínűleg növekedni fog, és fokozatosan használatba kerül. Tudniillik azonban, ahogy ez a népszerűség növekszik, az arról szóló vita is láthatóvá válik, hogy ez megfelelő megközelítés-e.

A probléma része az, hogy a mesterséges intelligencia bizonyos mértékig olyan célra használatos, amelyet egyesek lekicsinylő módon emlegetnének elmejátékokat játszani emberekkel.

Ez baljóslatúnak tűnik.

Ezzel el is érkeztünk az AI etika birodalmába.

Mindez a mai mesterséges intelligencia és különösen a gépi tanulás és a mély tanulás technológiai formájaként és felhasználási módjaival kapcsolatos, józanul felmerülő aggodalmakra is vonatkozik. Látja, az ML/DL-nek vannak olyan alkalmazásai, amelyek általában azt jelentik, hogy a nagyközönség antropomorfizálja a mesterséges intelligenciát, elhiszi vagy feltételezve, hogy az ML/DL vagy érző mesterséges intelligencia, vagy közel áll hozzá (nem az). Ezenkívül az ML/DL tartalmazhat a számítási mintaillesztés olyan aspektusait, amelyek nemkívánatosak vagy egyenesen helytelenek, illetve etikai vagy jogi szempontból illegálisak.

Hasznos lehet először tisztázni, mire gondolok, amikor az AI-ra általánosságban utalunk, és rövid áttekintést adunk a gépi tanulásról és a mély tanulásról. Nagy a zűrzavar, hogy mit jelent a mesterséges intelligencia. Szeretném bemutatni Önöknek a mesterséges intelligencia etika előírásait is, amelyek különösen fontosak lesznek ennek a diskurzusnak a további részében.

A rekord ismertetése az AI-ról

Győződjünk meg arról, hogy a mai mesterséges intelligencia természetét illetően egy oldalon vagyunk.

Ma nincs olyan mesterséges intelligencia, amely érző lenne.

Nálunk ez nincs.

Nem tudjuk, hogy az érző mesterséges intelligencia lehetséges lesz-e. Senki sem tudja pontosan megjósolni, hogy elérjük-e az érző MI-t, és azt sem, hogy az érző mesterséges intelligencia valamilyen csodálatos módon spontán módon létrejön-e egy számítási kognitív szupernóva formájában (általában The Singularity néven emlegetik, lásd tudósításomat itt: az itt található link).

Vegye észre, hogy a mai mesterséges intelligencia nem képes az emberi gondolkodással egyenrangú módon „gondolkodni”. Amikor Alexával vagy Sirivel kommunikál, a társalgási képességek hasonlónak tűnhetnek az emberi képességekhez, de a valóság az, hogy számítási jellegű, és hiányzik belőle az emberi megismerés. A mesterséges intelligencia legújabb korszaka széles körben alkalmazta a gépi tanulást és a mély tanulást, amelyek kihasználják a számítási mintaillesztést. Ez olyan mesterséges intelligencia-rendszerekhez vezetett, amelyek emberhez hasonló hajlamokat mutatnak. Eközben manapság nincs olyan mesterséges intelligencia, amely a józan észnek látszana, és nem rendelkezik a robusztus emberi gondolkodás kognitív csodáival sem.

A probléma része a számítógépek és különösen a mesterséges intelligencia antropomorfizálására való hajlamunk. Amikor úgy tűnik, hogy egy számítógépes rendszer vagy mesterséges intelligencia úgy működik, ahogyan mi az emberi viselkedéssel társítjuk, szinte elsöprő késztetés támad arra, hogy emberi tulajdonságokat tulajdonítsunk a rendszernek. Ez egy gyakori mentális csapda, amely megragadhatja még a legrendíthetetlenebb szkeptikusokat is az érzék elérésének esélyeivel kapcsolatban.

Bizonyos mértékig ezért olyan kulcsfontosságú téma a mesterséges intelligencia etika és az etikus mesterséges intelligencia.

A mesterséges intelligencia etika előírásai éberségre késztetnek bennünket. Az AI-technológusokat időnként a technológia foglalkoztatja, különösen a csúcstechnológiák optimalizálása. Nem feltétlenül veszik figyelembe a nagyobb társadalmi következményeket. A mesterséges intelligencia etikai felfogása elengedhetetlen a megfelelő mesterséges intelligencia létrehozásához, beleértve annak felmérését, hogy a mesterséges intelligencia etikáját hogyan alkalmazzák a cégek.

A mesterséges intelligencia etikai előírásainak általános alkalmazása mellett felvetődik az a kérdés, hogy kellene-e törvények szabályozni az AI különféle felhasználásait. Szövetségi, állami és helyi szinten új törvényeket kötnek ki, amelyek a mesterséges intelligencia kidolgozásának körét és jellegét érintik. Az ilyen törvények kidolgozására és elfogadására irányuló erőfeszítések fokozatosak. A mesterséges intelligencia etika legalábbis megfontolt állomásként szolgál, és bizonyos mértékig bizonyos mértékig közvetlenül beépül az új törvényekbe.

Legyen tudatában annak, hogy egyesek határozottan azzal érvelnek, hogy nincs szükségünk az AI-t lefedő új törvényekre, és a meglévő törvényeink elegendőek. Előre figyelmeztetik, hogy ha bevezetünk néhány mesterséges intelligencia-törvényt, akkor megöljük az aranylibát azáltal, hogy visszaszorítjuk a mesterséges intelligencia fejlődését, amely hatalmas társadalmi előnyökkel jár. Lásd például a tudósításomat a címen az itt található link.

Az előző rovatokban bemutattam az AI-t szabályozó törvények kidolgozására és elfogadására irányuló különféle nemzeti és nemzetközi erőfeszítéseket, ld. az itt található link, például. Kitértem a különféle nemzetek által azonosított és elfogadott különféle mesterséges intelligencia-etikai elvekre és irányelvekre is, beleértve például az Egyesült Nemzetek erőfeszítéseit, mint például az UNESCO mesterségesintelligencia-etikai készletét, amelyet közel 200 ország fogadott el, lásd az itt található link.

Íme egy hasznos kulcslistája az AI-rendszerekre vonatkozó etikus AI-kritériumokról vagy -jellemzőkről, amelyeket korábban alaposan megvizsgáltam:

  • Átláthatóság
  • Igazságosság és méltányosság
  • Nem rosszindulat
  • Felelősség
  • Adatvédelem
  • Jótékonyság
  • Szabadság és autonómia
  • Bízzon
  • Fenntarthatóság
  • Méltóság
  • Szolidaritás

A mesterséges intelligencia fejlesztőinek komolyan kellene használniuk ezeket a mesterséges intelligencia etikai elveit, valamint azokat, amelyek irányítják az AI-fejlesztési erőfeszítéseket, és még azokat is, amelyek végső soron az AI-rendszerek karbantartását és karbantartását végzik. Az összes érdekelt fél a mesterséges intelligencia fejlesztésének és használatának teljes életciklusa során beletartozik az etikus mesterséges intelligencia elfogadott normáihoz. Ez egy fontos kiemelés, mivel a szokásos feltevés az, hogy „csak a kódolók” vagy az AI-t programozók kötelesek betartani az AI etikai elveit. Amint azt korábban hangsúlyoztuk, egy falura van szükség a mesterséges intelligencia kidolgozásához és használatához, és ehhez az egész falunak ismernie kell a mesterséges intelligencia etikai előírásait, és be kell tartania azokat.

Maradjunk a földön, és összpontosítsunk a mai számítástechnikai, nem érző AI-ra.

Az ML/DL a számítási mintaillesztés egyik formája. A szokásos megközelítés az, hogy egy döntési feladatról adatokat gyűjt össze. Az adatokat betáplálja az ML/DL számítógépmodellekbe. Ezek a modellek matematikai mintákat keresnek. Miután megtalálta az ilyen mintákat, ha igen, az AI rendszer ezeket a mintákat fogja használni, amikor új adatokkal találkozik. Az új adatok bemutatásakor a „régi” vagy történelmi adatokon alapuló mintákat alkalmazzák az aktuális döntés meghozatalához.

Azt hiszem, sejtheti, hová vezet ez. Ha az emberek, akik a mintaszerű döntéseket hozták, nemkívánatos elfogultságokat alkalmaztak, akkor valószínű, hogy az adatok ezt finom, de jelentős mértékben tükrözik. A Machine Learning vagy a Deep Learning számítási mintaillesztés egyszerűen megpróbálja matematikailag utánozni az adatokat ennek megfelelően. A mesterséges intelligencia által kialakított modellezésben önmagában semmi sem látszik a józan észnek vagy más érző szempontoknak.

Ezenkívül az AI-fejlesztők sem tudják, mi történik. Az ML/DL rejtélyes matematikája megnehezítheti a most rejtett torzítások kiszűrését. Joggal remélhető és elvárható, hogy a mesterséges intelligencia fejlesztői teszteljék a potenciálisan eltemetett torzításokat, bár ez bonyolultabb, mint amilyennek látszik. Jó esély van arra, hogy még viszonylag kiterjedt tesztelés mellett is lesznek torzítások az ML/DL mintaillesztési modelljeibe.

Használhatná némileg a híres vagy hírhedt közmondást, a szemetet a szemét kiszállításáról. A helyzet az, hogy ez inkább a torzításokhoz hasonlít, amelyek alattomos módon beszivárognak az AI-ba merülő torzítások miatt. Az AI algoritmus-döntéshozatala (ADM) axiomatikusan megterhelődik egyenlőtlenségekkel.

Nem jó.

Úgy gondolom, hogy most már megteremtettem a terepet ahhoz, hogy kellőképpen megvitassam a mesterséges intelligencia szerepét, mint a dezinformáció és félretájékoztatás kezelésével kapcsolatos pszichológiai beoltás ösztönzésének eszközét.

Bekerülni az emberek elméjébe

Kezdjük a félretájékoztatás és félretájékoztatás alapjaival vagy alapjaival.

A félretájékoztatás általában hamis vagy félrevezető információra utal.

A dezinformáció nagyjából ugyanaz, bár a hozzáadott elemből áll A szándék. Általában az információt dezinformációnak tekintjük, ha az információ szándékolt félreinformálni.

Elmondhatom, hogy jelenleg este 10 óra van, ami mondjuk hamis, mert az idő tényleg éjfél. Ha sejtésemből mondtam volna, hogy 10 óra, és nem próbáltam volna megtévesztő lenni, általában azt mondanánk, hogy félreinformáltam. téves információt közöltem. Lehet, hogy lusta voltam, vagy tényleg azt hittem, hogy 10 óra van. Másrészt, ha azért említettem volna a 10 órát, mert szándékosan azzal akartalak megtéveszteni, hogy az idő 10 óra, és tudom, hogy valójában éjfél van, akkor ez a dezinformáció egy formája. .

Összességében az információ egyik figyelemreméltó aspektusa, hogy jellemzően képesek vagyunk szétteríteni az információkat, így az információ valamelyest elterjedhet. Az információ tág értelemben valóban úgy áramolhat, mint a víz.

Mondom, este 10 óra van. Most megvan az a bizonyos információ. Hangosan kiabálhat egy közeli embercsoportnak, hogy este 10 óra van. Most már ők is ugyanezekkel az információkkal rendelkeznek. Lehet, hogy ezek közül néhányan felkapják a mobiltelefonjukat, és felhívnak másokat, hogy elmondják nekik, hogy 10 óra van. Összességében elmondható, hogy az információ terjeszthető vagy megosztható, és néha olyan gyorsan, míg más esetekben olyan lassan.

Bizonyos értelemben azt mondhatjuk, hogy az információ terjedhet.

Van egy kitalált szó vagy terminológia, amelyet talán nem látott vagy használt, és amely segít leírni az információ terjedésének jelenségét. infodémiás. Ez a szó az információ és a járvány összekeverése. Általánosságban elmondható, hogy az infodémia olyan körülményekhez kapcsolódik, amelyek félretájékoztatás vagy félretájékoztatás terjedésével járnak. Az elképzelés az, hogy a hamis vagy félrevezető információk nemkívánatos módon terjedhetnek el, hasonlóan a betegségek vagy betegségek nemkívánatos terjedéséhez.

Az éjjel 10 órára vonatkozó példában ez a látszólagos tény egy olyan információ volt, amelyet a közeli embercsoporthoz juttattak el. Ők viszont elterjesztették a tényt másoknak. Ha a 10 óra hamis volt, akkor ez a dezinformáció vagy félretájékoztatás sokaknak elterjedt. Lehet, hogy nem tudják, hogy az információ félretájékoztatást vagy esetleg félretájékoztatást jelent.

Bízom benne, hogy ezek a meghatározások és alapok ésszerűnek tűnnek, és Ön eddig a fedélzeten van.

Remek, folytassuk.

Kissé rejtetten elvezettelek benneteket valamire, ami nagyon lenyűgöz és egyben szorongat is. A lényeg az, hogy vitathatatlanul megalapozott párhuzamok vannak a betegségek vírusos és a félretájékoztatás vagy félretájékoztatás vírusos hatása között.

Nem mindenki ért egyet ezekkel az állítólagos párhuzamokkal. Mindazonáltal érdekesek, és érdemes megfontolni.

Engedjék meg, hogy részletezzem.

Tudod, megpróbálhatjuk kihasználni azt a praktikus analógiát, amikor az ember által terjesztett betegségekre és a terjedő betegségekre hivatkozunk, ezzel összehasonlítva a hasonló lehetőséget a félretájékoztatás és a félretájékoztatás terjedésével. A betegségek terjedésének megállítása érdekében célul tűzhetjük ki a betegség lehetséges terjedésének korai felismerését és megfékezését. Egy másik megközelítés a terjedő betegség kezelésére az lenne, ha védekezünk a fertőzés ellen, ha körültekintően használunk maszkot vagy védőfelszerelést. A harmadik megközelítés a védőoltások beadásából állhat a betegséggel kapcsolatos immunitás kialakítása érdekében.

Mostanra teljes kört értünk el abban a tekintetben, hogy a betegségekkel való megküzdés ugyanezen megközelítései kifejezetten hasonlíthatók a félretájékoztatás és a dezinformáció kezeléséhez. Korábban említettem, hogy hasonló erőfeszítések folynak a mesterséges intelligencia alkalmazására a dezinformációval és a félretájékoztatással való megbirkózás céljából, nevezetesen (ahogy korábban említettük):

  • Állj meg a Get-Go-nál: A mesterséges intelligencia felhasználható a dezinformáció és a félretájékoztatás észlelésére és kivágására, mielőtt azok elszabadulnának
  • Szűrés előtt: A mesterséges intelligencia a dezinformáció és a félretájékoztatás kiszűrésére használható, így nem kell aggódnia, hogy meglátja azokat
  • Készülj fel az immunitásra: A mesterséges intelligencia felhasználható arra, hogy megerősítse készségét és képességét a dezinformációval és félretájékoztatással szembeni küzdelemre (amely formálisan egyfajta pszichológiai beoltásként ismert)
  • Más

A harmadik szempont lesz itt a legérdekesebb.

Itt az üzlet.

Tudjuk, hogy a betegségek általában a emberi test. A félretájékoztatás és a félretájékoztatás előfordulásának analógiájával azt sugallhatjuk, hogy hamis információk támadnak a emberi elme. Igen, feltehetően kapcsolatba kerülhetsz az elmédbe áramló dezinformációkkal vagy téves információkkal. A dezinformáció vagy félretájékoztatás potenciálisan elrontja vagy megmérgezi a gondolkodásmódját.

Az emberi szervezet beoltható, hogy megpróbálja felkészülni a betegségekkel való érintkezésre. Felmerül a nagy kérdés, hogy tehetjük-e ugyanezt az emberi elmével kapcsolatban. Lehetséges-e megpróbálni beoltani az elmét úgy, hogy amikor dezinformáció vagy félretájékoztatás jut eszébe, akkor készen állsz rá, és ennek megfelelően beoltották?

Az úgynevezett tanulmányi terület pszichológiai oltás feltételezi, hogy az elme valóban beoltható abban az értelemben, hogy készen áll a téves vagy félretájékoztatás kezelésére.

Tekintsük ezt a leírást egy közelmúltbeli kutatási tanulmányban, amely a pszichológiai oltásról és a néha cselekvésnek nevezett jelenségről szól prebunking:

  • „A félretájékoztatás leleplezése azért is problémás, mert a téves információk kijavítása nem mindig semmisíti meg teljesen annak hatásait, ezt a jelenséget folyamatos befolyásoló hatásként ismerik. Ennek megfelelően a leleplezéssel ellentétben a prebunking előtérbe került, mint a félretájékoztatás várható expozíciójával szembeni ellenálló képesség megelőlegezésének eszköze. Ez a megközelítés általában az oltási elméleten alapul. Az oltáselmélet egy orvosi immunizálási analógiát követ, és azt állítja, hogy lehetséges pszichológiai ellenállást kiépíteni a nem kívánt rábeszélési kísérletekkel szemben, hasonlóan ahhoz, ahogy az orvosi oltások fiziológiai ellenállást építenek ki a kórokozókkal szemben.Tudomány előlegek, 24. augusztus 2022., „A pszichológiai oltás javítja a közösségi médiában megjelenő félretájékoztatás elleni ellenálló képességet”, a társszerzők, Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje és Stephan Lewandowsky).

Visszatérve az este 10 órai időre vonatkozó példámhoz, tegyük fel, hogy korábban már mondtam, hogy néha az igényelt időpont nem a tényleges idő. Ezentúl megvan az oltási forma, hogy vigyázzon az igényelt időkre. Ez az oltás felkészített arra, hogy olyan állítólagos időkkel kerüljön kapcsolatba, amelyek dezinformációnak vagy félretájékoztatásnak minősülnek.

Ha néhány évvel ezelőtt előre figyelmeztettem volna, hogy az állítólagos idők nem valós idők, akkor valószínű, hogy nem gondolsz erre a réges-régi figyelmeztetésre. Így a korábbi oltás (mondjuk úgy) elkopott. Lehet, hogy fokozni kell az oltásomat.

Arra is van esély, hogy az oltás nem volt elég specifikus ahhoz, hogy szükség esetén használhassa. Ha évekkel ezelőtt figyelmeztettem volna az igényelt időkre a tényleges időkhöz képest, akkor ez túl tág lehet. Előfordulhat, hogy az oltás nem működik abban a konkrét esetben, amikor 10 óra tájt kapja. Ebben az értelemben talán az kellett volna az oltásomnak, hogy legyen óvatos, amikor 10 órát használnak. Természetesen a betegségek esetében az oltások egyformák, esetenként nagyon specifikusak az ismert betegségekre, míg más esetekben széles spektrumúak.

William McGuire, a Columbia Egyetem munkatársa 1961-ben a pszichológiai oltásról szóló, gyakran idézett kutatási tanulmányát ma már klasszikusnak tekintik ezen a tanulmányi területen. Érdekesnek találhatja ezeket a kulcsfontosságú pontokat, amelyeket akkoriban megfogalmazott:

  • „Az ilyen általános immunizálás kétféle mechanizmusból származhat. Az előzetes expozíció rádöbbentheti az embert, hogy felismerje, hogy az általa mindig is elfogadott „törvények” valóban sérülékenyek, így arra késztetheti, hogy védekezzen a meggyőződése ellen, aminek következtében jobban ellenáll az erős ellenérveknek, amikor azok jönnek. Alternatív megoldásként az előzetes leleplezésben rejlő cáfolatok kevésbé tűnhetnek lenyűgözőnek a hiedelem ellen utólag felhozott ellenérvek” (William McGuire, „Resistance To Susuasion Conferred By Active and Passive Prior Refutation Of The Same And Alternative Counterarguments”, Journal of Abnormal and Szociálpszichológia, 1961).

Hasznos és találó összehasonlításnak találja az oltások és az immunizálás analógiáját a félretájékoztatás és a dezinformáció birodalmával?

Van aki igen, van aki nem.

E megbeszélés céljából kérjük, fogadja el, hogy az előfeltétel ésszerű és megfelelő.

Hogyan próbáljuk meg beoltani vagy immunizálni az emberek elméjét?

Rávehetnénk az embereket olyan könyvek olvasására, amelyek megvilágosíthatják elméjüket. Lehet, hogy elmondjuk nekik ezt, vagy megkérjük őket, hogy nézzenek meg videókat vagy hallgassanak hangszalagot. Stb.

És mi is használhatjuk az AI-t ugyanerre.

Lehetséges, hogy egy mesterséges intelligencia rendszert is kidolgoznak az oltóanyagnak. Amikor elkezd internetezni, például az internetet nézegeti, egy AI-alapú alkalmazás felkészítheti az online utazásra. A mesterséges intelligencia egy tinédzser kis mennyiségű dezinformációt táplálhat, amely így van megjelölve, és lehetővé teszi, hogy rájöjjön, hogy valami szándékosan hamis dolgot fog látni.

A mesterséges intelligencia által táplált dezinformációnak való kitettség után az elméje most kezd megbirkózni azokkal a dezinformációkkal vagy téves információkkal, amelyekkel a vadonban találkozhat az interneten. Az elméd készen áll. Voila, látsz egy blogot az interneten, amely azt az állítólagos tényt közli, hogy a Marsról származó idegen lények már itt vannak a földön, és jól láthatóan elrejtőznek, de ezt a látszólagos dezinformációt vagy félreinformációt az elméd könnyen elutasítja az előzetes beoltás miatt (na jó, akkor is, talán igaz, és tényleg itt vannak!).

Mindenesetre remélem, most már felismeri, hogyan segítheti a mesterséges intelligencia az emberek beoltását vagy immunizálását a dezinformációval vagy félretájékoztatással szemben.

Különféle mesterséges intelligencia-alkalmazásokat dolgoznak ki, amelyek dezinformációt vagy félretájékoztatást okoznak. A mesterséges intelligencia arra törekedhet, hogy széles körű oltást biztosítson, és az immunizálás általános látszatát adja. Az MI az oltás specifikusabb formáihoz is kidolgozható. Ezenkívül a mesterséges intelligencia személyre szabottan működhet, amely az Ön egyedi igényeihez vagy érdeklődési köréhez van hangolva. A fejlett mesterséges intelligencia ezen a területen megpróbálja meghatározni a tolerancia szintjét, a mentális felszívódási arányt, a megtartó képességet és más tényezőket az úgynevezett immunizálási oltások összeállítása és bemutatása során.

Egészen kézre állónak tűnik.

AI mint veszélyes elmejátékok játékosa

Az így használt mesterséges intelligencia első pillantásra nagyon praktikusnak tűnik (hé, ezt csak egy másodperccel ezelőtt említettem).

Rengeteg lehetséges árnyoldal és probléma van, amelyek aggasztóak és talán ijesztőek.

Rovataimon gyakran tárgyalom az AI kettős felhasználású képességeit, lásd például az itt található link. Az AI létfontosságú hozzájárulása lehet az emberiségnek. Sajnos az AI-t rengeteg veszély és szerencsétlen buktató is megterheli.

A mesterséges intelligencia mint inculcator esetében nézzük meg ezeket a demonstratív AI etikájával kapcsolatos problémákat:

  • Emberi mellékhatások
  • Emberi nem reagáló reakciók
  • AI téves célzás
  • AI alulcélzás
  • Az AI számítógépes megsértése
  • Más

Röviden megvizsgáljuk ezeket az aggályokat.

Emberi mellékhatások

Tegyük fel, hogy egy ilyen mesterséges intelligencia-alapú oltást kapó embernek nemkívánatos reakciója van, vagy káros hatást vált ki.

Előfordulhat, hogy a személy félreértelmezi az immunizálást, és hirtelen nem fogad semmilyen információt, amit kap. Minden információt blokkolnak. Az AI valahogy arra késztette őket, hogy kidobják a babát a fürdővízzel (régi mondás, talán érdemes visszavonulni). Ahelyett, hogy csak a dezinformációkkal és félretájékoztatással próbált volna megbirkózni, a személy úgy reagált, hogy úgy döntött, hogy minden információ mindig hamis.

Nem hiszem, hogy szeretnénk, ha az emberek túlzásba esnének.

A mesterséges intelligencia számos mellékhatást okozhat. Ez részben annak köszönhető, hogy a mesterséges intelligencia hogyan kísérelte meg az oltást, de a probléma egy részét az oltást kapott ember lábához kell tennünk. Lehet, hogy vad vagy bizarr módon reagáltak arra, hogy mások, akik ugyanilyen mesterséges intelligencia-oltást kaptak, nem tették ezt.

Ezt ismét a betegségek elleni oltás analógiájához lehet hasonlítani.

Röviden, fontos lesz, hogy amikor ilyen mesterséges intelligencia-erõfeszítéseket alkalmaznak, azokat felelõsségteljes módon végezzék, a káros hatások minimalizálása érdekében. A mesterséges intelligencia nyomon követési aspektusának is kell lennie, hogy megbizonyosodjon arról, hogy előfordult-e nemkívánatos reakció. Ha nemkívánatos reakciót észlelnek, az MI-t úgy kell megtervezni, hogy segítse a személyt a nemkívánatos reakcióban, és megpróbálja leküzdeni vagy enyhíteni a reakciót.

Emberi nem reagáló reakciók

Egy másik lehetőség az, hogy a mesterséges intelligencia által táplált oltás nincs hatással a fogadó személyre.

Egy személy MI-alapú oltást kap félretájékoztatással vagy félretájékoztatással kapcsolatban. Míg a legtöbb ember „megkapja” és immunizálódik, biztosan vannak olyanok, akik egyáltalán nem reagálnak. Semmit sem tanulnak az oltásból. Nem reagálnak a mesterséges intelligencia arra irányuló kísérletére, hogy immunizálják őket a félretájékoztatás vagy félretájékoztatás teljes vagy bizonyos típusai ellen.

Ez ismét összehasonlítható a betegségek elleni oltással.

Az AI-t úgy kell megalkotni, hogy megbirkózzon ilyen körülményekkel.

AI téves célzás

Képzeljük el, hogy egy mesterséges intelligencia azt reméli, hogy immunizálja az embereket egy adott témával kapcsolatban, amelyről azt mondjuk, hogy X téma, de kiderül, hogy ehelyett Y témával foglalkoznak. Az AI tévesen céloz.

Ez kettős probléma. Először is, az X témával nem foglalkoztak, mint az MI-oltó feltételezett és remélt céljaival. Másodszor, az Y témával foglalkozunk, de lehet, hogy nem akartuk volna, hogy az embereket ezzel a témával immunizálják.

Hoppá.

Kérdések bővelkednek. Meg lehetett volna akadályozni, hogy ez megtörténjen? Ha megtörténik, visszavonhatjuk az Y immunizálás témáját? Törekedhetünk-e arra, hogy lefedjük az X oltás témát, vagy az ember kevésbé lesz fogékony vagy nem fogékony a mesterséges intelligencia eredeti célzása miatt?

Sok problémás aggály merül fel.

AI alulcélzott

Egy mesterséges intelligencia oltást biztosít a Z témában. Úgy tűnik, hogy az oltást kapó emberek reakciója minimális vagy csaknem elhanyagolható. Az oltás nem volt elegendő ahhoz, hogy megállja a helyét.

Lehetséges, hogy gyorsan azt állítja, hogy ez könnyen megoldható. Csak meg kell ismételni az oltást. Talán igen, talán nem.

A mesterséges intelligencia beoltásának olyan korlátozott értéke lehet, hogy akár százszor is megtapasztalják, az eredmény még mindig marginális. Előfordulhat, hogy meg kell ismételnie az oltást.

Eközben képzeljük el, hogy megpróbálják fokozni a mesterséges intelligencia által táplált oltást, de ez túlzásba esik. A megnövelt verzió hiperreakciókat vált ki. Aha, a rosszból a rosszabbra jutottunk.

Az AI számítógépes megsértése

Képzeld el, hogy az AI-t széles körben használják arra, hogy segítsék az embereket abban, hogy megvédjék magukat a dezinformációtól és a félretájékoztatástól.

Az általános támaszkodás megragadja az embereket. Tudják és várják, hogy az AI olyan részleteket fog bemutatni nekik, amelyek felnyitják a szemüket az úgynevezett dezinformációra és félretájékoztatásra.

Minden rendben van, úgy tűnik.

Egy gonosztevő valamilyen módon képes kibertámadást elkövetni az AI-n. Alattomosan belekényszerítenek az MI-be olyan kívánt dezinformációkat, amelyekről azt akarják, hogy az emberek azt gondolják, hogy nem dezinformáció. Az AI úgy van kialakítva, hogy a tényleges dezinformáció valódi információnak tűnjön. Emellett a valódi információ dezinformációként jelenik meg.

Az emberek teljesen snookerek. Az AI félretájékoztatja őket. Ráadásul, mivel függővé váltak az MI-től, és mert bíztak abban, hogy az MI helyesen cselekszik, ezért a feltört mesterséges intelligencia miatt kiakadtak. Tétovázás nélkül.

Tekintettel arra, hogy a dezinformáció milyen könnyen terjedhet tovább, a gonosztevő örülhet annak, hogy az ilyesfajta mesterséges intelligencia létezése a legegyszerűbb és leggyorsabb módja annak, hogy alattomos hazugságaikat világszerte elterjesszék. Természetesen ironikus, hogy az AI-oltóanyagot felhasználva lényegében terjesztették a betegséget.

Következtetés

A mesterséges intelligencia elmejátékokat játszana velünk?

Lehetséges, hogy a félretájékoztatást és a félretájékoztatást oltó mesterséges intelligencia egy fenyegető trójai faló?

Érdeklődni lehet egy ilyen rémálom miatt.

Mások gúnyolódnak egy ilyen lehetőségen. Az emberek elég okosak ahhoz, hogy tudják, mikor próbálja meg becsapni őket az AI. Az emberek nem fognak bedőlni egy ilyen csepergésnek. Csak az idióták vezetnék félre magukat egy ilyen MI-vel. Ezek a szokásos válaszok és ellenérvek.

Nem akarok úgy tűnni, hogy teljesen csodálja az embereket és az emberi természetet, csupán azt javaslom, hogy sok jel utal arra, hogy az emberek beleeshetnek az őket félrevezető AI-ba.

Van még ennél is nagyobb probléma, ami talán mindezek felett fenyeget.

Ki készíti az AI-t, és hogyan dönti el az AI algoritmikusan, hogy mi minősül dezinformációnak és félretájékoztatásnak?

Egy egész tűzharc zajlik ma a nagyvilágban arról, hogy mi számít konkrétan dezinformációnak és félretájékoztatásnak. Egyesek azt állítják, hogy a tények tények, így soha nem lehet összetéveszteni, hogy mi a helyes információ a helytelen információval szemben. Bár az ördög időnként a részletekben rejlik, ez átkozottul biztos.

Egyelőre egy utolsó megjegyzés. Abraham Lincoln híres mondása: „Az összes embert meg lehet hülyíteni egy idő után, és néhány embert mindig, de nem lehet mindig az összes embert becsapni.”

Vajon a mesterséges intelligencia, amelyet az emberiség dezinformációkkal és félretájékoztatással szembeni beoltására használnak, létfontosságú eszköz lesz-e annak biztosítására, hogy ne lehessen minden embert állandóan becsapni? Vagy talán arra használják, hogy több embert megtévesszenek?

Az idő fogja megmondani.

És ez biztosan nem dezinformáció vagy félretájékoztatás.

Forrás: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/