A mesterséges intelligencia által vezérelt munkaerő-toborzási eszközök nem javíthatják a munkaerő-felvételi sokszínűséget, érvelnek a szakértők

Topline

A Cambridge-i Egyetem kutatói vasárnap azzal érveltek, hogy a korábban bírálatokat kiváltó programokat megfogalmazva az olyan állásközvetítő eszközök, amelyek azt állítják, hogy mesterséges intelligenciát használnak a nemi és faji elfogultság elkerülésére a technológia használatával egy mélyebb probléma gyors megoldására.

Főbb tények

által közzétett cikkben Filozófia és technológia, a kutatók megvizsgálták több, AI-alapú toborzási eszközöket kínáló cég állításait, amelyek közül sok azt állítja, hogy megszünteti az elfogultságokat és elősegíti a sokszínűséget azáltal, hogy elrejti a jelöltek nevét, nemét és egyéb azonosítóit. rangsorban a jelöltek önéletrajzok szkennelése, online értékelése, valamint a jelentkezők beszédének és arckifejezésének elemzése alapján.

A kutatók – a Cambridge-i Egyetem Nemi Tanulmányok Központjának két professzora – azzal érveltek, hogy ezek az eszközök valóban elősegíthetik a munkaerő-felvétel egységességét, mivel az „ideális jelölt” kulturális előítéleteit reprodukálják, akik történelmileg fehér vagy európai férfiak voltak.

Előfordulhat, hogy az eszközök nem javítják a sokszínűséget, mivel korábbi vállalati adatokon alapulnak, és így olyan jelölteket népszerűsíthetnek, akik leginkább hasonlítanak a jelenlegi alkalmazottakhoz.

Eleanor Drage, a tanulmány társszerzője és a Cambridge-i Egyetem Nemi Tanulmányi Központjának kutatója szerint „kevés elszámoltathatóság van azért, hogy ezeket a termékeket hogyan építik vagy tesztelik” – nyilatkozta, hozzátéve, hogy a technológia „veszélyes” lehet. „félretájékoztatás forrása arról, hogyan lehet a toborzást „elfogultabbá tenni” és igazságosabbá tenni.

Fontos ajánlat

„Azzal az állítással, hogy a rasszizmus, a szexizmus és a diszkrimináció egyéb formái kivehetők a munkaerő-felvételi folyamatból mesterséges intelligencia segítségével, ezek a vállalatok a faji és nemi hovatartozást jelentéktelen adatpontokra redukálják, nem pedig olyan hatalmi rendszerekre, amelyek a világban való mozgásunkat alakítják. – mondta Drage közleményében.

Tangens

Az Amazon 2018-ban bejelentette, hogy megteszi megáll mesterséges intelligencia-toborzó eszköz segítségével ellenőrizték az álláspályázók önéletrajzát, miután megállapították, hogy a rendszer erősen diszkriminálja a nőket. Ennek oka, hogy a számítógépes modelleket, amelyekre támaszkodott, az elmúlt 10 évben a céghez benyújtott önéletrajzok alapján fejlesztették ki, amelyek többnyire férfi jelentkezőktől érkeztek.

Fő háttér

A szervezetek egyre gyakrabban fordulnak az AI-hoz, hogy segítsék a munkaerő-toborzási folyamatok kezelését. Egyben 2020 közvélemény-kutatás A vasárnapi lap szerzői által idézett több mint 300 humánerőforrás-vezető közül a Gartner tanácsadó cég azt találta, hogy a munkaadók 86%-a alkalmaz virtuális technológiát a munkaerő-felvételi gyakorlata során, ami a Covid-19 világjárvány óta felgyorsult tendencia óta sokakat arra kényszerített, hogy az interneten váltsák át a munkát. Míg egyes vállalatok azzal érveltek, hogy a mesterséges intelligencia költség- és időhatékonyabb felvételi eljárást kínál, egyesek szakértők ajánlatunkra talált a rendszerek hajlamosak a faji és nemi alapú munkaerő-felvétel előmozdítására – ahelyett, hogy megszüntetnék – a való világból származó meglévő előítéletek megismétlésével. Több amerikai törvényhozó is célzó a mesterséges intelligencia rendszerekben tapasztalható torzítások leküzdésére, mivel a technológia továbbra is gyorsan fejlődik, és kevés jogszabály létezik a szabályozására. A Fehér Ház a héten nyilvánosságra hozta a „Blueprint for an AI Bill of Rights”, amely azt állítja, hogy a munkaerő-felvétel során használt algoritmusokról kiderült, hogy „tükrözik és reprodukálják a meglévő nem kívánt egyenlőtlenségeket”, vagy új „elfogultságot és diszkriminációt építenek be”. A terv – amely nem jogilag kötelező erejű és nem hivatalos kormányzati irányelv – arra szólítja fel a vállalatokat, hogy biztosítsák, hogy az AI ne tegyen megkülönböztetést vagy sértse meg az adatvédelmet, valamint hogy tájékoztassák a felhasználókat a technológia használatáról.

Mit kell figyelni

Az ajánlások listájában a Sunday's szerzői Filozófia és technológia A tanulmány azt javasolta, hogy az AI-technológiákat fejlesztő vállalatok a szélesebb körű, szisztematikus egyenlőtlenségekre összpontosítsanak az „egyedi elfogultsági esetek” helyett. Például azt javasolják a szoftverfejlesztőknek, hogy vizsgálják meg a jelöltek rendezésére, feldolgozására és kategorizálására használt kategóriákat, és azt, hogy ezek a kategóriák hogyan segíthetik elő a diszkriminációt bizonyos nemre és fajra vonatkozó feltételezésekre támaszkodva. A kutatók azt is állítják, hogy a HR-szakembereknek meg kell próbálniuk megérteni, hogyan működnek a mesterséges intelligencia toborzási eszközei, és mik a lehetséges korlátai.

Meglepő tény

Az Európai Unió „magas kockázatú” kategóriába sorolta az AI-alapú munkaerő-felvételi szoftvereket és teljesítményértékelési eszközöket vázlat a mesterséges intelligencia jogi kerete, ami azt jelenti, hogy az eszközöket nagyobb ellenőrzésnek vetnék alá, és meg kell felelniük bizonyos megfelelőségi követelményeknek.

További olvasnivalók

A DC vezetni akarja az AI-elfogultság elleni küzdelmet (Axios)

Forrás: https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/