Pokud se obáváte, že by mezi vámi a vaším vysněným zaměstnáním mohly stát algoritmy pro screening kandidátů, přečtěte si Hilke Schellmann Algoritmus neuklidní vaši mysl. Nová kniha investigativního reportéra a profesora žurnalistiky NYU demystifikuje, jak personální oddělení používají automatizační software, který nejen šíří zaujatost, ale selhává ve věci, o které tvrdí, že dělá: najít nejlepšího kandidáta pro tuto práci.
Schellmann se představil jako potenciální lovec zaměstnání, aby otestoval některé z tohoto softwaru, který sahá od screenerů životopisů a testů založených na videohrách až po hodnocení osobnosti, které analyzuje výrazy obličeje, hlasové intonace a chování na sociálních sítích. Jeden nástroj ji ohodnotil jako nejlepší pro práci, i když s ním mluvila nesmysly německy. Algoritmus hodnocení osobnosti jí dal vysoké známky za „stabilitu“ na základě jejího používání Twitteru a nízké hodnocení na základě jejího profilu na LinkedIn.
Stačí to k tomu, abyste smazali svůj účet LinkedIn a začali využívat homesteading, ale Schellmann má také povznášející poznatky. V rozhovoru, který byl upraven pro délku a srozumitelnost, navrhla, jak by společnost mohla omezit zaujaté HR technologie, a nabídla praktické tipy pro uchazeče o zaměstnání, jak porazit roboty.
Caitlin Harrington: Hlásili jste o použití AI při najímání pro The Wall Street Journal, MIT Technology Reviewa Opatrovník za posledních několik let. V jakém okamžiku sis myslel, že tady mám knihu?
Hilke Schellmannové: Jedním z nich bylo, když jsem v roce 2018 šel na jednu z prvních konferencí o HR technologiích a setkal jsem se s nástroji AI, které vstupovaly na trh. Bylo tam asi 10 000 lidí, stovky prodejců, spousta kupujících a velkých společností. Uvědomil jsem si, že je to obrovský trh a přebírá HR.
Softwarové společnosti často prezentují své produkty jako způsob, jak odstranit lidskou zaujatost z náboru. Ale samozřejmě umělá inteligence dokáže absorbovat a reprodukovat zkreslení tréninkových dat, která přijímá. Objevili jste jeden prověřovač životopisů, který upravil skóre kandidáta, když v jeho životopisu objevil frázi „Afroameričan“.
Schellmann: Společnosti samozřejmě řeknou, že jejich nástroje nemají zaujatost, ale jak byly testovány? Díval se na to někdo, kdo ve firmě nepracuje? Manuál jedné společnosti uváděl, že jejich najímání umělé inteligence bylo vyškoleno na datech od 18- až 25letých vysokoškoláků. Možná právě našli něco velmi specifického pro lidi ve věku 18 až 25 let, co není použitelné pro ostatní pracovníky, na kterých byl nástroj použit.
Manažer náboru lidí může způsobit jen tolik škod a samozřejmě bychom se tomu měli snažit zabránit. Ale algoritmus, který se používá k hodnocení stovek tisíc pracovníků, pokud je chybný, může poškodit mnohem více lidí než kterýkoli člověk.
Nyní zjevně prodejci nechtějí, aby se lidé dívali do černých skříněk. Ale myslím, že zaměstnavatelé se také vyhýbají hledání, protože pak mají věrohodnou popření. Pokud zjistí nějaké problémy, může to být 500 000 lidí, kteří požádali o práci a mohli by mít nárok. Proto musíme nařídit větší transparentnost a testování.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com