Ukázalo se to v experimentu, v němž umělá inteligence hodnotila životopisy.
V něm se dopustila takzvaného ableismu, tedy diskriminace či předsudků vůči lidem s postižením. Na studii Univerzity ve Washingtonu upozornil server Mashable.
Výzkumný tým dal jazykovému modelu za úkol zhodnotit různé životopisy. Uchazeče a uchazečky, jejichž CV zahrnovala klíčová slova jako neslyšící, nevidomý, autismus nebo prostě jen postižení, hodnotil automaticky hůře.
Výzkumný tým zkusil dokonce i životopis jednoho z autorů studie, který je veřejně přístupný. Přidal nebo upravil různá ocenění a certifikáty tak, aby obsahovaly pojmenování některých postižení, třeba „Cena Toma Wilsona pro leadery s postižením“, nebo uvedl členství v komisi DEI (anglická zkratka pro diversity, equity a inclusion, tedy rozmanitost, rovnost a začlenění, což je termín označující politiky a programy pro zastoupení různých skupin v pracovním nebo jiném prostředí). Upravené životopisy dopadly o poznání hůře.
ChatGPT také uváděl „zhalucinované“ důvody o tom, proč by takový kandidát nemohl dobře vykonávat danou práci, uvedli výzkumníci pro Mashable. Částečně tomu jde zamezit tím, že chatu zadáte, aby ableistické chování omezil a nakrmil ho právě zásadami DEI. Jenže i takové životopisy pořád dopadly hůř, byť ne o tolik.
Minimálně náboráře a náborářky tak zatím umělá inteligence zřejmě zcela nenahradí. „Hodnocení životopisů pomocí umělé inteligence se začíná rozšiřovat, ale zatím neexistuje mnoho výzkumů, které by potvrdily, zda je to bezpečné a efektivní,“ řekla pro server Kate Glazko, postgraduální studentka informatiky a inženýrství a hlavní autorka studie.
„Pro uchazeče o zaměstnání se zdravotním postižením je při předkládání životopisu vždy otázkou, zda by měl uvést údaje o zdravotním postižení. Myslím, že lidé se zdravotním postižením to zvažují i v případě, kdy jsou hodnotiteli lidé,“ připomněla ještě.