Členovia tímu, ktorý pracuje na ňom, povedali agentúre Reuters, že systém efektívne vyučoval, že kandidáti na mužstvo sú vhodnejšími.
Spoločnosť Amazon neodpovedala na tvrdenia.
Reuters hovorila s piatimi členmi tímu, ktorý v roku 2014 vyvinul nástroj na strojové vzdelávanie, z ktorých žiaden chcel byť verejne menovaný.
Povedali agentúre Reuters, že cieľom systému je preskúmať žiadosti o zamestnanie a poskytnúť kandidátom skóre od jednej až piatich hviezd.
„Doslova chceli, aby to bol motor, kde vám dám 100 životopisov, vyplieniem päť najlepších a budeme ich najať,“ povedal jeden z inžinierov, ktorí hovorili s agentúrou Reuters.
„Ženy“ boli penalizované
Do roku 2015 bolo jasné, že systém nekandidoval kandidátov rodovo neutrálnym spôsobom, pretože bol postavený na údajoch nahromadených z životopisov predložených spoločnosti väčšinou od mužov, tvrdí Reuters.
Systém začal penalizovať životopisy, ktoré zahŕňali slovo „ženy“. Program bol upravený tak, aby bol termín neutrálny, ale bolo zrejmé, že na tento systém sa nedá spoľahnúť, povedal agentúre Reuters.
Projekt bol opustený, hoci agentúra Reuters uviedla, že ju používali na určitý čas náboroví pracovníci, ktorí sa zamerali na odporúčania vytvorené týmto nástrojom, ale nikdy sa na ne neopierali.
Podľa Amazonu je jeho súčasná celosvetová pracovná sila rozdelená na 60:40 v prospech mužov.
Asi 55% manažérov ľudských zdrojov v USA uviedlo, že AI bude hrať úlohu pri prijímaní do zamestnania v priebehu nasledujúcich piatich rokov, podľa prieskumu softvérovej firmy CareerBuilder.
Nie je to po prvýkrát, čo sa objavili pochybnosti o tom, ako budú spoľahlivé algoritmy vyškolené na potenciálne zaujatých údajoch.
Experiment v Technologickom inštitúte v Massachusetts, ktorý vyškolil AI na obrazovkách a videách o vražde a smrti, zistil, že to negatívne interpretuje neutrálne inkbloty.
A v máji minulého roka správa tvrdila, že počítačový program generovaný AI používaný americkým súdom bol zaujatý voči čiernym ľuďom a označil ich ako dvakrát väčšiu pravdepodobnosť opätovného zločinu za bielych ľudí.
Prediktívne policajné algoritmy boli rovnako zaujaté, pretože údaje o trestných činoch, na ktorých boli vycvičení, preukázali viac zatýkaní alebo zastavenie policajtov pre černochov.