首頁(yè)>資訊 >
面試你的不是人?紐約計(jì)劃限制人工智能「面試官」 2021-11-25 07:52:12  來(lái)源:36氪

「我們無(wú)法提供有關(guān)您面試結(jié)果的具體反饋?!?/p>

在美國(guó),越來(lái)越多的雇主利用人工智能(AI)加快招聘流程。但求職者很少知道 AI 招聘工具為何拒絕他們的簡(jiǎn)歷,或者如何分析他們的視頻面試。當(dāng)他們落選時(shí),往往只能收到這樣一封冷冰冰的郵件,不知道自己到底為什么落選。

這不免令人不安,AI 在我們的職業(yè)生涯中究竟起到怎樣的決定權(quán)?

美聯(lián)社報(bào)道,11 月初,紐約市議會(huì)以 38 票對(duì) 4 票通過(guò)了一項(xiàng)法案:如果 AI 招聘系統(tǒng)沒(méi)有通過(guò)年度審計(jì),將被禁止使用。

年度審計(jì)將檢查 AI 招聘系統(tǒng)有沒(méi)有種族或性別歧視,允許求職者選擇人工審查等替代方案,AI 開發(fā)人員還需披露更多過(guò)去不透明的細(xì)節(jié)。

有趣的是,負(fù)責(zé)年度審計(jì)的是 AI 開發(fā)人員,但會(huì)被處罰的是雇主,如果他們使用了未通過(guò)年度審計(jì)的 AI 招聘系統(tǒng),每項(xiàng)違規(guī)行為最高處罰 1500 美元。

支持者認(rèn)為,該法案將為復(fù)雜的算法打開一扇窗戶。算法往往根據(jù)求職者的說(shuō)話或?qū)懽鞣绞綄?duì)技能和個(gè)性進(jìn)行排名,但機(jī)器能否準(zhǔn)確公正地判斷性格特征和情緒信號(hào)值得懷疑,這一過(guò)程未來(lái)會(huì)更加透明。

至少,知道「因?yàn)樗惴ㄓ衅姸痪芙^」就是有意義的,牛津大學(xué)技術(shù)法教授 Sandra Wachter 曾經(jīng)表示:

反歧視法主要是由投訴驅(qū)動(dòng)的,如果他們不知道發(fā)生在自己身上的事情,就沒(méi)有人可以抱怨被剝奪了工作機(jī)會(huì)。

初創(chuàng)公司 Pymetrics 也非常支持這一法案,他們提倡借助 AI 通過(guò)游戲等方法面試,并認(rèn)為其符合公平要求。

與此同時(shí),過(guò)時(shí)的 AI 面試方案將被掃進(jìn)垃圾堆。AI 招聘系統(tǒng)提供商 HireVue 在今年初已開始逐步淘汰其面部掃描工具,這項(xiàng)工具被學(xué)術(shù)界稱為「?jìng)慰茖W(xué)」,讓人想起有關(guān)種族主義的顱相學(xué)理論。

對(duì)法案的反對(duì)意見,大多是出于「這遠(yuǎn)遠(yuǎn)不夠」。民主與技術(shù)中心主席 Alexandra Givens 指出,提案實(shí)際上只是要求雇主滿足美國(guó)民權(quán)法的現(xiàn)有要求——禁止因種族、民族或性別而產(chǎn)生不同影響的招聘行為,但忽略了針對(duì)殘疾或年齡的偏見。

而一些人工智能專家和數(shù)字權(quán)利活動(dòng)家擔(dān)心,法案只是讓 AI 開發(fā)人員自證他們遵守了基本要求,也只是為聯(lián)邦監(jiān)管機(jī)構(gòu)和立法者設(shè)定薄弱標(biāo)準(zhǔn),具體如何「審計(jì)偏見」非常模糊。

值得注意的是,偏見在面試中并不少見,主要問(wèn)題出在喂養(yǎng)算法的樣本,但它們往往被置于「黑箱」之中,普通求職者很難發(fā)覺(jué)。

幾年前,亞馬遜停用了簡(jiǎn)歷掃描工具,因?yàn)樗蜃屇行該?dān)任技術(shù)崗位。部分原因在于,它將求職者的條件與公司內(nèi)部的男性技術(shù)勞動(dòng)力進(jìn)行比較;同理,如果算法從種族和性別差異已經(jīng)普遍存在的行業(yè)中獲取養(yǎng)料,那么它只是在鞏固偏見。

這種偏見并不只是招聘中。今年 4 月,南加州大學(xué)一項(xiàng)新的研究表明,F(xiàn)acebook 正在以可能違反《反歧視法》的方式展示廣告,男性更有可能看到披薩送貨司機(jī)招聘廣告,而女性更有可能看到購(gòu)物廣告。

本質(zhì)上,AI 歧視就是被人類社會(huì)培養(yǎng)的,個(gè)人的偏見行為甚至是下意識(shí)的,我們自己不一定察覺(jué)。如果將一家偏見較少的公司與偏見嚴(yán)重的公司比較,一般就是兩種原因——前者在有意消除偏見方面做得更好,后者更擅長(zhǎng)收集并不合理的現(xiàn)狀并使它們永久化。

所以,中性意見認(rèn)為紐約市提案最好的部分是它的披露要求,讓人們知道自己正在被 AI 評(píng)估、如何被 AI 評(píng)估以及他們的數(shù)據(jù)去向是哪里。

▲ 參考資料:

1.https://apnews.com/article/technology-business-race-and-ethnicity-racial-injustice-artificial-intelligence-2fe8d3ef7008d299d9d810f0c0f7905d

2.https://apnews.com/article/job-seekers-artificial-intelligence-hiring-decisions-784ccec7ac6175aadc573465ab604fb9

圖片來(lái)自:unsplash

本文來(lái)自微信公眾號(hào)“愛范兒”(ID:ifanr),作者:張成晨,36氪經(jīng)授權(quán)發(fā)布。

關(guān)鍵詞: 紐約 人工智能 面試官

相關(guān)閱讀:
熱點(diǎn)
圖片 圖片