- +1
研究表明,AI工具未能減少招聘偏見
來自劍橋大學的研究人員在《哲學與技術(shù)》(Philosophy & Technology)期刊上稱:“人們對于能解決面試偏見等問題的新方法越來越感興趣。”AI的實際應(yīng)用正愈發(fā)普遍,但在通過視頻或應(yīng)用指標遴選求職者方面仍處于“偽科學”的水平。
曾有人力資源專業(yè)機構(gòu)向媒體放話,稱AI技術(shù)有望對抗偏見。
研究發(fā)現(xiàn),2020年一項針對500名人力資源專業(yè)人士的跨國調(diào)查表明,近四分之一的從業(yè)者正在利用AI“以自動化方式選拔人才?!钡@種減少偏見的探索似乎并未奏效,劍橋大學性別研究中心博士后研究員Kerry Mackereth在采訪中表示,這事完全就是在“扯淡”。
她解釋道:“這些工具無法通過訓練獲得單純識別工作相關(guān)特征的能力,也不能從招聘過程中剔除性別和種族因素。這是因為人類總認為,一位員工是否優(yōu)秀會不可避免地與其性別、特征和種族存在內(nèi)在關(guān)聯(lián)?!?/p>
也有研究指出,一些公司還發(fā)現(xiàn)這些工具本身也存在問題。2018年,亞馬遜就宣布放棄開發(fā)AI驅(qū)動型招聘引擎,因為發(fā)現(xiàn)其會從簡歷中檢測性別并歧視女性求職者。
“現(xiàn)代顱相學”
研究人員還特別關(guān)注那些能夠“分析候選人言語與肢體動作細節(jié)”的工具,據(jù)稱這些細微要素也能體現(xiàn)對象是否符合特定職位的要求。
研究合作者Eleanor Drage博士則坦言,這類視頻與圖像分析技術(shù)“沒有科學依據(jù)”,并將其斥為“現(xiàn)代顱相學”——即依靠顱骨形狀推斷性格與智力的虛假理論。
她強調(diào):“他們認為可以通過面部觀察了解對方的性格。這種想法就跟測試工具一樣根本不靠譜。AI沒辦法‘透過’面孔看到真實的內(nèi)在。”

劍橋工具截屏
研究人員們還與六名計算機科學專業(yè)的學生一道,構(gòu)建起自己的簡化版AI招聘工具,基于所謂“五大”人格特征對候選者照片進行評分:
平易近人型
外向型
開放型
負責型
神經(jīng)質(zhì)型
但最終評級還是會受到種種非相關(guān)變量的影響。
Drage博士寫道:“在使用這些工具時,可以看到只要調(diào)整圖像的對比度/亮度/飽和度,AI得出的性格結(jié)論就會發(fā)生變化?!?/p>
The Register指出,其他調(diào)查也得到了類似的結(jié)論。
德國一家公共廣播公司甚至發(fā)現(xiàn),在視頻中佩戴眼鏡或頭巾,也會影響到候選者的最終得分。
英國特許人事與發(fā)展協(xié)會(Chartered Institute of Personnel and Development)的Hayfa Mohdzaini指出,他們的研究表明只有8%的企業(yè)雇主會使用AI技術(shù)來篩選求職人才。
“AI確實可以加大候選人才庫的整體規(guī)模,借此幫助組織提升多樣性水平——但如果規(guī)則和訓練數(shù)據(jù)不完整或不準確,也有可能錯失很多優(yōu)秀的求職者。”
她總結(jié)稱:“目前,用于對候選者言語和肢體語言進行分析的AI軟件尚處于起步階段,其中當然蘊藏著巨大的機會,但也有風險與之伴生?!?/p>
本文為澎湃號作者或機構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機構(gòu)觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發(fā)布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司