譯者 | 崔皓
審校 | 孫淑娟
盡管人工智能發(fā)展迅猛,但我們并沒有體驗(yàn)到人工智能(AI)及其能力輻射的全部范圍。畢竟,人工智能影響的范圍以及發(fā)展前景仍然主導(dǎo)著研究工作,科學(xué)家們依舊熱衷于從人工智能的創(chuàng)新中尋找出新的應(yīng)用案例。
目前為止,我們已經(jīng)遇到了人工智能在各種情況下的應(yīng)用。這是因?yàn)槲覀兯忸櫟脑S多公司已經(jīng)增加了對人工智能技術(shù)的應(yīng)用。例如互動式個人助理Siri,它使蘋果公司的客戶能夠通過各種應(yīng)用獲取信息,聽寫電子郵件,并利用iOS手機(jī)、智能手表、電腦和電視執(zhí)行任務(wù)。
很多品牌方也在利用聊天機(jī)器人來提供無可挑剔的客戶體驗(yàn),這種方式不僅能促進(jìn)銷售,還能消除重復(fù)性工作,從而提高人類員工的參與度。
就在人工智能工具應(yīng)用率上升的同時,其企業(yè)的投資也在飆升。根據(jù)麥肯錫的??2022年人工智能狀況??報告,52%的受訪者確認(rèn)其數(shù)字預(yù)算的5%以上是用于人工智能。在2018年,這一比例為40%。
引人注目的提升
在人力資源方面,人工智能可以幫助企業(yè)提高員工對當(dāng)前角色的滿意度并協(xié)助員工快速完成任務(wù),從而節(jié)省了時間和金錢這兩個不可缺少的因素。除此以外,企業(yè)可以通過使用人工智能驅(qū)動的軟件來篩選數(shù)以千計的申請,并篩選出少數(shù)有經(jīng)驗(yàn)的候選人,從而完善招聘。
然而,也出現(xiàn)了該系統(tǒng)偏向于某一特定群體或性別而非其他人的情況。這是危險的趨勢,如果不加以控制,可能會大大損害公司的形象,并否定該技術(shù)帶來的益處。為了幫助你有效地處理人工智能處理上的“偏見”,本文提供了一些指導(dǎo)意見。
招聘中的人工智能:你需要知道的
以前,人們在報紙的分類廣告中查找招聘信息,并通過手寫信件的方式作出回應(yīng)。如今,任何人都可以在互聯(lián)網(wǎng)上通過大量的渠道獲得招聘信息。
招聘是一項(xiàng)公司優(yōu)先考慮的任務(wù)。這解釋了越來越多地使用人才招聘機(jī)構(gòu)的原因。使用人工智能不僅簡化了這個過程,而且擴(kuò)大了領(lǐng)域自動化的可能性。從??Tidio??針對人工智能對招聘影響的??調(diào)查??中發(fā)現(xiàn),近67%的人力資源專業(yè)人士承認(rèn),這種創(chuàng)新對招聘階段產(chǎn)生了積極的影響。
但是,“偏見”是如何不期而至的呢?
2014年,電子商務(wù)巨頭亞馬遜選擇將人工智能納入其招聘系統(tǒng)。雖然這在很大程度上被認(rèn)為是朝著正確方向邁出的一步,因?yàn)閬嗰R遜是一個堅定的自動化倡導(dǎo)者,但當(dāng)某一現(xiàn)象的發(fā)生,導(dǎo)致之前的努力化為泡影。該招聘系統(tǒng)更加偏好男性候選人,而不是女性候選人。
為什么會發(fā)生這種情況?路透社的一份報告顯示
"......亞馬遜的計算機(jī)模型經(jīng)過訓(xùn)練,通過觀察10年間提交給該公司的簡歷的模式來審查申請人。大多數(shù)人來自男性,這反映了整個科技行業(yè)的男性主導(dǎo)地位。"
人工智能的偏見可以以多種方式表現(xiàn)出來,某些性別、群體、宗教和其他隸屬關(guān)系等。
減輕招聘中的人工智能偏見的三種最佳做法
雖然可能無法完全消除人工智能模型中的偏見,但有一些策略能夠減少偏見事件發(fā)生的幾率。
以下是三種必須掌握的方法。
1.始終讓人類了解情況
雖然人們越來越擔(dān)心智能工具會取代人類工人,但我們應(yīng)該把這看作是一種合作關(guān)系,而不是一種徹底的接管。還有,人工智能主導(dǎo)的工具應(yīng)該在沒有人類監(jiān)督的情況下運(yùn)作,因?yàn)樗鼈儽憩F(xiàn)出相當(dāng)高的效率,這種觀念也需要修正。
有趣的是,人機(jī)協(xié)作已被證明是更有價值的。《哈佛商業(yè)評論》??的??一項(xiàng)??研究??發(fā)現(xiàn),12個行業(yè)的1075家公司獲得了速度、成本節(jié)約和利潤的提高。
鑒于這一事實(shí),公司應(yīng)確保有一個人力團(tuán)隊持續(xù)監(jiān)督招聘中使用的軟件。他們可以減少偏袒的風(fēng)險。另外,員工應(yīng)該從多元化的人才庫中抽取,以便每個群體都有代表,從而減少歧視。
2.對人工智能模型進(jìn)行定期審計
如果對人工智能算法的概率結(jié)果不進(jìn)行經(jīng)常性地檢查,可能會給公司的反偏見努力帶來嚴(yán)重打擊。通過組織對算法的定期檢查,企業(yè)可以發(fā)現(xiàn)阻礙模型傳遞公平結(jié)果的問題。不完整或不準(zhǔn)確的數(shù)據(jù)應(yīng)在發(fā)現(xiàn)后立即糾正。
3.光顧人工智能招聘軟件供應(yīng)商,厭惡偏見
就像汽車經(jīng)銷商一樣,你會發(fā)現(xiàn)各種招聘軟件的選擇。為了做出正確的決定,努力了解供應(yīng)商設(shè)置的機(jī)制是如何解決各種偏見的。
你應(yīng)該要求系統(tǒng)在各種情況下得到測試,同時觀察它們的表現(xiàn)。除了偏見之外,還要檢查軟件的可擴(kuò)展性、價格和成本節(jié)約。符合所有或大部分條件的才是優(yōu)秀的供應(yīng)商。
對人工智能未來的看法
人工智能的發(fā)展對我們所有人來說都是一件好事。從使汽車能夠自動轉(zhuǎn)向和停車(有司機(jī)主動監(jiān)督)到在更短的時間內(nèi)尋找和雇用合格的候選人,人工智能在招聘方面顯現(xiàn)出優(yōu)勢。但是,我們應(yīng)該有目的地管理人工智能技術(shù),以避免與人工努力相關(guān)的失誤。
譯者介紹
崔皓,51CTO社區(qū)編輯,資深架構(gòu)師,擁有18年的軟件開發(fā)和架構(gòu)經(jīng)驗(yàn),10年分布式架構(gòu)經(jīng)驗(yàn)。
原文標(biāo)題:??Three Best Practices for Tackling AI Bias in Recruitment??,作者:Michael Akuchie