人工智能大行其道:科技公司需要設(shè)置“首席偏差官”
英國皇家歷史學(xué)會(huì)最近透露,學(xué)會(huì)利用人工智能算法進(jìn)行的初次研究顯示,英國的勞動(dòng)力存在“大規(guī)模性別偏差”?;谌斯ぶ悄艿南到y(tǒng)搜集了整個(gè)英國互聯(lián)網(wǎng)上的資料,排查了現(xiàn)有男女職位的分布。該項(xiàng)研究調(diào)研了108個(gè)不同的經(jīng)濟(jì)行業(yè)后發(fā)現(xiàn),其中87%的行業(yè)存在傾向于男性的不平等,導(dǎo)致任高層領(lǐng)導(dǎo)職位的男性不成比例。
這項(xiàng)開創(chuàng)性的研究很好地說明了人工智能在闡釋我們的世界時(shí)具有極大的潛力,畢竟,人工智能的一個(gè)強(qiáng)大功能就是分析超大量的數(shù)據(jù)并在其中找到我們?nèi)祟悷o法找到的模式。不過,雖然人工智能可以幫助發(fā)現(xiàn)偏差和不公平,但實(shí)際上人工智能也可能導(dǎo)致更多偏差和不公平。
來看一下以下的例子:加納裔美國計(jì)算機(jī)科學(xué)家Joy Buolamwini(https://twitter.com/jovialjoy?lang=en)現(xiàn)在是麻省理工學(xué)院媒體實(shí)驗(yàn)室的羅德學(xué)者和研究員,她以前讀研究生時(shí)發(fā)現(xiàn)她使用的人工智能面部識(shí)別系統(tǒng)無法識(shí)別她的臉。而只有在她戴上白色面具后系統(tǒng)才能確認(rèn)她的存在。在Buolamwini案例中,面部識(shí)別系統(tǒng)不能識(shí)別她,因?yàn)橛糜谟?xùn)練軟件的數(shù)據(jù)池里大部分是白色面孔,而且缺乏足夠的多樣性。換句話說,問題始于數(shù)據(jù)本身,人工智能系統(tǒng)要從這個(gè)有缺陷的數(shù)據(jù)集合里學(xué)習(xí),系統(tǒng)越來越“智能”時(shí),問題也就會(huì)揮之不去。其實(shí),實(shí)際的系統(tǒng)會(huì)變得越來越笨,因?yàn)槠畋旧頃?huì)進(jìn)一步強(qiáng)化偏差。Buolamwini發(fā)起了算法正義聯(lián)盟(https://www.ajlunited.org/)計(jì)劃,計(jì)劃旨在推動(dòng)大家對(duì)人工智能偏差的關(guān)注及培訓(xùn)組織實(shí)行人工智能實(shí)踐。Buolamwini希望借計(jì)劃推動(dòng)更公平、更道德的人工智能方法,這一使命在人工智能驅(qū)動(dòng)決策制定的時(shí)代顯得尤其重要。
一眾企業(yè)不僅必須重新定位數(shù)據(jù)集和算法培訓(xùn),還必須重新定位圍繞人工智能的流程和人員。(圖:美聯(lián)社)
含偏差的人工智能也擴(kuò)展到了其他領(lǐng)域,如刑事司法、招聘和招聘等等。IBM發(fā)表的一份研究報(bào)告提出,已經(jīng)定義和分了類的人類偏差達(dá)180之多,每種偏差都可以干擾判斷及影響最終決策。人工智能則很容易復(fù)制這些偏差。假定一家公司要利用人工智能來確定員工的工資,定工資的標(biāo)準(zhǔn)部分基于薪酬歷史。這就可能會(huì)令女性處于相當(dāng)不利的地位(https://www.brookings.edu/blog/techtank/2019/01/03/artificial- intelligence-and-bias-four-key-challenges/),基本就是因?yàn)樗齻冞^去一直受到歧視。再例如,推薦引擎也會(huì)從用戶的偏好中學(xué)習(xí)并提出相應(yīng)的建議。
各個(gè)組織要如何才能確定自己及人工智能系統(tǒng)所依賴的數(shù)據(jù)確實(shí)是合適的?而且不會(huì)強(qiáng)化歧視模式呢?
與許多其他問題一樣,克服問題的先要承認(rèn)問題的存在。企業(yè)不僅必須重新定位數(shù)據(jù)集和算法培訓(xùn),還必須重新定位圍繞人工智能的流程和人員。我們希望有一個(gè)更公平的工作場(chǎng)所,在這個(gè)過程中解決這些問題就至關(guān)重要。我們必須有專門的團(tuán)隊(duì)和流程,甚至可能需要?jiǎng)?chuàng)建諸如“首席偏差官”這樣的職位,他的工作就是審查數(shù)據(jù)并確保嚴(yán)格的道德標(biāo)準(zhǔn),人工智能工具將會(huì)在我們的工作環(huán)境里越來越普及,他的任務(wù)是與偏差和偏見做斗爭(zhēng)。
例如,他可以通過推動(dòng)多樣化,影響工程團(tuán)隊(duì)的招聘,然后再定期檢查工程師為人工智能算法選用的數(shù)據(jù)輸入。這是“人員就是政策”的一個(gè)例子。要認(rèn)識(shí)到人工智能并非絕對(duì)可靠,這一點(diǎn)很重要,拙劣的輸入意味著拙劣的輸出。他要定期進(jìn)行績效評(píng)估,要針對(duì)可查算法輸出進(jìn)行控制測(cè)試及持續(xù)微調(diào)。
各組織需確保多種背景的使用,多種背景可以防止扭曲和盲點(diǎn)。 Buolamwini本人則建議組織要檢查不同偏差集的算法 ,一系列不同的視角可以加強(qiáng)這方面的工作,可以減少偏差數(shù)據(jù)及確保更公平的算法代碼。
修復(fù)算法偏差需要管理層、人力資源和工程師的共同努力,三方面合作才能有效地將有意識(shí)和無意識(shí)的人類偏見排除在系統(tǒng)之外。人類的愚笨是永遠(yuǎn)無法完全消除的,但認(rèn)識(shí)了人類的愚笨后,我們就可以打造更公平、更聰慧的人工智能系統(tǒng),可以真正令我們的工作場(chǎng)所決策少一些人工、多一些智能。