算法有偏見?比人強(qiáng)就行!
大數(shù)據(jù)文摘出品
編譯:倪倪、陳同學(xué)、Alieen
在討伐算法導(dǎo)致的偏見和產(chǎn)生的作用時(shí),更重要的問題是:與完全沒有使用算法的情況相比是怎樣的?我們應(yīng)該比較算法的缺陷與人類的缺陷,而不是簡(jiǎn)單地詢問算法是否存在缺陷。
一場(chǎng)革命正在悄然進(jìn)行。
這場(chǎng)革命與大部分新聞報(bào)道中出現(xiàn)的人工智能的進(jìn)展有所不同。
新聞媒體往往聚焦于感知型機(jī)器人軍團(tuán)的重大發(fā)展,而更重要的角逐是在全國(guó)各類機(jī)構(gòu)傳統(tǒng)人為決策過程中展開,很顯然,自動(dòng)化比重正在穩(wěn)步增加。
不同于AlphaGo Zero這樣占據(jù)頭條新聞的先進(jìn)成果,這場(chǎng)革命通過相當(dāng)傳統(tǒng)的機(jī)器學(xué)習(xí)和統(tǒng)計(jì)技術(shù)如普通最小二乘法、邏輯回歸、決策樹等,為許多組織創(chuàng)造了真正的價(jià)值。
這些技術(shù)應(yīng)用的領(lǐng)域是很廣泛的,包括醫(yī)療診斷、司法判決、公共機(jī)構(gòu)的專業(yè)招聘和資源分配等。
這場(chǎng)革命是好事嗎?
似乎有越來(lái)越多的作者、學(xué)者和記者給予否定的回答。這一類型的書包括《數(shù)學(xué)毀滅武器》,《自動(dòng)化不平等》和《黑匣子協(xié)會(huì)》等。還有一連串的曝光式長(zhǎng)篇文章,如“機(jī)器偏差”,“緊縮是一種算法”,“算法是否在構(gòu)建種族主義的新基礎(chǔ)設(shè)施?”等。
人們關(guān)注的焦點(diǎn)是,算法通常是不透明、有偏差并且難以解釋的工具,而這樣的工具正在被權(quán)利組織加以利用。那么,對(duì)于算法逐漸上升的決策地位,人類需不需要感到擔(dān)憂呢?
這些批評(píng)和調(diào)查往往很具有洞察力和啟發(fā)性,并且成功地讓人們認(rèn)為“算法是完全不受主觀影響”是不可能的。但是這些批評(píng)者之間存在一種模式,即他們很少會(huì)探討他們分析的系統(tǒng)在沒有算法參與的情況下運(yùn)行得如何。
對(duì)于從業(yè)者和政策制定者而言,這是最相關(guān)的問題:算法導(dǎo)致的偏見和產(chǎn)生的作用,與完全沒有使用算法的情況相比是怎樣的?我們應(yīng)該比較算法的缺陷與人類的缺陷,而不是簡(jiǎn)單地詢問算法是否存在缺陷。
研究結(jié)果怎么說(shuō)?
關(guān)于算法決策的大量研究可以追溯到幾十年前。與這一主題相關(guān)的研究都得出了一個(gè)非常相似的結(jié)論:算法比他們所取代的人類更少偏見、更準(zhǔn)確。
下面是一個(gè)研究樣本,調(diào)查了當(dāng)算法控制了傳統(tǒng)上由人類執(zhí)行的任務(wù)時(shí)會(huì)發(fā)生什么:
2002年,一個(gè)經(jīng)濟(jì)學(xué)家團(tuán)隊(duì)研究了自動(dòng)承保算法對(duì)抵押貸款行業(yè)的影響。他們的主要發(fā)現(xiàn)是“[自動(dòng)承保]系統(tǒng)比手動(dòng)承銷商更準(zhǔn)確地預(yù)測(cè)違約”并且“提高了預(yù)測(cè)借款批準(zhǔn)率的準(zhǔn)確性,特別是對(duì)于通常服務(wù)不到的申請(qǐng)人。”在傳統(tǒng)的方法中,資源匱乏的消費(fèi)者往往被邊緣化;但算法系統(tǒng)使這部分消費(fèi)者受益最多。
Bo Cowgill來(lái)自哥倫比亞商學(xué)院(Columbia Business School),他在研究一家軟件公司的工作申請(qǐng)篩選算法的效果時(shí)得出了類似的結(jié)論。當(dāng)公司通過算法來(lái)決定哪些申請(qǐng)人應(yīng)該接受面試時(shí),算法實(shí)際上比人類篩選者更喜歡“非傳統(tǒng)”候選人。與人類相比,該算法對(duì)公司中代表性不足的候選人(例如沒有個(gè)人引薦或沒有擁有名牌大學(xué)的學(xué)位)的偏見顯著偏少。
在紐約市審前保釋聽證會(huì)中,一支由著名計(jì)算機(jī)科學(xué)家和經(jīng)濟(jì)學(xué)家組成的團(tuán)隊(duì)判定,與目前作出保釋決定的法官相比,算法有可能實(shí)現(xiàn)更為公平的決策,“監(jiān)禁率減少高達(dá)41.9%,犯罪率沒有增加”。他們還發(fā)現(xiàn),在他們的模型中,“所有類別的犯罪,包括暴力犯罪中,都顯示出監(jiān)禁率的降低。這些成果可以在減少種族差異的過程中同時(shí)實(shí)現(xiàn)。”
《紐約時(shí)報(bào)》雜志最近報(bào)道了一個(gè)長(zhǎng)篇故事來(lái)回答這個(gè)問題,“算法可以判斷孩子何時(shí)處于危險(xiǎn)之中嗎?”
事實(shí)證明答案是肯定的,并且算法可以比人類更準(zhǔn)確地執(zhí)行這項(xiàng)任務(wù)。有些政府服務(wù)加劇了種族偏見,而“阿勒格尼郡的經(jīng)驗(yàn)表明,它的篩選工具在權(quán)衡偏見方面不像人類篩選者那么糟糕”。
***一個(gè)例子是,一個(gè)由財(cái)務(wù)教授組成的團(tuán)隊(duì)開始通過查看公開交易公司的歷史數(shù)據(jù)構(gòu)建算法,為特定公司選擇***董事會(huì)成員。研究人員發(fā)現(xiàn)公司在由算法選擇的董事會(huì)的管理下業(yè)績(jī)更好,而且與他們提出的算法相比,“沒有算法的公司傾向于選擇擁有龐大的社交網(wǎng)絡(luò)與豐富的董事會(huì)經(jīng)驗(yàn)、目前在董事會(huì)參與更多、具有財(cái)務(wù)背景的男性董事。”
在每個(gè)案例研究中,數(shù)據(jù)科學(xué)家都做了一件看起來(lái)驚人事情:他們根據(jù)過去的數(shù)據(jù)訓(xùn)練他們的算法,而這些數(shù)據(jù)肯定會(huì)受到歷史偏見的影響。所以這是怎么回事呢?
在很多不同的領(lǐng)域 ——信用申請(qǐng)、工作篩選、刑事司法、公共資源分配和公司治理 ,算法都可以減少偏見;但為什么許多評(píng)論家和批判者告訴我們的卻正好相反呢?
人類是非常糟糕的決策者
我們可以看到,上述提到的算法實(shí)際上是存在偏見的,但它們正在取代的人類顯然有更大的偏差。畢竟,如果不是一直被人為控制,制度偏見從何而來(lái)?
人類是糟糕到極點(diǎn)了么?也不盡然。雖然存在著偏見,但在某些維度上看,我們也做過一些較好的決策。不幸的是,近幾十年來(lái),判斷和決策方面的心理學(xué)研究已經(jīng)一次又一次地證明了人類在各種背景下的判斷非常糟糕。我們至少在20世紀(jì)50年代就已經(jīng)知道,在預(yù)臨床環(huán)境中的重要結(jié)果方面,非常簡(jiǎn)單的數(shù)學(xué)模型就已優(yōu)于所謂的專家。
在上面提到的所有例子中,人類決策者的表現(xiàn)并不好,用算法取代他們既提高了準(zhǔn)確性,又降低了制度偏差。這就達(dá)到了經(jīng)濟(jì)學(xué)家所說(shuō)的帕累托改進(jìn),即一項(xiàng)政策在我們關(guān)心的每一個(gè)方面上都有更優(yōu)越的表現(xiàn)。
雖然許多批評(píng)者喜歡暗示前沿公司以犧牲公平和公正為代價(jià)來(lái)追求運(yùn)營(yíng)效率和更高的生產(chǎn)力,但當(dāng)前的證據(jù)都表明其實(shí)沒有這樣的讓步。算法可以提供更高效,更公平的結(jié)果。
如果有什么事情會(huì)讓你感到驚恐,那么應(yīng)該是這樣一個(gè)事實(shí):我們的許多重要決策是由前后矛盾的,有偏見的,非常糟糕的決策者做出的。
改善現(xiàn)狀
當(dāng)然,我們應(yīng)該盡一切努力消除制度偏見及其對(duì)決策算法的有害影響。對(duì)算法決策的批評(píng)催生了機(jī)器學(xué)習(xí)的研究的新浪潮,人們更加重視算法的社會(huì)和政治后果。
統(tǒng)計(jì)學(xué)和機(jī)器學(xué)習(xí)中出現(xiàn)了一些新技術(shù),專門用于解決算法歧視問題。每年甚至還有一次學(xué)術(shù)會(huì)議(https://www.fatml.org),研究人員不僅討論機(jī)器學(xué)習(xí)的倫理和社會(huì)挑戰(zhàn),而且還提出了確保算法對(duì)社會(huì)產(chǎn)生積極影響的新模型和新方法。
隨著深度學(xué)習(xí)等不太透明的算法變得越來(lái)越普遍,這項(xiàng)工作可能會(huì)變得更加重要。 即使技術(shù)不能完全解決制度偏見和偏見歧視的社會(huì)弊端,這里所回顧的證據(jù)表明,在實(shí)踐中,它在改善現(xiàn)狀方面發(fā)揮著微小但重要的作用。
這不是在鼓吹算法絕對(duì)主義或?qū)y(tǒng)計(jì)力量的盲目信仰。如果我們?cè)谀承┣闆r下發(fā)現(xiàn)算法與當(dāng)前的決策過程相比具有不可接受的高度偏差,那么接受這樣的結(jié)果并維持人類決策現(xiàn)狀也不會(huì)造成任何損害。
但是,維持現(xiàn)狀也是有利有弊。
我們應(yīng)該承認(rèn),在某些情況下,算法將會(huì)為減少制度偏見起到一些作用。因此,下次當(dāng)您讀到有關(guān)算法偏差風(fēng)險(xiǎn)的標(biāo)題時(shí),請(qǐng)記得冷靜下來(lái),并想一想人類偏見帶來(lái)的危險(xiǎn)是否會(huì)更嚴(yán)重。
相關(guān)報(bào)道:https://hbr.org/2018/07/want-less-biased-decisions-use-algorithms
【本文是51CTO專欄機(jī)構(gòu)大數(shù)據(jù)文摘的原創(chuàng)譯文,微信公眾號(hào)“大數(shù)據(jù)文摘( id: BigDataDigest)”】


























