2 月 20 日,谷歌 Ethical AI(AI 倫理)團(tuán)隊(duì)的創(chuàng)始人 Mitchell 在推特上發(fā)了一條簡短的聲明:“I am fired”,這與去年另一位女性研究員 Timnit Gebru 的遭遇如出一轍,而這兩位女性正是谷歌 Ethical AI 部門曾經(jīng)的兩位聯(lián)合負(fù)責(zé)人。
去年年底,Gebru 發(fā)推表示自己被公司開除,她因一篇論文的發(fā)表與公司上層產(chǎn)生矛盾,被要求撤稿后,她在一篇內(nèi)部郵件中表示了自己對(duì)公司種族偏見問題的不滿,隨后被解雇。
在從外界角度來看,似乎很難不將 Mitchell 的解雇和 Gebru 事件聯(lián)系起來。
推特上的唇槍舌戰(zhàn)
這位 Gebru 是谷歌 AI 倫理部門的聯(lián)合負(fù)責(zé)人,也是谷歌內(nèi)部極少數(shù)的黑人女研究員(根據(jù)該公司 2020 年年度多樣性報(bào)告,谷歌員工中有 3.7%是黑人),同時(shí)她也是 Black In AI 的聯(lián)合創(chuàng)始人,致力于黑人在算法領(lǐng)域的平權(quán)。
而谷歌方,Gebru 的上司 Jeff Dean 站出來表示“論文未達(dá)到發(fā)表標(biāo)準(zhǔn),是女方主動(dòng)拿辭職要挾”。雙方各有說法,在推特上來來回回唇槍舌戰(zhàn)。
事件發(fā)生后,AI 界大多都站在了 Gebru 這一邊。據(jù) BBC 報(bào)道,超過 4500 名來自微軟、谷歌等大公司的科研人員在支持 Gebru 的公開信上簽了名,要求谷歌方進(jìn)一步解釋開除 Gebru 的原因。
公司 CEO Pichai 率先出來滅火,承諾將會(huì)進(jìn)行進(jìn)一步調(diào)查,以期能為這場轟轟烈烈的鬧劇劃上一個(gè)句號(hào)。今年 2 月,Dean 也向解雇 Gebru 和對(duì)其他女性員工造成的傷害致歉,谷歌還宣布了新的多元化政策,包括將 DEI(多元、公正、包容)目標(biāo)與副總裁以上級(jí)別員工的績效評(píng)估掛鉤。這似乎是進(jìn)一步的滅火行為,但隨后 Mitchell 就被解雇。
如今被開除的 Mitchell 也是一位 AI 道德專家,曾從事機(jī)器偏見,種族和性別多樣性以及用于圖像捕獲的語言模型方面的工作,她與 Gebru 共同領(lǐng)導(dǎo)該公司的道德 AI 團(tuán)隊(duì)。同時(shí)值得注意的是,她也是那篇導(dǎo)火線論文的共同創(chuàng)作者。
Gebru 被炒魷魚后,Mitchell 多次在公共平臺(tái)表示對(duì)谷歌的不滿。今年 1 月份,她被限制了公司內(nèi)部電子郵件訪問權(quán)限,就在被開除的幾小時(shí)前,Mitchell 還在推特上抨擊谷歌“一向疏遠(yuǎn)黑人女性”。
谷歌方對(duì)于開除 Mitchell 給出的回應(yīng)是“在對(duì)這位經(jīng)理的行為進(jìn)行審查之后,我們確認(rèn)存在多次違反我們的行為守則和安全政策的行為,其中包括泄露機(jī)密的業(yè)務(wù)敏感文件和其他員工的私人數(shù)據(jù)。”
算法偏見
回到導(dǎo)致 Gebru 和 Mitchell 均被解雇的最初,引起爭議的論文《隨機(jī)鸚鵡之險(xiǎn):語言模型會(huì)太大嗎?(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?)》,它從環(huán)保和成本角度、種族和性別方面探討了大型語言模型(如 BERT)帶來的高耗電等風(fēng)險(xiǎn)。同時(shí) Gebru 指出如果不加區(qū)分地使用現(xiàn)有數(shù)據(jù)訓(xùn)練人工智能,會(huì)進(jìn)一步加深 AI 語言模型中對(duì)少數(shù)邊緣群體的偏見。
該論文的引言中寫道:「我們問是否已對(duì)與開發(fā)這些風(fēng)險(xiǎn)相關(guān)的潛在風(fēng)險(xiǎn)以及減輕這些風(fēng)險(xiǎn)的策略進(jìn)行了足夠的思考?!?/p>
谷歌 AI 在 2017 年首先發(fā)明了 Transformer 語言模型,2018 年,在此基礎(chǔ)上推出的 BERT 語言模型在人工智能領(lǐng)域引起轟動(dòng),同時(shí)也廣泛運(yùn)用到谷歌搜索引擎的訓(xùn)練上,已經(jīng)成為谷歌經(jīng)濟(jì)收入的重要來源。
這篇論文是對(duì)谷歌目前最有利可圖的 AI 研究提出的擔(dān)憂,而這種擔(dān)憂并不是空穴來風(fēng),AI 中涉及的倫理偏見已經(jīng)不是第一次出現(xiàn)。
2015 年,谷歌相冊(cè)將兩個(gè)深膚色的人標(biāo)記為「大猩猩」,谷歌公司當(dāng)時(shí)保證「立即采取措施」,以防止再犯重復(fù)錯(cuò)誤。不過隨后為了解決這一問題,谷歌直接從搜索結(jié)果中刪除了這一詞條的標(biāo)簽?!哆B線》雜志在谷歌相冊(cè)上測試了 4 萬多張動(dòng)物圖片,最終得出了這樣一個(gè)結(jié)論:谷歌不再將任何圖片標(biāo)記為大猩猩、黑猩猩、猴子,即使就是這種動(dòng)物的圖片也是如此。
在今年的疫情期間,谷歌 AI 也出現(xiàn)了類似情況。
經(jīng)非盈利研究和倡導(dǎo)組織 AIgorithmWatch 證實(shí),谷歌旗下計(jì)算機(jī)服務(wù) Google Vision Cloud 會(huì)將手持測溫計(jì)的深膚色人員圖像標(biāo)記為“槍”,而相同條件下,淺膚色人員圖像則被標(biāo)記為“電子設(shè)備”。究其原因,這與深膚色的人員圖像在數(shù)據(jù)訓(xùn)練時(shí)在暴力場景出現(xiàn)的高頻率有關(guān),隨后谷歌致歉并更新了算法,測溫計(jì)圖像中不再出現(xiàn)“槍支”標(biāo)記。這種對(duì)于有色人種在數(shù)據(jù)訓(xùn)練中的忽視,已經(jīng)成為 AI 偏見常出現(xiàn)的情況。
沖突中心的谷歌
AI 倫理問題產(chǎn)生的根源,是人類社會(huì)中存在著相同的偏見。
一直以來,硅谷科技公司向外界展示著它開放、平等的文化。早在 2014 年,硅谷的 33 家科技公司就共同簽訂了多元化承諾。然而除算法偏見,近幾年,微軟、亞馬遜、Uber 等公司卻頻頻爆出關(guān)于性別歧視、膚色偏見的道德丑聞,曾經(jīng)的全球最佳雇主谷歌也難逃其中。
2018 年,據(jù)《紐約時(shí)報(bào)》報(bào)道,谷歌向因性騷擾傳聞離職的“安卓之父”Andy Rubin 支付了約 9000 萬美元,并在過去 10 年中保護(hù)了包括魯賓在內(nèi)的三位被指控性行為不端的男性高管。
這引發(fā)了谷歌員工的強(qiáng)烈抗議,全球 20 多個(gè)辦事處的 20000 多名員工進(jìn)行了歷史性的集體大罷工,走上街頭喊出“我們要透明度、追責(zé)和架構(gòu)調(diào)整”的口號(hào)。隨后谷歌致歉,并承諾將會(huì)撤銷針對(duì)性不端行為的強(qiáng)制仲裁。
雖然近年來谷歌內(nèi)部不斷出現(xiàn)各種 AI 相關(guān)的倫理討論事件,外界持續(xù)不斷地批評(píng)谷歌在這些方面做得不夠好。但從另一個(gè)角度看,在 AI 行業(yè)在全球快速發(fā)展的當(dāng)下,也只有谷歌內(nèi)部爆出了如此大范圍的嚴(yán)肅討論,這恰恰是從谷歌一直以來自由管理、直言不諱的文化中誕生的。
在 Gebru 離職風(fēng)波后,不只是 Ethical AI 團(tuán)隊(duì),整個(gè)谷歌公司的氛圍都持續(xù)緊張。
在今年,經(jīng)過多撥討伐的 Dean 向 Gebru 事件致歉,并且任命了另一位黑人女性 Mariian Croak 為 Ethical AI 的主管,繼續(xù)向他匯報(bào)工作。Ethical AI 成立的初衷就是為了監(jiān)控谷歌 AI 的道德走向,為此,這個(gè)部門也是公司中多元化程度最高的一個(gè)部門,將那些在算法中那些最有可能受到偏見傷害的弱勢群體聚集到一起。































