揭秘AI深處的黑暗面:人工智能將取代人類,而你卻不知道它是如何機器學(xué)習(xí)的
去年,一輛自動駕駛汽車駛?cè)胄聺晌髦菝擅┧箍h。這輛實驗汽車出自芯片制造商英偉達之手,從外觀看,它和谷歌、特斯拉或通用的其他自動駕駛汽車并沒有多大差別。
但它的內(nèi)在可大不一樣。這輛車不需要工程師或編程人員的任何指令;相反,它依賴一套算法,通過觀看人類司機來自學(xué)如何開車。
能讓一輛汽車做到這個程度,確實是非常大的進步。
但與此同時,這也讓人心有不安,誰知道這車到底是怎樣做決定的呢。根據(jù)駕駛程序,這輛車的傳感器所收集的信息會直接進入一個巨大的人工神經(jīng)網(wǎng)絡(luò),進行處理數(shù)據(jù),然后發(fā)送指令,是轉(zhuǎn)動方向盤啦,還是剎車?yán)?,還是其他動作等等??瓷先?,這輛車能夠模仿人類司機的應(yīng)對措施。
但是,如果有一天,它做了讓人意想不到的事情——比方說撞樹了,或者停在綠燈前面不走了——這怎么辦?按照目前的情況,我們可能不太能輕易找出背后的原因。這套系統(tǒng)實在復(fù)雜,哪怕是開發(fā)它的工程師都很難獨立出每個動作背后的原因。而且你也沒法讓工程師設(shè)計一個能解釋所有動作的系統(tǒng)。
汽車“神秘”的思維模式,也就是人工智能技術(shù)的一大潛在問題。英偉達汽車所使用的人工智能技術(shù),也叫做深度學(xué)習(xí)。近幾年,這一技術(shù)在解決問題上顯示出了強大的能力,而在圖像捕捉、語音識別和翻譯等方面,人工智能已經(jīng)被廣泛使用?,F(xiàn)在有人開始想象用人工智能來診斷致命疾病、進行商業(yè)決策等。
但是,這樣的事情是不會發(fā)生的——或者說不應(yīng)當(dāng)發(fā)生,除非我們找到某些方式,讓技術(shù)開發(fā)人員能夠進一步理解人工智能的思維,同時也為用戶負(fù)責(zé)。如果貿(mào)然普及這一技術(shù),我們將無法預(yù)測什么時候發(fā)生災(zāi)難——而且,這是一定會發(fā)生的。這也是英偉達汽車至今仍在實驗階段的原因。
很早之前我們就開始用數(shù)學(xué)模型來幫助決策,比方說誰能申請到假釋,誰能獲得貸款,誰能得到某份工作。如果你能接觸到這些數(shù)學(xué)模型,那你或許能理解它們的決策模式。但現(xiàn)在,銀行、軍隊、雇主等開始尋求更為復(fù)雜的機器學(xué)習(xí)方法,好實現(xiàn)整個決策過程的自動化。
深度學(xué)習(xí)是決策方式中最常見的技術(shù),代表著與從前完全不同的計算機編程方式。致力于研究機器學(xué)習(xí)技術(shù)應(yīng)用的麻省理工教授Tommi Jaakkola說:“這個問題現(xiàn)在已經(jīng)與我們息息相關(guān),未來還會更加普遍。不管是做投資決定、疾病診斷決定,還是軍事決定,你都不希望完全依賴一個黑箱模型吧。”
對于質(zhì)詢?nèi)斯ぶ悄芟到y(tǒng)的決策原因是否應(yīng)立為一項法律,這個問題已經(jīng)引起廣泛討論。從2018年夏天開始,歐盟或許會要求各個公司對自動系統(tǒng)的決策作出解釋。但是,這一規(guī)定或許根本沒法實現(xiàn),即便是看起來相對簡單的系統(tǒng)——比方說使用深度學(xué)習(xí)來投放廣告或推薦歌曲的應(yīng)用和網(wǎng)站。提供這些服務(wù)的計算機已經(jīng)自己重新編程,而它們的編程方式我們沒辦法理解。哪怕是開發(fā)這些應(yīng)用的工程師,也無法全面解釋它們的行為。
這就引起了反對者的質(zhì)疑。沒錯,我們?nèi)祟愐膊豢偰芙忉屪约旱乃季S過程,但是我們能根據(jù)直覺信任他人,評估他人。而面對一個思維和決策過程與人類完全不同的機器,直覺還能奏效嗎?
我們從未發(fā)明過連開發(fā)人員自己都不能理解的機器,那我們?nèi)绾芜€能期待和這些不可預(yù)測的機器溝通和友好相處呢?
帶著這些問題,我踏上了尋找答案的旅程。從谷歌到蘋果,我走遍了那些開發(fā)人工智能算法的公司,甚至還和當(dāng)代最知名的哲學(xué)家們進行了一次交談。
2015年,紐約西奈山醫(yī)院的一組研究人員受到啟發(fā),開始用深度學(xué)習(xí)技術(shù)來分析醫(yī)院里的大量病歷數(shù)據(jù)。這些數(shù)據(jù)可分為上百項,包括病人的檢測結(jié)果、看診記錄等等。研究人員將這一分析系統(tǒng)命名為Deep Patient,開發(fā)完成后,他們用70萬份病患數(shù)據(jù)對其進行了訓(xùn)練。結(jié)果證明,在測試新數(shù)據(jù)時,Deep Patient顯示出了超高的疾病預(yù)測率。在沒有專家指導(dǎo)的情況下,Deep Patient發(fā)現(xiàn)了醫(yī)院數(shù)據(jù)中的模型,而這些模型預(yù)示著對方是否將患上某些疾病。當(dāng)然,在根據(jù)病歷預(yù)測疾病方面,還有很多其他方法,但西奈山醫(yī)院研究團隊的主管Joel Dudley說,“這種辦法更好。”
但與此同時,Deep Patient也讓醫(yī)生們有些摸不著頭腦。舉個例子,Deep Patient非常擅長預(yù)測精神疾病,比方說精神分裂癥。從醫(yī)的人都知道,精神分裂癥對于人類醫(yī)生來說是極難診斷的,Dudley搞不清Deep Patient是怎樣識別出來的。直到今天他也不知道。
如果諸如Deep Patient這樣的系統(tǒng)真的要幫助醫(yī)生,那它最好提供預(yù)測的基本理論,否則如何讓人相信它的準(zhǔn)確性。“我們可以創(chuàng)建這些模型,”Dudley苦笑著說,“卻不知道它們是怎樣運作的。”
人工智能并非生來如此。對于人工智能應(yīng)當(dāng)如何理解和解釋,主要存在兩大派別。
許多人認(rèn)為應(yīng)當(dāng)根據(jù)一定的規(guī)則和邏輯來制造機器,使其內(nèi)部運作公開透明,方便所有想要檢驗?zāi)承┐a的人。也有人認(rèn)為,智能只有借助生物靈感——也就是觀察、體驗人類活動,才能更順利地發(fā)展。這也就意味著,我們要把計算機編程的任務(wù)交給機器本身。
現(xiàn)在的機器學(xué)習(xí)是這樣的:編程人員編寫指令來解決某個問題,程序根據(jù)樣本數(shù)據(jù)和預(yù)期目標(biāo)來生成自己的算法。之后,機器學(xué)習(xí)技術(shù)會沿著后一條道路——也就是自己編寫程序——來升級為當(dāng)今最強大的人工智能系統(tǒng)。
最初,上述模式的實際用例非常有限。上世紀(jì)60和70年代,機器學(xué)習(xí)技術(shù)大多數(shù)還在行業(yè)邊緣徘徊。但很快,許多行業(yè)開始計算化,大數(shù)據(jù)催生了新的興趣點,更強大的機器學(xué)習(xí)技術(shù)隨之誕生,尤其是人工神經(jīng)網(wǎng)絡(luò)。到90年代,神經(jīng)網(wǎng)絡(luò)已經(jīng)可以實現(xiàn)手寫字符的數(shù)字化。
不過,人工智能真正的崛起時期,還要數(shù)過去10年。在幾次開發(fā)方式轉(zhuǎn)變和改良之后,超大型——或者說“深度”——神經(jīng)網(wǎng)絡(luò)在自動感知方面顯示出了卓越進步。深度學(xué)習(xí)也就是今天人工智能爆發(fā)的基礎(chǔ),它賦予了計算機無窮的能力,比方說幾近人類級別的語音識別功能。由于語音識別系統(tǒng)太過復(fù)雜,此前編程人員遲遲無法開發(fā)成功。而如今,這一系統(tǒng)已經(jīng)在醫(yī)藥、金融、制造等多個行業(yè)得到運用。
即使是對計算機科學(xué)家來說,機器學(xué)習(xí)技術(shù)的運作也是晦澀不明的,遠不如人工編程易于理解。但這并不意味著未來所有的人工智能技術(shù)都是不可知的,只是從本質(zhì)上來說,深度學(xué)習(xí)就好比一個看不見內(nèi)部的黑盒子。
你無法直接探到神經(jīng)網(wǎng)絡(luò)內(nèi)部,觀察它是如何運作的。神經(jīng)網(wǎng)絡(luò)的推理基于數(shù)千個模擬神經(jīng)元,分布于數(shù)十個或數(shù)百個復(fù)雜的互聯(lián)層上。第一層的每個神經(jīng)元負(fù)責(zé)接收數(shù)據(jù)輸入,比如圖片的像素強度,之后這些神經(jīng)元會對數(shù)據(jù)進行計算,生成新的信號發(fā)送到下一層,逐次類推,直到得到最后的結(jié)果。此外,反向傳播能夠保證該神經(jīng)網(wǎng)絡(luò)生成期望結(jié)果。
深度網(wǎng)絡(luò)的多層結(jié)構(gòu)也讓其能夠從多個抽象層次識別物體。舉例來說,在一個設(shè)計來識別小狗的系統(tǒng)中,低層神經(jīng)元負(fù)責(zé)識別線條或顏色等簡單目標(biāo),高層神經(jīng)元負(fù)責(zé)識別毛發(fā)或眼睛等負(fù)責(zé)目標(biāo),而在最頂端的神經(jīng)元則能認(rèn)出這是一只狗。粗略地說,這種方法也能用于機器的自我學(xué)習(xí),比如識別語言中的發(fā)音,文本中的字母、單詞或駕駛中轉(zhuǎn)動方向盤的動作。
幾年以前,研究人員開始設(shè)計一些策略,試圖了解這些系統(tǒng)內(nèi)部都發(fā)生了什么。2015年,谷歌研究人員對一套以深度學(xué)習(xí)為基礎(chǔ)的圖像識別算法進行了修改,把物體識別功能變成了生成或修改功能。只要反向運行這一算法,他們就能知道這些程序是如何識別小鳥、大樓等物體的。很快,這項代號為Deep Dream的反向研究項目結(jié)果出爐,程序根據(jù)云朵和植物,繪制了一群荒誕恐怖、形似外星人的動物圖片,在森林和山谷之間,還有在幻覺中才會出現(xiàn)的寶塔。
Deep Dream繪制的圖片證明,深度學(xué)習(xí)或許不是完全不可理解的。雖然它們可以識別出鳥嘴、語言等熟悉的視覺特征,但和人類的認(rèn)知能力相比還是有很大差距的。比如我們都知道忽略圖片中的人工制品,但深度學(xué)習(xí)網(wǎng)絡(luò)不懂這些。谷歌研究人員指出,當(dāng)算法準(zhǔn)備繪制一幅啞鈴圖片時,它會自動加上人的手臂,因為系統(tǒng)認(rèn)為手臂是啞鈴的一部分。
針對上述問題,科學(xué)家已經(jīng)借用神經(jīng)科學(xué)和認(rèn)知科學(xué)的知識,進行了進一步改良。比方說懷俄明大學(xué)助理教授Jeff Clune帶領(lǐng)了一支團隊,用和上述圖片類似的幻覺圖像對深度神經(jīng)網(wǎng)絡(luò)進行了測試。2015年,Clune團隊研究證明,某些圖片會欺騙這一系統(tǒng),讓其識別出根本不存在的物體。這是因為這些圖片抓住了系統(tǒng)搜索的模式特點。
我們需要的,不是一孔之見,而是對人工智能思維模式的全面探索,但這并不容易。深度神經(jīng)網(wǎng)絡(luò)計算的相互作用對高層模式識別和決策至關(guān)重要,但這些計算結(jié)果背后,是大量的數(shù)學(xué)函數(shù)和變量。“如果你的神經(jīng)網(wǎng)絡(luò)規(guī)模很小,那你可能還能理解它的運作。”Jaakkola說,“但是一旦規(guī)模擴大到上百層,每一層有上千個神經(jīng)元單位時,你就很難理解了。”
在Jaakkola隔壁辦公室的,是麻省理工教授Regina Barzilay,她決心要把機器學(xué)習(xí)技術(shù)運用到醫(yī)藥行業(yè)。43歲那年,Barzilay被診斷出乳腺癌,讓她大為震驚。然而更讓她驚愕的是,最前沿的統(tǒng)計和機器學(xué)習(xí)法居然沒有運用到致癌研究或病患治療上。Barzilay說,人工智能有巨大的潛力革新醫(yī)藥行業(yè),但想要挖掘出這些潛力,必然得在病歷分析的基礎(chǔ)上再進一步。Barzilay希望將來能用上更多原始數(shù)據(jù),比方說圖像數(shù)據(jù)、病理學(xué)數(shù)據(jù)等等。
去年,在結(jié)束癌癥治療后,Barzilay開始帶領(lǐng)學(xué)生,和馬薩諸塞綜合醫(yī)院的醫(yī)生共同研發(fā)一套系統(tǒng),用于分析病理學(xué)報告,找出研究人員想要研究的特殊的臨床特征。但是,Barzilay知道,這套系統(tǒng)是沒法解釋自己的推理過程的。于是,她和Kaakkola以及一名學(xué)生一起,給系統(tǒng)增加了一個步驟:選取、標(biāo)注文本中代表某種病理模式的段落。與此同時,Barzilay還在和學(xué)生編寫深度學(xué)習(xí)算法,試圖在乳房X光照片中找到乳腺癌的早期癥狀,并呈現(xiàn)出分析結(jié)果背后的原因。
正如人類行為不能完全得到解釋一樣,人工智能或許也不知道自己為什么做這個決定。Clune說:“即使某個人言辭鑿鑿地告訴你他某個行為背后的原因,這個原因很可能也是片面的,人工智能同樣適用這個道理。它可能有自己的直覺、潛意識,或者就是神神秘秘的。”
如果真的是這樣,那么到將來某個時期,我們可能只能選擇相信人工智能的判斷,要么就徹底不用它。同樣,人工智能的判斷還要結(jié)合社會智能。人類社會建立在預(yù)期行為契約之上,我們需要人工智能系統(tǒng)尊重社會規(guī)范,融入社會規(guī)范。如果我們打算制造機器人坦克和其他殺人機器,那么它們的決策過程必須符合道德判斷的標(biāo)準(zhǔn)。
對此,塔夫茨大學(xué)著名哲學(xué)家和認(rèn)知科學(xué)家Daniel Denneyy說:“問題是,我們應(yīng)當(dāng)采納什么樣的標(biāo)準(zhǔn)來要求人工智能系統(tǒng)?或者說我們自己?如果人工智能系統(tǒng)在解釋自身行為上不如人類,那就不要信任它們了。”