理解AI:為什么要在人工智能系統(tǒng)中尋求可解釋性呢?
本文轉(zhuǎn)載自公眾號(hào)“讀芯術(shù)”(ID:AI_Discovery)。
或許這是你第一次聽到人工智能前面加“可解釋的”這個(gè)形容詞,但其實(shí)它的涵義你一定能理解。可解釋的人工智能(XAI)是指構(gòu)建AI應(yīng)用程序的技術(shù)和方法,人們借此以理解它們做出特定決策的原因。換句話說,如果我們可以從AI系統(tǒng)獲得有關(guān)其內(nèi)部邏輯的解釋,則該系統(tǒng)可視為可解釋的人工智能系統(tǒng)。
可解釋性是一個(gè)新的屬性,在人工智領(lǐng)域初露鋒芒。首先,讓我們深入探討一下這個(gè)問題的技術(shù)根源。
人工智能是改善生活的增強(qiáng)器
無可置疑,技術(shù)進(jìn)步便于人們獲得更優(yōu)質(zhì)的服務(wù)。技術(shù)是我們生活中不可或缺的一部分,而且不管你喜歡與否,它對(duì)生活的影響只會(huì)越來越大。
繼計(jì)算機(jī)和互聯(lián)網(wǎng)之后,人工智能再次改變了我們的生活。從五六十年代數(shù)學(xué)領(lǐng)域的奮力嘗試,到九十年代的專家系統(tǒng),再到現(xiàn)在人類在AI領(lǐng)域取得的成果——可乘坐自動(dòng)駕駛汽車,使用谷歌翻譯與外國人交流,利用各種應(yīng)用程序修圖,使用智能推薦算法尋找最佳餐廳等等。毫無疑問,人工智能對(duì)我們生活的影響力正在逐步提高,成為生活中不可或缺的一部分。
但與此同時(shí),人工智能系統(tǒng)錯(cuò)綜復(fù)雜,普通用戶幾乎無法理解其工作原理。我確信只有不到1%的谷歌翻譯用戶知道它是如何工作的,但我們?nèi)孕湃尾V泛使用該系統(tǒng)。但我們應(yīng)該了解AI系統(tǒng)的運(yùn)行路徑,或者至少,能夠在必要的時(shí)候獲取其有關(guān)信息。
過于注重準(zhǔn)確性
數(shù)百年來,數(shù)學(xué)家和統(tǒng)計(jì)學(xué)家一直在研究傳統(tǒng)的機(jī)器學(xué)習(xí)算法,如線性回歸、決策樹和貝葉斯網(wǎng)絡(luò)。這些算法直觀易懂,且發(fā)展成熟,基于其中任何一項(xiàng)傳統(tǒng)算法進(jìn)行的決策,都十分容易解釋,但它們的精確度卻十分有限。因此,我們的傳統(tǒng)算法雖解釋性高,但成就有限。
在麥卡洛克-皮茨神經(jīng)元之后,一切都改變了,這一發(fā)展促進(jìn)了深度學(xué)習(xí)領(lǐng)域的創(chuàng)立。深度學(xué)習(xí)是人工智能的子領(lǐng)域,專注于利用人工神經(jīng)網(wǎng)絡(luò)復(fù)制大腦中神經(jīng)元細(xì)胞的工作機(jī)制。得益于強(qiáng)大的計(jì)算能力和優(yōu)化的開源深度學(xué)習(xí)框架,我們能夠構(gòu)建高精確性的復(fù)雜神經(jīng)網(wǎng)絡(luò)。
為達(dá)到盡可能高的精確度,人工智能研究人員開始競(jìng)相研究。這些研究催生了許多出色的AI產(chǎn)品,但也有其弊端——低解釋性能力。
神經(jīng)網(wǎng)絡(luò)極其復(fù)雜,它們可以由數(shù)十億個(gè)參數(shù)來構(gòu)建。例如,Open AI革命性的NLP模型GPT-3有超過1750億的機(jī)器學(xué)習(xí)參數(shù),從這樣一個(gè)復(fù)雜的模型中獲取任何推理都是一個(gè)挑戰(zhàn)。
機(jī)器學(xué)習(xí)算法的準(zhǔn)確性VS可解釋性
如圖所示,和深度學(xué)習(xí)模型相比,采用傳統(tǒng)算法會(huì)讓人工智能開發(fā)者損失慘重。而且隨著模型精確度日益增加,其解釋性愈加低效。但是,我們卻比以往任何時(shí)候都更需要可解釋性。原因如下:
(1) 越來越多的人工智能系統(tǒng)應(yīng)用于敏感領(lǐng)域
世界日新月異,比你想象得還要快。還記得上世紀(jì)端著步槍的戰(zhàn)爭么?現(xiàn)在人工智能無人機(jī)已經(jīng)能夠在沒有人類干預(yù)的情況下干掉任何人。一些軍隊(duì)已經(jīng)具備實(shí)現(xiàn)這些系統(tǒng)的能力,他們擔(dān)心的是無法解釋的結(jié)果,他們不想依賴于一些不明工作原理的系統(tǒng)。事實(shí)上,美國國防部高級(jí)研究計(jì)劃署已有一個(gè)正在進(jìn)行的XAI項(xiàng)目。
另一個(gè)例子是自動(dòng)駕駛汽車,特斯拉已實(shí)現(xiàn)自動(dòng)駕駛。這對(duì)駕駛員來說是極大的幸事,但這也帶來巨大的責(zé)任。汽車在面臨道德困境時(shí)會(huì)怎么做?在這種情況下,它必須在兩害當(dāng)中取其輕。自動(dòng)駕駛汽車是否應(yīng)該犧牲一條狗的生命來救一個(gè)路人?
AI系統(tǒng)的社會(huì)影響力不斷提升,我們需要了解它們?nèi)绾卧谝话闱闆r下以及在特定事件中做出決策。
(2) 人工智能的指數(shù)型發(fā)展可能會(huì)威脅人類生存
《終結(jié)者》很多人都看過,影片中展示了機(jī)器是如何變得有自我意識(shí)并可能毀滅人類。人工智能十分強(qiáng)大,它可以幫助人類成為一個(gè)多行星物種,也可以如世界末日般摧毀人類。
研究表明,超過30%的人工智能專家認(rèn)為,實(shí)現(xiàn)人工通用智能的后果沒有更壞,只有最壞。要想預(yù)防災(zāi)難性的后果,最有力的武器就是了解人工智能系統(tǒng)的工作路徑,以便能夠運(yùn)用制衡機(jī)制。
圖源:unsplash
(3) 解決有關(guān)人工智能的爭議需要依據(jù)和解釋
隨著過去兩個(gè)世紀(jì)人權(quán)和自由的發(fā)展,現(xiàn)行法律法規(guī)已要求在敏感領(lǐng)域要有一定程度的可解釋性。法律論證和推理領(lǐng)域也涉及可解釋性的界限問題。
人工智能應(yīng)用程序替代了一些傳統(tǒng)職業(yè),但這并不意味著它們的操控者不需要給出解釋。他們必須遵守同樣的規(guī)則,對(duì)服務(wù)軟件做出解釋。一般的法律原則要求在發(fā)生法律糾紛時(shí)操控者對(duì)自動(dòng)決策給出解釋。例如,一輛特斯拉自動(dòng)駕駛汽車撞上行人的情況。
但是,一般規(guī)定原則并不是強(qiáng)制性解釋的唯一理由,也有一些當(dāng)代的法律法規(guī)創(chuàng)造了不同形式的解釋權(quán)。歐盟的“通用數(shù)據(jù)保護(hù)條例”(GDPR)已經(jīng)定義了解釋權(quán),即個(gè)人接受自動(dòng)化決策時(shí),需要對(duì)人工智能系統(tǒng)的邏輯進(jìn)行合理的解釋。
在美國,公民有權(quán)獲得對(duì)其信貸申請(qǐng)?jiān)饩艿慕忉尅J聦?shí)上,正如前文圖中所預(yù)見的那樣,這一權(quán)利迫使信用評(píng)分公司在對(duì)其客戶評(píng)分時(shí)采用回歸模型(更具解釋力),以便他們能夠提供強(qiáng)制性解釋。
(4) 消除人工智能系統(tǒng)中的歷史偏差需要解釋性
從歷史上看,人類對(duì)于不同群體的歧視從未停止,這也反映在收集的數(shù)據(jù)中。開發(fā)人員訓(xùn)練人工智能模型時(shí),會(huì)把人工智能中帶有偏見和歧視的因素輸入到歷史數(shù)據(jù)中。如果我們的觀察有種族偏見,模型在做預(yù)測(cè)時(shí)也會(huì)投射出這些偏見。
巴特利(Bartlett)的研究表明,在美國,至少有6%的少數(shù)族裔的信貸申請(qǐng)因?yàn)榧兇獾钠缫暥馐芫芙^。因此,用這些有偏見的數(shù)據(jù)來訓(xùn)練信用申請(qǐng)系統(tǒng)將會(huì)對(duì)少數(shù)族裔產(chǎn)生毀滅性的影響。作為社會(huì)中一員,我們必須了解算法如何工作,人類如何能夠消除偏見,以便保證社會(huì)自由、平等和博愛。
(5) 自動(dòng)化的商業(yè)決策需要可靠性和信任
從財(cái)務(wù)角度來看,可解釋性也是有意義的。利用人工智能系統(tǒng)為公司的銷售和營銷工作推薦特定方案時(shí),你可能想知道其推薦理由。而決策者要對(duì)方案負(fù)責(zé),所以必須清楚采取該方案的原因。這對(duì)于實(shí)體企業(yè)和金融企業(yè)都具有重要意義,尤其是在金融市場(chǎng),一個(gè)錯(cuò)誤的決策會(huì)讓公司損失慘重。
圖源:unsplash
人們需要可解釋AI的原因來自不同的學(xué)科和領(lǐng)域,包括社會(huì)學(xué)、哲學(xué)、法律、倫理學(xué)和商業(yè)界,這足以見得這種需求的廣泛性和急迫性。