偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

事關(guān)人類生存?為什么要探尋AI系統(tǒng)的可解釋性?

人工智能 深度學(xué)習(xí)
這可能是你第一次聽(tīng)說(shuō)“可解釋人工智能”一詞,但你一定很快就能理解它:可解釋人工智能(XAI)是指構(gòu)建人工智能應(yīng)用程序的技術(shù)和方法,人們可以由此理解這些系統(tǒng)做出特定決策的“原因”。

 本文轉(zhuǎn)載自公眾號(hào)“讀芯術(shù)”(ID:AI_Discovery)

[[378246]]

這可能是你第一次聽(tīng)說(shuō)“可解釋人工智能”一詞,但你一定很快就能理解它:可解釋人工智能(XAI)是指構(gòu)建人工智能應(yīng)用程序的技術(shù)和方法,人們可以由此理解這些系統(tǒng)做出特定決策的“原因”。

換句話說(shuō),如果我們能從一個(gè)人工智能系統(tǒng)得到關(guān)于其內(nèi)部邏輯的解釋,那么這個(gè)系統(tǒng)就被認(rèn)為是一個(gè)XAI系統(tǒng)??山忉屝允侨斯ぶ悄芙玳_(kāi)始流行的一個(gè)新屬性,我們將在下文討論其在近幾年出現(xiàn)的緣由。

首先,讓我們深入探究這一問(wèn)題的技術(shù)根源。

人工智能促進(jìn)我們的生活

科技的進(jìn)步必然使我們能夠更方便地享受更好的服務(wù)??萍际巧钪胁豢扇鄙俚囊徊糠郑铱隙ɡ笥诒?,無(wú)論你喜歡科技與否,它對(duì)我們生活的影響只會(huì)與日俱增。

計(jì)算機(jī)、互聯(lián)網(wǎng)和移動(dòng)設(shè)備的發(fā)明使生活更加便捷高效。繼計(jì)算機(jī)和互聯(lián)網(wǎng)之后,人工智能已經(jīng)成為生活新的增強(qiáng)劑。從50年代和60年代數(shù)學(xué)領(lǐng)域的努力嘗試到90年代的專家系統(tǒng),我們才取得了今天的成就。

我們可以在汽車上使用自動(dòng)駕駛儀,使用谷歌翻譯與外國(guó)人交流,使用無(wú)數(shù)的應(yīng)用程序來(lái)潤(rùn)色我們的照片,使用智能推薦算法找到最好的餐廳。人工智能對(duì)生活的影響不斷增強(qiáng),現(xiàn)在已經(jīng)成為生活中不可或缺的、毋庸置疑的助力。

另一方面,人工智能系統(tǒng)已經(jīng)變得如此復(fù)雜,普通用戶幾乎不可能理解它如何運(yùn)作。我敢說(shuō)只有不足1%的谷歌翻譯用戶知道它是如何運(yùn)行的,但是我們?nèi)匀恍湃芜@個(gè)系統(tǒng),并且廣泛使用。

我們應(yīng)該了解這一系統(tǒng)是如何工作的,或者至少,應(yīng)該能夠在必要的時(shí)候獲取它的相關(guān)信息。

過(guò)于注重準(zhǔn)確性

數(shù)學(xué)家和統(tǒng)計(jì)學(xué)家們研究傳統(tǒng)的機(jī)器學(xué)習(xí)算法已有數(shù)百年歷史,如線性回歸、決策樹(shù)和貝葉斯網(wǎng)絡(luò)。這些算法都非常直觀,其發(fā)展先于計(jì)算機(jī)的發(fā)明。當(dāng)你依據(jù)其中一種傳統(tǒng)算法進(jìn)行決策時(shí),很容易生成解釋。

然而,它們只在一定程度上達(dá)到了準(zhǔn)確度。因此,傳統(tǒng)算法的可解釋度很高,但也算不上很成功。

后來(lái),麥卡洛克-皮茨(McCulloch-Pitts)神經(jīng)元發(fā)明后,發(fā)生了翻天覆地的變化。這一發(fā)展促使了深度學(xué)習(xí)領(lǐng)域的創(chuàng)立。深度學(xué)習(xí)是人工智能的一個(gè)分支領(lǐng)域,主要研究利用人工神經(jīng)網(wǎng)絡(luò)來(lái)復(fù)制大腦中神經(jīng)元細(xì)胞的工作機(jī)制。

由于運(yùn)算能力的提高以及開(kāi)源深度學(xué)習(xí)框架的優(yōu)化,我們逐漸能夠構(gòu)建高精確度性能的復(fù)雜神經(jīng)網(wǎng)絡(luò)。人工智能研究人員們開(kāi)始競(jìng)爭(zhēng),以盡可能達(dá)到最高精確度水平。而這種競(jìng)爭(zhēng)無(wú)疑幫助我們構(gòu)建了偉大的人工智能產(chǎn)品,但同時(shí)付出的代價(jià)是:低解釋性。

神經(jīng)網(wǎng)絡(luò)非常復(fù)雜且難以理解。它們可以用數(shù)十億個(gè)參數(shù)來(lái)構(gòu)建。例如,Open AI的革命性NLP模型,GPT-3,就擁有超過(guò)1750億個(gè)機(jī)器學(xué)習(xí)參數(shù);從這樣一個(gè)復(fù)雜的模型中推導(dǎo)出任何一個(gè)推理都極具挑戰(zhàn)。

 

事關(guān)人類生存?為什么要探尋AI系統(tǒng)的可解釋性?

 

機(jī)器學(xué)習(xí)算法運(yùn)行的精準(zhǔn)度VS.可解釋性

如你所見(jiàn),一個(gè)人工智能開(kāi)發(fā)人員依靠傳統(tǒng)算法而非深度學(xué)習(xí)模型的損失良多。所以,我們看到越來(lái)越多的精確模型與日俱增,而其可解釋性卻越來(lái)越低。但是,我們需要可解釋性更甚于以往。

越來(lái)越多的人工智能系統(tǒng)被應(yīng)用于某些敏感領(lǐng)域

還記得以前人們?cè)趹?zhàn)爭(zhēng)中使用真刀真槍嗎。是的,一切都在改變,遠(yuǎn)超你的想象。智能AI無(wú)人機(jī)已經(jīng)可以在沒(méi)有人為干預(yù)的情況下干掉任何人。一些軍隊(duì)也已經(jīng)有能力實(shí)施這些系統(tǒng);但是,他們也對(duì)未知的結(jié)果感到擔(dān)憂。他們不想依賴那些自己都不清楚運(yùn)作原理的系統(tǒng)。事實(shí)上,美國(guó)國(guó)防部高級(jí)研究計(jì)劃局已經(jīng)有一個(gè)正在進(jìn)行的XAI項(xiàng)目。

無(wú)人駕駛汽車是另一個(gè)例子?,F(xiàn)在已經(jīng)可以在特斯拉汽車上使用自動(dòng)駕駛儀了。這對(duì)司機(jī)來(lái)說(shuō)是極大的便利。但是,與之而來(lái)也有巨大的責(zé)任。當(dāng)你的汽車遇到道德困境時(shí),它會(huì)怎么做;在道德困境中,它必須在兩個(gè)罪惡的抉擇中選擇損失較小的一個(gè)。

例如,自動(dòng)駕駛儀是否應(yīng)該犧牲一條狗來(lái)拯救一個(gè)路上的行人?你也可以在麻省理工學(xué)院的道德機(jī)器上一睹集體道德和個(gè)人道德。

日復(fù)一日,人工智能系統(tǒng)在更大程度上影響著我們的社會(huì)生活。我們需要知道它們?cè)谝话闱闆r和特殊事件中如何做出決定。

人工智能的指數(shù)級(jí)增長(zhǎng)可能會(huì)造成生存威脅

我們都看過(guò)《終結(jié)者》,目睹了機(jī)器如何具有自我意識(shí),并可能毀滅人類。人工智能是強(qiáng)大的,它可以幫助我們成為一個(gè)多星球物種,同時(shí)也可能完全摧毀我們,就如《啟示錄》中的場(chǎng)景一樣。

事實(shí)上,研究表明,超過(guò)30%的人工智能專家認(rèn)為,當(dāng)我們實(shí)現(xiàn)通用人智能(ArtificialGeneral Intelligence)時(shí),結(jié)果要么糟糕,要么極其糟糕。所以,防止災(zāi)難性后果的最有力武器就是了解人工智能系統(tǒng)的工作方法,這樣我們就可以使用制衡機(jī)制,就如限制政府權(quán)利過(guò)度一樣。

解決人工智能相關(guān)爭(zhēng)議需要推理和解釋

由于過(guò)去兩個(gè)世紀(jì)人權(quán)和自由的發(fā)展,目前的法律及條例已經(jīng)要求在敏感領(lǐng)域有一定程度的可解釋性。法律論證和推理領(lǐng)域也涉及可解釋性的界限。

人工智能的應(yīng)用程序僅是接管了一些傳統(tǒng)的職業(yè),但這并非代表它們的控制器就不負(fù)責(zé)提供解釋。它們必須遵守同樣的規(guī)則,也必須為其服務(wù)提供解釋。一般法律原則要求在發(fā)生法律糾紛時(shí)(例如,當(dāng)自動(dòng)駕駛的特斯拉撞上行人)對(duì)自動(dòng)化決策作出解釋。

但是,一般規(guī)則和原則并不是要求強(qiáng)制性解釋的唯一理由。我們也有一些當(dāng)代的法律法規(guī),規(guī)范了不同形式的解釋權(quán)。

歐盟的《通用數(shù)據(jù)保護(hù)條例》(GDPR)已經(jīng)定義了解釋權(quán),當(dāng)公民受到自動(dòng)化決策的約束時(shí),有必要對(duì)人工智能系統(tǒng)的邏輯進(jìn)行合理的解釋。

另一方面,在美國(guó),公民有權(quán)獲得拒絕其信貸申請(qǐng)的解釋。事實(shí)上,這種權(quán)利迫使信用評(píng)分公司在給客戶評(píng)分時(shí)采用回歸模型(這一模型更易于解釋),以便他們能夠提供強(qiáng)制性的解釋。

消除人工智能系統(tǒng)的歷史偏見(jiàn)需要可解釋性

自古以來(lái)人類就有歧視現(xiàn)象,這也反映在收集的數(shù)據(jù)中。當(dāng)一個(gè)開(kāi)發(fā)人員訓(xùn)練一個(gè)人工智能模型時(shí),他會(huì)給歷史數(shù)據(jù)灌以所有偏見(jiàn)和歧視性元素。而如果觀測(cè)有種族偏見(jiàn),模型在進(jìn)行預(yù)測(cè)時(shí)也會(huì)映射這些偏見(jiàn)。

巴特利特(Bartlett)的研究表明,在美國(guó),至少有6%的少數(shù)族裔的信貸申請(qǐng)純粹是由于歧視性慣例而被拒絕。因此,用這些具有偏見(jiàn)的數(shù)據(jù)來(lái)訓(xùn)練一個(gè)信用申請(qǐng)系統(tǒng)將對(duì)少數(shù)民族產(chǎn)生毀滅性的影響。

對(duì)一個(gè)社會(huì)而言,我們必須了解算法是如何運(yùn)行的,以及如何才能消除偏見(jiàn),這樣才能保證社會(huì)自由、平等和博愛(ài)。

自動(dòng)化業(yè)務(wù)的決策需要可靠性和信任度

從金融角度來(lái)說(shuō)可解釋性也是有意義的。當(dāng)使用一個(gè)支持人工智能的系統(tǒng)來(lái)為組織的銷售和市場(chǎng)營(yíng)銷工作建議具體的行動(dòng)時(shí),你可能會(huì)好奇它為何會(huì)如此建議。

決策者們必須明白為什么他們需要采取特定行動(dòng),因?yàn)樗麄儗榇诵袆?dòng)負(fù)責(zé)。這對(duì)實(shí)體企業(yè)和金融企業(yè)都意義重大。尤其是在金融市場(chǎng),一個(gè)錯(cuò)誤的舉動(dòng)會(huì)讓公司付出高昂的代價(jià)。

如你所見(jiàn),這些觀點(diǎn)有力論證了為何我們需要可解釋的人工智能。這些觀點(diǎn)來(lái)自不同的學(xué)科和領(lǐng)域,如社會(huì)學(xué)、哲學(xué)、法學(xué)、倫理學(xué)和商科。因此,我們需要人工智能系統(tǒng)的可解釋性

 

責(zé)任編輯:華軒 來(lái)源: 讀芯術(shù)
相關(guān)推薦

2020-11-11 12:15:31

AI人工智能可解釋性

2024-05-28 08:00:00

人工智能機(jī)器學(xué)習(xí)

2019-08-29 18:07:51

機(jī)器學(xué)習(xí)人工智能

2023-03-07 16:48:54

算法可解釋性

2025-01-13 08:13:18

2022-02-07 15:49:15

人工智能機(jī)器學(xué)習(xí)技術(shù)

2025-03-10 08:34:39

2024-09-18 05:25:00

可解釋性人工智能AI

2022-06-14 14:48:09

AI圖像GAN

2023-05-04 07:23:04

因果推斷貝葉斯因果網(wǎng)絡(luò)

2021-01-08 10:47:07

機(jī)器學(xué)習(xí)模型算法

2024-08-05 09:30:00

2020-05-14 08:40:57

神經(jīng)網(wǎng)絡(luò)決策樹(shù)AI

2022-04-13 15:10:22

AI決策

2019-11-08 10:17:41

人工智能機(jī)器學(xué)習(xí)技術(shù)

2018-05-23 10:23:18

數(shù)據(jù)系統(tǒng)機(jī)器學(xué)習(xí)

2024-12-20 08:07:45

2019-03-28 09:26:26

數(shù)據(jù)科學(xué)模型機(jī)器學(xué)習(xí)

2023-10-10 09:31:35

自動(dòng)駕駛技術(shù)

2023-08-15 10:04:40

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)