偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

深度學習的先入之見、局限性及其未來

移動開發(fā) 深度學習
近日,加州大學圣克魯茲分校(UCSC)斯圖爾特實驗室博士后 Pablo Cordero 在其個人博客上發(fā)表了首篇文章《WHEN NOT TO USE DEEP LEARNING》,探討了深度學習的當前現(xiàn)狀和先入之見,并分析了其局限性。

我知道博客標題中使用否定詞很奇怪,但是前幾天有一波討論正好相應于我正在思考的一些問題。這一切開始于 Jeff Leek 發(fā)表的一篇有關(guān)說明在小樣本范圍內(nèi)使用深度學習的文章。要言之,他認為當樣本較小時(這在生物領(lǐng)域很常見),帶有少許參數(shù)的線性模型甚至比帶有少量層和隱藏單元的深度網(wǎng)絡(luò)性能更優(yōu)。他繼續(xù)展示了一個非常簡單的帶有十大信息特征的線性預測器,在使用大約 80 個樣本在 MNIST 數(shù)據(jù)集中分類 0 和 1 時,性能比一個簡單的深度網(wǎng)絡(luò)更優(yōu)。這促使 Andrew beam 寫了一篇反駁文章(詳見:小心訓練模型,數(shù)據(jù)少也可以玩轉(zhuǎn)深度學習),其中寫道一個適當訓練的深度網(wǎng)絡(luò)能夠完勝簡單的線性模型,甚至僅僅使用非常少的訓練樣本。在爭論期間,越來越多的生物醫(yī)療信息研究者開始采用深度學習處理不同的問題。hype real 或者線性模型就是我們需要的全部嗎?正如往常一樣,答案是看情況。在本文中,我將介紹幾個機器學習的應用案例,其中深度學習在應用和處理先入之見方面并沒有太多實際意義,我認為正是這些先入之見(preconception)阻礙了深度學習的應用,尤其是對于入門者來說。

深度學習的先入之見

首先,讓我們解決一些先入之見,外行人已經(jīng)將其誤認為半真理。有兩個大的先入之見以及一個比較技術(shù)的先入之見,這在某種程度上是對 Andrew Beam 關(guān)于「錯誤之見」的延伸。

深度學習可真正應用于小數(shù)據(jù)樣本

深度學習的聲望建立在大量數(shù)據(jù)之上(比如***谷歌大腦工程向深度網(wǎng)絡(luò)饋送了大量的 YouTube 視頻),并且作為復雜算法運行大量數(shù)據(jù)以來一直被公開化。不幸的是,大數(shù)據(jù)和深度學習的關(guān)系也有時對反:一個深度學習不能應用于小數(shù)據(jù)樣本的神話。如果你的神經(jīng)網(wǎng)絡(luò)樣本數(shù)據(jù)很少,帶有較高的參數(shù)樣本比,表面上看很可能會出現(xiàn)過擬合。然而,如果只考慮給定問題的樣本大小和維度,不管是監(jiān)督學習還是無監(jiān)督學習,這是憑空地建模數(shù)據(jù),無需語境。很可能是這種情況,你有與問題相關(guān)的數(shù)據(jù)資源,或者某個領(lǐng)域?qū)<铱梢蕴峁?nbsp;strong prior,或者數(shù)據(jù)的組織結(jié)構(gòu)很特殊。在所有這些情況中,深度學習有機會成為一種有效方法,例如,可以為更大的相關(guān)數(shù)據(jù)集編碼有用的表征,并將其應用在你的問題之中。其經(jīng)典圖示在自然語言處理中非常普遍,其中你可以學習大型語料庫的詞嵌入,并將其作為更小更窄語料庫中的嵌入來完成有監(jiān)督學習任務(wù)。極端地說,你可以聯(lián)合一組神經(jīng)網(wǎng)絡(luò)學習一個表征和一個有效的方式以在小樣本集中重復使用表征。這被稱作 one-shot learning,并被成功用在諸多高維數(shù)據(jù)領(lǐng)域,比如計算機視覺和藥物發(fā)現(xiàn)。

http://wuyou.51cto.com/

深度學習并不是一切的答案

第二個我聽到最多的先入之見是 hype。許多準從業(yè)者希冀深度網(wǎng)絡(luò)可以帶給他們一個神秘的性能提升,僅僅因為神經(jīng)網(wǎng)絡(luò)在其他領(lǐng)域也行之有效。其他人從建模和操控圖像、音樂、語言的工作中獲得啟發(fā),并通過嘗試訓練***的 GAN 架構(gòu)猛沖進這個領(lǐng)域。hype 真實存在,且方式多樣。深度學習在機器學習中一枝獨秀,并成了數(shù)據(jù)建模的一件重要工具。深度學習的流行催生出了一些核心的框架比如 TensorFlow 和 PyTorch,它們出奇地好用,甚至在深度學習之外也是。超級巨星源自失敗者的故事啟發(fā)了研究者重拾以前被埋沒的方法,比如進化策略和強化學習。但這無論如何不是***藥。除卻沒有免費午餐的考量,深度學習模型可以非常細微,需要小心、有時非常昂貴的超參數(shù)搜索、調(diào)試和測試(后文將有詳述)。此外,在很多情況下深度學習并無太多實際價值,反而是更簡單的模型效率更高。

深度學習不僅僅是.fit()

來自機器學習其他領(lǐng)域的翻譯多多少少埋沒掉了深度學習的一個方面。很多教程和入門材料描述深度學習模型由層級互聯(lián)層(由節(jié)點構(gòu)成)構(gòu)成,其中***層是輸入層,***一層是輸出層。你可以使用隨機梯度下降訓練它們。也許在簡短提及隨機梯度下降如何工作以及什么是反向傳播之后,大部分的解釋聚焦在了神經(jīng)網(wǎng)絡(luò)類型的豐富上。優(yōu)化方法本身需要很少的額外注意力,這很不幸,因為很可能相當一部分深度學習奏效的原因是由于這些特殊的方法,并指導如何優(yōu)化它們的參數(shù);以及如何分割數(shù)據(jù)以有效使用它們對于在合理的時間范圍內(nèi)獲得良好卷曲至關(guān)重要。為什么隨機梯度如此重要依然不得而知,但是一些線索正到處浮現(xiàn)。我最喜歡的一個是將該方法闡釋為貝葉斯推理執(zhí)行的一部分。本質(zhì)上講,每次當你做某些形式的數(shù)運算,你就在使用特定假設(shè)和 prior 執(zhí)行一些貝葉斯推理。

隨機梯度下降并不難,最近的工作表明該步驟實際上是一個馬爾可夫鏈,在特定假設(shè)下有一個靜態(tài)分布,可被看作是對 posterior 的變分近似。所以當你停止你的 SGD 并采用***的參數(shù)時,你基本上是在從這一近似分布中采樣。我發(fā)現(xiàn)這一想法很有啟發(fā)力,因為優(yōu)化器的參數(shù)通過這種方式發(fā)揮了很大作用。比如,由于你可以增加 SGD 的學習參數(shù),馬爾可夫鏈會變的不穩(wěn)定直到找到大面積采樣的局部極小值;即,你增加了步驟的方差。另一方面,如果你減少學習參數(shù),馬爾可夫鏈會慢慢近似更窄的極小值,直到它在嚴密區(qū)域內(nèi)收斂;即,你增加了一個特定區(qū)域的方差。另一個參數(shù),SGD 中的批大小,也控制著算法收斂的區(qū)域類型。對于小批的更寬廣區(qū)域,以及更大批的更窄區(qū)域。

SGD 優(yōu)選寬或窄的依賴于其學習率或批大小的最小值。

這一復雜性意味著深度網(wǎng)絡(luò)的優(yōu)化器成了***等級:它們是模型的核心部分,和層架構(gòu)同等重要。這種情況在機器學習的其他許多模型中并不常見。線性模型和支持向量機是凸優(yōu)化問題,這些問題實際上沒有太多差別,且只有一個真實答案。這就是為什么其他領(lǐng)域的人或者使用諸如 scikit-learn 等工具的人在沒有找到帶有.fit() 的非常簡單的 API 時深感困惑。

深度學習的局限性

因此,什么時候深度學習確實不適合一項任務(wù)?依我看,以下幾個主要場景中深度學習并不適用。

低預算或低承諾問題

深度學習模型非常靈活,有大量的架構(gòu)和節(jié)點類型、優(yōu)化器以及歸一化策略。依靠應用,你的模型也許會有卷積層或者循環(huán)結(jié)構(gòu);它也許真的很深,或者僅有幾個隱藏層;它也許使用整流線性單元或者其他的激活函數(shù);它或許有 dropout,或許沒有,并且權(quán)重很可能被歸一化。以上只是一個部分列表,還有很多其他的類型的節(jié)點、鏈接甚至損失函數(shù)可以嘗試。有很多超參數(shù)可以微調(diào),很多架構(gòu)可以探索,盡管訓練一個大型的神經(jīng)網(wǎng)絡(luò)非常耗時。谷歌最近鼓吹其 AutoML 流程可自動找到***架構(gòu),但是需要超過 800 塊 GPU 全力運轉(zhuǎn)數(shù)周,這可不適合所有人去做。重點是訓練深度網(wǎng)絡(luò)在計算和調(diào)試方面成本很高,這種費用對于許多日常預測問題并沒有任何意義,甚至調(diào)整小型網(wǎng)絡(luò)速度也太慢。即使有足夠的預算和承諾,首先作為基準也沒有理由不嘗試其他方法。你可能會驚喜地發(fā)現(xiàn),線性支持向量機才是你真正需要的全部。

向一個普通聽眾解釋和傳達模型參數(shù)/特征重要性

深度網(wǎng)絡(luò)之所以臭名昭著是因為它是一個黑箱,預測能力強大卻無法被解釋。即使最近有很多工具在一些領(lǐng)域表現(xiàn)顯著,它們并不會徹底轉(zhuǎn)向全部的應用。這些工具在你想要確保網(wǎng)絡(luò)是否欺騙你時工作良好,這主要是通過存儲數(shù)據(jù)集或者聚焦特定的假特征實現(xiàn)的。但是向深度網(wǎng)絡(luò)的整體決策闡釋預特征的重要性依然很困難嗎?在這一領(lǐng)域,由于學習系數(shù)與回應存在直接關(guān)系,沒有什么可以真正打敗線性模型。這在向一般聽眾傳遞這些闡釋時尤其關(guān)鍵。例如,內(nèi)科醫(yī)生需要整合所有類型的分散數(shù)據(jù)從而做出診斷。變量與結(jié)果之間的關(guān)系越簡單和直接,內(nèi)科醫(yī)生對其利用就越好,并且不會低估/高估其價值。進而,在很多案例中模型的精確度并沒有理論闡釋那么重要。例如,一個策略決策者也許想要知道人口統(tǒng)計的變量對死亡率的影響,并且相比于預測精度,他很可能對兩者關(guān)系的直接近似值更感興趣。在這兩種案例中,相對于更簡單、更深入的方法,深度學習處于劣勢。

建立因果機制

模型闡釋的極端案例是試圖建立一個機制模型,即,一個可以真正捕捉數(shù)據(jù)背后的現(xiàn)象的模型。好的實例包括試圖猜測兩個分子是否在一個特定的細胞環(huán)境中交互?或者假設(shè)一個特定的市場策略如何對銷售產(chǎn)生實際影響。該領(lǐng)的專家認為,老式的貝葉斯方法不可替代;它是我們進行因果表征和推理的***方式。Vicarious 最近在這方面有一些杰出成果(https://www.vicarious.com/img/icml2017-schemas.pdf),證明了為什么這一更加原則性的方法可以在視頻游戲任務(wù)中比深度學習泛化地更好。

從「非結(jié)構(gòu)」特征中學習

這個有待討論。我發(fā)現(xiàn)深度學習擅長的一個領(lǐng)域是為一個特定任務(wù)找到數(shù)據(jù)的有用表征。一個比較好的示例是上述的的詞嵌入。自然語言有著豐富而復雜的結(jié)構(gòu),其可通過「語境-意識」網(wǎng)絡(luò)被近似:每個詞可表征為一個向量,它編碼了其被使用最多的語境。使用在自然語言處理任務(wù)的大型語料庫中學習的詞嵌入有時可使另一個語料庫中的特殊任務(wù)獲得提升。然而,如果有問題的語料庫是徹底非結(jié)構(gòu)的,那么深度學習將毫無用武之地。例如,你正在通過查看關(guān)鍵詞的非結(jié)構(gòu)列表進行目標分類。由于關(guān)鍵詞并不被用于任何特定結(jié)構(gòu),詞嵌入并不可能幫助太多。在這一情況中,數(shù)據(jù)是真正的詞包,表征對于任務(wù)也充足。一個反方論點也許是詞嵌入實際上并沒有那么昂貴,如果使用預訓練的詞嵌入,你也許可以更好地捕捉到關(guān)鍵詞相似性。然而,我依然傾向于從詞包表征開始,并查看我是否能夠得到好的預測。畢竟,相比于對應的詞嵌入槽,詞包的每一個維度更容易闡釋。

深度是未來

深度學習很熱,資金充足,且發(fā)展飛快。當你在一個會議上讀到一篇深度學習論文時,它可能是兩三次迭代后的結(jié)果。這給我的上述觀點提出了很大的注意:不久的將來,深度學習也許在一些場景中依然超級有用。闡釋深度學習的工具變得越來越好。最近的軟件(比如 Edward)融合了貝葉斯建模和深度網(wǎng)絡(luò)框架(詳見:深度概率編程語言 Edward:融合了貝葉斯、深度學習和概率編程),借助概率編程和自動變分推理,量化了神經(jīng)網(wǎng)絡(luò)參數(shù)和簡單貝葉斯推理的不確定性。長遠看,存在一個簡化的建模詞匯表,揭示深度網(wǎng)絡(luò)可以具有的顯著屬性,從而減少需要測試的事物的參數(shù)空間。因此,繼續(xù)刷 arXiv 吧,沒準一兩個月這篇文章已被迭代。

Edward 在 TensorFlow 中融合了概率編程,可同時用于深度學習和貝葉斯模型。摘自 Tran 等人的 ICLR 2017 論文。

本文轉(zhuǎn)自機器之心,原文來自hyperparameter.space,作者Pablo Cordero。

責任編輯:張子龍 來源: 機器之心
相關(guān)推薦

2017-07-11 15:25:53

深度學習人工智能

2018-04-26 13:41:57

深度學習人工智能機器學習

2017-10-09 19:12:52

AI深度學習局限性

2017-07-25 11:22:06

2019-11-06 11:34:53

人工智能機器學習工具

2017-04-05 19:04:09

2021-08-09 11:07:44

數(shù)據(jù)安全算法互聯(lián)網(wǎng)

2024-05-08 08:00:00

2024-11-25 17:03:17

2024-03-12 09:43:45

2010-08-26 10:57:35

2022-06-16 12:51:48

工業(yè)機器人機器人

2023-01-10 10:11:50

GPU計算

2022-12-30 08:26:43

基線預警局限性

2009-12-15 11:05:05

2021-04-20 08:31:13

Kubernetes局限性容器

2024-06-05 13:48:04

2010-08-06 11:04:11

RIP路由協(xié)議

2023-04-12 10:51:42

2014-08-20 10:20:18

點贊
收藏

51CTO技術(shù)棧公眾號