裴健團(tuán)隊(duì)44頁(yè)新作:理解深度學(xué)習(xí)模型復(fù)雜度,看這一篇就夠了
近日,首篇深度學(xué)習(xí)模型復(fù)雜度綜述「Model Complexity of Deep Learning: A Survey」在arXiv上線。論文作者為著名大數(shù)據(jù)科學(xué)家裴健教授與他的兩位學(xué)生,以及微軟亞洲研究院的兩位合作者。44頁(yè)的綜述從深度學(xué)習(xí)模型框架、模型規(guī)模、優(yōu)化過(guò)程和數(shù)據(jù)復(fù)雜性對(duì)現(xiàn)有成果進(jìn)行了回顧。
在機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘和深度學(xué)習(xí)中,模型復(fù)雜性始終是重要的基本問(wèn)題。
模型的復(fù)雜性不僅會(huì)影響模型在特定問(wèn)題和數(shù)據(jù)上的可學(xué)習(xí)性,模型在看不見(jiàn)的數(shù)據(jù)上的泛化能力也與之有關(guān)。
模型的復(fù)雜性不僅受模型體系結(jié)構(gòu)的本身影響,還受到數(shù)據(jù)分布,數(shù)據(jù)復(fù)雜性和信息量的影響。
因此近年來(lái),模型復(fù)雜性已成為一個(gè)越來(lái)越活躍的方向,在模型體系結(jié)構(gòu)搜索、圖形表示、泛化研究和模型壓縮等領(lǐng)域都至關(guān)重要。
近日,首篇深度學(xué)習(xí)模型復(fù)雜度綜述「Model Complexity of Deep Learning: A Survey」在arXiv上線。
并對(duì)這兩個(gè)方向的最新進(jìn)展進(jìn)行了回顧。
論文作者為著名大數(shù)據(jù)科學(xué)家裴健教授與他的兩位學(xué)生,以及微軟亞洲研究院的兩位合作者。
深度學(xué)習(xí)的模型復(fù)雜性可以解釋為「表達(dá)能力」和「有效模型復(fù)雜度」。在這篇論文在,研究人員沿著模型框架、模型尺寸、優(yōu)化過(guò)程、數(shù)據(jù)復(fù)雜度四個(gè)重要因素對(duì)這兩類模型的現(xiàn)有研究進(jìn)行回顧。
最后,作者再?gòu)睦斫饽P头夯芰?、?yōu)化策略、模型的選擇與設(shè)計(jì)對(duì)其應(yīng)用進(jìn)行論述。
可以說(shuō),理解深度學(xué)習(xí)模型復(fù)雜度,看這一篇就夠了。
首篇深度學(xué)習(xí)模型復(fù)雜度綜述,四個(gè)重要因素
首先,我們先來(lái)看模型復(fù)雜度受哪些因素影響。
模型框架
模型框架的選擇影響模型的復(fù)雜性。影響因素包括模型類型(如FCNN、CNN),激活函數(shù)(例如,Sigmoid、ReLU)等。不同的模型框架可能需要不同的復(fù)雜性度量標(biāo)準(zhǔn)和方法可能無(wú)法直接相互比較。
模型尺寸
深度模型的大小影響模型的復(fù)雜度。一些常見(jiàn)的所采用的模型尺寸測(cè)量方法包括參數(shù)個(gè)數(shù)、參數(shù)個(gè)數(shù)隱藏層的數(shù)量、隱藏層的寬度、過(guò)濾器的數(shù)量以及過(guò)濾器大小。在同一模型框架下,模型的復(fù)雜性對(duì)于不同的大小,可以通過(guò)相同的復(fù)雜性度量進(jìn)行量化從而成為可比較的標(biāo)準(zhǔn)。
優(yōu)化過(guò)程
優(yōu)化過(guò)程影響模型的復(fù)雜度,包括目標(biāo)函數(shù)的形式、學(xué)習(xí)算法的選擇和超參數(shù)的設(shè)置。
數(shù)據(jù)復(fù)雜度
訓(xùn)練模型的數(shù)據(jù)也會(huì)影響模型的復(fù)雜性。主要影響因素包括數(shù)據(jù)維度、數(shù)據(jù)類型和數(shù)據(jù)類型分布、由Kolmogorov復(fù)雜性度量的信息量等。
通常來(lái)說(shuō),復(fù)雜度的研究模型選取有如下兩種:
一是指定模型(model-specific)的方法關(guān)注于特定類型的模型,并基于結(jié)構(gòu)特征探索復(fù)雜性。例如,Bianchini等人和Hanin等人研究了FCNNs的模型復(fù)雜性,Bengio和Delalleau關(guān)注和積網(wǎng)絡(luò)的模型復(fù)雜性。此外,一些研究進(jìn)一步提出了激活的限制條件約束非線性特性的函數(shù)。
還有一種方法是跨模型(cross-model),當(dāng)它涵蓋多種類型的模型時(shí),而不是多個(gè)特定類型的模型,因此可以應(yīng)用于比較兩個(gè)或多個(gè)更多不同類型的模型。例如,Khrulkov等人比較了建筑物連接對(duì)一般RNN、CNN和淺層FCNN復(fù)雜性的影響在這些網(wǎng)絡(luò)結(jié)構(gòu)和張量分解中。
「表達(dá)能力」與「有效模型復(fù)雜度」
模型的表達(dá)能力
模型的表達(dá)能力意味著這個(gè)模型在不同數(shù)據(jù)上的表達(dá)能力,即性能,綜述主要分析方法是從下面四個(gè)角度分析。
深度效率(depth efficiency)分析深度學(xué)習(xí)模型如何從架構(gòu)的深度獲得更好地性能(例如,精確度)。
寬度效率(width efficiency)分析深度學(xué)習(xí)中各層的寬度對(duì)模型影響程度。
可表達(dá)功能空間(expressible functional space)研究可表達(dá)的功能由具有特定框架和指定大小的深模型表示,在不同參數(shù)的情況下。
最后,VC維度和Rademacher復(fù)雜性是機(jī)器學(xué)習(xí)中表達(dá)能力的兩個(gè)經(jīng)典度量。
模型的有效復(fù)雜度
深度學(xué)習(xí)模型的有效復(fù)雜性也稱為實(shí)際復(fù)雜性、實(shí)際表達(dá)能力和可用容量。
它反映了復(fù)雜性具有特定參數(shù)化的深部模型所代表的函數(shù)。深度學(xué)習(xí)模型的有效復(fù)雜性主要從以下兩個(gè)方面進(jìn)行了探討。
有效復(fù)雜性的一般度量(general measures of effective complexity)設(shè)計(jì)深度學(xué)習(xí)模型有效復(fù)雜性的量化度量。
對(duì)高容量低現(xiàn)實(shí)現(xiàn)象的調(diào)查發(fā)現(xiàn)深度學(xué)習(xí)模型的有效復(fù)雜性可能遠(yuǎn)低于他們的表達(dá)能力。一些研究探討了深度學(xué)習(xí)模型的有效復(fù)雜性和表達(dá)能力之間的差距。
模型復(fù)雜度的應(yīng)用
這篇論文主要介紹了三個(gè)應(yīng)用,理解模型泛化能力、模型優(yōu)化、模型選擇和設(shè)計(jì)。
理解模型泛化能力
深度學(xué)習(xí)模型總是過(guò)于參數(shù)化,也就是說(shuō),它們的參數(shù)要多得多,模型參數(shù)比最優(yōu)解和訓(xùn)練樣本數(shù)多。然而,人們經(jīng)常發(fā)現(xiàn)大型的過(guò)參數(shù)化神經(jīng)網(wǎng)絡(luò)具有良好的泛化能力。一些研究甚至發(fā)現(xiàn)更大、更復(fù)雜的網(wǎng)絡(luò)通常更具通用性。這一觀察結(jié)果與函數(shù)復(fù)雜性的經(jīng)典概念相矛盾,例如著名的奧卡姆剃須刀原則,更喜歡簡(jiǎn)單的定理。
什么導(dǎo)致過(guò)度參數(shù)化深度學(xué)習(xí)模型的良好泛化能力?
1、在訓(xùn)練誤差為零的情況下,一個(gè)網(wǎng)絡(luò)訓(xùn)練在真實(shí)的標(biāo)簽上,導(dǎo)致良好的泛化能力,其復(fù)雜度比在隨機(jī)標(biāo)簽上訓(xùn)練的網(wǎng)絡(luò)要低得多。
2、增加隱藏單元的數(shù)量或參數(shù)的數(shù)量,從而減少了泛化誤差,有望降低復(fù)雜度。
3、使用兩種不同的優(yōu)化算法,如果都導(dǎo)致零訓(xùn)練誤差,具有較好泛化能力的模型具有較低的復(fù)雜度。
優(yōu)化策略
模型優(yōu)化關(guān)注的是神經(jīng)網(wǎng)絡(luò)模型如何建立以及為什么建立,為什么可以成功訓(xùn)練。具體來(lái)說(shuō),優(yōu)化一個(gè)深度學(xué)習(xí)模型一般是確定模型參數(shù),使損失函數(shù)最小化非凸的。損失函數(shù)的設(shè)計(jì)通?;谝粋€(gè)問(wèn)題和模型的要求,因此一般包括在訓(xùn)練集上評(píng)估的性能度量和其他約束條件。
模型復(fù)雜度被廣泛用于提供一個(gè)度量來(lái)進(jìn)行優(yōu)化可追蹤。例如,有效模型復(fù)雜性的度量指標(biāo)神經(jīng)網(wǎng)絡(luò)有助于監(jiān)測(cè)優(yōu)化過(guò)程中模型的變化處理并理解優(yōu)化過(guò)程是如何進(jìn)行的。這樣的度量也有助于驗(yàn)證優(yōu)化算法新改進(jìn)的有效性。
Nakkiran等人研究了訓(xùn)練過(guò)程中的雙下降現(xiàn)象利用有效復(fù)雜度度量數(shù)據(jù)集的最大大小,在該數(shù)據(jù)集上可以得到零訓(xùn)練誤差實(shí)現(xiàn)。結(jié)果表明,雙下降現(xiàn)象是可以表示的作為有效復(fù)雜性的函數(shù)。Raghu等人和Hu等人提出了新的正則化方法,并證明了這些方法對(duì)減小復(fù)雜度是有效的。
模型選擇和設(shè)計(jì)
給定一個(gè)具體的學(xué)習(xí)任務(wù),研究人員如何為這個(gè)任務(wù)確定一個(gè)可行的模型結(jié)構(gòu)。給出了各種不同體系結(jié)構(gòu)和不同性能的模型復(fù)雜性,研究人員如何從中挑選出最好的模型?這就是模型選擇和設(shè)計(jì)問(wèn)題。
一般來(lái)說(shuō),模型的選擇和設(shè)計(jì)是基于兩者之間的權(quán)衡,預(yù)測(cè)性能和模型復(fù)雜性。
一方面,高精度的預(yù)測(cè)是學(xué)習(xí)模型的基本目標(biāo)。模型應(yīng)該能夠捕獲隱藏在模型中的底層模式訓(xùn)練數(shù)據(jù)和實(shí)現(xiàn)預(yù)測(cè)的精度盡可能高。為了表示大量的知識(shí)并獲得較高的準(zhǔn)確度,一個(gè)模型具有較高的表達(dá)能力,自由度大,體積大,需要更大訓(xùn)練集。在這個(gè)程度上,一個(gè)具有更多參數(shù)和更高的復(fù)雜性是有利的。
另一方面,過(guò)于復(fù)雜的模型可能很難進(jìn)行訓(xùn)練,可能會(huì)導(dǎo)致不必要的資源消耗,例如存儲(chǔ)、計(jì)算和時(shí)間成本。不必要的資源消耗特別是在實(shí)際的大規(guī)模應(yīng)用中,應(yīng)避免使用。為了這個(gè)目標(biāo),一個(gè)更簡(jiǎn)單的模型比一個(gè)更精確的模型更可取。
數(shù)據(jù)價(jià)值和數(shù)據(jù)資產(chǎn)管理
綜述的作者裴健是數(shù)據(jù)科學(xué)領(lǐng)域的世界頂尖學(xué)者,加拿大西蒙弗雷澤大學(xué)計(jì)算機(jī)科學(xué)學(xué)院教授,還是加拿大皇家學(xué)會(huì)、加拿大工程院、ACM和IEEE的院士。
近日,在O'Reilly媒體集團(tuán)原首席數(shù)據(jù)科學(xué)家Ben Lorica 羅瑞卡主持的podcast中,裴健教授談?wù)摿藬?shù)據(jù)價(jià)值和數(shù)據(jù)資產(chǎn)管理的問(wèn)題。
他認(rèn)為,第一,數(shù)據(jù)作為企業(yè)的核心資源,CFO和CDO要一起來(lái)關(guān)注數(shù)據(jù)資源的運(yùn)轉(zhuǎn)、使用和效益。第二,數(shù)據(jù)不僅僅是技術(shù),企業(yè)急需組建有經(jīng)濟(jì)學(xué)家參與的核心團(tuán)隊(duì)來(lái)研發(fā)運(yùn)營(yíng)數(shù)據(jù)產(chǎn)品和數(shù)據(jù)資產(chǎn)。第三,每一家企業(yè)都有大量的上游和下游數(shù)據(jù)應(yīng)用,企業(yè)的數(shù)據(jù)往往比自己所認(rèn)知價(jià)值大得多,數(shù)字化數(shù)據(jù)化企業(yè)的業(yè)務(wù)并運(yùn)營(yíng)好數(shù)據(jù)資產(chǎn)具有重大的投資價(jià)值。
2021年4月29日至5月1日,裴健教授與論文的其他作者還將在SDM (SIAM International Conference on Data Mining ,SIAM數(shù)據(jù)挖掘國(guó)際會(huì)議)上進(jìn)行演講,對(duì)論文內(nèi)容進(jìn)行解讀。
參考資料:
https://www.sfu.ca/~huxiah/sdm21_tutorial.html
https://youtu.be/VNesYXw-6hQ



































