偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

陳丹琦帶著清華特獎學弟發(fā)布新成果:打破谷歌BERT提出的訓練規(guī)律

人工智能 新聞
陳丹琦團隊展示了最新的研究成果。團隊發(fā)現(xiàn),經(jīng)典NLP模型BERT提出的預訓練“15%掩蔽率”法則,是可以被打破的!

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

新晉斯隆獎得主如何慶祝?

公開最新研究成果算不算?

就在斯隆獎宣布當天,陳丹琦團隊展示了最新的研究成果。

團隊發(fā)現(xiàn),經(jīng)典NLP模型BERT提出的預訓練“15%掩蔽率”法則,是可以被打破的!

“15%掩蔽率”,指在一項預訓練任務中,隨機遮住15%的單詞,并通過訓練讓AI學會預測遮住的單詞。

陳丹琦團隊認為,如果將掩蔽率提升到40%,性能甚至比15%的時候還要更好:

不僅如此,這篇文章還提出了一種新的方法,來更好地提升40%掩蔽率下NLP模型訓練的效果。

一位抱抱臉(Hugging Face)工程師對此表示:

關于BERT有個很有意思的事情,它雖然是一項開創(chuàng)性的研究,然而它的那些訓練方式都是錯誤或不必要的。

這篇論文的共同一作高天宇,也是清華特獎獲得者,本科期間曾發(fā)表過四篇頂會論文。

那么,論文究竟是怎么得出這一結(jié)論的呢?

“大模型更適合高掩蔽率”

陳丹琦團隊先是從掩蔽率、迭代次數(shù)和模型大小三個方向,驗證了這一結(jié)論。

他們先是用了一系列不同的掩蔽率來訓練NLP模型,參數(shù)如下:

結(jié)果發(fā)現(xiàn),除了小部分數(shù)據(jù)集以外,模型在包括MNLI、QNLI、QQP、STS-B、SQuAD等數(shù)據(jù)集上的訓練效果,40%掩蔽率都比15%都要更好。

為了進一步迭代次數(shù) (training step)受掩蔽率的影響效果,作者們同樣記錄了不同迭代率下模型的效果。

結(jié)果顯示,隨著迭代次數(shù)的增加,40%掩蔽率基本都表現(xiàn)出了比15%更好的性能:

不僅如此,作者們還發(fā)現(xiàn),更大的模型,更適合用40%掩蔽率去訓練。

結(jié)果顯示,大模型在40%掩蔽率的情況下,性能比中等NLP模型要更好:

這么看來,只將掩蔽率設置為15%,確實沒有40%的訓練效果更好,而且,更大的NLP模型還更適合用40%的掩蔽率來訓練。

團隊猜測,任務難一些能促使模型學到更多特征,而大模型正是有這種余裕。

為了探究其中的原理,作者們又提出了一個新的評估方法。

將掩蔽率拆分為2個指標

具體來說,就是將掩蔽率拆分為破壞率 (corruption rate)和預測率 (prediction rate)2個指標。

其中,破壞率是句子被破壞的比例,預測率是模型預測的比例。

例如,“我喜歡打籃球”語料可能被破壞成“我[MASK][MASK][MASK]”提供給模型,但模型卻只需要預測第一個[MASK]是不是“喜歡”。

這樣一來,就可以用破壞率來控制預訓練任務的難度,用預測率來控制模型的優(yōu)化效果

論文進一步針對破壞率(mcorr)和預測率(mpred)進行了研究,發(fā)現(xiàn)了一個新規(guī)律:

預測率高,模型效果更好;但破壞率更高,模型效果更差:

這樣就能用更精準的方式來評估各種預訓練任務了。

最后,作者們在這種指標下,測試了多種掩碼,觀察在更高掩蔽率的情況下,哪些掩碼的效果更好。

結(jié)果顯示,隨著掩蔽率的提升,隨機均勻掩碼的效果(Uniform)的表現(xiàn)還會比Span Masking、相關區(qū)間原則性掩碼(PMI-Masking)更好。

然而,在之前的很多NLP模型中,基本都直接采用了PMI-Masking或是Span Masking等更復雜的掩碼來訓練。

這也說明,NLP大模型的預訓練效果不能一概而論,光是訓練方法就值得進一步研究。

作者介紹

論文的幾名作者均來自陳丹琦團隊。

一作高天宇,目前是普林斯頓大學的二年級博士生,本科畢業(yè)于清華大學,曾經(jīng)獲得清華本科特等獎學金。

本科時,高天宇就在劉知遠教授團隊中搞科研了,期間一共發(fā)表了4篇頂會論文(兩篇AAAI,兩篇EMNLP)。

共同一作Alexander Wettig,普林斯頓大學一年級博士生,本碩畢業(yè)于劍橋大學,對NLP的泛化能力方向感興趣。

鐘澤軒(Zexuan Zhong),普林斯頓大學博士生,碩士畢業(yè)于伊利諾伊大學香檳分校,導師是謝濤;本科畢業(yè)于北京大學計算機系,曾在微軟亞研院實習,導師是聶再清。

通過這一發(fā)現(xiàn),不少NLP大模型說不定又能通過改進訓練方法,取得更好的效果了。

論文地址:

https://gaotianyu.xyz/content/files/2022/02/should_you_mask_15-1.pdf

責任編輯:張燕妮 來源: 量子位
相關推薦

2022-07-26 09:56:48

模型AI

2023-10-12 12:13:16

AI訓練

2024-05-27 08:40:00

2025-06-25 09:15:38

AI模型LLM

2024-10-08 14:48:24

2025-02-10 08:40:00

訓練數(shù)據(jù)模型

2025-01-16 09:00:00

2025-01-08 13:05:56

2022-02-21 17:22:35

模型

2021-05-20 17:04:23

AI

2020-03-17 09:42:00

谷歌開源機器學習

2021-02-04 12:46:54

谷歌開源安全漏洞

2024-07-18 12:58:03

2025-02-13 12:23:28

2021-11-15 10:00:22

模型人工智能NLP

2025-01-07 12:55:00

訓練數(shù)據(jù)模型

2021-07-13 17:59:13

人工智能機器學習技術

2021-12-06 09:53:09

自然語言神經(jīng)網(wǎng)絡人工智能

2025-09-28 15:35:32

AI模型強化學習

2023-10-25 09:19:00

AI訓練
點贊
收藏

51CTO技術棧公眾號