偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

清華大學(xué)、DeepMind等指出現(xiàn)有小樣本學(xué)習(xí)方法并不穩(wěn)定有效,提出評價框架

人工智能 新聞
以 GPT-3 為代表的預(yù)訓(xùn)練語言模型的發(fā)展,引發(fā)對小樣本自然語言理解任務(wù)的極大關(guān)注。各種方法不斷發(fā)展并展現(xiàn)出日漸強大的小樣本自然語言理解性能。然而,來自清華大學(xué)、DeepMind 等團(tuán)隊的研究者近期的一項研究指出:相同基準(zhǔn)再評估結(jié)果表明,現(xiàn)有小樣本學(xué)習(xí)方法并不足夠穩(wěn)定有效,小樣本自然語言理解發(fā)展尚面臨巨大挑戰(zhàn)!

評價準(zhǔn)則的差異極大阻礙了已有小樣本學(xué)習(xí)方法基于統(tǒng)一的標(biāo)準(zhǔn)公平比較,也無法客觀評價該領(lǐng)域的真實進(jìn)展。近期,來自清華大學(xué)、DeepMind 等團(tuán)隊研究者在論文《FewNLU: Benchmarking State-of-the-Art Methods for Few-Shot Natural Language Understanding》中指出:現(xiàn)有小樣本學(xué)習(xí)方法并不穩(wěn)定有效,且目前已有工作不存在單一的小樣本學(xué)習(xí)方法能夠在大多數(shù) NLU 任務(wù)上取得優(yōu)勢性能。小樣本自然語言理解領(lǐng)域發(fā)展依然面臨著嚴(yán)峻的挑戰(zhàn)!該工作被 ACL2022 主會接收。

  • 論文地址:https://arxiv.org/abs/2109.12742
  • 項目地址:https://github.com/THUDM/FewNLU
  • Leaderboard 地址:https://fewnlu.github.io/ 

本文貢獻(xiàn)如下:

(1) 該研究提出了一個新的小樣本自然語言理解評價框架 FewNLU,并且從三個關(guān)鍵方面(即測試集小樣本學(xué)習(xí)性能、測試集和驗證集相關(guān)性、以及穩(wěn)定性) 量化評估該評價準(zhǔn)則的優(yōu)勢。 (2) 研究者對該領(lǐng)域相關(guān)工作進(jìn)行重新評估,結(jié)果表明:已有工作未準(zhǔn)確估計現(xiàn)有小樣本學(xué)習(xí)方法的絕對性能和相對差距;目前尚不存在單一在大多數(shù) NLU 任務(wù)取得優(yōu)勢性能的方法;不同方法的增益是優(yōu)勢互補的,最佳組合模型的性能接近于全監(jiān)督 NLU 系統(tǒng)等關(guān)鍵結(jié)論。(3) 此外本文提出 FewNLU,并構(gòu)建了 Leaderboard,希望幫助促進(jìn)小樣本自然語言理解領(lǐng)域未來研究工作的發(fā)展。

小樣本自然語言理解評價框架

模型選擇對小樣本學(xué)習(xí)是必要的嗎?

初步實驗結(jié)果表明 (如表格 1 所示),就如已有大多數(shù)工作那樣基于一組(根據(jù)既往實驗經(jīng)驗) 預(yù)先固定的超參數(shù)的實驗設(shè)置,并不是最佳選擇。實驗條件的細(xì)微變化或者擾動都會帶來性能的急劇波動?;谛〉尿炞C集在不同實驗中分別進(jìn)行模型選擇是不可或缺的。

小樣本自然語言理解評價框架

基于上述結(jié)論,本文為小樣本自然語言理解提出一種更穩(wěn)健且有效的評價框架,如算法 1 所示。

該評價框架中有兩個關(guān)鍵設(shè)計選擇,分別是如何構(gòu)建數(shù)據(jù)拆分以及確定關(guān)鍵搜索超參數(shù)。

如何構(gòu)建數(shù)據(jù)拆分?

本文首先提出數(shù)據(jù)拆分構(gòu)建的三個關(guān)鍵指標(biāo): (1) 最終測試集小樣本學(xué)習(xí)性能、 (2) 測試集和驗證集關(guān)于一個超參數(shù)空間分布的相關(guān)性、以及 (3) 關(guān)于實驗執(zhí)行次數(shù)的穩(wěn)定性。

基于此,本文對多種不同的數(shù)據(jù)拆分策略進(jìn)行了量化實驗和討論,包括 (1) K 折交叉驗證 (K-Fold CV)[2], (2) 最短描述距離(MDL)[2],(3) Bagging [9], (4) 隨機采樣策略 (5) 模型指導(dǎo)的拆分策略 (6) 以及本文提出的多次數(shù)據(jù)劃分(Multi-Splits)。

實驗結(jié)果如表格 2、3 和圖 1 所示。表格 2、3 的實驗結(jié)果表明:從小樣本性能和相關(guān)性看,多次數(shù)據(jù)劃分 (Multi-Splits) 是比其他幾個基準(zhǔn)方案更好的數(shù)據(jù)拆分策略。 

此外,由圖 1 可知,Multi-Splits 的優(yōu)勢還源于增大執(zhí)行次數(shù) K 的取值并不會對訓(xùn)練集和驗證集的數(shù)據(jù)量產(chǎn)生影響,相反會進(jìn)一步增加該結(jié)果的置信度,故實驗過程中總可以選擇盡可能增大 K 的取值。然而對于 CV 和 MDL,較大的 K 值會導(dǎo)致失敗(Failure Mode),較小的 K 值導(dǎo)致高隨機性不穩(wěn)定的結(jié)果;同時在實踐中很難先驗地知道應(yīng)該如何取值。故 Multi-Splits 是更具實際使用意義的數(shù)據(jù)拆分策略。

小樣本學(xué)習(xí)方法重新評價

基于統(tǒng)一的評價框架下,本文對目前已有最先進(jìn)的小樣本學(xué)習(xí)方法進(jìn)行重新評價。本文還嘗試探索了多種不同小樣本學(xué)習(xí)方法和技術(shù)組合可以實現(xiàn)的最佳性能(如表格 5 中的 "Our Best" 所示)。重新評價實驗結(jié)果如表格所示。

重新評估結(jié)果可揭示如下關(guān)鍵結(jié)論:

  • 結(jié)論 1: 小樣本學(xué)習(xí)方法的絕對性能和相對性能差異,在先前文獻(xiàn)中未被準(zhǔn)確估計。此外小樣本方法(例如 ADAPET)在像 DeBERTa 這樣的大型模型上的優(yōu)勢會顯著降低。半監(jiān)督小樣本方法(例如 iPET 和 Noisy Student)增益在較大的模型也可以保持一致性。
  • 結(jié)論 2: 不同小樣本學(xué)習(xí)方法的增益在很大程度上是互補的。通過將目前各種先進(jìn)方法加以組合,它們可以在很大程度上實現(xiàn)優(yōu)于任意單一方法的小樣本學(xué)習(xí)性能。目前最佳組合方法的小樣本學(xué)習(xí)性能,接近 RoBERTa 上實現(xiàn)的全監(jiān)督性能;然而和目前 DeBERTa 上實現(xiàn)的最優(yōu)全監(jiān)督性能相比,它仍然存在較大的差異性。
  • 結(jié)論 3: 目前已有相關(guān)工作中不存在單一的小樣本學(xué)習(xí)方法能夠在大多數(shù) NLU 任務(wù)上取得主導(dǎo)性優(yōu)勢性能。這為未來進(jìn)一步開發(fā)出具有跨任務(wù)一致性和魯棒性的小樣本學(xué)習(xí)方法提出新的挑戰(zhàn)。


責(zé)任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2021-04-19 11:12:46

區(qū)塊鏈貨幣加密貨幣

2025-10-20 08:50:00

2025-01-06 12:46:16

模型數(shù)據(jù)訓(xùn)練

2025-02-10 08:40:00

訓(xùn)練數(shù)據(jù)模型

2010-09-15 13:27:33

無線信號不穩(wěn)定

2021-10-11 17:27:50

框架計算機開發(fā)

2011-06-29 14:39:29

網(wǎng)站排名

2011-04-01 15:02:43

路由器鏈路

2022-11-11 15:16:36

機器學(xué)習(xí)開源

2021-02-09 08:31:38

線下環(huán)境 stable

2010-09-14 13:17:11

無線網(wǎng)絡(luò)不穩(wěn)定

2023-05-04 07:39:33

2021-11-15 10:00:22

模型人工智能NLP

2021-07-08 15:39:50

機器學(xué)習(xí)人工智能計算

2013-09-27 17:29:16

清華大學(xué)IT運維RIIL

2011-10-26 10:57:56

EqualLogic戴爾存儲

2011-10-25 09:47:59

服務(wù)器

2010-04-06 10:42:59

無線網(wǎng)絡(luò)不穩(wěn)定

2010-04-15 15:54:24

無線信號不穩(wěn)定

2009-12-25 09:39:08

ADSL MODEM
點贊
收藏

51CTO技術(shù)棧公眾號