偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

谷歌研究院最新發(fā)現(xiàn):訓(xùn)練結(jié)果不準(zhǔn)確,超大數(shù)據(jù)規(guī)模要背鍋!

新聞 人工智能
最近Geogle reserach 的一篇論文,卻認(rèn)為對超大規(guī)模數(shù)據(jù)集進(jìn)行整理的趨勢,反而會阻礙有效開發(fā)人工智能系統(tǒng)。

 [[428092]]

目前AI領(lǐng)域 的一大趨勢是什么?沒錯,就是擴(kuò)大數(shù)據(jù)集規(guī)模。然而最近Geogle reserach 的一篇論文,卻認(rèn)為對超大規(guī)模數(shù)據(jù)集進(jìn)行整理的趨勢,反而會阻礙有效開發(fā)人工智能系統(tǒng)。

數(shù)據(jù)規(guī)模真的越大越好?

算力和數(shù)據(jù)是人工智能兩大主要驅(qū)動力。無論是計算機(jī)視覺,還是自然語言處理等AI系統(tǒng)似乎都離不開數(shù)據(jù)集。

在超大規(guī)模數(shù)據(jù)時代,數(shù)據(jù)和學(xué)習(xí)結(jié)果是這樣的關(guān)系:

數(shù)據(jù)規(guī)模越大,AI模型越精準(zhǔn)、高效。在大部分人眼里,這似乎是個不爭的事實(shí)。

數(shù)據(jù)規(guī)模和模型精確度難道真的是呈現(xiàn)正相關(guān)關(guān)系嗎?

最近,Geogle Research 上發(fā)布的一篇論文,對這一普遍持有的觀點(diǎn),提出了質(zhì)疑的呼聲。

[[428094]]

規(guī)模一大, “飽和”就無處不在!

這篇名為Expolring the limits of pre-training model 挑戰(zhàn)了機(jī)器學(xué)習(xí)效果和數(shù)據(jù)關(guān)系的既有假設(shè)。經(jīng)過試驗(yàn)得出的結(jié)論是:無論是通過擴(kuò)大數(shù)據(jù)規(guī)模還是超參數(shù)來改進(jìn)上游性能,下游可能會出現(xiàn)“飽和”現(xiàn)象。

所謂飽和就是.....你懂的哈,就是沒有梯度信號傳入神經(jīng)元,也無法到權(quán)重和數(shù)據(jù),這樣網(wǎng)絡(luò)就很難以進(jìn)行學(xué)習(xí)了。

為了證明飽和效應(yīng)的觀點(diǎn),作者對視覺變形器、ResNets和MLP-混合器進(jìn)行了4800次實(shí)驗(yàn),每個實(shí)驗(yàn)都有不同數(shù)量的參數(shù),從1000萬到100億,都在各自領(lǐng)域現(xiàn)有的最高容量數(shù)據(jù)集進(jìn)行訓(xùn)練,包括ImageNet21K和谷歌自己的JFT-300M。

文中還提到了一種極端的情況,上游和下游的性能是互相矛盾的 ,也就是說:要想獲得更好的下游性能,可能得犧牲掉上游任務(wù)的精確度。

這一假設(shè)一旦得到驗(yàn)證,就意味著 "超大規(guī)模 "數(shù)據(jù)集,如最近發(fā)布的LAION-400M(包含4億個文本/圖像對),以及GPT-3神經(jīng)語言引擎背后的數(shù)據(jù)(包含1750億個參數(shù)),有可能受限于傳統(tǒng)機(jī)器學(xué)習(xí)的架構(gòu)和方法。龐大的數(shù)據(jù)量可能會使得下游任務(wù)飽和,降低了其泛化的能力。

其實(shí)呢,之前的假設(shè)也不是完全在“胡言亂語”,只是要加上一個條件即:既定數(shù)據(jù)規(guī)模的超參數(shù)要在一個較為簡單的線性函數(shù)關(guān)系中 , 且是一個固定的值。

考慮到有限的計算資源和經(jīng)濟(jì)成本等問題,先前的研究范圍較小,讓人們對數(shù)據(jù)集和有效AI系統(tǒng)間的關(guān)系產(chǎn)生了不全面的認(rèn)知。原來以偏概全是通病!

事實(shí)上怎么可能有這么簡單呢?

文章又反駁道“先前關(guān)于論證數(shù)據(jù)規(guī)模有效性的研究,僅是在有限的范圍進(jìn)行的。 因而不能妄下定論。“

唱反調(diào)也得有依據(jù)!文章為什么會得出這樣的結(jié)論呢?原來真相就在眼前!

[[428095]]

上下游的關(guān)系不簡單!

先前的研究是在線性函數(shù)的假設(shè)基礎(chǔ)上,呈現(xiàn)出了對數(shù)關(guān)系。

然而經(jīng)過研究發(fā)現(xiàn),情況是這樣的

從圖中可以發(fā)現(xiàn),下游任務(wù)在某些點(diǎn),會發(fā)生飽和。但這些“飽和點(diǎn)”并不固定。因而文章推論,上下游之間的關(guān)系是非線性的。

數(shù)據(jù)、模型規(guī)模的擴(kuò)大,倒是能提高上游性能。但是由于這種非線性關(guān)系的存在,提高上游的準(zhǔn)確度的同時,下游準(zhǔn)確度就不能夠保證了。

預(yù)訓(xùn)練模型不能讓人們”一勞永逸“!

本文討論了 "預(yù)訓(xùn)練 "的做法,這種措施旨在節(jié)省計算資源,減少從零開始訓(xùn)練大規(guī)模數(shù)據(jù)所需的時間。

預(yù)訓(xùn)練可以明顯提高模型的魯棒性和準(zhǔn)確性。但新的論文表明,即使在相對較短的預(yù)訓(xùn)練模板中,但是考慮到特征的復(fù)雜性,預(yù)訓(xùn)練模型不適合于所有情況。如果研究人員繼續(xù)依賴預(yù)訓(xùn)練模型,可能影響到最終結(jié)果的準(zhǔn)確性。

論文最后提到,”我們不能期望找到適用于所有下游任務(wù)的預(yù)訓(xùn)練模型。"

[[428097]]

規(guī)模有多大,就有多準(zhǔn)確?

Geogle research 的研究結(jié)果對這一定論,勇敢說出了”不“,的確讓人們眼前一亮!是否會對整個AI研究領(lǐng)域,帶來突破性的進(jìn)展呢?也許會由此帶動更多的相關(guān)研究,會不知不覺掀起另一波”浪潮“?咱們走著瞧!

 

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2021-03-22 11:16:50

人工智能應(yīng)用基礎(chǔ)設(shè)施

2012-06-20 09:39:02

惡意網(wǎng)站

2022-08-16 08:35:45

Black Hat網(wǎng)絡(luò)安全

2013-02-28 10:24:18

2015-08-27 13:36:31

大數(shù)據(jù)

2016-10-09 13:19:43

2025-03-10 09:30:00

2019-04-04 13:00:19

Linuxshell命令

2016-07-06 11:38:10

移動 出海

2022-03-21 09:47:02

深度學(xué)習(xí)模型人工智能

2017-12-29 14:37:54

云計算

2024-07-29 07:04:00

大模型AI訓(xùn)AI人工智能

2021-02-01 09:51:35

IBM中國研究院

2021-01-12 15:11:01

AI 數(shù)據(jù)人工智能

2025-06-04 13:56:51

模型AI數(shù)據(jù)

2022-04-22 11:22:47

達(dá)摩院阿里巴巴

2021-10-15 10:11:00

遠(yuǎn)程管理監(jiān)控數(shù)據(jù)中心

2019-11-15 11:19:55

大數(shù)據(jù)人工智能技術(shù)

2024-06-05 19:45:08

2025-06-25 09:28:38

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號