偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

ICML'25 | 兼容不同數(shù)據(jù)源周期性差異的時間序列基礎(chǔ)模型

發(fā)布于 2025-6-25 08:04
瀏覽
0收藏

今天給大家介紹一篇ICML 2025的時間序列預(yù)測工作,提出了一個輕量級、兼容不同類型數(shù)據(jù)的周期性差異的時間序列基礎(chǔ)模型,在Zero-shot learning、Full-shot learning等場景中都取得了顯著效果提升。

ICML'25 | 兼容不同數(shù)據(jù)源周期性差異的時間序列基礎(chǔ)模型-AI.x社區(qū)

論文標(biāo)題:LightGTS: A Lightweight General Time Series Forecasting Model

下載地址:??https://arxiv.org/pdf/2506.06005??

1.研究背景

時間序列基礎(chǔ)模型希望構(gòu)建類似LLM的時序領(lǐng)域通用模型,在大量多樣性的數(shù)據(jù)集上預(yù)訓(xùn)練,訓(xùn)練好的模型在下游進(jìn)行應(yīng)用。

現(xiàn)有的時間序列基礎(chǔ)模型往往存在2個問題。第一個是結(jié)構(gòu)復(fù)雜,參數(shù)量大,在下游的應(yīng)用中存在資源瓶頸。第二個是也是本文要主要解決問題是,時序基礎(chǔ)模型需要在多樣化的數(shù)據(jù)上訓(xùn)練,然而不同時間序列數(shù)據(jù)的周期性不同,現(xiàn)有的統(tǒng)一建模方法會忽略這種數(shù)據(jù)差異,影響了擬合效果。

為了解決上述問題,本文提出了一種能兼容不同數(shù)據(jù)周期性的時間序列基礎(chǔ)模型,不僅提升了模型在多種數(shù)據(jù)上的兼容能力,也顯著降低了模型的參數(shù)量。下圖是不同時序基礎(chǔ)模型的MSE和參數(shù)量對比,本文提出的模型MSE低切參數(shù)量也很小。

ICML'25 | 兼容不同數(shù)據(jù)源周期性差異的時間序列基礎(chǔ)模型-AI.x社區(qū)

2.建模方法

本文的核心思路是,針對不同周期性的時間序列,使用不同長度的窗口進(jìn)行patch生成,從而使得每個patch內(nèi)都包含一個完整周期的信息。下圖對比了不同Embedding的方法,相比單點Embedding和Patch Embedding,本文的方法能夠保證單個patch的周期性信息是完整的。

ICML'25 | 兼容不同數(shù)據(jù)源周期性差異的時間序列基礎(chǔ)模型-AI.x社區(qū)

整體的模型結(jié)構(gòu)如下圖所示,核心包括3個模塊:周期Token生成、自適應(yīng)Patch映射、Transformer結(jié)構(gòu)。下面展開介紹這3個模塊的實現(xiàn)方法。

ICML'25 | 兼容不同數(shù)據(jù)源周期性差異的時間序列基礎(chǔ)模型-AI.x社區(qū)

周期Token生成相比一般的Patch Embedding生成方法,核心是讓每個patch能保留當(dāng)前數(shù)據(jù)的一個完整周期。對于每個輸入樣本,根據(jù)該樣本的采樣率,或者使用傅里葉變換等工具,獲取該樣本的周期長度,使用這個長度進(jìn)行不同樣本個性化的Patch劃分。

自適應(yīng)Patch映射的核心是為了適配不同Patch長度的映射。由于周期Token生成的引入,不同樣本的patch長度不一樣,采用統(tǒng)一的MLP映射成統(tǒng)一維度,會導(dǎo)致不同patch大小的樣本不兼容。文中的解決方法是,讓模型自動學(xué)習(xí)一個插值矩陣,并以某一個patch長度作為基準(zhǔn),讓模型自動學(xué)習(xí)一個能夠最小化誤差的插值矩陣。公式如下,其中A是插值矩陣,theta是基準(zhǔn)patch的MLP參數(shù),第一項為當(dāng)前樣本patch長度和基準(zhǔn)patch長度的比例的平方根。

ICML'25 | 兼容不同數(shù)據(jù)源周期性差異的時間序列基礎(chǔ)模型-AI.x社區(qū)

ICML'25 | 兼容不同數(shù)據(jù)源周期性差異的時間序列基礎(chǔ)模型-AI.x社區(qū)

在模型結(jié)構(gòu)上,基本沿用了Transformer Encoder-Decoder的結(jié)構(gòu),Encoder對歷史序列編碼,Decoder基于Encoder的表征解碼。一個核心差異在于,Decoder部分的輸入使用Encoder最后一個時刻的表征。Encoder最后一個時刻的表征匯聚了所有歷史信息,并且歷史信息對于預(yù)測未來幫助很大,因此直接將這個表征平鋪到Decoder每個時刻的輸入中。同時,考慮到預(yù)測窗口越長,歷史信息的影響越弱,因此引入了一個根據(jù)位置衰減的權(quán)重,逐步減少Encoder最后一個表征對預(yù)測的影響。

3.實驗效果

下表是在zero-shot、full-shot等場景的實驗效果對比,本文提出的時序基礎(chǔ)模型取得了顯著的效果提升。

ICML'25 | 兼容不同數(shù)據(jù)源周期性差異的時間序列基礎(chǔ)模型-AI.x社區(qū)

文中也對比了不同Embedding處理方法的case預(yù)測結(jié)果,本文提出的多周期patch劃分方法,讓每個patch保留完整周期信息,因此更加準(zhǔn)確的實現(xiàn)了周期性的預(yù)測。

ICML'25 | 兼容不同數(shù)據(jù)源周期性差異的時間序列基礎(chǔ)模型-AI.x社區(qū)

本文轉(zhuǎn)載自???????圓圓的算法筆記???????,作者:Fareise

收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦