偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

時(shí)間序列分析的表示學(xué)習(xí)時(shí)代來了?

人工智能 深度學(xué)習(xí)
表示學(xué)習(xí)作為深度學(xué)習(xí)中的核心,近期越來越多的被應(yīng)用到了時(shí)間序列領(lǐng)域中,時(shí)間序列分析的表示學(xué)習(xí)時(shí)代已經(jīng)來了。本文為大家?guī)砹?020年以來頂會(huì)的5篇時(shí)間序列表示學(xué)習(xí)相關(guān)的核心工作梳理。

表示學(xué)習(xí)作為深度學(xué)習(xí)中的核心,近期越來越多的被應(yīng)用到了時(shí)間序列領(lǐng)域中,時(shí)間序列分析的表示學(xué)習(xí)時(shí)代已經(jīng)來了。本文為大家?guī)砹?020年以來頂會(huì)的5篇時(shí)間序列表示學(xué)習(xí)相關(guān)的核心工作梳理。

1.Unsupervised Scalable Representation Learning for Multivariate Time Series(NIPS'20)

本文的時(shí)間序列表示學(xué)習(xí)方法思路來源于經(jīng)典的詞向量模型CBOW。CBOW中的假設(shè)是,一個(gè)單詞的上下文表示應(yīng)該和該單詞的表示比較近,同時(shí)和其他隨機(jī)采樣的單詞表示比較遠(yuǎn)。本文將這種思路應(yīng)用到時(shí)間序列表示學(xué)習(xí)中,首先需要構(gòu)造CBOW中的上下文(context)和隨機(jī)負(fù)樣本,構(gòu)造方法如下圖所示。首先選擇一個(gè)時(shí)間序列xref,以及xref中的一個(gè)子序列xpos。,xref可以看成是xpos的context。同時(shí),隨機(jī)從其他時(shí)間序列,或者當(dāng)前時(shí)間序列的其他時(shí)間片段中采樣多個(gè)負(fù)樣本xneg。這樣就可以構(gòu)造類似CBOW的損失函數(shù)了,讓xref和xpos離得近,同時(shí)讓xref和其他負(fù)樣本xneg距離遠(yuǎn)。

在模型結(jié)構(gòu)上,本文采用了多層空洞卷積的結(jié)構(gòu),這部分模型結(jié)構(gòu)在之前的文章中有過詳細(xì)介紹。

2.Unsupervised representation learning for time series with temporal neighborhood coding(ICLR'21)

本文提出的方法在正負(fù)樣本的選擇上和損失函數(shù)的設(shè)計(jì)上相比上一篇文章有一定區(qū)別。首先是正負(fù)樣本的選擇,對(duì)于一個(gè)以時(shí)刻t為中心的時(shí)間序列,文中采用一個(gè)高斯分布來劃定其正樣本的采樣范圍。高斯分布以t為中心,另一個(gè)參數(shù)是時(shí)間窗口的范圍。對(duì)于時(shí)間窗口范圍的選擇,文中采用了ADF檢驗(yàn)的方法選擇最優(yōu)的窗口跨度。如果時(shí)間窗口范圍過長(zhǎng),可能導(dǎo)致采樣的正樣本和原樣本不相關(guān)的情況;如果時(shí)間窗口過小,會(huì)導(dǎo)致采樣的正樣本和原樣本重疊部分太多。ADF檢驗(yàn)可以檢測(cè)出時(shí)間序列在保持穩(wěn)定的時(shí)間窗口,以此選擇最合適的采樣范圍。

在損失函數(shù)方面,文中主要解決的是偽負(fù)樣本的問題。如果將上面選定的窗口外的樣本都視為負(fù)樣本,很有可能會(huì)出現(xiàn)偽負(fù)樣本的情況,即本來是和原樣本相關(guān)的,但因?yàn)榫嚯x原樣本比較遠(yuǎn)而被誤認(rèn)為是負(fù)樣本。例如時(shí)間序列是以年為周期的,時(shí)間窗口選擇的是1個(gè)月,可能會(huì)把去年同期的序列認(rèn)為是負(fù)樣本。這會(huì)影響模型訓(xùn)練,使模型收斂困難。為了解決這個(gè)問題,本文將窗口外的樣本不視為負(fù)樣本,而是視為沒有無label樣本。在損失函數(shù)中,給每個(gè)樣本設(shè)定一個(gè)權(quán)重,這個(gè)權(quán)重表示該樣本為正樣本的概率。這種方法也被稱為Positive-Unlabeled (PU) learning。最終的損失函數(shù)可以表示為如下形式:

3. A transformer-based framework for multivariate time series representation learning(KDD'22)

這篇文章借鑒了預(yù)訓(xùn)練語言模型Transformer的思路,希望能夠在多元時(shí)間序列上通過無監(jiān)督的方法,借助Transformer模型結(jié)構(gòu),學(xué)習(xí)良好的多元時(shí)間序列表示。本文重點(diǎn)在于針對(duì)多元時(shí)間序列設(shè)計(jì)的無監(jiān)督預(yù)訓(xùn)練任務(wù)。如下圖右側(cè),對(duì)于輸入的多元時(shí)間序列,會(huì)mask掉一定比例的子序列(不能太短),并且每個(gè)變量分別mask,而不是mask掉同一段時(shí)間的所有變量。預(yù)訓(xùn)練的優(yōu)化目標(biāo)為還原整個(gè)多元時(shí)間序列。通過這種方式,讓模型在預(yù)測(cè)被mask掉的部分時(shí),既能考慮前面、后面的序列,也能考慮同一時(shí)間段沒有被mask的序列。

下圖展示了無監(jiān)督預(yù)訓(xùn)練時(shí)間序列模型對(duì)時(shí)間序列預(yù)測(cè)任務(wù)帶來的效果提升。左側(cè)的圖表示,不同有l(wèi)abel數(shù)據(jù)量下,是否使用無監(jiān)督預(yù)訓(xùn)練的RMSE效果對(duì)比??梢钥吹?,無論有l(wèi)abel數(shù)據(jù)量有多少,增加無監(jiān)督預(yù)訓(xùn)練都可以提升預(yù)測(cè)效果。右側(cè)圖表示使用的無監(jiān)督預(yù)訓(xùn)練數(shù)據(jù)量越大,最終的時(shí)間序列預(yù)測(cè)擬合效果越好。

4. Time-series representation learning via temporal and contextual contrasting(IJCAI'21)

本文采用對(duì)比學(xué)習(xí)的方式進(jìn)行時(shí)間序列表示學(xué)習(xí)。首先對(duì)于同一個(gè)時(shí)間序列,使用strong和weak兩種數(shù)據(jù)增強(qiáng)方法生成原始序列的兩個(gè)view。Strong Augmentation指的是將原始序列劃分成多個(gè)片段后打亂順序,再加入一些隨機(jī)擾動(dòng);Weak Augmentation指的是對(duì)原始序列進(jìn)行縮放或平移。

接下來,將strong和weak兩個(gè)增強(qiáng)的序列輸入到一個(gè)卷積時(shí)序網(wǎng)絡(luò)中,得到每個(gè)序列在每個(gè)時(shí)刻的表示。文中使用了Temporal Contrasting和Contextual Contrasting兩種對(duì)比學(xué)習(xí)方式。Temporal Contrasting指的是用一種view的context預(yù)測(cè)另一種view在未來時(shí)刻的表示,目標(biāo)是讓該表示和另一種view對(duì)應(yīng)的真實(shí)表示更接近,這里使用了Transformer作為時(shí)序預(yù)測(cè)的主體模型,公式如下,其中c表示strong view的Transformer輸出,Wk是一個(gè)映射函數(shù),用于將c映射到對(duì)未來的預(yù)測(cè),z是weak view未來時(shí)刻的表示:

Contextual Contrasting則是序列整體的對(duì)比學(xué)習(xí),拉近相同序列生成的兩個(gè)view的距離,讓不同序列生成的view距離更遠(yuǎn),公式如下,這里和圖像對(duì)比學(xué)習(xí)的方式類似:

5. TS2Vec: Towards Universal Representation of Time Series(AAAI'22)

TS2Vec核心思路也是無監(jiān)督表示學(xué)習(xí),通過數(shù)據(jù)增強(qiáng)的方式構(gòu)造正樣本對(duì),通過對(duì)比學(xué)習(xí)的優(yōu)化目標(biāo)讓正樣本對(duì)之間距離,負(fù)樣本之間距離遠(yuǎn)。本文的核心點(diǎn)主要在兩個(gè)方面,第一個(gè)是針對(duì)時(shí)間序列特點(diǎn)的正樣本對(duì)構(gòu)造和對(duì)比學(xué)習(xí)優(yōu)化目標(biāo)的設(shè)計(jì),第二個(gè)是結(jié)合時(shí)間序列特點(diǎn)提出的層次對(duì)比學(xué)習(xí)。

對(duì)于正樣本對(duì)構(gòu)造方法,本文提出了適合時(shí)間序列的正樣本對(duì)構(gòu)造方法:Contextual Consistency。Contextual Consistency的核心思路是,兩個(gè)不同增強(qiáng)視圖的時(shí)間序列,在相同時(shí)間步的表示距離更接近。文中提出兩種構(gòu)造Contextual Consistency正樣本對(duì)的方法。第一種是Timestamp Masking,在經(jīng)過全連接后,隨機(jī)mask一些時(shí)間步的向量表示,再通過CNN提取每個(gè)時(shí)間步的表示。第二種是Random Cropping,選取有公共部分的兩個(gè)子序列互為正樣本對(duì)。這兩種方法都是讓相同時(shí)間步的向量表示更近,如上圖所示。

TS2Vec的另一個(gè)核心點(diǎn)是層次對(duì)比學(xué)習(xí)。時(shí)間序列和圖像、自然語言的一個(gè)重要差異在于,通過不同頻率的聚合,可以得到不同粒度的時(shí)間序列。例如,天粒度的時(shí)間序列,按周聚合可以得到周粒度的序列,按照月聚合可以得到月粒度的序列。為了將時(shí)間序列這種層次性融入對(duì)比學(xué)習(xí)中,TS2Vec提出了層次對(duì)比學(xué)習(xí),算法流程如下。對(duì)于兩個(gè)互為正樣本對(duì)的時(shí)間序列,最開始通過CNN生成每個(gè)時(shí)間步向量表示,然后循環(huán)使用maxpooling在時(shí)間維度上進(jìn)行聚合,文中使用的聚合窗口為2。每次聚合后,都計(jì)算對(duì)應(yīng)時(shí)間步聚合向量的距離,讓相同時(shí)間步距離近。聚合的粒度不斷變粗,最終聚合成整個(gè)時(shí)間序列粒度,逐漸實(shí)現(xiàn)instance-level的表示學(xué)習(xí)。

責(zé)任編輯:華軒 來源: 圓圓的算法筆記
相關(guān)推薦

2023-07-05 07:21:34

時(shí)間序列學(xué)習(xí)框架模型

2016-09-02 08:20:33

OpsDevWWDCDevOps

2024-04-12 14:12:45

人工智能JavaScript

2024-04-07 00:00:00

JSNode.jsAI

2015-03-30 20:56:55

SaaS云計(jì)算企業(yè)級(jí)應(yīng)用

2022-11-14 14:36:59

數(shù)據(jù)集Python自相關(guān)

2024-02-21 14:32:09

2023-10-05 06:05:54

谷歌時(shí)間訓(xùn)練

2012-07-20 15:17:19

移動(dòng)購物

2024-04-12 08:32:03

JSAI機(jī)器學(xué)習(xí)

2017-05-08 14:42:36

2015-12-24 10:25:30

微軟程序員時(shí)代

2021-08-05 13:49:39

Python工具開發(fā)

2023-01-30 17:10:23

DeepTime元學(xué)習(xí)

2024-09-09 14:57:31

2024-04-26 12:29:36

2022-09-26 12:17:56

SIMeSIMiPhone

2021-05-13 11:35:54

K8STerraform代碼倉庫

2016-10-20 11:39:21

新華三

2017-12-26 17:22:14

高速公路移動(dòng)支付收費(fèi)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)