偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

視覺問答全景概述:從數(shù)據(jù)集到技術(shù)方法

開發(fā) 開發(fā)工具
本文是一份視覺問答技術(shù)研究情況的調(diào)查,我們在文中列舉了一些用于解決這個任務(wù)的數(shù)據(jù)集和模型。

印度理工學(xué)院 Akshay Kumar Gupta 近日發(fā)布了一篇論文,對視覺問答方面的數(shù)據(jù)集和技術(shù)進(jìn)行了盤點(diǎn)和比較。機(jī)器之心對本文內(nèi)容進(jìn)行了摘要式的編譯介紹。

從數(shù)據(jù)集到技術(shù)方法

視覺問答(visual question answering/ VQA)是結(jié)合自然語言處理和計算機(jī)視覺技術(shù)的一種新興任務(wù)。本文是一份視覺問答技術(shù)研究情況的調(diào)查,我們在文中列舉了一些用于解決這個任務(wù)的數(shù)據(jù)集和模型。調(diào)查的第一部分詳細(xì)介紹了用于 VQA 的不同數(shù)據(jù)集,并比較了各數(shù)據(jù)集的特點(diǎn)。調(diào)查的第二部分詳細(xì)介紹了 VQA 的不同模型,分為四個類型:非深度學(xué)習(xí)模型、無注意機(jī)制(without attention)的深度學(xué)習(xí)模型、有注意機(jī)制(with attention)的深度學(xué)習(xí)模型以及其它模型。最后,我們比較這些模型的性能,并為今后的工作提供一些方向。

一、引言

視覺問答是最近幾年出現(xiàn)的一個新任務(wù),并引起了機(jī)器學(xué)習(xí)社區(qū)的關(guān)注(Antol 等,2015)(Wu 等,2016a)。該任務(wù)通常分為向計算機(jī)展示圖像和向計算機(jī)詢問有關(guān)圖像的問題兩個步驟。答案可以是以下任何形式:單詞、短語、是/否回答、從幾個可能的答案中選擇或在空白處填寫答案。

視覺問答任務(wù)具有重要性和吸引力,因?yàn)樗Y(jié)合了計算機(jī)視覺和自然語言處理領(lǐng)域。計算機(jī)視覺技術(shù)用來理解圖像,NLP 技術(shù)用來理解問題。此外,兩者必須結(jié)合起來才能有效地回答圖像情境中的問題。這相當(dāng)具有挑戰(zhàn)性,因?yàn)閭鹘y(tǒng)上這兩個領(lǐng)域使用不同的方法和模型來解決各自的任務(wù)。

本調(diào)查詳細(xì)介紹了用于解決視覺問答任務(wù)的數(shù)據(jù)集和模型,并對這些模型在各數(shù)據(jù)集上運(yùn)行的效果進(jìn)行了比較。本文分為 4 個部分:第 2 部分介紹 VQA 數(shù)據(jù)集,第 3 部分介紹模型,第 4 部分討論結(jié)果并提供一些未來的可能方向。

二、數(shù)據(jù)集

在過去 2-3 年中,出現(xiàn)了幾個大型的面向 VQA 任務(wù)的數(shù)據(jù)集。表 1 是這些數(shù)據(jù)集的情況摘要。

VQA 數(shù)據(jù)集

表 1:VQA 數(shù)據(jù)集

三、模型

隨著深度學(xué)習(xí)技術(shù)的廣泛普及,VQA 任務(wù)被提出時,深度學(xué)習(xí)領(lǐng)域各種計算機(jī)視覺和 NLP 技術(shù)已經(jīng)有了很大發(fā)展。因此,文獻(xiàn)中幾乎所有關(guān)于 VQA 的工作都涉及深度學(xué)習(xí)方法,而不是采用更經(jīng)典的方法,如圖模型(graphical model)。在本部分第 1 小節(jié)中,作者詳細(xì)介紹了幾個沒有用神經(jīng)網(wǎng)絡(luò)方法的模型,以及作者在這些模型中使用的幾個簡單基線(baseline)算法。第 2 小節(jié)介紹了無注意機(jī)制的深度學(xué)習(xí)模型。第 3 小節(jié)詳細(xì)介紹了用于 VQA 的有注意機(jī)制的深度學(xué)習(xí)模型。所有模型的結(jié)果總結(jié)在表 2 和表 3 中。

1. 非深度學(xué)習(xí)方法

(1) 回答類型預(yù)測(Answer Type Prediction/ATP)

(Kafle 和 Kanan,2016)提出了一個用于 VQA 的貝葉斯框架,他們用模型預(yù)測一個問題的答案類型,并用它來產(chǎn)生答案??赡艿拇鸢割愋碗S著數(shù)據(jù)集的不同而有所不同。例如,對于 COCO-QA,他們考慮四種答案類型:對象、顏色、計數(shù)和位置。

給定圖像 x 和問題 q,模型計算答案 a 和答案類型 t 的概率:

貝葉斯定理

遵循貝葉斯定理。然后,計算所有答案類型邊際分布概率得到 P(A=a|x,q)。對于給定的問題和答案,分母是常數(shù)可以忽略。

他們用三個獨(dú)立的模型對分子中的 3 個概率進(jìn)行建模。第 2 和第 3 個概率都使用 logistic 回歸進(jìn)行建模。問題的特征采用跳躍思維向量表征(skip-thought vector representation)(Kiros 等人,2015)(他們使用預(yù)訓(xùn)練的跳躍思維模型)。第 1 個概率為條件多元高斯模型,原理上與二次判別分析(Quadratic Discriminant Analysis)相似。此模型采用了原始圖像特征。

作者還介紹了一些簡單的基線算法,如僅將圖像特征或僅將問題特征饋送到 logistic 回歸,將圖像和問題特征同時饋送到邏輯回歸,以及將相同的特征饋送到多層感知器。他們在 DAQUAR、COCO-QA、Visual7W 和 VQA 數(shù)據(jù)集上進(jìn)行了評估。

(2) 多元世界(Multi-World)問答

(Malinowski 和 Fritz,2014)這篇論文將基于問題和圖像的答案概率建模為

多元世界(Multi-World)問答

。這里 T 為隱藏變量,它對應(yīng)于從問題語義分析器(semantic parser)得到的語義樹(semantic tree)。W 是世界,代表圖像。它可以是原始圖像或從分割塊獲得的附加特征。使用確定性評價(deterministic evaluation)函數(shù)來評估 P(A|T,W)。使用簡單的對數(shù)線性模型得到 P(T|Q)。這個模型被稱為 SWQA。

 

作者進(jìn)一步將其擴(kuò)展到多元世界的場景,用來模擬分割和分類標(biāo)簽的不確定性。不同的標(biāo)簽代表不同的 W,所以概率模型為

這里,S 是帶有類標(biāo)簽分布的一組分割圖像集。因此,從分布中抽樣分割圖像時將得到其對應(yīng)的一個可能的 W。由于上述方程很復(fù)雜,作者僅從 S 中抽樣固定數(shù)量的 W。

這個模型稱為 MWQA。這些模型在 DAQUAR 數(shù)據(jù)集上進(jìn)行評估。

2. 無注意機(jī)制的深度學(xué)習(xí)模型

VQA 的深度學(xué)習(xí)模型通常使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)來嵌入圖像與循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的詞嵌入(word embedding)來嵌入問題。這些嵌入以各種方式組合和處理以獲得答案。以下模型描述假設(shè)讀者熟悉 CNN(Krizhevsky 等人,2012)以及 RNN 變體,如長短時記憶(LSTM)單元(Hochreiter 和 Schmidhuber,1997)和門控循環(huán)單位(Gated Recurrent Unit/GRU)(Cho 等人,2014)。

一些方法不涉及使用 RNN。我們在開頭已經(jīng)討論過這些模型。

(1) iBOWING

(Zhou 等人,2015)提出了一種叫做 iBOWING 的基線模型。他們使用預(yù)訓(xùn)練的 GoogLeNet 圖像分類模型的層輸出來提取圖像特征。問題中每個詞的詞嵌入都被視為文本特征,因此文本特征是簡單的詞袋(bag-of-word)。連接圖像和文本的特征,同時對答案分類使用 softmax 回歸。結(jié)果表明,該模型在 VQA 數(shù)據(jù)集上表現(xiàn)的性能與幾種 RNN 方法相當(dāng)。

(2) Full-CNN

(Ma 等人,2015)提出了一種僅用 CNN 的模型,稱為 Full-CNN。模型使用三種不同的 CNN:一種用于編碼圖像,一種用于編碼問題,一種用于將圖像和問題的編碼結(jié)合在一起并產(chǎn)生聯(lián)合表征。

圖像 CNN 使用與 VGG 網(wǎng)絡(luò)相同的架構(gòu),并從該網(wǎng)絡(luò)的第二層獲取長度為 4096 的向量。這通過另一個完全連接的層,以獲得大小為 400 的圖像表征向量。句子 CNN 涉及 3 層卷積和最大池化(max pooling)。卷積感受野(receptive field)的大小設(shè)置為 3。換句話說,核函數(shù)(kernel)會計算該詞及其相鄰的鄰居。聯(lián)合 CNN 稱為多元模態(tài) CNN(multi-modal CNN),在問題表征上的卷積感受野大小為 2。每個卷積運(yùn)算都在完整的圖像上進(jìn)行。將多元模態(tài) CNN 的最終表征結(jié)果傳入 softmax 層以預(yù)測答案。該模型在 DAQUAR 和 COCO-QA 數(shù)據(jù)集上進(jìn)行評估。

以下模型同時使用了 CNN 和 RNN 算法。

(3) 神經(jīng)元詢問(Ask Your Neurons/AYN)(Malinowski 等人,2016)

該模型使用 CNN 對圖像 x 進(jìn)行編碼并獲得圖像的連續(xù)向量表征。問題 q 使用 LSTM 或 GRU 網(wǎng)絡(luò)進(jìn)行編碼,其中在時間 t 步驟的輸入是問題的第 t 個詞 q_t 的詞嵌入與圖像向量編碼。問題編碼是最終時間步驟獲得的隱藏向量。作者使用的一個簡單的詞袋基線是將問題的所有詞嵌入的總和作為編碼。

解碼答案可以用兩種不同的方式,一種是對不同答案的分類,另一種是答案的生成。分類由完全連接層生成輸出并傳入覆蓋所有可能答案的 softmax 函數(shù)。另一方面,生成由解碼器 LSTM 執(zhí)行。在每個時間點(diǎn)的 LSTM 將前面生成的詞以及問題和圖像編碼作為輸入。下一個詞使用覆蓋詞匯表的 softmax 函數(shù)來預(yù)測。需要注意的一點(diǎn)是,該模型在編碼器和解碼器 LSTM 之間共享一些權(quán)重。該模型在 DAQUAR 數(shù)據(jù)集上進(jìn)行評估。

(4) Vis + LSTM(Ren 等人,2015)

該模型與 AYN 模型非常相似。該模型使用 VGG 網(wǎng)絡(luò)的最終層來獲得圖像編碼使用 LSTM 對問題進(jìn)行編碼。與之前的模型相反,在編碼問題之前,它們將圖像編碼作為第一個「詞」傳入 LSTM 網(wǎng)絡(luò)。該 LSTM 的輸出先通過完全連接層,然后通過 softmax 層。

作者還提出了一種使用雙向 LSTM 的 2Vis+BLSTM 模型。向后的 LSTM 也將圖像編碼作為第一個輸入。兩個 LSTM 的輸出相連接,然后通過一個 dense 和 softmax 層。

(5) 動態(tài)參數(shù)預(yù)測(DPPnet)(Noh 等人,2016)

本論文的作者認(rèn)為,設(shè)定一組固定參數(shù)并不足以滿足 VQA 任務(wù)。他們采用 VGG 網(wǎng)絡(luò)架構(gòu),刪除最終 softmax 層,并添加三個全連接層,并最后使用覆蓋所有可能答案的 softmax 函數(shù)。這些完全連接層的第 2 層沒有固定的一組參數(shù)。相反,參數(shù)來自 GRU 網(wǎng)絡(luò)。該 GRU 網(wǎng)絡(luò)用于對問題進(jìn)行編碼,并且 GRU 網(wǎng)絡(luò)的輸出通過完全連接層給出候選參數(shù)的權(quán)重小向量。然后使用逆哈希函數(shù)(inverse hashing function)將該向量映射到第 2 完全連接層所需的參數(shù)權(quán)重大向量中。這種哈希(hashing)技術(shù)被用于避免預(yù)測全部的參數(shù)權(quán)重而帶來的計算成本高昂,并避免由此導(dǎo)致的過擬合。或者可以將動態(tài)參數(shù)層視為將圖像表征和問題表征相乘得到的聯(lián)合表征,而不是傳統(tǒng)的以線性方式組合。該模型在 DAQUAR、COCO-QA 和 VQA 數(shù)據(jù)集上進(jìn)行評估。

3. 基于注意機(jī)制的深度學(xué)習(xí)技術(shù)

基于注意機(jī)制的技術(shù)是最受歡迎的技術(shù)之一,在機(jī)器翻譯(Bahdanau 等人,2014)、圖像描述(Xu 等人,2015)等眾多任務(wù)中使用。對于 VQA 任務(wù),注意機(jī)制模型聚焦在圖像、問題或兩者的重要部分,從而有效地給出答案。

(1) Where To Look(WTL)

(Shih 等人,2016)提出了以下稱為 WTL 的基于注意機(jī)制的模型。他們使用 VGGnet 對圖像進(jìn)行編碼,并連接最后兩層 VGGnet 的輸出,以獲得圖像編碼。問題表征是通過對問題中每個詞的詞向量求平均得到的。在圖像特征集上計算注意向量,以確定圖像中的哪個區(qū)域重要。該向量用下面的方式計算:如果 V=(-→v1,-→v2 ... -→vK)是圖像特征的集合,而-→q 是問題嵌入,則第 j 個區(qū)域的重要性被計算為 g_j=(A-→vj+bA)T(B-→q+bB)

注意向量的權(quán)重通過標(biāo)準(zhǔn)化-→g 獲得。最終的圖像表征是不同區(qū)域的注意值加權(quán)和。這與嵌入問題相連接,并傳入 dense+softmax 層。該模型在 VQA 數(shù)據(jù)集上進(jìn)行評估。損失函數(shù)是基于 VQA 評估指標(biāo)的最大邊際損失(margin based loss)。

(2) 循環(huán)空間注意(Recurrent Spatial Attention/R-SA)(Zhu 等人,2016)

本模型在兩個方面比上一個模型超前一步。首先,它使用 LSTM 對問題進(jìn)行編碼,其次,在掃描問題的每個詞之后,它重復(fù)地計算圖像的注意值。更具體地說,在 LSTM 的每個時間步長 t,我們反復(fù)計算圖像特征的注意值加權(quán)和 r_t,r_t 用作 LSTM 的下一個時間步長的附加輸入。利用 LSTM 之前的隱藏狀態(tài) ht-1 和圖像本身,用于得到 r_t 的注意向量的權(quán)重用 dense+softmax 層計算得出。從生理角度,當(dāng)我們閱讀問題時,我們會不斷地決定圖像的哪部分需要注意,而現(xiàn)在注意的部分取決于當(dāng)前的詞和 ht-1 狀態(tài)前的注意加權(quán)圖像。

該模型在 Visual7W 數(shù)據(jù)集上進(jìn)行評估,該數(shù)據(jù)集用于文本回答任務(wù)以及指點(diǎn)任務(wù)(指出圖像中的區(qū)域作為答案)。實(shí)際和預(yù)測答案之間的 softmax 交叉熵?fù)p失函數(shù)(cross entropy loss)用于文本回答任務(wù)。對于指點(diǎn)任務(wù),通過采用表示該區(qū)域的特征的點(diǎn)積和 LSTM 的最后狀態(tài)來獲得候選區(qū)域的對數(shù)似然值(log likelihood)。再次使用交叉熵?fù)p失函數(shù)來訓(xùn)練模型。

(3) 堆疊注意網(wǎng)絡(luò)(Stacked Attention Networks/SAN)(Yang 等人,2016)

本模型在思想上與之前的模型相似,因?yàn)樗磸?fù)計算對圖像的注意向量,以獲得更細(xì)粒度的視覺信息來預(yù)測答案。然而,雖然之前的模型對問題逐詞計算,本模型首先使用 LSTM 或 CNN 對整個問題進(jìn)行編碼。這里的問題編碼用與之前類似的方程來注意圖像。然后,連接注意加權(quán)圖像與問題編碼,并將其再次用于計算對原始圖像的注意。這可以重復(fù) k 次,之后使用問題和最終圖像表征來預(yù)測答案。作者認(rèn)為,這種「堆疊」注意有助于模型迭代地丟棄圖像中不重要的區(qū)域。作者對 k=1 和 k=2 進(jìn)行了實(shí)驗(yàn),并在 DAQUAR、COCO-QA 和 VQA 數(shù)據(jù)集上進(jìn)行評估。

(4) 層次協(xié)同注意(Hierarchical Co-attention/CoAtt)(Lu 等人,2016)

本文不同于之前基于注意的方法,它的模型除了對視覺注意外,還同時注意問題(問題的哪部分重要)。模型有兩種協(xié)同注意的形式:1)并行協(xié)同注意,其中圖像和問題的注意同時進(jìn)行。這通過計算親和矩陣(affinity matrix)C=tanh(Q^TWI) 來完成,其中 W 是可學(xué)習(xí)的權(quán)重矩陣,C_ij 表示問題中第 i 個詞和圖像中第 j 個區(qū)域的親和值。該矩陣 C 用于獲得圖像和問題注意向量。2)交替協(xié)同注意,這里我們迭代地注意圖像,然后查詢,然后再次注意圖像(類似于 SAN 的思想)。

作者使用的另外一個想法是在不同的抽象層上編碼問題:詞、短語和問題層面。通過 LSTM 獲得問題的表征,而從 CNN 獲得詞和短語的表征。該模型在 VQA 和 COCOQA 數(shù)據(jù)集上進(jìn)行評估。

4. 其它模型

不同于前面的模型,下面的模型使用了更多的思想,而不僅僅是在計算圖像或問題的注意值方面作改變。

(1) 神經(jīng)模塊網(wǎng)絡(luò)(NMN/Neural Module Network)

(Andreas 等人,2016)該模型為每個圖像和問題同時不間斷地生成一個神經(jīng)網(wǎng)絡(luò)。具體的實(shí)現(xiàn)方式為:從各種基于問題的子模塊中選擇,并組合它們生成神經(jīng)網(wǎng)絡(luò)。有五種模塊:注意 [c](其計算給定圖像和給定 c 的注意映射;c 可以是「狗」,然后注意 [狗] 將嘗試找到含有狗的圖像),分類 [c](對于給定的圖像和注意映射,其輸出屬于 c 的標(biāo)簽的分布;c 可以是「顏色」),重新注意 [c](它使用注意映射并基于 c 重新計算這個映射;c 可以是「上面」,意味著將注意力向上移動),測量 [c](它僅通過注意映射輸出標(biāo)簽的分布)和組合 [c](它合并由 c 確定的兩個注意映射,c 可以是「與」或「或」)。

決定組合哪些模塊之前,模型首先使用依存句法分析器(dependency parser)來解析問題,并使用此依存關(guān)系創(chuàng)建基于中心詞的符號表達(dá)。本論文的一個例子是「What is standing on the field(站在運(yùn)動場上的是什么)」變?yōu)椤竪hat(stand)」。然后用這些符號形式來確定要使用的模塊。之后通過反向傳播端到端(end-to-end)地訓(xùn)練整個系統(tǒng)。模型在 VQA 數(shù)據(jù)集與一個更具挑戰(zhàn)性的合成數(shù)據(jù)集(由于發(fā)現(xiàn) VQA 數(shù)據(jù)集不需要太多的高級推理或組合)上評估。

(2) 包含知識庫

(Wu 等人,2016b)提出了「詢問任何問題」(Ask Me Anything/AMA)模型,該模型試圖借助外部知識庫中的信息來幫助指導(dǎo)視覺問答。它首先基于圖像的標(biāo)題獲得一組屬性,如對象名稱、屬性等。圖像標(biāo)題模型在 MS-COCO 數(shù)據(jù)集上使用標(biāo)準(zhǔn)的圖像加標(biāo)題技術(shù)訓(xùn)練。該模型生成 256 個可能的屬性,并且屬性生成器使用 VGG 網(wǎng)絡(luò)的變體在 MS-COCO 數(shù)據(jù)集上訓(xùn)練。前 5 個屬性用于生成查詢 DBpedia 數(shù)據(jù)庫的語句。每次查詢返回一個用 Doc2Vec 算法排序匯總的文本。該匯總文本作為附加輸入傳給生成回答的 LSTM 解碼器。模型在 VQA 和 COCO-QA 數(shù)據(jù)集上進(jìn)行評估。

不同模型在 DAQUAR(部分)、DAQUAR(全部)、COCO-QA 數(shù)據(jù)集上的表現(xiàn)

表 2:不同模型在 DAQUAR(部分)、DAQUAR(全部)、COCO-QA 數(shù)據(jù)集上的表現(xiàn)

不同模型在 VQA 數(shù)據(jù)集上的表現(xiàn)

表 3:不同模型在 VQA 數(shù)據(jù)集上的表現(xiàn)

四、討論以及未來的工作

在所有 VQA 數(shù)據(jù)集上,深度學(xué)習(xí)模型的表現(xiàn)比早期基于圖模型的方法出色,這已經(jīng)成為近年來的趨勢。然而,有趣的是,我們看到 ATP 模型的表現(xiàn)優(yōu)于非注意模型,這證明簡單地引入卷積和/或循環(huán)神經(jīng)網(wǎng)絡(luò)是不夠的:原則上識別相關(guān)的圖像部分是重要的。ATP 甚至可以與一些注意模型(如 WTL 和 SAN)相媲美甚至表現(xiàn)更好。

CoAtt 的表現(xiàn)有顯著的提升,該模型首先注意問題然后注意圖像。這對于長問題可能是有幫助的,由于這些問題更難用 LSTM/GRU 編碼表示為單個向量,因此首先對每個詞進(jìn)行編碼,然后使用圖像來注意重要的詞,這樣有助于提高模型的準(zhǔn)確率。NMN 模型使用了為每個(圖像/問題)對自動組合子模型的新穎想法,它的表現(xiàn)效果類似于在 VQA 數(shù)據(jù)集上的 CoAtt 模型,但是在需要更高級推理的合成數(shù)據(jù)集上優(yōu)于所有模型,表明該模型在實(shí)際中可能是一種有價值的方法。然而,需要更多的測試來判斷該模型的性能。

在 COCO-QA 數(shù)據(jù)集上表現(xiàn)最好的模型是 AMA 模型,它包含外部知識庫(DBpedia)的信息。這樣做的一個可能的原因是知識庫幫助解決涉及常識的問題,而這些知識可能不在數(shù)據(jù)集中。該模型在 VQA 數(shù)據(jù)集上的表現(xiàn)不是很好,這可能是因?yàn)檫@個數(shù)據(jù)集沒有太多的問題需要常識。自然地這種模型會為未來的工作帶來兩大方向。第一個方向是認(rèn)識到外部知識的必要性:某種 CoAtt 和 AMA 的混合模型加上是否訪問知識庫的決策器可能會兼有兩種模型的優(yōu)點(diǎn)。該決策器可能是面向應(yīng)用的,以實(shí)現(xiàn)端到端的訓(xùn)練。第二個方向是探索使用其它知識庫,如 Freebase、NELL 或 OpenIE 的信息提取。

正如我們所看到的,在這個任務(wù)上,注意值的新穎計算方法能持續(xù)改善模型的效果。這也是在文本問答(textual question answering)任務(wù)中看到的,因此可以用文本問答的更多模型來指導(dǎo) VQA 模型。對各種 VQA 數(shù)據(jù)集的性能上限估計的研究將是非常有價值的,以便找到可能的改進(jìn)方法,特別是對于自動生成的 COCO-QA 數(shù)據(jù)集。最后,大多數(shù) VQA 任務(wù)將回答視為分類任務(wù)。將回答作為生成任務(wù)將是有趣的,但數(shù)據(jù)集的收集和評估方法仍然是一個有待解決的問題。

五、結(jié)論

盡管 VQA 只有幾年的發(fā)展時間,VQA 任務(wù)已經(jīng)得到了跨越式發(fā)展。VQA 的深度學(xué)習(xí)方法持續(xù)收到了最多的關(guān)注并擁有最先進(jìn)的結(jié)果。我們調(diào)查了這些模型中最突出的一些模型,并列出了它們在各種大型數(shù)據(jù)集上的表現(xiàn)。我們不斷看到在許多數(shù)據(jù)集上顯著的性能改進(jìn),這意味著未來在此任務(wù)上很大的創(chuàng)新空間。

論文原文請訪問:https://arxiv.org/abs/1705.03865

【本文是51CTO專欄機(jī)構(gòu)機(jī)器之心的原創(chuàng)譯文,微信公眾號“機(jī)器之心( id: almosthuman2014)”】

戳這里,看該作者更多好文

責(zé)任編輯:趙寧寧 來源: 51CTO專欄
相關(guān)推薦

2023-09-19 09:28:47

AI視覺

2024-09-29 11:36:29

2013-05-13 09:56:34

AMDIntel芯片

2014-08-05 09:37:07

大數(shù)據(jù)

2025-01-07 09:18:46

2020-09-24 22:54:46

大數(shù)據(jù)IT技術(shù)

2023-01-04 11:04:32

2022-07-22 13:13:05

機(jī)器視覺人工智能

2019-02-13 19:20:12

人臉識別深度學(xué)習(xí)人工智能

2019-12-27 16:20:35

人臉識別深度學(xué)習(xí)人工智能

2017-07-03 15:22:51

達(dá)觀數(shù)據(jù)技術(shù)研究

2021-02-24 15:38:37

數(shù)據(jù)語言架構(gòu)

2011-04-01 09:29:52

MySQLMongoDB

2017-04-14 08:58:55

深度學(xué)習(xí)感知機(jī)深度網(wǎng)絡(luò)

2015-11-26 10:20:17

F5應(yīng)用交付

2024-09-26 10:29:56

數(shù)據(jù)中臺數(shù)據(jù)飛輪

2024-09-29 13:49:25

2010-04-19 09:06:24

Oracle的方法

2023-05-17 19:37:53

2017-01-03 16:57:58

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號