偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

達(dá)摩院提出目標(biāo)重識(shí)別新范式,已向全球開(kāi)發(fā)者開(kāi)源

新聞 前端
據(jù)記者了解,達(dá)摩院首次將Pure Transformer模型(下文簡(jiǎn)稱(chēng)為T(mén)ransformer模型/結(jié)構(gòu))引入目標(biāo)重識(shí)別任務(wù)中,該研究已被AI頂會(huì)ICCV 2021收錄,并斬獲CVPR 2021 AICity挑戰(zhàn)賽目標(biāo)重識(shí)別賽道冠軍,目前,該技術(shù)已正式向全球開(kāi)發(fā)者開(kāi)源。

[[417447]]

本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

德國(guó)哲學(xué)家萊布尼茨曾表示世上沒(méi)有兩片完全相同的樹(shù)葉,這樣的差異性也意味著世界上每一個(gè)物體都有自己獨(dú)有的ID。如今,AI已經(jīng)逐漸掌握辨別物體細(xì)微差異的技能,從海量圖像中找到目標(biāo)物體。

8月6日,據(jù)記者了解,達(dá)摩院首次將Pure Transformer模型(下文簡(jiǎn)稱(chēng)為T(mén)ransformer模型/結(jié)構(gòu))引入目標(biāo)重識(shí)別任務(wù)中,該方法可以高效完成細(xì)粒度的圖像檢索任務(wù),并超越其它AI算法,在準(zhǔn)確率和檢索時(shí)間上均取得了迄今為止最好的成績(jī)。該研究已被AI頂會(huì)ICCV 2021收錄,并斬獲CVPR 2021 AICity挑戰(zhàn)賽目標(biāo)重識(shí)別賽道冠軍,目前,該技術(shù)已正式向全球開(kāi)發(fā)者開(kāi)源。

達(dá)摩院提出目標(biāo)重識(shí)別新范式,已向全球開(kāi)發(fā)者開(kāi)源

達(dá)摩院算法斬獲CVPR 2021 AICity挑戰(zhàn)賽目標(biāo)重識(shí)別賽道冠軍

目標(biāo)重識(shí)別是計(jì)算機(jī)領(lǐng)域研究的新趨勢(shì),據(jù)統(tǒng)計(jì),目前每1000篇計(jì)算機(jī)視覺(jué)論文就有30篇和目標(biāo)重識(shí)別研究相關(guān)。不同于目標(biāo)檢測(cè)、目標(biāo)分割等任務(wù),目標(biāo)重識(shí)別的難度更高。例如同一個(gè)物體會(huì)因?yàn)橐暯?、光線(xiàn)、遮擋等因素而產(chǎn)生外觀差異,不同的物體在同樣的角度和光線(xiàn)下在視覺(jué)上的相似度極高,即便通過(guò)肉眼也很難克服這些干擾信息,如何區(qū)分這其中的差異并精準(zhǔn)找到目標(biāo)物體一直都是業(yè)界的難題。

過(guò)去幾年,AI研究人員逐步嘗試用深度學(xué)習(xí)CNN模型來(lái)解決該問(wèn)題,但CNN模型在處理目標(biāo)重識(shí)別任務(wù)時(shí)容易丟失圖像部分細(xì)節(jié)信息,同時(shí)又無(wú)法有效挖掘圖像各特征的全局關(guān)聯(lián)性,從而導(dǎo)致其在復(fù)雜場(chǎng)景下的表現(xiàn)較差。此次,達(dá)摩院創(chuàng)新性將Pure Transformer模型應(yīng)用于目標(biāo)重識(shí)別任務(wù)中,并提出首個(gè)基于Pure Transformer結(jié)構(gòu)的ReID框架TransReID,該框架借助水平切塊思想提取更加豐富的細(xì)節(jié)特征,同時(shí)可通過(guò)不同模態(tài)信息的融合來(lái)解決視角差異問(wèn)題。經(jīng)過(guò)測(cè)試顯示,該方法已在6個(gè)數(shù)據(jù)集上的成績(jī)超越了SOTA最好的算法成績(jī)。

達(dá)摩院提出目標(biāo)重識(shí)別新范式,已向全球開(kāi)發(fā)者開(kāi)源

圖:達(dá)摩院TransReID首先將圖片物理切割成若干個(gè)圖片小塊,每個(gè)圖片小塊經(jīng)過(guò)特征提取模塊提取各自的視覺(jué)特征,之后計(jì)算得到最終圖像的全局特征。此外該框架還能夠幫助模型克服相機(jī)帶來(lái)的外觀偏差以及提取更加魯棒的全局特征。

該項(xiàng)目研究負(fù)責(zé)人、達(dá)摩院算法專(zhuān)家羅浩表示:“過(guò)去Pure Transformer在NLP以及基礎(chǔ)視覺(jué)領(lǐng)域取得了較大成功,但在更加細(xì)粒度的圖像檢索任務(wù)上還未有過(guò)嘗試,達(dá)摩院此次研究引領(lǐng)了新的研究趨勢(shì),這是行業(yè)的又一個(gè)里程碑。”

據(jù)悉,該技術(shù)的應(yīng)用前景廣闊,達(dá)摩院研究團(tuán)隊(duì)表示未來(lái)會(huì)將該技術(shù)應(yīng)用于安全防護(hù)以及自然資源、動(dòng)物保護(hù)等領(lǐng)域,例如通過(guò)算法來(lái)找回走失的珍稀動(dòng)物。

 

 

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2021-12-02 13:43:42

達(dá)摩院AliceMind人工智能

2021-08-17 14:47:31

架構(gòu)模型數(shù)據(jù)

2022-07-12 14:45:54

達(dá)摩院模型

2023-03-06 14:07:31

系統(tǒng)訓(xùn)練

2010-06-09 10:48:51

Linux用戶(hù)

2009-11-25 11:07:35

GoogleChrome擴(kuò)展中心

2018-06-07 16:00:28

阿里巴巴語(yǔ)音識(shí)別開(kāi)源

2012-08-10 09:52:27

紅帽

2014-05-30 17:21:04

WWDC2014預(yù)測(cè)蘋(píng)果

2013-09-18 13:55:35

Windows 8.1開(kāi)發(fā)者開(kāi)放下載

2018-06-07 10:34:22

開(kāi)源DFSMN語(yǔ)音識(shí)別

2022-12-09 14:07:11

框架開(kāi)源

2022-05-05 15:02:26

機(jī)器學(xué)習(xí)人工智能開(kāi)源

2012-06-27 15:28:37

VisionMobil全球移動(dòng)開(kāi)發(fā)者調(diào)查

2020-02-12 11:54:18

白皮書(shū)行業(yè)開(kāi)發(fā)者

2025-06-30 11:53:53

2009-03-20 11:50:44

LinuxSunCommunityOn

2021-08-18 11:31:48

低代碼阿里云云原生
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)