偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

CVPR 2020論文開(kāi)源項(xiàng)目一頁(yè)看盡,附代碼論文

新聞 開(kāi)源
本屆CPVR共接收6656篇論文,中選1470篇,“中標(biāo)率”只有22%,堪稱十年來(lái)最難的一屆。今日GitHub上便出現(xiàn)了一個(gè)項(xiàng)目,將本屆CVPR論文開(kāi)源項(xiàng)目做了個(gè)集合。

 本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

CVPR 2020中選論文放榜后,最新開(kāi)源項(xiàng)目合集也來(lái)了。

本屆CPVR共接收6656篇論文,中選1470篇,“中標(biāo)率”只有22%,堪稱十年來(lái)最難的一屆。

[[317876]]

刨去接受率低這件事,從論文本身出發(fā),在中選論文中還是有很多值得我們?nèi)ソ梃b和學(xué)習(xí)的精品。

今日GitHub上便出現(xiàn)了一個(gè)項(xiàng)目,將本屆CVPR論文開(kāi)源項(xiàng)目做了個(gè)集合。

CVPR 2020論文開(kāi)源項(xiàng)目一頁(yè)看盡,附代碼論文

本文便基于此GitHub項(xiàng)目,對(duì)中選CVPR 2020論文的開(kāi)源項(xiàng)目做了整理,主要內(nèi)容如下:

CVPR 2020論文開(kāi)源項(xiàng)目一頁(yè)看盡,附代碼論文

目標(biāo)檢測(cè)

論文題目:

Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection

CVPR 2020論文開(kāi)源項(xiàng)目一頁(yè)看盡,附代碼論文

本文首先指出了基于錨點(diǎn)檢測(cè)與無(wú)錨點(diǎn)檢測(cè)的本質(zhì)區(qū)別,在于如何定義正、負(fù)訓(xùn)練樣本,從而導(dǎo)致兩者之間的性能差距。

研究人員提出了一種自適應(yīng)訓(xùn)練樣本選擇 (ATSS),根據(jù)對(duì)象的統(tǒng)計(jì)特征自動(dòng)選擇正樣本和負(fù)樣本。它顯著地提高了基于錨點(diǎn)和無(wú)錨點(diǎn)探測(cè)器的性能,并彌補(bǔ)了兩者之間的差距。

最后,還討論了在圖像上每個(gè)位置平鋪多個(gè)錨點(diǎn)來(lái)檢測(cè)目標(biāo)的必要性。

論文地址:https://arxiv.org/abs/1912.02424

代碼:https://github.com/sfzhang15/ATSS

目標(biāo)跟蹤

論文題目:

MAST: A Memory-Augmented Self-supervised Tracker(注:不確定是否中選)

CVPR 2020論文開(kāi)源項(xiàng)目一頁(yè)看盡,附代碼論文

這篇論文提出了一種密集的視頻跟蹤模型 (無(wú)任何注釋),在現(xiàn)有的基準(zhǔn)上大大超過(guò)了之前的自監(jiān)督方法(+15%),并實(shí)現(xiàn)了與監(jiān)督方法相當(dāng)?shù)男阅堋?/p>

首先通過(guò)深入的實(shí)驗(yàn),重新評(píng)估用于自監(jiān)督訓(xùn)練和重建損失的傳統(tǒng)選擇。其次,通過(guò)使用一個(gè)重要的內(nèi)存組件來(lái)擴(kuò)展架構(gòu),從而進(jìn)一步改進(jìn)現(xiàn)有的方法。而后,對(duì)大規(guī)模半監(jiān)督視頻對(duì)象分割進(jìn)行了基準(zhǔn)測(cè)試,提出了一種新的度量方法:可泛化 (generalizability)。

論文地址:https://arxiv.org/abs/2002.07793

代碼:https://github.com/zlai0/MAST

實(shí)例分割

論文題目:

PolarMask: Single Shot Instance Segmentation with Polar Representation

CVPR 2020論文開(kāi)源項(xiàng)目一頁(yè)看盡,附代碼論文

本文提出了PolarMask方法,是一種single shot的實(shí)例分割框架。PolarMask基于FCOS,把實(shí)例分割統(tǒng)一到了FCN的框架下。

FCOS本質(zhì)上是一種FCN的dense prediction的檢測(cè)框架,可以在性能上不輸anchor based的目標(biāo)檢測(cè)方法。

貢獻(xiàn)在于,把更復(fù)雜的實(shí)例分割問(wèn)題,轉(zhuǎn)化成在網(wǎng)絡(luò)設(shè)計(jì)和計(jì)算量復(fù)雜度上和物體檢測(cè)一樣復(fù)雜的任務(wù),把對(duì)實(shí)例分割的建模變得簡(jiǎn)單和高效。

論文地址:https://arxiv.org/abs/1909.13226

代碼:https://github.com/xieenze/PolarMask

其他論文:

CenterMask : Real-Time Anchor-Free Instance Segmentation

論文地址:https://arxiv.org/abs/1911.06667

代碼:https://github.com/youngwanLEE/CenterMask

Deep Snake for Real-Time Instance Segmentation

論文地址:https://arxiv.org/abs/2001.01629

代碼:https://github.com/zju3dv/snake

NAS

論文題目:

CARS: Continuous Evolution for Efficient Neural Architecture Search

CVPR 2020論文開(kāi)源項(xiàng)目一頁(yè)看盡,附代碼論文

在本文中,研究人員開(kāi)發(fā)了一種高效的連續(xù)演化方法來(lái)搜索神經(jīng)網(wǎng)絡(luò)。

在最近的迭代中,在一個(gè)超網(wǎng)中共享參數(shù)的種群中的架構(gòu),將在具有幾個(gè)epoch的訓(xùn)練數(shù)據(jù)集上進(jìn)行調(diào)優(yōu)。下一個(gè)演化迭代中的搜索將直接繼承超網(wǎng)和種群,加速了最優(yōu)網(wǎng)絡(luò)的生成。進(jìn)一步采用非支配排序策略,僅保留Pareto前沿的結(jié)果,以精確更新超網(wǎng)。

經(jīng)過(guò)0.4天的GPU連續(xù)搜索,可以生成多個(gè)模型大小和性能不同的神經(jīng)網(wǎng)絡(luò)。這些網(wǎng)絡(luò)超過(guò)了基準(zhǔn)ImageNet數(shù)據(jù)集上最先進(jìn)方法產(chǎn)生的網(wǎng)絡(luò)。

論文地址:https://arxiv.org/abs/1909.04977

代碼(即將開(kāi)源):https://github.com/huawei-noah/CARS

人臉表情識(shí)別

論文題目:

Suppressing Uncertainties for Large-Scale Facial Expression Recognition

CVPR 2020論文開(kāi)源項(xiàng)目一頁(yè)看盡,附代碼論文

本文提出了一種簡(jiǎn)單而有效的自修復(fù)網(wǎng)絡(luò)(SCN),它能有效地抑制不確定性,防止深度網(wǎng)絡(luò)對(duì)不確定的人臉圖像進(jìn)行過(guò)擬合。

具體來(lái)說(shuō),SCN從兩個(gè)不同的方面抑制了不確定性:⑴在小批量上的自關(guān)注機(jī)制,通過(guò)排名規(guī)則化對(duì)每個(gè)訓(xùn)練樣本進(jìn)行加權(quán);⑵重新貼標(biāo)簽機(jī)制,在排名最低的組中修改這些樣本的標(biāo)簽。

論文地址:https://arxiv.org/abs/2002.10392

代碼(即將開(kāi)源):https://github.com/kaiwang960112/Self-Cure-Network

人體姿態(tài)估計(jì)

2D人體姿態(tài)估計(jì)

論文題目:

The Devil is in the Details: Delving into Unbiased Data Processing for Human Pose Estimation

CVPR 2020論文開(kāi)源項(xiàng)目一頁(yè)看盡,附代碼論文

所有計(jì)算機(jī)視覺(jué)的任務(wù)都需要和數(shù)據(jù)處理打交道,但在關(guān)鍵點(diǎn)檢測(cè)問(wèn)題上,數(shù)據(jù)處理顯得尤為重要。在關(guān)鍵點(diǎn)檢測(cè)任務(wù)上,數(shù)據(jù)處理尚未被系統(tǒng)的學(xué)習(xí),因此這篇文章關(guān)注了人體關(guān)鍵點(diǎn)檢測(cè)問(wèn)題的數(shù)據(jù)處理,認(rèn)為它是算法的一個(gè)極其重要的組成部分。

在系統(tǒng)地分析這個(gè)問(wèn)題的時(shí)候,發(fā)現(xiàn)現(xiàn)有的所有的state-of-the-art在這個(gè)環(huán)節(jié)上都會(huì)存在兩個(gè)方面的問(wèn)題:一個(gè)是在測(cè)試過(guò)程中,如果使用flip ensemble時(shí),由翻轉(zhuǎn)圖像得到的結(jié)果和原圖得到的結(jié)果并不對(duì)齊。另外一個(gè)是使用的編碼解碼(encoding-decoding)方法存在較大的統(tǒng)計(jì)誤差。

這兩個(gè)問(wèn)題耦合在一起,產(chǎn)生的影響包括:估計(jì)的結(jié)果不準(zhǔn)確、復(fù)現(xiàn)指標(biāo)困難、有較大可能使得實(shí)驗(yàn)的結(jié)果結(jié)論不可靠。

論文地址:https://arxiv.org/abs/1911.07524

代碼:https://github.com/HuangJunJie2017/UDP-Pose

其他論文:

Distribution-Aware Coordinate Representation for Human Pose Estimation

論文地址:https://arxiv.org/abs/1910.06278

代碼:https://github.com/ilovepose/DarkPose

3D人體姿態(tài)估計(jì)

論文題目:

VIBE: Video Inference for Human Body Pose and Shape Estimation

CVPR 2020論文開(kāi)源項(xiàng)目一頁(yè)看盡,附代碼論文

由于缺乏用于訓(xùn)練的ground-truth三維運(yùn)動(dòng)數(shù)據(jù),現(xiàn)有的基于視頻的最先進(jìn)的方法無(wú)法生成準(zhǔn)確和自然的運(yùn)動(dòng)序列。

為了解決這個(gè)問(wèn)題,本文提出了身體姿態(tài)和形狀估計(jì)的視頻推理(VIBE),它利用了現(xiàn)有的大型動(dòng)作捕捉數(shù)據(jù)集(AMASS)和未配對(duì)的、in-the-wild 2D關(guān)鍵點(diǎn)注釋。

關(guān)鍵創(chuàng)新是一個(gè)對(duì)抗性學(xué)習(xí)框架,它利用AMASS來(lái)區(qū)分真實(shí)的人類動(dòng)作和由時(shí)間姿態(tài)、形狀回歸網(wǎng)絡(luò)產(chǎn)生的動(dòng)作。

論文地址:https://arxiv.org/abs/1912.05656

代碼:https://github.com/mkocabas/VIBE

其他論文:

Compressed Volumetric Heatmaps for Multi-Person 3D Pose Estimation

論文地址:暫無(wú)

代碼:https://github.com/anonymous-goat/CVPR-2020

點(diǎn)云

點(diǎn)云分類

論文題目:

PointAugment: an Auto-Augmentation Framework for Point Cloud Classification

CVPR 2020論文開(kāi)源項(xiàng)目一頁(yè)看盡,附代碼論文

本文提出了一種新的自動(dòng)增強(qiáng)框架PointAugment,該框架在訓(xùn)練分類網(wǎng)絡(luò)時(shí)自動(dòng)優(yōu)化和增強(qiáng)點(diǎn)云樣本,以豐富數(shù)據(jù)多樣性。

還建立了一個(gè)可學(xué)習(xí)的點(diǎn)增強(qiáng)函數(shù),該函數(shù)具有形狀上的變換和點(diǎn)上的位移,并根據(jù)分類器的學(xué)習(xí)過(guò)程,精心設(shè)計(jì)了損失函數(shù)來(lái)采用增廣后的樣本。

論文地址:https://arxiv.org/abs/2002.10876

代碼(即將開(kāi)源):https://github.com/liruihui/PointAugment/

場(chǎng)景文本檢測(cè)/識(shí)別

論文題目:

ABCNet: Real-time Scene Text Spotting with Adaptive Bezier-Curve Network

CVPR 2020論文開(kāi)源項(xiàng)目一頁(yè)看盡,附代碼論文

本文提出了自適應(yīng)Bezier曲線網(wǎng)絡(luò)(ABCNet),主要貢獻(xiàn)包括:⑴第一次通過(guò)參數(shù)化的Bezier曲線自適應(yīng)地?cái)M合任意形狀的文本;⑵設(shè)計(jì)了一種新穎的BezierAlign層,用于提取具有任意形狀的文本實(shí)例的精確卷積特征;⑶方法在效率和準(zhǔn)確性上都具有優(yōu)勢(shì)。

論文地址:https://arxiv.org/abs/2002.10200

代碼(即將開(kāi)源):https://github.com/Yuliang-Liu/bezier_curve_text_spottinghttps://github.com/aim-uofa/adet

超分辨率

視頻超分辨率

論文題目:

Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video Super-Resolution

CVPR 2020論文開(kāi)源項(xiàng)目一頁(yè)看盡,附代碼論文

本文探討了時(shí)空視頻的超分辨率任務(wù),該任務(wù)旨在從低幀率(LFR)、低分辨率(LR)視頻中生成高分辨率(HR)慢動(dòng)作視頻。

研究人員提出了一種基于LFR、LR視頻直接合成HR慢動(dòng)作視頻的,單級(jí)空時(shí)視頻超分辨率框架。

除此之外,還提出了一種可變形凸STM來(lái)同時(shí)對(duì)齊和聚合時(shí)態(tài)信息,以更好地利用全局時(shí)態(tài)上下文。最后,利用深度重構(gòu)網(wǎng)絡(luò)對(duì)HR慢動(dòng)作視頻幀進(jìn)行預(yù)測(cè)。

論文地址:https://arxiv.org/abs/2002.11616

代碼:https://github.com/Mukosame/Zooming-Slow-Mo-CVPR-2020

視覺(jué)語(yǔ)言導(dǎo)航

論文題目:

Towards Learning a Generic Agent for Vision-and-Language Navigation via Pre-training

CVPR 2020論文開(kāi)源項(xiàng)目一頁(yè)看盡,附代碼論文

本文提出了視覺(jué)和語(yǔ)言導(dǎo)航(VLN)任務(wù)的第一個(gè)預(yù)訓(xùn)練和微調(diào)范例。

通過(guò)以自監(jiān)督的學(xué)習(xí)方式訓(xùn)練大量的圖像-文本-動(dòng)作三元組,預(yù)訓(xùn)練模型提供了視覺(jué)環(huán)境和語(yǔ)言指令的通用表示。

論文地址:https://arxiv.org/abs/2002.10638

代碼(即將開(kāi)源):https://github.com/weituo12321/PREVALENT

其他

GhostNet: More Features from Cheap Operations

論文地址:https://arxiv.org/abs/1911.11907

代碼:https://github.com/iamhankai/ghostnet

AdderNet: Do We Really Need Multiplications in Deep Learning?

論文地址:https://arxiv.org/abs/1912.13200

代碼:https://github.com/huawei-noah/AdderNet

Deep Image Harmonization via Domain Verification

論文地址:https://arxiv.org/abs/1911.13239

代碼:https://github.com/bcmi/Image_Harmonization_Datasets

其他GitHub論文項(xiàng)目地址:

https://github.com/charlesCXK/3D-SketchAware-SSC

https://github.com/Anonymous20192020/Anonymous_CVPR5767

https://github.com/avirambh/ScopeFlow

https://github.com/csbhr/CDVD-TSP

https://github.com/ymcidence/TBH

https://github.com/yaoyao-liu/mnemonics

https://github.com/meder411/Tangent-Images

https://github.com/KaihuaTang/Scene-Graph-Benchmark.pytorch

https://github.com/sjmoran/deep_local_parametric_filters

https://github.com/charlesCXK/3D-SketchAware-SSC

https://github.com/bermanmaxim/AOWS

最后,本項(xiàng)目是由公眾號(hào)CVer編輯Amusi整理,同時(shí)歡迎各位大佬提交issue,分享CVPR 2020開(kāi)源項(xiàng)目。

傳送門

GitHub項(xiàng)目地址:
https://github.com/amusi/CVPR2020-Code

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2020-12-23 16:40:09

AI 數(shù)據(jù)人工智能

2011-10-28 11:11:45

應(yīng)用設(shè)計(jì)移動(dòng)設(shè)備

2025-04-07 09:45:00

2021-01-04 14:59:50

AIAI技術(shù)機(jī)器學(xué)習(xí)

2017-08-02 14:26:39

CVPR 2017論文卷積網(wǎng)絡(luò)模型

2020-10-15 06:34:45

內(nèi)存代碼背景頁(yè)

2020-04-13 13:56:07

AI 論文開(kāi)源

2017-08-02 00:12:50

CVPR 2017論文FPN網(wǎng)絡(luò)

2017-08-04 08:06:15

CVPR 2017論文圖像語(yǔ)義分割

2017-07-26 10:32:51

計(jì)算機(jī)視覺(jué)卷積神經(jīng)網(wǎng)絡(luò)FPN

2021-02-01 10:11:04

工具代碼開(kāi)發(fā)

2023-02-28 12:41:20

2022-03-04 18:55:37

3D模型開(kāi)源

2020-03-27 13:33:21

阿里安全AIAI模型

2020-04-30 10:25:37

代碼Github開(kāi)源

2025-04-28 09:06:00

2021-01-20 11:14:47

人工智能算法技術(shù)

2020-06-28 10:16:53

PyTorchTensorFlow機(jī)器學(xué)習(xí)

2023-05-22 09:22:41

論文CV

2024-04-07 06:30:00

AI開(kāi)源
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)