偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

繼臉書開源PyTorch3D后,谷歌開源3D場景理解庫

新聞 前端
繼 2020 年初 Facebook 開源基于 PyTorch 的 3D 計算機視覺庫PyTorch3D之后,谷歌也于近日開源了一個基于 TF 框架的高度模塊化和高效處理庫 TensorFlow 3D。目前,該庫已經(jīng)開源。

  3D 計算機視覺是一個非常重要的研究課題,選擇合適的計算框架對處理效果將會產(chǎn)生很大的影響。此前,機器之心曾介紹過 Facebook 開源的基于 PyTorch 框架的 3D 計算機視覺處理庫 PyTorch3D,該庫在 3D 建模、渲染等多方面處理操作上表現(xiàn)出了更好的效果。

最近,另一個常用的深度學習框架 TensorFlow 也有了自己的高度模塊化和高效處理庫。它就是谷歌 AI 推出的 TensorFlow 3D(TF 3D),將 3D 深度學習能力引入到了 TensorFlow 框架中。TF 3D 庫基于 TensorFlow 2 和 Keras 構(gòu)建,使得更易于構(gòu)建、訓練和部署 3D 語義分割、3D 實例分割和 3D 目標檢測模型。目前,TF 3D 庫已經(jīng)開源。

繼臉書開源PyTorch3D后,谷歌開源3D場景理解庫

GitHub 項目地址:
https://github.com/google-research/google-research/tree/master/tf3d

TF 3D 提供了一系列流行的運算、損失函數(shù)、數(shù)據(jù)處理工具、模型和指標,使得更廣泛的研究社區(qū)方便地開發(fā)、訓練和部署 SOTA 3D 場景理解模型。TF 3D 還包含用于 SOTA 3D 語義分割、3D 目標檢測和 3D 實例分割的訓練和評估 pipeline,并支持分布式訓練。該庫還支持 3D 物體形狀預測、點云配準和點云加密等潛在應用。

此外,TF 3D 提供了用于訓練和評估標準 3D 場景理解數(shù)據(jù)集的統(tǒng)一數(shù)據(jù)集規(guī)劃和配置,目前支持 Waymo Open、ScanNet 和 Rio 三個數(shù)據(jù)集。不過,用戶可以自由地將 NuScenes 和 Kitti 等其他流行數(shù)據(jù)集轉(zhuǎn)化為類似格式,并在預先存在或自定義創(chuàng)建的 pipeline 中使用它們。最后,用戶可以將 TF 3D 用于多種 3D 深度學習研究和應用,比如快速原型設計以及嘗試新思路來部署實時推理系統(tǒng)。

下圖(左)為 TF 3D 庫中 3D 目標檢測模型在 Waymo Open 數(shù)據(jù)集幀上的輸出示例;下圖(右)為 TF 3D 庫中 3D 實例分割模型在 ScanNet 數(shù)據(jù)集場景上的輸出示例。

繼臉書開源PyTorch3D后,谷歌開源3D場景理解庫

3D 稀疏卷積網(wǎng)絡

谷歌詳細介紹了 TF 3D 庫中提供的高效和可配置稀疏卷積骨干網(wǎng)絡,該網(wǎng)絡是在各種 3D 場景理解任務上取得 SOTA 結(jié)果的關鍵。

在 TF 3D 庫中,谷歌使用子流形稀疏卷積和池化操作,這兩者被設計用于更高效地處理 3D 稀疏數(shù)據(jù)。稀疏卷積模型是大多數(shù)戶外自動駕駛(如 Waymo 和 NuScenes)和室內(nèi)基準(如 ScanNet)中使用的 SOTA 方法的核心。

谷歌還使用各種 CUDA 技術(shù)來加速計算(如哈希算法、共享內(nèi)存中分割 / 緩存濾波器以及位操作)。在 Waymo Open 數(shù)據(jù)集上的實驗表明,這種實現(xiàn)的速度約是利用預先存在 TensorFlow 操作的實現(xiàn)的 20 倍。

TF 3D 庫中使用 3D 子流形稀疏 U-Net 架構(gòu)來提取每個體素(voxel)的特征。通過令網(wǎng)絡提取稀疏和細微特征并結(jié)合它們以做出預測,U-Net 架構(gòu)已被證實非常有效。在結(jié)構(gòu)上,U-Net 網(wǎng)絡包含三個模塊:編碼器、瓶頸層和解碼器,它們均是由大量具有潛在池化或非池化操作的稀疏卷積塊組成的。

下圖為 3D 稀疏體素 U-Net 架構(gòu):

繼臉書開源PyTorch3D后,谷歌開源3D場景理解庫

稀疏卷積網(wǎng)絡是 TF 3D 中所提供 3D 場景理解 pipeline 的骨干。并且,3D 語義分割、3D 實例分割和 3D 目標檢測模型使用稀疏卷積網(wǎng)絡來提取稀疏體素的特征,然后添加一個或多個額外的預測頭(head)來推理感興趣的任務。用戶可以通過改變編碼器或解碼器層數(shù)和每個層的卷積數(shù),以及調(diào)整卷積濾波器大小來配置 U-Net 網(wǎng)絡,從而探索不同骨干網(wǎng)絡配置下各種速度或準確率的權(quán)衡。

TF 3D 支持的三個 pipeline

目前,TF 3D 支持三個 pipeline,分別是 3D 語義分割、3D 實例分割和 3D 目標檢測。

3D 語義分割

3D 語義分割模型僅有一個用于預測每體素(per-voxel )語義分數(shù)的輸出頭,這些語義被映射回點以預測每點的語義標簽。

下圖為 ScanNet 數(shù)據(jù)集中室內(nèi)場景的 3D 語義分割結(jié)果:

繼臉書開源PyTorch3D后,谷歌開源3D場景理解庫

3D 實例分割

除了預測語義之外,3D 實例分割的另一目的是將屬于同一物體的體素集中分組在一起。TF 3D 中使用的 3D 實例分割算法基于谷歌之前基于深度度量學習的 2D 圖像分割。模型預測每體素的實例嵌入向量和每體素的語義分數(shù)。實例嵌入向量將這些體素嵌入至一個嵌入空間,在此空間中,屬于同一物體實例的體素緊密靠攏,而屬于不同物體的體素彼此遠離。在這種情況下,輸入的是點云而不是圖像,并且使用了 3D 稀疏網(wǎng)絡而不是 2D 圖像網(wǎng)絡。在推理時,貪婪算法每次選擇一個實例種子,并利用體素嵌入之間的距離將它們分組為片段。

3D 目標檢測

3D 目標檢測模型預測每體素大小、中心、旋轉(zhuǎn)矩陣和目標語義分數(shù)。在推理時使用 box proposal 機制,將成千上萬個每體素 box 預測縮減為數(shù)個準確的 box 建議;在訓練時將 box 預測和分類損失應用于每體素預測。

谷歌在預測和真值 box 角(box corner)之間的距離上應用到了 Huber 損失。由于 Huer 函數(shù)根據(jù) box 大小、中心和旋轉(zhuǎn)矩陣來估計 box 角并且它是可微的,因此該函數(shù)將自動傳回這些預測的目標特性。此外,谷歌使用了一個動態(tài)的 box 分類損失,它將與真值強烈重疊的 box 分類為正(positive),將與真值不重疊的 box 分類為負(negative)。

下圖為 ScanNet 數(shù)據(jù)集上的 3D 目標檢測結(jié)果:

繼臉書開源PyTorch3D后,谷歌開源3D場景理解庫

 

 

責任編輯:張燕妮 來源: 機器之心
相關推薦

2020-02-07 16:31:39

開源技術(shù) 趨勢

2021-09-14 10:11:46

谷歌3D舞蹈生成模型FACT

2012-08-13 17:11:37

Silverlight

2013-11-21 19:36:56

暢游游戲引擎Genesis-3D

2020-08-26 10:37:21

阿里3D

2024-12-10 15:17:11

2021-12-20 14:43:54

Goxel3D建模Linux

2020-07-27 10:23:10

開源技術(shù) 數(shù)據(jù)

2023-05-03 09:01:41

CanvasWebGL

2022-02-25 10:38:19

開源3D建模免費

2009-04-23 09:50:39

O3D3D插件

2011-10-06 13:30:45

宏碁投影儀

2012-11-26 12:51:44

木材3D打

2025-01-07 13:19:48

模型AI訓練

2015-04-27 15:35:42

Cocos3D場景編輯器

2022-10-14 13:39:10

谷歌3D真人聊

2011-05-26 10:05:07

優(yōu)派投影機

2024-03-01 09:12:01

2009-04-24 09:12:26

Google瀏覽器

2023-08-04 09:56:15

點贊
收藏

51CTO技術(shù)棧公眾號