偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Diff2Scene:無須3D標注,擴散模型如何顛覆開放詞匯3D語義分割?

人工智能
Diff2Scene 是一種利用文本-圖像擴散模型進行 開放詞匯3D語義分割 的新方法,無需任何標注的3D數(shù)據(jù),即可對 3D點云 進行語義理解,并在 ScanNet200 數(shù)據(jù)集上提升 12% 的 SOTA 性能。

一眼概覽

Diff2Scene 是一種利用文本-圖像擴散模型進行 開放詞匯3D語義分割 的新方法,無需任何標注的3D數(shù)據(jù),即可對 3D點云 進行語義理解,并在 ScanNet200 數(shù)據(jù)集上提升 12% 的 SOTA 性能。

核心問題

背景問題:傳統(tǒng) 3D 語義分割依賴封閉集標簽,無法處理新類別,且標注 3D 數(shù)據(jù)極其昂貴?,F(xiàn)有 CLIP-based 方法在處理 細粒度類別和復雜文本查詢 時表現(xiàn)不佳。核心挑戰(zhàn):如何在 無3D標注 的情況下,實現(xiàn) 開放詞匯的 3D 語義分割和視覺錨定(visual grounding)應用價值:自動駕駛、機器人導航、AR/VR 場景解析等場景需要無監(jiān)督、泛化性強的 3D 語義理解方法。

技術亮點

1. 擴散模型特征提取:使用 Stable Diffusion 預訓練的 文本-圖像生成模型 提取語義豐富的 2D 特征,比 CLIP 更擅長 局部特征表示,有利于密集預測任務。

2. 多模態(tài)掩碼蒸餾(Mask Distillation):創(chuàng)新性地設計了 2D-3D 掩碼蒸餾機制,通過 2D 語義掩碼作為分類器 預測 3D 語義,增強了 3D 語義理解能力。

3. 零樣本3D分割:完全 摒棄3D標注數(shù)據(jù),僅使用 2D-3D 對應關系進行 無監(jiān)督知識蒸餾,實現(xiàn)了端到端的 開放詞匯 3D 語義分割。

方法框架

圖片

Diff2Scene 采用 雙分支架構,結合 2D 語義理解 和 3D 幾何感知,主要步驟如下:

1. 2D 語義解析

? 采用 Stable Diffusion U-Net 作為特征提取器,從 RGB 圖像生成 2D 語義掩碼(Salient-aware Masks)。

? 這些掩碼包含了豐富的 文本-視覺信息,并作為 分類器 提供 3D 語義先驗。

2. 3D 掩碼預測

? 采用 稀疏 3D 卷積 U-Net 處理 點云數(shù)據(jù),并結合 2D 掩碼提升 3D 預測能力。

? 生成 幾何感知掩碼(Geometric-aware Masks),提取 3D 空間信息。

3. 多模態(tài)掩碼蒸餾

2D 語義掩碼 → 3D 語義掩碼 遷移,保證 2D 和 3D 語義的一致性。

? 采用 余弦相似度損失(Cosine Similarity Loss)約束 2D 和 3D 掩碼的分布一致性,實現(xiàn) 跨模態(tài)特征學習。

4. 開放詞匯推理

? 采用 融合推理策略,將 Stable Diffusion 的生成特征 和 CLIP 的判別特征 結合,實現(xiàn) 靈活的語義查詢。

實驗結果速覽

圖片圖片

Diff2Scene 在多個 3D 語義分割基準測試上超越 SOTA:

ScanNet200(零樣本設置)

a.整體 mIoU 提升 12%(從 34.2 → 46.2

b.尾類 mIoU 提升 2.6%(從 11.9 → 12.9

Matterport3D:mIoU 提升 3.1%(從 42.6 → 45.5

Replica(通用化測試):mIoU 提升 2.6%(從 14.9 → 17.5

視覺錨定任務(Nr3D)

    ? 在 “紅色短箱子”“帶皺紋毛巾的架子” 等復雜文本查詢任務中,Diff2Scene 比 OpenScene 預測更加精準。

實用價值與應用

Diff2Scene 完全摒棄了 3D 數(shù)據(jù)標注,在 真實世界開放環(huán)境 具有極大應用潛力:

自動駕駛:適用于 長尾類別 識別(例如罕見的路障、動物等)。

機器人感知:提供 無監(jiān)督的 3D 物體定位,提升 環(huán)境理解能力。

增強現(xiàn)實(AR):基于文本語義進行 3D 場景查詢與交互,提升用戶體驗。

建筑和室內設計:支持 自然語言搜索 3D 物品,簡化 室內規(guī)劃 任務。

開放問題

1. 在極端長尾分布類別(如 ScanNet200 的“窗臺”)上,Diff2Scene 仍然容易誤分類,如何進一步提升其魯棒性?

2. 當前方法依賴 2D 預訓練模型,未來是否可以探索端到端的 3D 擴散模型,直接生成 3D 語義表示?

3. 擴散模型的生成特征對 3D 語義分割是否真的比 CLIP 判別特征更有效?是否可以進一步融合兩者的優(yōu)勢?

責任編輯:武曉燕 來源: 萍哥學AI
相關推薦

2020-08-26 10:37:21

阿里3D

2024-03-20 15:51:00

AI數(shù)據(jù)

2025-03-27 09:26:30

2011-09-22 10:07:52

奧圖碼投影儀

2024-12-10 09:40:00

AI3D模型

2023-08-18 08:00:00

游戲開發(fā)3D模型

2011-10-06 13:30:45

宏碁投影儀

2023-12-07 13:07:59

3D模型訓練

2012-11-26 12:51:44

木材3D打

2011-05-03 11:07:46

2D3D麗訊

2011-05-26 10:05:07

優(yōu)派投影機

2023-12-06 13:36:00

模型數(shù)據(jù)

2011-04-26 14:21:20

3DJVC投影機

2011-08-26 14:50:23

2012-08-13 17:11:37

Silverlight

2023-03-03 21:42:18

鴻蒙

2011-05-25 16:07:17

2023-05-03 09:01:41

CanvasWebGL

2015-09-09 11:05:52

3d視差引導頁

2021-12-28 10:52:10

鴻蒙HarmonyOS應用
點贊
收藏

51CTO技術棧公眾號