偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

首個,專攻點(diǎn)云上下文學(xué)習(xí)自適應(yīng)采樣!支持點(diǎn)級、提示級|CVPR 2025

人工智能 新聞
浙江大學(xué)、內(nèi)華達(dá)大學(xué)里諾分校的研究人員提出首個專為點(diǎn)云上下文學(xué)習(xí)設(shè)計的多粒度自適應(yīng)采樣機(jī)制MICAS。

3D點(diǎn)云處理(PCP)涉及多種任務(wù),如分割、去噪、配準(zhǔn)、重建等,傳統(tǒng)方法通常是為每個任務(wù)設(shè)計專用模型,導(dǎo)致過程繁雜、成本高昂。

雖然多任務(wù)學(xué)習(xí)(MTL)能緩解模型數(shù)量問題,但在任務(wù)沖突、參數(shù)調(diào)優(yōu)方面仍存在挑戰(zhàn)。

近年來興起的In-Context Learning(ICL,上下文學(xué)習(xí))技術(shù),是指大型語言模型在不進(jìn)行顯式參數(shù)更新的情況下,僅通過輸入中的示例(即上下文信息)來完成新的任務(wù)。

在3D點(diǎn)云領(lǐng)域,由于點(diǎn)云數(shù)據(jù)本身具有非結(jié)構(gòu)化和無序性,因此點(diǎn)云的采樣策略成為實(shí)現(xiàn)有效上下文學(xué)習(xí)的關(guān)鍵因素,不可忽視。

圖片

浙江大學(xué)、內(nèi)華達(dá)大學(xué)里諾分校的研究人員提出首個專為點(diǎn)云上下文學(xué)習(xí)設(shè)計的多粒度自適應(yīng)采樣機(jī)制MICAS,包含兩個關(guān)鍵模塊:任務(wù)自適應(yīng)點(diǎn)采樣(Task-adaptive Point Sampling)與查詢特定提示采樣(Query-specific Prompt Sampling),分別從點(diǎn)級(point-level)和提示級(prompt-level)兩個維度出發(fā),有效提升ICL在3D點(diǎn)云任務(wù)中的穩(wěn)健性與適應(yīng)性。

圖片

論文鏈接:https://arxiv.org/abs/2411.16773

圖片

MICAS實(shí)現(xiàn)

圖片

任務(wù)自適應(yīng)點(diǎn)采樣

利用任務(wù)相關(guān)的信息,優(yōu)化每個點(diǎn)的采樣過程,以提高不同任務(wù)間(例如去噪、分割、配準(zhǔn)、重建)對點(diǎn)的選擇精度。

1. 提示理解(Prompt Understanding):使用PointNet作為編碼器,從輸入prompt中提取出任務(wù)特征,再將輸入點(diǎn)云和目標(biāo)點(diǎn)云的特征進(jìn)行拼接,生成任務(wù)特征。

2. Gumbel采樣(Gumbel Sampling):使用Gumbel-softmax實(shí)現(xiàn)可微分的采樣,將任務(wù)特征和當(dāng)前點(diǎn)云的特征結(jié)合,通過正態(tài)化的sampling weights生成最終的采樣結(jié)果,讓模型在訓(xùn)練期間得到更高的效能。

查詢特定提示采樣

在同一個任務(wù)下,對不同的查詢提高提示的相關(guān)性,來解決任務(wù)內(nèi)部的敏感性。

  1. 偽標(biāo)簽生成:利用ICL模型來生成預(yù)測結(jié)果,評估其與真實(shí)值之間的差異,將模型性能作為偽標(biāo)簽;
  2. 采樣分值計算:根據(jù)不同候選提示對每個查詢點(diǎn)云計算采樣分值,選擇分值最高的提示作為最終輸入。
  3. 損失函數(shù):用List-wise ranking loss優(yōu)化提示的選擇順序,提高模型的整體性能。

實(shí)驗(yàn)分析

評估數(shù)據(jù)集:使用ShapeNet In-Context Dataset,該數(shù)據(jù)集包含了多種「輸入-目標(biāo)」點(diǎn)云的對,以便進(jìn)行全面的任務(wù)評估。

評估指標(biāo):使用Chamfer Distance(CD)和Mean Intersection over Union(mIOU)來衡量不同任務(wù)的性能。例如,CD用于重建、去噪和配準(zhǔn)任務(wù),mIOU用于分割任務(wù)。

研究人員驗(yàn)證了文中所提出的任務(wù)自適應(yīng)點(diǎn)采樣(Task-adaptive Point Sampling)與查詢特定提示采樣(Query-specific Prompt Sampling)兩個模塊的有效性,設(shè)計并開展了多組消融實(shí)驗(yàn)。

同時,為進(jìn)一步驗(yàn)證所提方法 MICAS 的魯棒性與通用性,在多種點(diǎn)云深度學(xué)習(xí)模型上進(jìn)行了測試。

圖片

實(shí)驗(yàn)結(jié)果表明:任務(wù)自適應(yīng)點(diǎn)采樣模塊在點(diǎn)云去噪(Denoising)與部件分割(Part Segmentation)任務(wù)中帶來顯著性能提升,而查詢特定提示采樣模塊則在點(diǎn)云重建(Reconstruction)與配準(zhǔn)(Registration)任務(wù)中表現(xiàn)更加優(yōu)越。

綜合結(jié)果進(jìn)一步印證了兩種采樣策略在不同任務(wù)中各具優(yōu)勢,分別從點(diǎn)級(point-level)與提示級(prompt-level)兩個粒度對上下文構(gòu)建形成互補(bǔ)效應(yīng),共同推動模型性能的全面提升。

模型訓(xùn)練和推理可視化

實(shí)驗(yàn)結(jié)果對比可視化

研究人員從中心點(diǎn)采樣質(zhì)量與模型預(yù)測性能兩個維度對比了所提MICAS方法與Baseline方法。

圖片

圖片

實(shí)驗(yàn)結(jié)果表明,MICAS所采用的自適應(yīng)采樣策略在中心點(diǎn)選擇上優(yōu)于Baseline中常用的最遠(yuǎn)點(diǎn)采樣(Farthest Point Sampling, FPS),從而進(jìn)一步帶來了更優(yōu)的下游任務(wù)預(yù)測效果。

重建任務(wù)的采樣結(jié)果對比

去噪任務(wù)的采樣結(jié)果對比

配準(zhǔn)任務(wù)的采樣結(jié)果對比

分割任務(wù)的采樣結(jié)果對比

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-06-15 15:45:42

自然語言語言模型

2023-09-16 13:47:47

人工智能數(shù)據(jù)

2017-05-11 14:00:02

Flask請求上下文應(yīng)用上下文

2023-03-31 13:37:34

研究

2024-06-19 12:50:39

2022-09-14 13:13:51

JavaScript上下文

2012-12-31 10:01:34

SELinuxSELinux安全

2024-04-07 00:45:00

開源模型

2022-09-15 08:01:14

繼承基礎(chǔ)設(shè)施基礎(chǔ)服務(wù)

2024-11-14 13:05:12

2023-07-09 15:09:18

機(jī)器學(xué)習(xí)能力

2025-06-26 07:00:00

上下文工程AI智能體

2023-11-24 17:01:30

模型推理

2021-07-26 07:47:36

Cpu上下文進(jìn)程

2025-06-06 08:00:00

上下文管理器Python開發(fā)

2020-07-24 10:00:00

JavaScript執(zhí)行上下文前端

2023-07-11 10:02:23

2017-12-17 17:01:23

限界上下文系統(tǒng)模型

2022-10-28 16:24:33

Context上下文鴻蒙

2024-09-30 14:10:00

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號