偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Meta「分割一切」超進(jìn)化版來(lái)了!IDEA領(lǐng)銜國(guó)內(nèi)頂尖團(tuán)隊(duì)打造:檢測(cè)、分割、生成一切,狂攬2k星

人工智能 新聞
Meta的SAM「分割一切」模型剛發(fā)布,國(guó)內(nèi)團(tuán)隊(duì)就進(jìn)行了二創(chuàng),打造了一個(gè)最強(qiáng)的零樣本視覺(jué)應(yīng)用Grounded-SAM,不僅能分割一切,還能檢測(cè)一切,生成一切。

Meta的「分割一切」模型橫空出世后,已經(jīng)讓圈內(nèi)人驚呼CV不存在了。

就在SAM發(fā)布后一天,國(guó)內(nèi)團(tuán)隊(duì)在此基礎(chǔ)上搞出了一個(gè)進(jìn)化版本「Grounded-SAM」。

圖片

注:項(xiàng)目的logo是團(tuán)隊(duì)用Midjourney花了一個(gè)小時(shí)做的

Grounded-SAM把SAM和BLIP、Stable Diffusion集成在一起,將圖片「分割」、「檢測(cè)」和「生成」三種能力合一,成為最強(qiáng)Zero-Shot視覺(jué)應(yīng)用。

網(wǎng)友紛紛表示,太卷了!

圖片

谷歌大腦的研究科學(xué)家、滑鐵盧大學(xué)計(jì)算機(jī)科學(xué)助理教授Wenhu Chen表示「這也太快了」。

圖片

AI大佬沈向洋也向大家推薦了這一最新項(xiàng)目:

Grounded-Segment-Anything:自動(dòng)檢測(cè)、分割和生成任何有圖像和文本輸入的東西。邊緣分割可以進(jìn)一步改進(jìn)。

圖片

截至目前,這個(gè)項(xiàng)目在GitHub上已經(jīng)狂攬2k星。

圖片

檢測(cè)一切,分割一切,生成一切

上周,SAM的發(fā)布讓CV迎來(lái)了GPT-3時(shí)刻。甚至,Meta AI聲稱這是史上首個(gè)圖像分割基礎(chǔ)模型。

該模型可以在統(tǒng)一的框架prompt encoder內(nèi),指定一個(gè)點(diǎn)、一個(gè)邊界框、一句話,直接一鍵分割出任何物體。

圖片

SAM具有廣泛的通用性,即具有了零樣本遷移的能力,足以涵蓋各種用例,不需要額外訓(xùn)練,就可以開(kāi)箱即用地用于新的圖像領(lǐng)域,無(wú)論是水下照片,還是細(xì)胞顯微鏡。

圖片

由此可見(jiàn),SAM可以說(shuō)是強(qiáng)到發(fā)指。

而現(xiàn)在,國(guó)內(nèi)研究者基于這個(gè)模型想到了新的點(diǎn)子,將強(qiáng)大的零樣本目標(biāo)檢測(cè)器Grounding DINO與之結(jié)合,便能通過(guò)文本輸入,檢測(cè)和分割一切。

借助Grounding DINO強(qiáng)大的零樣本檢測(cè)能力,Grounded SAM可以通過(guò)文本描述就可以找到圖片中的任意物體,然后通過(guò)SAM強(qiáng)大的分割能力,細(xì)粒度的分割出mas。

最后,還可以利用Stable Diffusion對(duì)分割出來(lái)的區(qū)域做可控的文圖生成。

圖片

再Grounded-SAM具體實(shí)踐中,研究者將Segment-Anything與3個(gè)強(qiáng)大的零樣本模型相結(jié)合,構(gòu)建了一個(gè)自動(dòng)標(biāo)注系統(tǒng)的流程,并展示出非常非常令人印象深刻的結(jié)果!

這一項(xiàng)目結(jié)合了以下模型:

· BLIP:強(qiáng)大的圖像標(biāo)注模型

· Grounding DINO:最先進(jìn)的零樣本檢測(cè)器

· Segment-Anything:強(qiáng)大的零樣本分割模型

· Stable-Diffusion:出色的生成模型?

所有的模型既可以組合使用,也可以獨(dú)立使用。組建出強(qiáng)大的視覺(jué)工作流模型。整個(gè)工作流擁有了檢測(cè)一切,分割一切,生成一切的能力。

該系統(tǒng)的功能包括:

BLIP+Grounded-SAM=自動(dòng)標(biāo)注器

使用BLIP模型生成標(biāo)題,提取標(biāo)簽,并使用Ground-SAM生成框和掩碼:

· 半自動(dòng)標(biāo)注系統(tǒng):檢測(cè)輸入的文本,并提供精確的框標(biāo)注和掩碼標(biāo)注。

圖片

· 全自動(dòng)標(biāo)注系統(tǒng):?

首先使用BLIP模型為輸入圖像生成可靠的標(biāo)注,然后讓Grounding DINO檢測(cè)標(biāo)注中的實(shí)體,接著使用SAM在其框提示上進(jìn)行實(shí)例分割。

圖片

Stable Diffusion+Grounded-SAM=數(shù)據(jù)工廠

· 用作數(shù)據(jù)工廠生成新數(shù)據(jù):可以使用擴(kuò)散修復(fù)模型根據(jù)掩碼生成新數(shù)據(jù)。?

圖片

Segment Anything+HumanEditing

在這個(gè)分支中,作者使用Segment Anything來(lái)編輯人的頭發(fā)/面部。

· SAM+頭發(fā)編輯?

圖片

· SAM+時(shí)尚編輯?

圖片

作者對(duì)于Grounded-SAM模型提出了一些未來(lái)可能的研究方向:

自動(dòng)生成圖像以構(gòu)建新的數(shù)據(jù)集;分割預(yù)訓(xùn)練的更強(qiáng)大的基礎(chǔ)模型;與(Chat-)GPT模型的合作;一個(gè)完整的管道,用于自動(dòng)標(biāo)注圖像(包括邊界框和掩碼),并生成新圖像。

作者介紹

Grounded-SAM項(xiàng)目其中的一位研究者是清華大學(xué)計(jì)算機(jī)系的三年級(jí)博士生劉世隆。

他近日在GitHub上介紹了自己和團(tuán)隊(duì)一起做出的最新項(xiàng)目,并稱目前還在完善中。

圖片

現(xiàn)在,劉世隆是粵港澳大灣區(qū)數(shù)字經(jīng)濟(jì)研究院(IDEA研究院),計(jì)算機(jī)視覺(jué)與機(jī)器人研究中心的實(shí)習(xí)生,由張磊教授指導(dǎo),主要研究方向?yàn)槟繕?biāo)檢測(cè),多模態(tài)學(xué)習(xí)。

在此之前,他于2020年獲得了清華大學(xué)工業(yè)工程系的學(xué)士學(xué)位,并于2019年在曠視實(shí)習(xí)過(guò)一段時(shí)間。

個(gè)人主頁(yè):?http://www.lsl.zone/?

順便提一句,劉世隆也是今年3月份發(fā)布的目標(biāo)檢測(cè)模型Grounding DINO的一作。

此外,他的4篇論文中了CVPR 2023,2篇論文被ICLR 2023接收,1篇論文被AAAI 2023接收。

圖片

論文地址:https://arxiv.org/pdf/2303.05499.pdf

而劉世隆提到的那位大佬——任天和,目前在IDEA研究院擔(dān)任計(jì)算機(jī)視覺(jué)算法工程師,也由張磊教授指導(dǎo),主要研究方向?yàn)槟繕?biāo)檢測(cè)和多模態(tài)。

圖片

此外,項(xiàng)目的合作者還有,中國(guó)科學(xué)院大學(xué)博士三年級(jí)學(xué)生黎昆昌,主要研究方向?yàn)橐曨l理解和多模態(tài)學(xué)習(xí);IDEA研究院計(jì)算機(jī)視覺(jué)與機(jī)器人研究中心實(shí)習(xí)生曹赫,主要研究方向?yàn)樯赡P停灰约鞍⒗镌聘呒?jí)算法工程師陳佳禹。

圖片

任天和、劉世隆 

安裝運(yùn)行 

項(xiàng)目需要安裝python 3.8及以上版本,pytorch 1.7及以上版本和torchvision 0.8及以上版本。此外,作者強(qiáng)烈建議安裝支持CUDA的PyTorch和TorchVision。

安裝Segment Anything:

python -m pip install -e segment_anything

安裝GroundingDINO:

python -m pip install -e GroundingDINO

安裝diffusers:

pip install --upgrade diffusers[torch]

安裝掩碼后處理、以COCO格式保存掩碼、example notebook和以O(shè)NNX格式導(dǎo)出模型所需的可選依賴。同時(shí),項(xiàng)目還需要jupyter來(lái)運(yùn)行example notebook。

pip install opencv-python pycocotools matplotlib onnxruntime onnx ipykernel

Grounding DINO演示

下載groundingdino檢查點(diǎn):

cd Grounded-Segment-Anything
wget https://github.com/IDEA-Research/GroundingDINO/releases/download/v0.1.0-alpha/groundingdino_swint_ogc.pth

運(yùn)行demo:

export CUDA_VISIBLE_DEVICES=0
python grounding_dino_demo.py \
--config GroundingDINO/groundingdino/config/GroundingDINO_SwinT_OGC.py \
--grounded_checkpoint groundingdino_swint_ogc.pth \
--input_image assets/demo1.jpg \
--output_dir "outputs" \
--box_threshold 0.3 \
--text_threshold 0.25 \
--text_prompt "bear" \
--device "cuda"

模型預(yù)測(cè)可視化將保存在output_dir中,如下所示:

圖片

Grounded-Segment-Anything+BLIP演示

自動(dòng)生成偽標(biāo)簽很簡(jiǎn)單:

1. 使用BLIP(或其他標(biāo)注模型)來(lái)生成一個(gè)標(biāo)注。

2. 從標(biāo)注中提取標(biāo)簽,并使用ChatGPT來(lái)處理潛在的復(fù)雜句子。

3. 使用Grounded-Segment-Anything來(lái)生成框和掩碼。

export CUDA_VISIBLE_DEVICES=0
python automatic_label_demo.py \
--config GroundingDINO/groundingdino/config/GroundingDINO_SwinT_OGC.py \
--grounded_checkpoint groundingdino_swint_ogc.pth \
--sam_checkpoint sam_vit_h_4b8939.pth \
--input_image assets/demo3.jpg \
--output_dir "outputs" \
--openai_key your_openai_key \
--box_threshold 0.25 \
--text_threshold 0.2 \
--iou_threshold 0.5 \
--device "cuda"

偽標(biāo)簽和模型預(yù)測(cè)可視化將保存在output_dir中,如下所示:

圖片

Grounded-Segment-Anything+Inpainting演示

CUDA_VISIBLE_DEVICES=0
python grounded_sam_inpainting_demo.py \
--config GroundingDINO/groundingdino/config/GroundingDINO_SwinT_OGC.py \
--grounded_checkpoint groundingdino_swint_ogc.pth \
--sam_checkpoint sam_vit_h_4b8939.pth \
--input_image assets/inpaint_demo.jpg \
--output_dir "outputs" \
--box_threshold 0.3 \
--text_threshold 0.25 \
--det_prompt "bench" \
--inpaint_prompt "A sofa, high quality, detailed" \
--device "cuda"

Grounded-Segment-Anything+Inpainting Gradio APP

python gradio_app.py

作者在此提供了可視化網(wǎng)頁(yè),可以更方便的嘗試各種例子。

圖片


網(wǎng)友評(píng)論

對(duì)于這個(gè)項(xiàng)目logo,還有個(gè)深層的含義:

一只坐在地上的馬賽克風(fēng)格的熊。坐在地面上是因?yàn)間round有地面的含義,然后分割后的圖片可以認(rèn)為是一種馬賽克風(fēng)格,而且馬塞克諧音mask,之所以用熊作為logo主體,是因?yàn)樽髡咧饕纠膱D片是熊。

圖片

看到Grounded-SAM后,網(wǎng)友表示,知道要來(lái),但沒(méi)想到來(lái)的這么快。

圖片

項(xiàng)目作者任天和稱,「我們用的Zero-Shot檢測(cè)器是目前來(lái)說(shuō)最好的?!?/span>

圖片

未來(lái),還會(huì)有web demo上線。

圖片

最后,作者表示,這個(gè)項(xiàng)目未來(lái)還可以基于生成模型做更多的拓展應(yīng)用,例如多領(lǐng)域精細(xì)化編輯、高質(zhì)量可信的數(shù)據(jù)工廠的構(gòu)建等等。歡迎各個(gè)領(lǐng)域的人多多參與。

責(zé)任編輯:張燕妮 來(lái)源: 新智元
相關(guān)推薦

2024-07-30 10:51:51

2023-06-27 17:35:39

FastSAM模型SAM

2024-03-01 10:04:11

研究訓(xùn)練編碼器

2023-05-04 12:19:47

模型AI

2023-04-25 11:36:17

CV模型

2023-07-05 14:06:43

視頻AI

2023-04-27 09:27:44

視頻AI

2023-11-22 11:40:00

Meta模型

2025-10-13 15:52:48

MetaAI模型

2023-12-07 07:16:57

Meta訓(xùn)練

2023-07-17 13:14:45

模型分割

2023-04-23 15:42:18

圖像視頻

2025-03-13 11:11:04

2016-08-31 17:24:05

大數(shù)據(jù)分析

2012-12-31 11:22:58

開(kāi)源開(kāi)放

2023-12-06 13:36:00

模型數(shù)據(jù)

2020-09-11 10:55:10

useState組件前端

2021-02-28 09:47:54

軟件架構(gòu)軟件開(kāi)發(fā)軟件設(shè)計(jì)

2012-11-05 15:22:59

康普光纜DCD

2023-10-24 19:06:59

模型訓(xùn)練
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)