偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

極低成本,復(fù)現(xiàn)GPT-4o圖像風(fēng)格化一致性!NUS推出OmniConsistency

人工智能 新聞
我們提出?OmniConsistency,利用配對數(shù)據(jù)復(fù)現(xiàn) GPT-4o 的出色風(fēng)格化一致性,為開源生態(tài)注入接近商業(yè)級的能力。

本文由 NUS ShowLab 主導(dǎo)完成。第一作者宋亦仁為新加坡國立大學(xué) ShowLab@NUS 在讀博士生,研究方向是視覺生成和多模態(tài),在 CVPR、SIGGRAPH、NeurIPS 等國際頂級會議上發(fā)表多篇研究成果。共同一作劉成為 NUS 重慶研究院四年級本科生,研究方向是視覺生成。項(xiàng)目負(fù)責(zé)作者為該校校長青年教授壽政。

不久前,GPT-4o 的最新圖像風(fēng)格化與編輯能力橫空出世,用吉卜力等風(fēng)格生成的效果令人驚艷,也讓我們清晰看到了開源社區(qū)與商業(yè) API 在圖像風(fēng)格化一致性上的巨大差距。

目前,開源擴(kuò)散模型在 image-to-image 風(fēng)格遷移中普遍面臨一個蹺蹺板困境:要想增強(qiáng)風(fēng)格化效果,往往會犧牲細(xì)節(jié)、結(jié)構(gòu)和語義一致性;而要保持一致性,風(fēng)格表達(dá)則明顯退化。

為了解決這一難題,我們提出 OmniConsistency,利用配對數(shù)據(jù)復(fù)現(xiàn) GPT-4o 的出色風(fēng)格化一致性,為開源生態(tài)注入接近商業(yè)級的能力。

圖片

  • 論文標(biāo)題:OmniConsistency: Learning Style-Agnostic Consistency from Paired Stylization Data
  • 項(xiàng)目主頁:https://github.com/showlab/OmniConsistency
  • 論文鏈接:https://arxiv.org/abs/2505.18445
  • Demo 試用鏈接:https://huggingface.co/spaces/yiren98/OmniConsistency

 我們的解決方案:OmniConsistency

我們提出 OmniConsistency, 一個基于 DiT 的通用一致性增強(qiáng)插件,它可以在保持強(qiáng)烈風(fēng)格化效果的同時,精準(zhǔn)保留輸入圖像的細(xì)節(jié)、語義和結(jié)構(gòu)。

OmniConsistency 的訓(xùn)練僅用了 2600 對 GPT-4o 生成的高質(zhì)量圖像,全流程只用約 500 小時 GPU 算力,成本極低。

OmniConsistency 有哪些亮點(diǎn)?來看三句話總結(jié):

? 解決風(fēng)格化與一致性之間的蹺蹺板問題

? 即插即用,兼容社區(qū)任意 Flux 底模的風(fēng)格 LoRA

? 輕量高效,效果出色,媲美 GPT-4o

 為什么現(xiàn)有方法會出現(xiàn)風(fēng)格退化?

目前各大廠商的 AI 圖生圖業(yè)務(wù)的主流做法是組合風(fēng)格化 LoRA + 一致性插件 + image2image pipeline。在特定風(fēng)格數(shù)據(jù)上微調(diào)得到的風(fēng)格 LoRA 模塊,能夠在文本到圖像(text-to-image, T2I)任務(wù)中實(shí)現(xiàn)高質(zhì)量風(fēng)格圖像生成。一致性模塊(如 ControlNet、IP-Adapter、Redux 等)負(fù)責(zé)在圖像到圖像(image-to-image, I2I)任務(wù)中維持結(jié)構(gòu)、邊緣或姿態(tài)等條件,允許使用更大的去噪強(qiáng)度來獲得更強(qiáng)的風(fēng)格化效果。

問題是,當(dāng)把這兩類模塊組合在一起用時,風(fēng)格模塊要的 “自由發(fā)揮” 和一致性模塊要的 “嚴(yán)謹(jǐn)控制” 彼此掣肘。尤其在 I2I 任務(wù)中,風(fēng)格表達(dá)往往會被削弱,出現(xiàn)明顯的風(fēng)格退化。換句話說,現(xiàn)有方法被困在風(fēng)格化強(qiáng)度和一致性之間的蹺蹺板上,無法兩全。

 方法介紹:OmniConsistency 的核心設(shè)計

OmniConsistency 的核心目標(biāo)是打破圖像風(fēng)格化任務(wù)中 “風(fēng)格表達(dá)” 與 “一致性保持” 之間的蹺蹺板困境。為了解決這一問題,我們提出了一種全新的、風(fēng)格 - 一致性解耦學(xué)習(xí)方法,其包括以下三項(xiàng)關(guān)鍵設(shè)計:

圖片

1. In-Context 一致性學(xué)習(xí)框架:從數(shù)據(jù)對學(xué)習(xí)

OmniConsistency 創(chuàng)新性地提出了一種基于風(fēng)格化圖像對的一致性學(xué)習(xí)機(jī)制:不是像現(xiàn)有方法那樣先在風(fēng)格結(jié)果上訓(xùn)練 LoRA,再用一致性插件去適配(這往往帶來沖突);而是直接利用原圖與其高一致性風(fēng)格化結(jié)果的成對關(guān)系,專門學(xué)習(xí)圖像在風(fēng)格遷移中的一致性保持規(guī)律。

具體做法是:將原圖經(jīng)過 VAE 編碼得到的 clean latent token 拼接到 denoise token 上,通過因果注意力機(jī)制引導(dǎo)模型學(xué)習(xí)配對圖像風(fēng)格化前后的一致性。

 2. 兩階段風(fēng)格 - 一致性解耦訓(xùn)練策略:穩(wěn)健泛化的關(guān)鍵

為了從訓(xùn)練策略上徹底分離風(fēng)格表達(dá)與一致性保持,我們采用了階段化解耦訓(xùn)練機(jī)制:

  • 第一階段:風(fēng)格學(xué)習(xí)。我們基于 22 種不同的藝術(shù)風(fēng)格,用風(fēng)格化結(jié)果圖為每種風(fēng)格獨(dú)立訓(xùn)練一個 LoRA 模塊,最終構(gòu)建出一個穩(wěn)定的 風(fēng)格 LoRA 模塊庫。
  • 第二階段:一致性學(xué)習(xí)。在該階段,我們凍結(jié)所有風(fēng)格 LoRA,用風(fēng)格化前后的配對數(shù)據(jù)訓(xùn)練一個輕量級的一致性模塊(Consistency LoRA)。我們設(shè)計了 LoRA Bank 滾動加載機(jī)制,即訓(xùn)練時動態(tài)輪換風(fēng)格 LoRA 與其對應(yīng)的訓(xùn)練子集。這樣能確保一致性模塊專注于跨風(fēng)格保持結(jié)構(gòu)和語義,而不學(xué)習(xí)任何具體風(fēng)格內(nèi)容。

這種訓(xùn)練解耦策略在保持風(fēng)格表達(dá)能力的同時,極大提升了模型對多風(fēng)格場景下的一致性泛化能力。

3. 模塊化架構(gòu)設(shè)計:即插即用,兼容性強(qiáng)

OmniConsistency 被設(shè)計為一套完全模塊化的插拔系統(tǒng),兼容性極強(qiáng):

  • Plug-and-Play LoRA:一致性模塊專門作用于條件分支,與風(fēng)格 LoRA 使用獨(dú)立 “插槽”,二者在架構(gòu)上無參數(shù)沖突。因此,任何 HuggingFace 社區(qū)風(fēng)格 LoRA 模型均可直接與 OmniConsistency 聯(lián)動,無需修改或重訓(xùn)練。
  • 因果注意力:不同于 Flux 和之前的可控性生成工作, 我們將雙向注意力機(jī)制改成 Causal Attention.  我們定義了一個注意力 mask, 限制 Condition token 的 Query 和 Noised&Text Token 的 Key 計算注意力。 這樣的好處是 Flux 的 Noised&Text 分支上沒有新增可訓(xùn)練的 LoRA 參數(shù), 完全為風(fēng)格化 LoRA 騰出掛載位點(diǎn)。
  • 兼容 EasyControl/ IP-Adapter 等控制信號:由于一致性模塊采用因果注意力 + 條件注入策略,其他控制方法也可無縫集成,互不干擾。

數(shù)據(jù)集構(gòu)建

我們采用 GPT-4o 自動生成了一套高質(zhì)量配對數(shù)據(jù):設(shè)計 22 種不同風(fēng)格的提示詞,上傳原始圖像,生成對應(yīng)的風(fēng)格化版本,還配上詳細(xì)文本描述。

圖片

然后,我們通過人工篩選,剔除了風(fēng)格不一致、細(xì)節(jié)錯誤、姿態(tài)錯位等問題圖,最終精選出 2600 對高質(zhì)量圖像對,涵蓋了動漫、素描、像素畫、水彩、賽博朋克等風(fēng)格。

效果如何?

直接上圖, OmniConsistency 能很好的維持風(fēng)格化前后構(gòu)圖、語義、細(xì)節(jié)一致,對人物面部特征的維持也有一定作用。對多人合影等復(fù)雜場景,很好的維持了人數(shù)、姿勢、性別、種族、年齡,甚至還能維持圖片中的英文文字正確性。

圖片

圖片

圖片

OmniConsistency 對訓(xùn)練階段沒見過的風(fēng)格 LoRA 也有很好的泛化作用。

圖片

 定量評估

圖片

論文構(gòu)建了一個全新數(shù)據(jù)集,包括:22 種風(fēng)格、2600 對高質(zhì)量圖像對, 由 GPT-4o 構(gòu)建并進(jìn)行人工篩選。用 100 張復(fù)雜場景測試圖(多人合影、建筑、動物等)作為 benchmark。使用 LibLib 網(wǎng)站上 5 個訓(xùn)練階段未見過的全新風(fēng)格 LoRA ,進(jìn)行定量計算。

圖片

采用用多項(xiàng)指標(biāo)全面評估,包括風(fēng)格一致性評估(FID、CMMD、DreamSim、CLIP Image Score、GPT-4o Score);內(nèi)容一致性評估(DreamSim、CLIP Image Score、GPT-4o 評分);圖文對齊(CLIP Score)。

圖片

總結(jié)

風(fēng)格一致性:FID 和 CMMD 指標(biāo)顯著優(yōu)于基線,風(fēng)格化程度接近 LoRA 文生圖 效果。

內(nèi)容一致性:復(fù)雜場景下的細(xì)節(jié)、語義、結(jié)構(gòu)保持能力大幅提升。

泛化能力:在未見過的 LoRA 風(fēng)格上泛化效果出色,顯示出強(qiáng)大的風(fēng)格無關(guān)性。

輕量高效:得益于特征復(fù)用和位置編碼差值技術(shù),推理顯存與時間開銷相比 Flux text2image pipeline 僅增加約 5%,適合部署到生產(chǎn)環(huán)境。

即插即用、廣泛兼容:模塊化設(shè)計支持與社區(qū) LoRA、EasyControl、IPAdapter 等主流插件無縫集成,無需重訓(xùn)即可使用。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2025-04-24 09:35:00

2017-07-25 14:38:56

數(shù)據(jù)庫一致性非鎖定讀一致性鎖定讀

2022-12-14 08:23:30

2024-05-21 12:23:17

2025-05-26 09:05:00

2024-06-27 12:45:30

2024-05-14 08:23:27

GPT-4oAI技術(shù)

2021-02-05 08:00:48

哈希算法?機(jī)器

2021-02-02 12:40:50

哈希算法數(shù)據(jù)

2024-05-16 12:38:05

GPT-4o圖像方式

2024-05-15 17:34:15

2024-06-05 08:29:35

2020-11-24 09:03:41

一致性MySQLMVCC

2020-05-12 10:43:22

Redis緩存數(shù)據(jù)庫

2022-03-22 09:54:22

Hash算法

2021-06-30 21:13:49

CPUCache數(shù)據(jù)

2022-10-19 12:22:53

并發(fā)扣款一致性

2025-05-27 15:59:41

AI工具模型

2021-02-04 06:30:26

Python編程語言

2025-03-31 08:50:00

AI生成模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號