偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

更懂中文還兼顧SD生態(tài),360開源文生圖模型結構,寡姐秒變中國新娘

人工智能 新聞
“原生中文”問題指的不僅僅是文生圖模型支持中文輸入,更核心的是要求模型生成的人、物形象應該符合中文文化的認知。

具備原生中文理解能力,還兼容Stable Diffusion生態(tài)。

最新模型結構Bridge Diffusion Model來了。

與Dreambooth模型結合,它生成的穿中式婚禮禮服的歪國明星長這樣。

圖片

它由360人工智能研究院提出,最近剛被AAAI接收,并已開源。

圖片

類似ControlNet的分支網(wǎng)絡思路

文生圖模型的中文原生問題,一直是一個重點研究問題。

受算力和數(shù)據(jù)因素的限制,國內大量的中文AI繪畫產(chǎn)品背后,實際上很多是以開源的英文模型及其微調模型為能力基座,但是,英文模型包括且不限于SD1.4/1.5/2.1/3.5以及DALLE、Midjourney、Flux等,因為這些模型的訓練數(shù)據(jù)以英文數(shù)據(jù)為主,因此在生成圖像時,主體形象包括人物、物品、建筑、車輛、服飾、標志等,都存在非常普遍和明顯的英文世界觀偏見。

BDM是我們在多模態(tài)生成方向比較早期的工作,關注兩個關鍵問題:

1)原生中文及生成模型的世界觀偏見
2)與SD生態(tài)的兼容性

冷大煒博士對BDM工作的主要著眼點做了如上的精煉概括。

“原生中文”問題指的不僅僅是文生圖模型支持中文輸入,更核心的是要求模型生成的人、物形象應該符合中文文化的認知。

下圖是AI繪畫模型的世界觀偏見實例,從左到右分別是SDXL,Midjourney,國內友商B*,國內友商V*:

圖片

中文AI繪畫模型,從實現(xiàn)的路線選擇上,從易到難大致有以下幾種方式:

英文模型 + 翻譯。

簡單直接,除了翻譯外幾無成本。這種方式只能解決表面上的中文輸入問題,并不能解決英文模型因為模型偏見而無法生成符合中文文化認知形象的問題。

英文模型 + 隱式翻譯。

與顯式調用翻譯服務不同,這種方式是將英文模型的text encoder替換為中文text encoder,并利用中英文平行語料對中文text encoder進行訓練,使其輸出的embedding空間與原來的英文text encoder對齊。本質上屬于一種隱式翻譯,也是成本非常低的一種方案,同樣無法解決模型的世界觀偏見問題。

英文模型 + 隱式翻譯 + 微調。

在上面方法基礎上,將對齊了text encoder的模型使用中文圖文數(shù)據(jù)進一步整體微調以提升模型對中文形象的輸出能力??梢栽谝欢ǔ潭壬暇徑庥⑽幕啄P蛶淼哪P推妴栴}。

中文數(shù)據(jù)從頭訓練。

這是最徹底的一種中文化方案:理解中文輸入,并能給出符合中文文化認知的圖像輸出結果,可以完美解決模型的世界觀偏見問題。

上述四種路線,第4種路線看上去非常完美,但仍有一點值得額外的研發(fā)努力:在基座模型之外,我們需要進一步考慮的是大模型時代的模型生態(tài)問題

圍繞著以SD為代表的開源模型,已形成了非常龐大的開源社區(qū)生態(tài),這個生態(tài)中大量衍生風格模型、插件模型等積累了非常寶貴的群體智力資產(chǎn)。

在克服AI繪畫模型世界觀偏見的基礎上,進一步實現(xiàn)對開源社區(qū)的兼容,就是我們的BDM工作所要解決的第二個關鍵問題。

BDM從模型結構上是一種類似ControlNet的分支網(wǎng)絡思路,以不同的網(wǎng)絡分支學習不同語言的數(shù)據(jù),因此從原理上BDM不僅可以實現(xiàn)原生中文圖像生成,也可以實現(xiàn)任意X語言的圖像生成,并保證生成的圖像符合對應語言文化的認知。

英文部分可以直接復用已有的開源模型,從而實現(xiàn)與開源社區(qū)的無縫兼容。注意BDM在使用時只需要輸入一種語言,比如輸入中文時,英文分支是以空文本作為輸入的。

圖片

BDM v1版本使用10億量級的中文圖文數(shù)據(jù)進行訓練,并兼容SD1.5社區(qū)生態(tài)。

下圖展示了BDM在生成中文特有概念的能力和翻譯無法應對的中英多義情況下的生成效果:

圖片

下圖則展示了BDM在SD1.5社區(qū)生態(tài)兼容性上的情況,可以看到BDM對不同的SD1.5風格微調模型具有很好的兼容性,特別是BDM同時保持了中文形象的輸出能力,更多案例請詳見AAAI論文。

圖片

關于360人工智能研究院

在360集團All in AI的大背景下,360人工智能研究院發(fā)揮自身的智力優(yōu)勢,承擔多模態(tài)理解和多模態(tài)生成大模型(俗稱圖生文和文生圖)的戰(zhàn)略研發(fā)任務,并在兩個方向上持續(xù)發(fā)力,陸續(xù)研發(fā)了360VL多模態(tài)大模型,BDM文生圖模型,可控布局HiCo模型,以及新一代DiT架構Qihoo-T2X等一系列工作。

近日,研究院在多模態(tài)理解方向的工作IAA和在多模態(tài)生成方向的工作BDM分別被AI領域的top會議AAAI接收,這兩項工作的研發(fā)負責人為冷大煒博士。

據(jù)悉本屆AAAI 2025會議收到近1.3萬份投稿,接收3032份工作,接收率僅為23.4%。

Arxiv: https://arxiv.org/abs/2309.00952
Github: https://github.com/360CVGroup/Bridge_Diffusion_Model

責任編輯:張燕妮 來源: 量子位
相關推薦

2022-07-28 11:13:08

人工智能模型

2017-09-14 11:56:24

數(shù)據(jù)庫技術變遷

2024-05-15 17:30:51

開源模型

2022-12-01 15:22:02

AI阿里騰訊

2024-01-16 12:44:00

AI訓練

2024-05-21 13:15:07

2024-12-18 10:22:49

2022-12-19 10:40:07

模型中文

2023-07-27 13:22:40

AI模型

2025-03-07 09:02:00

生成AI視頻

2024-03-22 15:08:47

CLIP機器學習人工智能

2025-04-24 06:02:45

2024-06-21 11:44:17

2023-10-18 12:50:12

數(shù)據(jù)模型

2024-07-30 14:41:58

模型訓練

2018-02-07 08:32:42

2017-12-03 21:47:07

開源工具JavaScript
點贊
收藏

51CTO技術棧公眾號