圖像界的DeepSeek!12B參數(shù)對標GPT-4o,5秒出圖,消費級硬件就能玩轉(zhuǎn)編輯生成
圖像模型開源還得是FLUX!
Black Forest Labs剛剛宣布開源旗艦圖像模型FLUX.1 Kontext[dev],專為圖像編輯打造,還能直接在消費級芯片上運行。
只有小小的12B,更少的參數(shù),更快的推理,性能更是媲美GPT-image-1等一眾閉源模型。
現(xiàn)在FLUX.1 Kontext[dev]可以讓小狗迅速離開畫面,為小老鼠戴上胡須,添加文字、修改背景也不在話下。
或者多次輸入指令,直到讓小哥成為酒吧里最靚的崽(bushi),直到讓畫面符合咱們需求。
具體來說,F(xiàn)LUX.1 Kontext[dev]的主要特點有:
- 可以根據(jù)編輯指令直接更改現(xiàn)有圖像,以及進行精確的本地和全局編輯。
- 不用做任何微調(diào),就能直接引用里面的人物角色、風格樣式和物品元素。
- 允許用戶通過多次連續(xù)編輯優(yōu)化圖像,同時將視覺漂移降到最低。
- 專門為NVIDIA Blackwell進行了權(quán)重優(yōu)化。
網(wǎng)友們也立馬上手試玩,制作了一個旅行的CPU青蛙?
旅行必備的墨鏡,還有抗寒的帥氣紅色毛衣也要準備妥當。(蛙蛙:出片,我勢在必行)
或者copy一下自己喜歡的動漫角色。
輕輕松松店鋪打烊,結(jié)束打工人完美的一天~(doge)
還有網(wǎng)友腦洞大開,試著和LoRA結(jié)合,造出了一個Kontext風格化肖像制作APP。
現(xiàn)在FLUX.1 Kontext[dev]還完全支持ComfyUI。
溫馨提示,官方直接開放了試玩API,只需點擊文末鏈接、上傳圖片就可以立即爽玩!
網(wǎng)友看罷表示,Black Forest Labs不愧是圖像屆的DeepSeek。
FLUX.1 Kontext的開放權(quán)重變體
FLUX.1 Kontext模型上個月一經(jīng)發(fā)布,就因為其強大的上下文生成和編輯功能廣受好評。
與現(xiàn)有的文本到圖像模型不同,F(xiàn)LUX.1 Kontext系列執(zhí)行上下文圖像生成,可以直接使用文本和圖像進行提示,并無縫提取和修改視覺細節(jié)。
目前已經(jīng)發(fā)布了適合快速迭代的專業(yè)版FLUX.1 Kontext[pro]和高配版FLUX.1 Kontext[max]。
FLUX.1 Kontext[dev]作為FLUX.1 Kontext最新發(fā)布的開源版本,不僅繼承了其圖像生成的優(yōu)勢,它還更專注于編輯任務,可以直接在消費類硬件上運行。
首先模型架構(gòu)上,依舊基于的是FLUX.1模型,它是一種在圖像自動編碼器的潛在空間中訓練的整流流Transformer模型,由雙流塊和單流塊混合構(gòu)建而成。
在此基礎上,F(xiàn)LUX.1 Kontext[dev]采用標記序列構(gòu)建和位置信息編碼進行優(yōu)化:
- 標記序列構(gòu)建:圖像通過凍結(jié)的FLUX自動編碼器,編碼成潛在的上下文圖像標記,并輸入到模型的視覺流中。
- 位置信息編碼:通過三維旋轉(zhuǎn)位置嵌入(3D RoPE)對位置信息進行編碼,為上下文標記的嵌入提供恒定偏移量。并將其視作為虛擬時間步,以清晰分離上下文和目標塊,同時保持它們的內(nèi)部空間結(jié)構(gòu)。
然后使用整流流匹配損失進行訓練,在訓練時從FLUX.1的文本到圖像檢查點開始,收集并整理數(shù)百萬個關(guān)系對進行模型優(yōu)化。
優(yōu)化后得到的流匹配模型進行潛在對抗擴散蒸餾(LADD),在減少采樣步驟的同時提高樣本質(zhì)量,使FLUX.1 Kontext[dev]更高效。
最終得到的FLUX.1 Kontext[dev]模型包含120億參數(shù),可以更專注于編輯任務,支持迭代編輯,可以在各種場景和環(huán)境中保留角色特征,并允許用戶進行精確的局部或全局編輯。
圖像編輯新標準
實驗引入自研的KontextBench基準進行模型性能驗證,該基準包含1026個圖像-提示對,涵蓋局部編輯、全局編輯、角色參考、風格參考和文本編輯五個任務類別。
結(jié)果顯示FLUX.1 Kontext[dev]在許多類別上都優(yōu)于現(xiàn)有的開放式圖像編輯模型和封閉模型,例如Bytedance Bagel、HiDream-E1-Full以及OpenAI的GPT-image-1等。
另外,F(xiàn)LUX.1 Kontext[dev]還專門針對新的NVIDIA Blackwell架構(gòu)進行了TensorRT權(quán)重優(yōu)化,可以在保持高質(zhì)量的圖像編輯性能的同時,極大地提高推理速度并減少內(nèi)存使用量。
官方還提供了BF16、FP8和FP4 TensorRT的權(quán)重變體,用戶可以自行對其速度、效率和質(zhì)量進行調(diào)整,綜合確保FLUX.1 Kontext[dev]充分利用最新的硬件功能。
在實際用戶的反饋中,也發(fā)現(xiàn)FLUX.1 Kontext[dev]的推理速度較前代提升了4至5倍,模型在NVIDIA H100 GPU上運行,通常5秒內(nèi)能夠完成,在Replicate上的運行成本約為0.0067USD,或每1USD運行149次。
但是也有網(wǎng)友提到,在MacBook Pro的芯片上運行時,迭代時間較長,每次迭代都需要1分鐘左右。
試玩鏈接:https://huggingface.co/spaces/black-forest-labs/FLUX.1-Kontext-Dev
論文鏈接:https://arxiv.org/abs/2506.15742
代碼鏈接:https://github.com/black-forest-labs/flux/blob/main/docs/image-editing.md