偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

圖像界的DeepSeek!12B參數(shù)對標GPT-4o,5秒出圖,消費級硬件就能玩轉(zhuǎn)編輯生成

人工智能 新聞
只有小小的12B,更少的參數(shù),更快的推理,性能更是媲美GPT-image-1等一眾閉源模型。

圖像模型開源還得是FLUX!

Black Forest Labs剛剛宣布開源旗艦圖像模型FLUX.1 Kontext[dev],專為圖像編輯打造,還能直接在消費級芯片上運行。

只有小小的12B,更少的參數(shù),更快的推理,性能更是媲美GPT-image-1等一眾閉源模型。

圖片

現(xiàn)在FLUX.1 Kontext[dev]可以讓小狗迅速離開畫面,為小老鼠戴上胡須,添加文字、修改背景也不在話下。

圖片

或者多次輸入指令,直到讓小哥成為酒吧里最靚的崽(bushi),直到讓畫面符合咱們需求。

圖片

具體來說,F(xiàn)LUX.1 Kontext[dev]的主要特點有:

  1. 可以根據(jù)編輯指令直接更改現(xiàn)有圖像,以及進行精確的本地和全局編輯。
  2. 不用做任何微調(diào),就能直接引用里面的人物角色、風格樣式和物品元素。
  3. 允許用戶通過多次連續(xù)編輯優(yōu)化圖像,同時將視覺漂移降到最低。
  4. 專門為NVIDIA Blackwell進行了權(quán)重優(yōu)化。

網(wǎng)友們也立馬上手試玩,制作了一個旅行的CPU青蛙?

圖片

旅行必備的墨鏡,還有抗寒的帥氣紅色毛衣也要準備妥當。(蛙蛙:出片,我勢在必行)

圖片

或者copy一下自己喜歡的動漫角色。

圖片

輕輕松松店鋪打烊,結(jié)束打工人完美的一天~(doge)

圖片

還有網(wǎng)友腦洞大開,試著和LoRA結(jié)合,造出了一個Kontext風格化肖像制作APP。

圖片

現(xiàn)在FLUX.1 Kontext[dev]還完全支持ComfyUI。

溫馨提示,官方直接開放了試玩API,只需點擊文末鏈接、上傳圖片就可以立即爽玩!

網(wǎng)友看罷表示,Black Forest Labs不愧是圖像屆的DeepSeek。

圖片

FLUX.1 Kontext的開放權(quán)重變體

FLUX.1 Kontext模型上個月一經(jīng)發(fā)布,就因為其強大的上下文生成和編輯功能廣受好評。

與現(xiàn)有的文本到圖像模型不同,F(xiàn)LUX.1 Kontext系列執(zhí)行上下文圖像生成,可以直接使用文本和圖像進行提示,并無縫提取和修改視覺細節(jié)。

目前已經(jīng)發(fā)布了適合快速迭代的專業(yè)版FLUX.1 Kontext[pro]和高配版FLUX.1 Kontext[max]

圖片

FLUX.1 Kontext[dev]作為FLUX.1 Kontext最新發(fā)布的開源版本,不僅繼承了其圖像生成的優(yōu)勢,它還更專注于編輯任務,可以直接在消費類硬件上運行。

首先模型架構(gòu)上,依舊基于的是FLUX.1模型,它是一種在圖像自動編碼器的潛在空間中訓練的整流流Transformer模型,由雙流塊單流塊混合構(gòu)建而成。

圖片

在此基礎上,F(xiàn)LUX.1 Kontext[dev]采用標記序列構(gòu)建位置信息編碼進行優(yōu)化:

  • 標記序列構(gòu)建:圖像通過凍結(jié)的FLUX自動編碼器,編碼成潛在的上下文圖像標記,并輸入到模型的視覺流中。
  • 位置信息編碼:通過三維旋轉(zhuǎn)位置嵌入(3D RoPE)對位置信息進行編碼,為上下文標記的嵌入提供恒定偏移量。并將其視作為虛擬時間步,以清晰分離上下文和目標塊,同時保持它們的內(nèi)部空間結(jié)構(gòu)。

圖片

然后使用整流流匹配損失進行訓練,在訓練時從FLUX.1的文本到圖像檢查點開始,收集并整理數(shù)百萬個關(guān)系對進行模型優(yōu)化。

優(yōu)化后得到的流匹配模型進行潛在對抗擴散蒸餾(LADD),在減少采樣步驟的同時提高樣本質(zhì)量,使FLUX.1 Kontext[dev]更高效。

圖片

最終得到的FLUX.1 Kontext[dev]模型包含120億參數(shù),可以更專注于編輯任務,支持迭代編輯,可以在各種場景和環(huán)境中保留角色特征,并允許用戶進行精確的局部或全局編輯。

圖像編輯新標準

實驗引入自研的KontextBench基準進行模型性能驗證,該基準包含1026個圖像-提示對,涵蓋局部編輯、全局編輯、角色參考、風格參考和文本編輯五個任務類別。

結(jié)果顯示FLUX.1 Kontext[dev]在許多類別上都優(yōu)于現(xiàn)有的開放式圖像編輯模型和封閉模型,例如Bytedance Bagel、HiDream-E1-Full以及OpenAI的GPT-image-1等。

圖片

另外,F(xiàn)LUX.1 Kontext[dev]還專門針對新的NVIDIA Blackwell架構(gòu)進行了TensorRT權(quán)重優(yōu)化,可以在保持高質(zhì)量的圖像編輯性能的同時,極大地提高推理速度并減少內(nèi)存使用量。

圖片

官方還提供了BF16、FP8和FP4 TensorRT的權(quán)重變體,用戶可以自行對其速度、效率和質(zhì)量進行調(diào)整,綜合確保FLUX.1 Kontext[dev]充分利用最新的硬件功能。

在實際用戶的反饋中,也發(fā)現(xiàn)FLUX.1 Kontext[dev]的推理速度較前代提升了4至5倍,模型在NVIDIA H100 GPU上運行,通常5秒內(nèi)能夠完成,在Replicate上的運行成本約為0.0067USD,或每1USD運行149次。

但是也有網(wǎng)友提到,在MacBook Pro的芯片上運行時,迭代時間較長,每次迭代都需要1分鐘左右。

圖片

試玩鏈接:https://huggingface.co/spaces/black-forest-labs/FLUX.1-Kontext-Dev

論文鏈接:https://arxiv.org/abs/2506.15742

代碼鏈接:https://github.com/black-forest-labs/flux/blob/main/docs/image-editing.md

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2025-05-26 09:05:00

2025-03-26 09:13:02

2025-03-31 08:50:00

AI生成模型

2025-05-27 15:19:52

GPUMetaGPT-4o

2025-01-16 16:39:44

2025-04-15 08:01:12

2025-04-07 00:00:00

OpenAIGPT-4o圖像

2024-06-05 08:29:35

2024-06-27 12:45:30

2025-05-12 08:50:00

2024-11-06 15:20:00

2025-05-27 15:59:41

AI工具模型

2024-05-17 17:25:44

2024-05-21 12:23:17

2025-04-16 09:15:00

AI模型數(shù)據(jù)

2025-06-11 09:00:00

2025-04-09 09:08:34

2025-02-17 12:24:43

2025-05-07 13:51:49

模型數(shù)據(jù)

2025-01-02 13:00:00

點贊
收藏

51CTO技術(shù)棧公眾號