偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成 原創(chuàng)

發(fā)布于 2024-11-1 16:24
瀏覽
0收藏

DeepSeek開源了一個(gè)僅1.3B大小的多模態(tài)大模型:Janus(兩面神),統(tǒng)一了多模態(tài)理解和生成。通過將視覺編碼解耦成獨(dú)立的pathway,同時(shí)僅使用一個(gè)統(tǒng)一的transformer架構(gòu)進(jìn)行處理。Janus在多模態(tài)理解和生成基準(zhǔn)測試中超越了以往的統(tǒng)一模型,作為一個(gè)多模態(tài)“小”模型具有顯著的優(yōu)勢。

Paper:??? https://arxiv.org/abs/2410.13848????

Github: ???https://github.com/deepseek-ai/Janus???

Model: https://huggingface.co/deepseek-ai/Janus-1.3B


僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成-AI.x社區(qū)

Janus

Janus 是一個(gè)統(tǒng)一的多模態(tài)理解和生成的大型語言模型(MLLM),它將多模態(tài)理解和生成的視覺編碼解耦。Janus 基于 DeepSeek-LLM-1.3b-base 構(gòu)建,該模型訓(xùn)練時(shí)使用了大約5000億個(gè)文本token的語料庫。在多模態(tài)理解方面,它使用 SigLIP-L 作為視覺編碼器,支持384 x 384像素的圖像輸入。在圖像生成方面,Janus 使用了LlamaGen的tokenizer,并且具有16倍的下采樣率。

僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成-AI.x社區(qū)

Janus的訓(xùn)練過程是分階段進(jìn)行的,以確保模型在多模態(tài)理解和生成任務(wù)上都能達(dá)到高性能:

僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成-AI.x社區(qū)

第一階段:訓(xùn)練Adpater和圖像Head

  • 目標(biāo):在這一階段,主要目標(biāo)是在視覺和語言元素之間建立概念聯(lián)系,使大型語言模型(LLM)能夠理解圖像中顯示的實(shí)體,并具備初步的視覺生成能力。
  • 訓(xùn)練策略:在這一階段,視覺編碼器和LLM被保持凍結(jié)狀態(tài),只有理解適配器、生成適配器和圖像頭部中的可訓(xùn)練參數(shù)會被更新。

第二階段:統(tǒng)一預(yù)訓(xùn)練

  • 目標(biāo):在這一階段,通過多模態(tài)語料庫進(jìn)行統(tǒng)一預(yù)訓(xùn)練,使Janus能夠?qū)W習(xí)多模態(tài)理解和生成。
  • 數(shù)據(jù):使用所有類型的訓(xùn)練數(shù)據(jù),包括純文本數(shù)據(jù)、多模態(tài)理解數(shù)據(jù)和視覺生成數(shù)據(jù)。
  • 訓(xùn)練策略:受到Pixart的啟發(fā),首先使用ImageNet-1k進(jìn)行簡單的視覺生成訓(xùn)練,幫助模型掌握基本的像素依賴關(guān)系。然后,使用通用的文本到圖像數(shù)據(jù)增強(qiáng)模型的開放領(lǐng)域視覺生成能力。

第三階段:監(jiān)督微調(diào)(SFT)

  • 目標(biāo):在這一階段,使用指令調(diào)整數(shù)據(jù)對預(yù)訓(xùn)練模型進(jìn)行微調(diào),以增強(qiáng)其遵循指令和對話的能力。
  • 訓(xùn)練策略:除了生成編碼器之外,所有參數(shù)都會進(jìn)行微調(diào)。
  • 數(shù)據(jù):為了確保Janus在多模態(tài)理解和生成方面的熟練程度,微調(diào)時(shí)不會對特定任務(wù)進(jìn)行單獨(dú)模型微調(diào)。相反,使用混合的純文本對話數(shù)據(jù)、多模態(tài)理解數(shù)據(jù)和視覺生成數(shù)據(jù),以確保在多種場景下的多功能性。

僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成-AI.x社區(qū)

訓(xùn)練細(xì)節(jié):

  • 損失函數(shù):Janus作為一個(gè)自回歸模型,在訓(xùn)練期間簡單地采用交叉熵?fù)p失函數(shù)。
  • 推理方法:在推理過程中,模型完全采用next token prediction進(jìn)行推理。對于純文本理解和多模態(tài)理解,按照預(yù)測分布順序采樣token。對于圖像生成,使用CFG(classifier-free guidance, 在訓(xùn)練過程中,以10%的概率將文本到圖像數(shù)據(jù)中的文本條件替換為pad token,使模型具有無條件的視覺生成能力)

作為一個(gè)next token prediction的圖像生成模型,生成效果相當(dāng)不錯(cuò):

僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成-AI.x社區(qū)

僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成-AI.x社區(qū)

同時(shí)作為一個(gè)多模態(tài)理解模型,僅1.3B且只有384的輸入分辨率,效果也超出預(yù)期。比如帶有文字的meme圖的理解,甚至也還行:

僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成-AI.x社區(qū)

可以看出,多模態(tài)大模型生成和理解,越卷越統(tǒng)一;模型尺寸也有著越卷越小的趨勢。



本文轉(zhuǎn)載自公眾號思源數(shù)據(jù)科學(xué) 作者:思源Source

原文鏈接:??https://mp.weixin.qq.com/s/MQfmCE--zG6AJ1pFHqZK4A???

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請注明出處,否則將追究法律責(zé)任
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦