偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Kimi 16B勝GPT-4o!開源視覺推理模型:MoE架構(gòu),推理時僅激活2.8B

人工智能 新聞
開源輕量級視覺語言模型Kimi-VL及其推理版Kimi-VL-Thinking,多模態(tài)和推理雙雙拿捏。

剛剛,Kimi團隊上新了!

開源輕量級視覺語言模型Kimi-VL及其推理版Kimi-VL-Thinking,多模態(tài)和推理雙雙拿捏。

圖片

按照Kimi官方的說法,其關(guān)鍵亮點如下:

  • 都是基于MoE架構(gòu),總參數(shù)為16B,但推理時僅激活2.8B
  • 具備強大的多模態(tài)推理能力(媲美參數(shù)大10倍的模型)和Agent能力
  • 支持128K上下文窗口;
  • 采用相對較為寬松的MIT許可證。

如圖所示,和Qwen2.5-VL、Gemma-3等前沿開源VLM相比,Kimi-VL-Thinking僅使用2.8B激活參數(shù)即可實現(xiàn)強大的多模態(tài)推理。

圖片

同時在一些重要基準測試中,Kimi新模型“以小博大”,超越了GPT-4o等規(guī)模更大的模型。

圖片

目前兩款模型均已上架Hugging Face,分為Instruct基礎(chǔ)版和Thinking推理版。

圖片

網(wǎng)友們紛紛表示,新的標桿再次誕生!

圖片

多模態(tài)和推理雙雙拿捏

話不多說,我們直接看Kimi新模型的具體玩法和效果。

視覺理解與推理

首先,作為一款通用的VLM模型,Kimi-VL具備強大的視覺理解和推理能力。

給它一份手稿,要求它通過逐步推理來確認手稿屬于誰,以及所記錄的內(nèi)容。

可以看到,Kimi-VL通過分析手稿的筆跡、內(nèi)容、語言等特征,推斷出手稿可能屬于愛因斯坦,理由是這些內(nèi)容與引力場方程有關(guān),這與愛因斯坦對廣義相對論的貢獻有關(guān)。

圖片

又或者只提供一張圖片,讓Kimi-VL來判斷城市地標建筑、識別游戲場景等。

比如第2個例子中,它成功識別出圖片中的穹頂建筑為多倫多的羅杰斯中心(Rogers Centre),同時描述了其特征和用途。

圖片

除此之外,Kimi-VL也能被用來解答高難度幾何數(shù)學題。

還是僅需一個上傳圖片的動作,它就能將復雜數(shù)學公式轉(zhuǎn)換為LaTeX代碼,并以正確格式輸出。

圖片

OCR與文本處理

當然,Kimi-VL對多模態(tài)數(shù)據(jù)的正確理解還離不開一項關(guān)鍵能力——OCR字符識別。

在OCRBench基準測試中,其得分為867,屬于SOTA水平。

圖片

除了識別數(shù)學公式,它還能識別金融表格(以Markdown表格格式輸出)和手寫作文。

圖片

甚至還能從長達一小時的視頻課程中捕捉和理解關(guān)鍵細節(jié)。

比如提供視頻中的某句話“授人以魚不如授人以漁”,要求它找到出處并進一步解讀。

圖片

智能體任務(wù)與交互

值得關(guān)注的是,Kimi-VL還在多輪Agent交互任務(wù)(例如OSWorld)中表現(xiàn)出色,取得了媲美旗艦?zāi)P偷腟OTA結(jié)果。

圖片

比如在Chrome瀏覽器中,要求它自動啟用“Do Not Track”功能來保護用戶隱私。

可以看到,通過一步步思考,Kimi-VL對每個屏幕進行解讀,識別相關(guān)的用戶界面元素,并通過清晰的思路、操作和API調(diào)用按順序執(zhí)行相應(yīng)的操作。

圖片

背后技術(shù)原理

那么接下來的問題是,怎么做到的?

來看Kimi此次公開的技術(shù)報告。

圖片

首先,在模型架構(gòu)上,Kimi-VL和Kimi-VL-Thinking主要由三大部分構(gòu)成:

  • MoE專家混合語言模型(之前發(fā)布的Moonlight-16B-A3B);
  • 原生分辨率視覺編碼器(MoonViT,基于SigLIP-SO-400M微調(diào));
  • 一個多層感知機(MLP)投影器。

圖片

模型具體訓練過程如下:

數(shù)據(jù)準備

這第一步,團隊構(gòu)建了三大類別數(shù)據(jù)集:

1、預(yù)訓練數(shù)據(jù)。精選來自六個類別的高質(zhì)量數(shù)據(jù),包括字幕數(shù)據(jù)、圖像文本交織數(shù)據(jù)、OCR數(shù)據(jù)、知識數(shù)據(jù)、視頻數(shù)據(jù)和智能體數(shù)據(jù)。通過過濾、合成和去重等操作,控制數(shù)據(jù)質(zhì)量。

2、指令數(shù)據(jù)。用于增強模型的對話和指令遵循能力。對于非推理任務(wù),通過人工標注構(gòu)建種子數(shù)據(jù)集,訓練種子模型后生成并篩選多輪響應(yīng);對于推理任務(wù),利用拒絕采樣的方式擴展數(shù)據(jù)集,確保數(shù)據(jù)多樣性和準確性。

3、推理數(shù)據(jù)。通過類似拒絕采樣和提示工程的方法,收集和合成高質(zhì)量的長思維鏈數(shù)據(jù)。

預(yù)訓練:主要提升多模態(tài)能力

然后開始預(yù)訓練,這一階段共消耗4.4T tokens,主要目標是提高模型的多模態(tài)理解能力。

概括而言,這一過程包含4個步驟:先獨立進行ViT訓練,以建立原生分辨率視覺編碼器;隨后進行三個聯(lián)合訓練階段(預(yù)訓練、冷卻、長上下文激活)。

圖片

后訓練:主要提升長思維鏈推理能力

接著進行后訓練,通過在32K和128K上下文中進行的兩個階段的聯(lián)合監(jiān)督微調(diào)、長思維鏈監(jiān)督微調(diào)及強化學習,團隊進一步提升了模型的長期思考能力。

圖片

更多細節(jié)感興趣可以查閱原論文。

One More Thing

有一說一,相比于DeepSeek、Qwen等國內(nèi)競爭對手,Kimi最近一個月實在有點過于安靜了。

從官方公眾號來看,最新一條發(fā)布還是在2月份。

圖片

在這股平靜之下,網(wǎng)友們開始猜測:

Kimi即將有大動作了?

圖片

結(jié)合更多消息,目前大家比較認可的推測是K1.6模型即將到來。

就在3月,基于Kimi-K1.6的數(shù)學模型突然曝光,在編程基準測試LiveCodeBench中拿下第一,超越o3、DeepSeek-R1等模型。

圖片

當然,也歡迎更多知情者在評論區(qū)爆料(doge)。

論文:
https://github.com/MoonshotAI/Kimi-VL/blob/main/Kimi-VL.pdf
模型開源地址:
https://huggingface.co/collections/moonshotai/kimi-vl-a3b-67f67b6ac91d3b03d382dd85

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-12-26 07:10:00

2025-04-14 00:30:00

2025-06-06 14:17:11

模型訓練AI

2025-01-21 10:10:56

2024-09-29 13:07:16

2025-04-23 15:25:27

語言模型Eagle 2.5英偉達

2025-01-02 13:00:00

2024-09-24 11:01:03

2025-03-10 07:00:00

阿里開源QwQ-32B

2025-10-13 08:50:00

2024-08-15 15:45:00

AI訓練

2025-04-16 09:15:00

AI模型數(shù)據(jù)

2025-04-23 08:30:05

2025-01-15 10:28:21

2025-04-16 15:28:31

模型AI數(shù)據(jù)

2025-06-10 09:07:00

2024-03-04 13:36:00

模型訓練

2024-06-11 14:30:18

2025-03-12 10:38:05

2025-05-08 16:45:32

開源Phi-4推理模型
點贊
收藏

51CTO技術(shù)棧公眾號