偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

超越GPT-4o!阿里發(fā)布最強開源多模態(tài)模型Qwen2-VL,支持實時視頻對話

人工智能 新聞
在多模態(tài)能力的加持下,Qwen2-VL可以實時讀取攝像頭或電腦屏幕,進行文字形式的視頻對話。

新的最強開源多模態(tài)大模型來了!

阿里Qwen2大模型家族新添多模態(tài)模型Qwen2-VL,在圖像和長視頻理解任務上雙雙取得了SOTA。

在具體的子類任務中,Qwen2-VL在大部分的指標上都達到了最優(yōu),甚至超過 GPT-4o等閉源模型。

圖片

在多模態(tài)能力的加持下,Qwen2-VL可以實時讀取攝像頭或電腦屏幕,進行文字形式的視頻對話。

甚至還能作為Agent與環(huán)境進行交互,根據(jù)任務目標自主操控手機等設備。

此次發(fā)布的Qwen2共有2B、7B、72B三個版本,其中2B和7B版本已可下載并免費商用(Apache 2.0),72B則通過API提供。

目前開源代碼已集成到Hugging Face Transformers、vLLM等第三方框架中。

還有不少網(wǎng)友都在狂cue一些知名大模型推理平臺,如Groq、Ollama,希望能夠早日提供支持。

圖片

下面就來一睹Qwen2-VL的表現(xiàn)!

會操作機械臂的多模態(tài)大模型

利用強大的多模態(tài)能力,Qwen2-VL能夠操縱機械臂,進行物體的拿取、放置等操作。

還可以化身撲克牌玩家,根據(jù)識別到的場上信息和提示詞描述進行“24點”游戲的決策,并且取得了勝利。

圖片

還有開頭所展示的,Qwen2-VL可以根據(jù)識別到的屏幕內(nèi)容,結(jié)合用戶需求自行操作手機在網(wǎng)絡上進行信息檢索。

當然在這些體現(xiàn)工具調(diào)用和Agent交互能力的復雜任務背后,基礎能力也是不能落下。

比如圖像識別,在物體類的識別當中,Qwen2-VL可以準確地認出花的品種。

圖片

另一類識別場景是文字,Qwen2-VL支持多種語言的文本提取。

甚至把16種語言混合到一張圖中,Qwen2-VL不僅能判斷各自的語種,也能一口氣提取出全部文本。

圖片

手寫字體和復雜的數(shù)學公式也能識別,并且上下標這種微小細節(jié)處理得非常到位。

圖片

Qwen2-VL還支持多模態(tài)推理,代碼和數(shù)學(包括幾何)類問題,只需要傳張圖片就能解決。

圖片

視頻方面,Qwen2-VL最長可以對20分鐘以上的視頻進行內(nèi)容分析,既支持總結(jié)也能對細節(jié)進行提問。

不過目前還只能分析畫面,暫不支持對聲音的處理。

圖片

同時也支持實時視頻文字對話,除了開頭展示的基于攝像頭的對話外,也可以讀取電腦屏幕,作為對話的內(nèi)容。

總之,在這些任務的背后,蘊含著Qwen2-VL不凡的綜合實力。

多模態(tài)實力超GPT-4o

為了了解Qwen2-VL在各種任務上的綜合表現(xiàn),千問團隊一共從從六個方面對其視覺能力進行了評估。

具體包括了綜合類大學試題、數(shù)學試題、文檔表格理解、通用場景下的問答、視頻理解以及Agent能力這六種類型。

整體來看,Qwen2-72B的大部分的指標上都達到了最優(yōu),甚至超過了GPT-4o和Claude3.5-Sonnet,特別是在文檔理解方面優(yōu)勢明顯。

圖片

另外在多語言測試中,MTVQA也在9種語言中的8種全面超越了GPT-4o、Claude3-Opus和Gemini Ultra這些先進閉源模型,平均成績也是最高分。

圖片

7B版本同樣支持圖像、多圖、視頻的輸入,同時也達到了同等規(guī)模模型的SOTA水準。

圖片

最小的2B版本則主要為移動端設計,但麻雀雖小,卻具備完整圖像視頻多語言的理解能力,特別在視頻文檔和通用場景問答相較同規(guī)模模型優(yōu)勢明顯。

圖片

整體上,Qwen2-VL延續(xù)了其上一代Qwen-VL中ViT加Qwen(2)的串聯(lián)結(jié)構(gòu),在三個不同規(guī)模的模型上,Qwen2-VL都采用了600M規(guī)模大小的ViT,并且支持圖像和視頻統(tǒng)一輸入。

為了讓模型更清楚地感知視覺信息和理解視頻,Qwen2-VL新增了對原生動態(tài)分辨率的全面支持。

與上一代模型相比,Qwen2-VL能夠處理任意分辨率的圖像輸入,不同大小圖片被轉(zhuǎn)換為動態(tài)數(shù)量的tokens,最少只需要4個。

這種設計不僅確保了模型輸入與圖像原始信息之間的一致性,也模擬了人類視覺感知的自然方式,讓模型在圖像處理任務上更加靈活高效。

圖片

Qwen2-VL在架構(gòu)上的另一項創(chuàng)新,是多模態(tài)旋轉(zhuǎn)位置嵌入(M-ROPE)。

傳統(tǒng)的旋轉(zhuǎn)位置嵌入只能捕捉一維序列的位置信息,而M-ROPE通過將原始旋轉(zhuǎn)嵌入分解為代表時間、高度和寬度的三個部分。

這使得大規(guī)模語言模型能夠同時捕捉和整合一維文本序列、二維視覺圖像以及三維視頻的位置信息。

這一創(chuàng)新有助于提升模型的多模態(tài)處理和推理能力,能夠更好地理解和建模復雜的多模態(tài)數(shù)據(jù)。

圖片

DEMO:https://huggingface.co/spaces/Qwen/Qwen2-VL

項目主頁:https://qwenlm.github.io/blog/qwen2-vl/
GitHub:https://github.com/QwenLM/Qwen2-VL

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-11-12 14:00:00

AI編程

2024-08-30 15:19:22

2025-06-06 14:17:11

模型訓練AI

2024-10-06 09:00:00

AI訓練數(shù)據(jù)

2024-09-06 13:00:29

2025-01-09 09:56:34

視覺模型圖像生成

2024-12-25 09:30:00

2025-06-27 16:06:55

AI網(wǎng)絡模型

2024-06-11 07:03:00

大模型開源Qwen2

2025-05-27 15:59:41

AI工具模型

2024-02-01 13:03:00

AI模型

2024-12-26 07:10:00

2024-08-09 12:50:02

2024-07-24 09:20:45

2025-03-19 09:30:00

2024-07-08 08:25:00

2024-06-28 18:13:05

2024-05-14 11:29:15

2023-03-10 13:03:09

人工智能模型

2024-05-14 07:30:56

OpenAIGPT-4oGPT-4
點贊
收藏

51CTO技術(shù)棧公眾號