偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

英偉達(dá)新GPU,超長上下文/視頻生成專用

人工智能 新聞
剛剛,在AI Infra Summit上,英偉達(dá)宣布推出專為處理百萬token級別的代碼生成和生成式視頻應(yīng)用的全新GPU。

老黃對token密集型任務(wù)下手了。

剛剛,在AI Infra Summit上,英偉達(dá)宣布推出專為處理百萬token級別的代碼生成和生成式視頻應(yīng)用的全新GPU——

NVIDIA Rubin CPX GPU。

老黃表示:Rubin CPX是首款為超大上下文AI量身定制的CUDA GPU,可以讓模型“一口氣”推理數(shù)百萬token。

而且,RubinCPX還能讓你越用越省錢:每投資1億美元,就能獲得50億美元的token收益。(50倍,你就賺吧,老黃說的)

對于“老黃畫的餅”,Cursor、RunwayMagic等行業(yè)大佬也表示RubinCPX將分別在代碼生產(chǎn)力、生成式影像創(chuàng)作、以及大模型自主代理上帶來突破。

那么好了好了,這GPU到底什么來頭?

首款專為超大上下文AI打造的CUDA GPU

Rubin CPX基于NVIDIA Rubin架構(gòu),采用單片設(shè)計,內(nèi)置NVFP4計算資源,主打AI推理的高性能和高能效。

它的性能提升,主要體現(xiàn)在以下幾個方面:

  • 在NVFP4精度下可提供高達(dá)30PFLOPS算力,做到性能與精度兼顧。
  • 配備128GB高性價比GDDR7內(nèi)存,應(yīng)對最苛刻的上下文工作負(fù)載。– 與NVIDIA GB300 NVL72系統(tǒng)相比,注意力機制處理速度提升3倍,讓模型在處理更長上下文序列時也不掉速。

在這里,我們可以簡單地拿A100來對比一下。

在算力方面,相較于A100的FP16精度,Rubin CPX專門優(yōu)化過的NVFP4可以實現(xiàn)幾個量級的性能提升。

而在內(nèi)存方面,NVIDIA A100是40GB 或80GB,Rubin CPX則直接干到了128GB,讓超大上下文處理毫無壓力。

(注:在處理超大上下文任務(wù)時,GPU內(nèi)存容量至關(guān)重要:模型需要一次性加載數(shù)百萬token的權(quán)重、激活值和中間計算結(jié)果,如果內(nèi)存不夠,就只能分批處理,既影響速度,也限制模型規(guī)模)

單片就已經(jīng)這么強,組合還可以讓它更厲害!

英偉達(dá)表示,Rubin CPX還可以與NVIDIA Vera CPU和Rubin GPU協(xié)同工作,構(gòu)成全新的NVIDIA Vera Rubin NVL144 CPX平臺。

該平臺在單機架內(nèi)提供8EFLOPS的AI算力+100TB高速內(nèi)存+每秒1.7PB的內(nèi)存帶寬,較NVIDIA GB300 NVL72系統(tǒng)的AI性能提升了7.5倍。

*(注:1EFLOPS = 1000PFLOPS )

還沒完,在此基礎(chǔ)上,NVIDIA Vera Rubin NVL144 CPX還可以接入Quantum?X800 InfiniBand 或Spectrum?X以太網(wǎng)平臺,實現(xiàn)大規(guī)模多機互聯(lián)計算,讓性能再上一個臺階。

預(yù)計明年正式推出

就像前面提到的,NVIDIA Rubin CPX 在長上下文處理上實現(xiàn)了最高性能和最高token收益——遠(yuǎn)超現(xiàn)有系統(tǒng)的設(shè)計極限。

老黃表示,這將像RTX 革新了圖形和物理AI一樣,改變AI時代的上下文推理能力。

在實際應(yīng)用中,它能把AI編程助手從簡單的代碼生成工具,升級為能夠理解并優(yōu)化大規(guī)模軟件項目的復(fù)雜系統(tǒng)。

在視頻處理方面,由于AI模型分析一小時內(nèi)容就可能涉及上百萬token,突破了傳統(tǒng)GPU的算力極限。

為此,Rubin CPX將視頻解碼、編碼和長上下文推理處理集成在單芯片中,為視頻搜索和高質(zhì)量生成式視頻等長時格式應(yīng)用提供前所未有的能力。

此外,Rubin CPX將得到NVIDIA完整AI軟件棧支持,從加速基礎(chǔ)設(shè)施到企業(yè)級軟件一應(yīng)俱全。

最后,NVIDIA Rubin CPX預(yù)計將于2026年底正式推出。

Token密集型任務(wù)就要不密集了(一年后版)

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2025-10-31 01:00:00

2024-04-03 10:05:00

LLM性能基準(zhǔn)測試

2024-09-30 14:10:00

2024-09-05 08:24:09

2025-10-20 09:06:00

2025-04-23 15:25:27

語言模型Eagle 2.5英偉達(dá)

2024-03-11 13:20:00

模型AI

2024-06-03 14:24:00

2025-01-15 12:27:11

2024-05-15 07:54:12

GPT-4oAI助手人工智能

2024-01-03 13:40:00

AI訓(xùn)練

2025-10-14 10:03:11

CompLLMLLMRAG

2024-10-11 16:20:00

谷歌AI模型

2025-10-11 04:22:00

人工海馬體網(wǎng)絡(luò)LV-Eval

2017-05-11 14:00:02

Flask請求上下文應(yīng)用上下文

2024-11-20 09:36:00

2025-07-16 13:00:26

2024-11-25 08:20:00

2025-02-26 00:16:56

RAGAI服務(wù)

2023-03-22 13:53:26

芯片英偉達(dá)
點贊
收藏

51CTO技術(shù)棧公眾號