老黃的“AI 代工廠”開工了!第一批生產(chǎn)“超級模型”!
隨著“大語言模型”技術(shù)不斷深化到應(yīng)用層,在全球多地形成了開發(fā)定制化生成式人工智能的熱潮。
無論是從國家層面:法國將人工智能技術(shù)與國家的工業(yè)和數(shù)字主權(quán)掛鉤;印度下定了“必須要有自己的主權(quán)人工智能”的決心;日本以舉國之力押注主權(quán)AI......
還是從行業(yè)層面:金融行業(yè)利用AI提升交易算法的速度與精度,優(yōu)化風(fēng)險管理;醫(yī)療行業(yè),利用AI精準(zhǔn)診斷和個性化治療,提高患者護理的質(zhì)量;制造業(yè),通過AI賦能的生產(chǎn)流程,降低成本,提升效率;零售業(yè),基于AI進行客戶行為分析,增強個性化推薦和服務(wù),提升顧客滿意度......
越來越多組織甚至國家期待依賴定制化的AI解決方案來提高其核心能力的智能化水平。這種轉(zhuǎn)變不僅加速了AI技術(shù)的實際應(yīng)用,還將推動全球AI技術(shù)的發(fā)展和創(chuàng)新,尤其是在有效整合人工智能以解決特定行業(yè)問題方面。
試想,如果有這樣一個模型,它不僅支持最尖端的工具、資源以及強大基礎(chǔ)設(shè)施,還能讓你根據(jù)自有數(shù)據(jù)自行設(shè)計和定制,那將會是怎樣的情景?
NVIDIA“AI 代工廠” 幫助用戶定制“超級模型”
如今,業(yè)界期待已久的“超級模型”已經(jīng)變?yōu)楝F(xiàn)實。NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM? 推理微服務(wù),與同樣剛推出的 Llama 3.1 系列開源模型一起,為全球企業(yè)的生成式 AI 提供強力支持。
老黃(NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛)強調(diào)說:“NVIDIA AI Foundry 已經(jīng)在整個過程中集成了 Llama 3.1,并能夠幫助企業(yè)構(gòu)建和部署自定義 Llama 超級模型。借助 NVIDIA AI Foundry,可以使用自有數(shù)據(jù)以及由 Llama 3.1 405B 和 NVIDIA Nemotron? Reward 模型生成的合成數(shù)據(jù),來訓(xùn)練這些“超級模型”。
具體而言,基于 NVIDIA DGX? Cloud AI平臺驅(qū)動的NVIDIA AI Foundry,由 NVIDIA與全球領(lǐng)先的公有云提供商共同設(shè)計,專門為滿足企業(yè)不斷變化的AI計算需求而打造。

來源:NVIDIA
NVIDIA AI Foundry提供的計算資源不僅可以根據(jù)需求靈活擴展,為企業(yè)帶來前所未有的便利,還可使用企業(yè)數(shù)據(jù)以及合成生成的數(shù)據(jù)來增強和更改預(yù)訓(xùn)練基礎(chǔ)模型中包含的一般知識。
一旦模型經(jīng)過定制、評估并具有護欄,就會輸出NVIDIA NIM 推理微服務(wù)(推理微服務(wù),包括定制模型、優(yōu)化引擎和標(biāo)準(zhǔn) API,支持不同環(huán)境的部署),開發(fā)人員只需幾行代碼便可使用NIM 的標(biāo)準(zhǔn)API來構(gòu)建由人工智能驅(qū)動的生成應(yīng)用程序,同時還能利用NIM 容器無縫集成 Kubernetes(K8s)生態(tài)系統(tǒng),高效地協(xié)調(diào)和管理容器化人工智能應(yīng)用。而從部署中的應(yīng)用程序中獲得的知識可以反饋到 AI Foundry中,以進一步改進自定義模型。

來源:NVIDIA
而Llama 3.1 多語種大語言模型(LLM)集合則是一個具有 8B、70B 和 405B 三種參數(shù)規(guī)模的生成式 AI 模型集合。該集合中的模型在超過 16,000 個NVIDIA Tensor Core GPU上訓(xùn)練而成,并針對 NVIDIA 加速計算和軟件(無論是在數(shù)據(jù)中心、云以及配備 NVIDIA RTX? GPU 的本地工作站或配備 GeForce RTX GPU 的 PC 上)進行了優(yōu)化。
值得注意的是,NIM 微服務(wù)也是將 Llama 3.1 模型部署到生產(chǎn)中的最快途徑。Meta 創(chuàng)始人兼首席執(zhí)行官馬克·扎克伯格表示:“全新的 Llama 3.1 模型是開源 AI邁出極其重要的一步。借助 NVIDIA AI Foundry,企業(yè)可以輕松創(chuàng)建和定制大家想要的最先進的 AI 服務(wù),并通過 NVIDIA NIM 進行部署?!?/p>
測試數(shù)據(jù)顯示,直接部署Llama 3.1 模型的吞吐量,最多可比不使用 NIM 運行推理時高出 2.5 倍。
為應(yīng)對企業(yè)組織需要更多訓(xùn)練數(shù)據(jù)創(chuàng)建特定領(lǐng)域模型的需求,NVIDIA 和 Meta 支持可以在創(chuàng)建自定義的同時使用 Llama 3.1 405B 和 Nemotron-4 340B 生成合成數(shù)據(jù),以提高模型的準(zhǔn)確性。對于擁有自己的訓(xùn)練數(shù)據(jù)的用戶可以使用 NVIDIA NeMo 對 Llama 3.1 模型進行自定義,通過領(lǐng)域自適應(yīng)預(yù)訓(xùn)練(DAPT)進一步提高模型的準(zhǔn)確性。
面向AI PC及AI基礎(chǔ)設(shè)施輕量化的藍海,NVIDIA 和 Meta為幫助企業(yè)能夠在AI 工作站、筆記本電腦等加速基礎(chǔ)設(shè)施上運行由 Llama 驅(qū)動的 AI 應(yīng)用,更是提供了提煉方法,供開發(fā)者為生成式 AI 應(yīng)用創(chuàng)建更小的自定義 Llama 3.1 模型。
“NVIDIA +Llama” 強化行業(yè)“AI 實力”
現(xiàn)在,醫(yī)療、能源、金融服務(wù)、零售、交通、電信等行業(yè)的企業(yè)已在使用適用于 Llama 的 NVIDIA NIM 微服務(wù)。同時,數(shù)百家提供企業(yè)、數(shù)據(jù)和基礎(chǔ)設(shè)施平臺的 NVIDIA NIM 合作伙伴現(xiàn)在能夠?qū)⑦@些新的微服務(wù)集成到其 AI 解決方案中,從而為 NVIDIA 社區(qū) 500 多萬開發(fā)者和 1.9 萬家初創(chuàng)公司的生成式 AI 提供超強助力。

來源:NVIDIA
全球?qū)I(yè)服務(wù)巨頭埃森哲更是先行一步,率先借助 NVIDIA AI Foundry 引入了一股創(chuàng)新的新風(fēng)潮!不僅為自己定制了 Llama 3.1 模型,還利用自家的 Accenture AI Refinery? 框架,為那些渴望反映其獨特文化、語言和行業(yè)需求的客戶提供了同樣的服務(wù)。
埃森哲的董事長兼CEO Julie Sweet 分享說:“全球領(lǐng)軍企業(yè)看到了生成式 AI 正在如何深入改變各行各業(yè),并且希望部署由自定義模型驅(qū)動的應(yīng)用。埃森哲的內(nèi)部 AI 應(yīng)用一直在使用 NVIDIA NIM 推理微服務(wù)。現(xiàn)在,借助 NVIDIA AI Foundry,我們能夠幫助客戶快速創(chuàng)建和部署自定義 Llama 3.1 模型,為他們的優(yōu)先業(yè)務(wù)事項提供變革性的 AI 應(yīng)用。”
對于行業(yè)企業(yè)而言,NVIDIA AI Foundry 提供的不僅僅是一種服務(wù),而是一條快速打造定制超級模型的捷徑。這個全方位服務(wù)結(jié)合了 NVIDIA 的尖端軟件、健壯的基礎(chǔ)設(shè)施和深厚的專業(yè)知識,并且融合了 NVIDIA AI 生態(tài)系統(tǒng)中的豐富資源與開放社區(qū)的模型和技術(shù)。
通過 NVIDIA AI Foundry,企業(yè)可以輕松使用 Llama 3.1 模型和 NVIDIA NeMo 平臺(包括在 Hugging Face RewardBench 排名首位的 NVIDIA Nemotron-4 340B Reward 模型)來塑造自己的定制解決方案。
定制模型就位后,企業(yè)便能夠構(gòu)建基于 NVIDIA NIM 推理微服務(wù)的應(yīng)用,這些服務(wù)可以在他們選擇的云平臺上運行,支持全球服務(wù)器制造商提供的 NVIDIA 認(rèn)證系統(tǒng)?,并與頂級的機器學(xué)習(xí)運維(MLOps)和人工智能運維(AIOps)平臺無縫對接。
NVIDIA也承諾,NVIDIA AI Enterprise 的專家團隊與全球的系統(tǒng)集成商合作伙伴一起,幫助 AI Foundry 的客戶加速從開發(fā)到部署的整個過程,使得企業(yè)可以更快速地實現(xiàn) AI 驅(qū)動的業(yè)務(wù)變革。
寫在最后
不難看出,NVIDIA AI Foundry 代表企業(yè)AI服務(wù)向“即服務(wù)”模式轉(zhuǎn)變的趨勢。通過此平臺,企業(yè)能快速定制和部署AI解決方案,滿足特定業(yè)務(wù)需求。此外,與全球系統(tǒng)集成商的合作也加速了從開發(fā)到部署的過程,幫助企業(yè)實現(xiàn)AI驅(qū)動的業(yè)務(wù)變革。
同時,對于 Llama 3.1 模型而言,這款開源模型在NVIDIA的支持下,正邁出通向開源通用人工智能的下一步!”目前,Meta已經(jīng)在研發(fā)Llama 4,相信在NVIDIA的支持下,“開源的勝利”未來可期!
現(xiàn)在,Llama 3.1 NIM 和 NeMo Retriever NIM 微服務(wù)的生產(chǎn)支持可以通過 NVIDIA AI Enterprise 獲得。NVIDIA 開發(fā)者計劃也聲稱,將很快為會員提供免費訪問 NIM 微服務(wù),并支持在他們首選的基礎(chǔ)設(shè)施上進行研究、開發(fā)和測試。





















