Akamai云上AI推理:賦能開發(fā)者加速邊緣原生應用
人工智能(AI)的熱度持續(xù)攀升,行業(yè)的焦點正從單純的模型訓練轉向如何高效部署模型以實現(xiàn)實際應用——這正是AI推理技術的核心價值所在,即利用訓練完成的AI模型生成預測與洞察。Akamai始終致力于構建未來的藍圖:不僅讓AI推理更易于獲取,還要確保其具備高性能、可擴展性和成本效益,并能夠在全球范圍內(nèi)進行邊緣部署。
延伸閱讀,點擊鏈接了解 Akamai Cloud Computing
隨著Akamai云推理服務(Akamai Cloud Inference)的推出,我們向"打造全球分布最廣的云計算平臺"的愿景又邁出了重要一步,為AI及其他高吞吐量、低延遲的工作負載提供強有力的支持。這項服務匯聚了我們近期的多項關鍵技術突破,賦能開發(fā)者更高效地構建和交付邊緣原生應用與AI解決方案。我們深刻認識到,雖然集中式云架構擅長處理大規(guī)模AI訓練任務,但在需要持續(xù)按需推理和超低延遲響應的全球化場景中,常常難以勝任。
Akamai基于云原生技術的戰(zhàn)略布局,致力于構建更快速、更具成本效益的AI推理云服務。其核心架構建立在Akamai Cloud——全球分布最廣的公有云平臺之上,借助完整的云產(chǎn)品矩陣和覆蓋全球的網(wǎng)絡設施,為AI推理提供了獨特的優(yōu)勢。Akamai云推理服務采用云原生、可擴展的Kubernetes架構,結合Linode Kubernetes Engine(LKE)與Akamai應用平臺,可實現(xiàn)AI應用和推理場景的快速部署。
Akamai解決方案的核心優(yōu)勢
? Akamai的新解決方案為平臺工程師和開發(fā)人員提供了構建和運行AI應用程序及數(shù)據(jù)密集型工作負載的工具,能夠將計算資源更接近終端用戶,從而提供3倍的吞吐量提升,并將延遲減少最多2.5倍。
? 與傳統(tǒng)的傳統(tǒng)超大規(guī)模云架構相比,使用Akamai的解決方案,企業(yè)可以在人工智能推理和代理人工智能工作負載上的成本可節(jié)省高達86%。
? 從輕量級微調所需的最新AMD CPU,到強大的加速計算選項,如NVIDIA GPU
和NETINT視頻處理單元(VPU),我們提供了強大計算能力,能夠滿足用戶在AI推理方面的獨特需求。
? 我們與VAST Data的合作為實時數(shù)據(jù)提供了簡化的訪問,這對加速推理相關任務至關重要。我們的服務還配備了高度可擴展的對象存儲,并與Aiven和Milvus等領先的向量數(shù)據(jù)庫供應商進行集成,支持增強生成(RAG)任務。
? 通過我們的云原生Kubernetes平臺,包括全新的LKE-Enterprise和應用平臺,我們使AI應用容器具有高度的可擴展性和可移植性,消除了供應商鎖定和復雜性,優(yōu)化了速度、成本和安全性。
? 與領先的WebAssembly(WASM)平臺Fermyon的合作,Akamai使開發(fā)人員能夠直接從無服務器應用程序在邊緣執(zhí)行輕量級推理,推動低延遲的應用程序。
我們的全球分布式網(wǎng)絡覆蓋超過4,100個節(jié)點,確保從云端到邊緣終端的計算資源能夠實現(xiàn)低延遲訪問。這種架構組合讓我們能夠在全球任意規(guī)模場景下,都能夠提供業(yè)界領先的低延遲和高吞吐量AI推理服務。
這項創(chuàng)新不止于技術突破,其核心價值是為企業(yè)提供實際可用的AI解決方案。例如,在零售領域,通過實時物體檢測和識別技術提升零售結賬體驗,加速交易速度的同時降低出錯率;在智能汽車領域,基于邊緣推理的的車載語音助手,為導航優(yōu)化和車控功能提供即時且高度相關的反饋。這些只是Akamai Cloud Inference如何驅動真實商業(yè)價值的生動案例。
展望未來,我們的愿景非常明確:構建未來的AI推理方式,以最高的吞吐量和最低的響應時間,幫助企業(yè)快速高效地提供AI推理服務。當行業(yè)越來越意識到集中式架構難以滿足邊緣AI的嚴苛要求時,Akamai處于有利的增長態(tài)勢中,能夠幫助客戶擴展AI項目,將數(shù)據(jù)轉化為更接近數(shù)字觸點的行動。歡迎進入由Akamai Cloud賦能的AI推理未來。
—————————————————————————————————————————————————
如您所在的企業(yè)也在考慮采購云服務或進行云遷移,
點擊鏈接了解Akamai Linode解決方案,現(xiàn)在申請試用可得高達500美元專屬額度















 
 
 






 
 
 
 