偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

“云計算一哥”一口氣發(fā)布六個大模型、3nm芯片!多模態(tài)還要搞Any-to-Any

人工智能 新聞
亞馬遜CEO Andy Jassy親自站臺re:Invent24,發(fā)布自家新款A(yù)I多模態(tài)系列大模型,名曰Amazon Nova。而且是一口氣涵蓋文本對話、圖片生成、視頻生成,甚至直接吐露一個小目標(biāo):將來我們不僅要Speech to Speech,更要Any-to-Any!

就在剛剛,云計算一哥亞馬遜云科技,在大模型這件事兒上搞了波大的——

亞馬遜CEO Andy Jassy親自站臺re:Invent24,發(fā)布自家新款A(yù)I多模態(tài)系列大模型,名曰Amazon Nova。

而且是一口氣涵蓋文本對話、圖片生成、視頻生成,甚至直接吐露一個小目標(biāo):

將來我們不僅要Speech to Speech,更要Any-to-Any!

圖片

整體而言,Amazon Nova系列中的所有模型,均以功能和尺寸來劃分。

先來看下新版尖端基礎(chǔ)大模型的“文本對話篇”,一共包含四個杯型:

  • Amazon Nova Micro:僅限文本對話,主打一個低價格和低延遲;
  • Amazon Nova Lite:低成本的多模態(tài)大模型,處理圖像、視頻和文本輸入的速度極快。
  • Amazon Nova Pro:高性能的多模態(tài)大模型,精度、速度和成本最佳“配方”,可處理廣泛的任務(wù)。
  • Amazon Nova Premier:亞馬遜最強(qiáng)多模態(tài)大模型,可處理復(fù)雜的推理任務(wù),也可用于蒸餾客戶定制化的模型。

在現(xiàn)場,Andy也曬出了Amazon Nova在CRAG、BFCL、VisualWebBench和Mind2Web等Benchmarks上取得的分?jǐn)?shù)。

從成績中不難看出,其在檢索增強(qiáng)生成(RAG)、函數(shù)調(diào)用和智能體應(yīng)用方面具有較好的性能。

圖片

據(jù)悉,前三者已經(jīng)上架亞馬遜云科技的“模型工廠”Amazon Bedrock,而Premier版本則將于2025年第一季度推出。

目前也有一些實測已經(jīng)流出,例如給Amazon Nova Pro一句Prompt:

Write a summary of this doc in 100 words. Then, build a decision tree.
寫一篇100字的摘要。然后,構(gòu)建一個決策樹。

啪的一下,結(jié)果就出來了:

圖片

它給出的答案是:

The video begins with a view of a rocky shore on the ocean, and then transitions to a close-up of a large seashell resting on a sandy beach.
視頻一開始是海洋上的巖石海岸,然后過渡到一個大貝殼躺在沙灘上的特寫。

接下來,就是“非文本生成篇”,一共包括兩款。

Amazon Nova Canvas,主打的是圖像生成,用官方的話來說,是達(dá)到了“State-of-the-art”(最先進(jìn))的水平:

圖片

至于視頻生成模型,名叫Amazon Nova Reel,給定一張圖片和一句話,即可讓它動起來:

圖片

而接下來Andy的一番話,直接讓現(xiàn)場不淡定了。

正如我們剛才提到的,Andy已經(jīng)放出了話,Amazon Nova即將呈現(xiàn)出來的態(tài)勢是萬物皆可生成。

圖片

值得細(xì)細(xì)品味的一點是,亞馬遜云科技在生成式AI時代中,先前發(fā)布自研大模型并不算最吸睛的那一批。

雖然此前也發(fā)布過Amazon Titan大模型,但模態(tài)上也僅限于文本,更多的精力還是聚焦在了像Amazon Bedrock、Amazon Q這樣的平臺和應(yīng)用。

而這次,亞馬遜云科技卻一反常態(tài),以厚積薄發(fā)之勢把主流模態(tài)全面覆蓋,甚至一句“Any-to-Any”彰顯其雄心。

為何會如此?

縱觀整場發(fā)布會,透過亞馬遜云科技CEO Matt Garman的全程介紹,或許可以把答案總結(jié)為——

實力是一直有的,只是現(xiàn)在客戶有需求了。

圖片△Matt Garman首次以CEO身份參加re:Invent

這又該如何理解?我們繼續(xù)往下看。

算力再升級,價格很美麗

先看實力。

作為云計算一哥,算力是亞馬遜云科技的看家本領(lǐng)之一。

與傳統(tǒng)云服務(wù)廠商不同,其自主研發(fā)并優(yōu)化的專用芯片和數(shù)據(jù)中心,包括Graviton和Nitro等專有服務(wù)器主機(jī),為實時計算提供支持。

而這一次,從芯片到服務(wù)器,基礎(chǔ)設(shè)施上一系列的更新動作,可以分為三大板塊來看——

計算(Compute)、存儲(Storage)和數(shù)據(jù)庫(Database)。

圖片

在計算層面上,亞馬遜云科技先是宣布Amazon EC2 Trn2實例正式可用。

EC2 Trn2實例采用了第二代Trainium 芯片(Trainium2),與上一代Trn1實例相比,性能提升顯著。具體來說:

  • 訓(xùn)練速度提高4倍:這一性能提升能有效減少模型訓(xùn)練所需時間,加快企業(yè)應(yīng)用落地;
  • 內(nèi)存帶寬提高4倍:更強(qiáng)的數(shù)據(jù)傳輸能力可以滿足復(fù)雜模型對實時數(shù)據(jù)處理的高要求;
  • 內(nèi)存容量提高3倍:為高參數(shù)量模型的運行提供了足夠的計算資源。

此外,Trn2實例在性價比上比當(dāng)前基于GPU的EC2 P5e和P5en實例高出30-40%。

每個Trn2實例包含16個Trainium2芯片,192 vCPUs,2 TiB的內(nèi)存,以及3.2 Tbps的Elastic Fabric Adapter (EFA) v3 網(wǎng)絡(luò)帶寬,這比上一代降低了高達(dá) 35% 的延遲。

圖片

針對更高性能需求,亞馬遜云科技同時推出了Trn2 UltraServer。

這是一種全新的超大規(guī)模計算產(chǎn)品,每臺UltraServer包含64個Trainium2芯片,并通過高帶寬、低延遲的 NeuronLink互連實現(xiàn)了卓越的性能。

這使得Trn2 UltraServer成為訓(xùn)練超大規(guī)?;A(chǔ)模型(如生成式 AI、LLM 等)的理想選擇。

NeuronLink是亞馬遜云科技專有的網(wǎng)絡(luò)互連技術(shù),它能夠?qū)⒍嗯_Trainium服務(wù)器組合成一個邏輯上的單一服務(wù)器,連接帶寬可達(dá)2TB/s的帶寬,而延遲僅為1微秒。

它的設(shè)計特別適合分布式深度學(xué)習(xí)任務(wù),在網(wǎng)絡(luò)通信上的優(yōu)化有助于顯著縮短訓(xùn)練時間,提升資源利用率。

用官方的話來說就是:

這正是訓(xùn)練萬億級參數(shù)的大型人工智能模型所需要的超級計算平臺,非常強(qiáng)大。

圖片

在現(xiàn)場,蘋果也來為亞馬遜站臺,機(jī)器學(xué)習(xí)和人工智能高級總監(jiān)Benoit Dupin表示:

蘋果將使用亞馬遜云科技的Trainium2芯片。

圖片

除此之外,在芯片層面上,亞馬遜云科技發(fā)布了AWS Trainium3芯片預(yù)覽版,預(yù)計于2025年正式推出。

據(jù)悉,Trainium3將采用3納米工藝制造,提供兩倍于Trainium2的計算能力,并提升40%的能效。

圖片

在計算(Compute)之后,便是存儲(Storage)上的更新。

我們都知道,在數(shù)據(jù)分析和大數(shù)據(jù)領(lǐng)域,處理和查詢大規(guī)模數(shù)據(jù)集的能力至關(guān)重要。

而傳統(tǒng)的數(shù)據(jù)查詢方法在處理海量數(shù)據(jù)時,常常導(dǎo)致性能瓶頸和管理復(fù)雜性,影響了企業(yè)的數(shù)據(jù)驅(qū)動決策能力。

為此,亞馬遜云科技專門推出了Amazon S3 Tables。

圖片

Amazon S3 Tables提供了一種新的存儲方式,專為表格數(shù)據(jù)設(shè)計,支持使用Amazon Athena、Amazon EMR 和 Apache Spark等流行的查詢引擎進(jìn)行輕松查詢。

S3的表存儲桶是它的第三種存儲桶類型,與現(xiàn)有的通用存儲桶和目錄存儲桶并列;可以將表存儲桶視為一個分析倉庫,用于存儲具有不同模式的Iceberg表格。

與自管理的表格存儲相比,S3 Tables可以實現(xiàn)高達(dá)3倍的查詢性能提升和10倍的每秒事務(wù)處理能力,同時提供全托管服務(wù)的操作效率。

除此之外,元數(shù)據(jù)(Metadata)也變得越發(fā)重要,例如電話里面有很多照片,正是因為通過元數(shù)據(jù)儲存數(shù)據(jù),現(xiàn)在可以實現(xiàn)用自然語言很快找到這張照片。

基于這樣的需求,亞馬遜云科技推出了Amazon S3 Metadata的預(yù)覽版。

圖片

Amazon S3 Metadata提供了一種自動化、易于查詢的元數(shù)據(jù)管理方式,這些元數(shù)據(jù)幾乎實時更新,幫助用戶整理、識別和使用S3數(shù)據(jù)進(jìn)行業(yè)務(wù)分析、實時推理應(yīng)用等。

它支持對象元數(shù)據(jù),包括系統(tǒng)定義的詳細(xì)信息(如大小和對象來源)以及自定義元數(shù)據(jù),允許用戶使用標(biāo)簽為對象添加產(chǎn)品SKU、交易ID或內(nèi)容評級等信息。

而這些元數(shù)據(jù)同樣也存儲在S3 Tables之中。

圖片

在計算、存儲之后,便是基礎(chǔ)設(shè)施的第三大板塊——數(shù)據(jù)庫(Database)。

有意思的一點是,Matt在現(xiàn)場分享了一張“OR”還是“AND”的圖,表示企業(yè)在選擇數(shù)據(jù)庫時普遍遇到的艱難抉擇——跨區(qū)域一致、高可用性、低延遲,往往只能3選2。

圖片

而亞馬遜云科技此次給出的答卷是,都可以有。

這就是新型無服務(wù)器分布式數(shù)據(jù)庫Amazon Aurora DSQL,旨在解決傳統(tǒng)數(shù)據(jù)庫在擴(kuò)展性和性能方面的挑戰(zhàn)。

圖片

Aurora DSQL結(jié)合了傳統(tǒng)關(guān)系數(shù)據(jù)庫的強(qiáng)一致性和NoSQL數(shù)據(jù)庫的分布式擴(kuò)展能力,提供了以下幾個關(guān)鍵優(yōu)勢:

  • 跨區(qū)域強(qiáng)一致性和低延遲:采用了全新的架構(gòu),使其能夠在多個地理區(qū)域中同時運行,而保持強(qiáng)一致性。
  • 無限擴(kuò)展:能夠處理數(shù)TB到數(shù)PB級的數(shù)據(jù)集,適用于任何規(guī)模的企業(yè)。
  • 超高可用性:提供99.999%的可用性,這對于許多需要高可用性和無縫運行的企業(yè)級應(yīng)用至關(guān)重要。
  • 性能優(yōu)越:其跨區(qū)域的讀寫操作比Spanner快了四倍。

圖片

以上便是亞馬遜云科技此次在基礎(chǔ)設(shè)施上的發(fā)力了。

新的積木——推理

如果說把基礎(chǔ)設(shè)施的三大板塊視為三塊積木,那么接下來,亞馬遜云科技在模型層和應(yīng)用層方面添加了第四塊積木——推理(Inference)。

推理是生成式AI工作流的核心,它指的是將已經(jīng)訓(xùn)練好的模型應(yīng)用到新數(shù)據(jù)上,進(jìn)行預(yù)測、生成或推斷。

Matt在會上強(qiáng)調(diào):

推理在AI模型的應(yīng)用中變得尤為重要,尤其是在處理像大型語言模型等復(fù)雜模型時,推理要求極高的計算能力和低延遲響應(yīng)。

而Amazon Bedrock作為亞馬遜云科技在模型層的一項AI平臺服務(wù),先是與我們上述的基礎(chǔ)設(shè)施在推理上保持了同步。

換言之,Inferentia和Trainium芯片提供的推理的硬件優(yōu)化,用戶可以通過Amazon Bedrock便捷訪問這些資源。

而至于Amazon Bedrock本身,這次也迎來多項能力的升級。

首先就是模型蒸餾(Model Distillation),能夠自動化創(chuàng)建針對特定用例的蒸餾模型。

圖片

主要是通過從大型基礎(chǔ)模型(教師模型)生成響應(yīng),并使用這些響應(yīng)來微調(diào)較小的基礎(chǔ)模型(學(xué)生模型),從而實現(xiàn)知識轉(zhuǎn)移,提高小模型的精確度,同時降低延遲和成本。

圖片

其次是多智能體協(xié)作(multi-agent collaboration)。

在需要多個智能體處理復(fù)雜任務(wù)的場景中,管理這些智能體變得具有挑戰(zhàn)性,尤其是隨著任務(wù)復(fù)雜性的增加。

使用開源解決方案的開發(fā)者可能會發(fā)現(xiàn)自己需要手動實現(xiàn)智能體編排、會話處理、內(nèi)存管理等復(fù)雜操作。

這也正是亞馬遜云科技在Amazon Bedrock上推出多智能體協(xié)作的出發(fā)點。具體特點如下:

  • 快速設(shè)置:無需復(fù)雜編碼,幾分鐘內(nèi)創(chuàng)建、部署和管理協(xié)同工作的AI智能體。
  • 可組合性:將現(xiàn)有智能體作為子智能體集成到更大的智能體系統(tǒng)中,使它們能夠無縫協(xié)作以應(yīng)對復(fù)雜的工作流程。
  • 高效的智能體間通信:監(jiān)督智能體可以使用一致的接口與子智能體進(jìn)行交互,支持并行通信以更高效地完成任務(wù)。
  • 優(yōu)化的協(xié)作模式:在監(jiān)督模式和監(jiān)督加路由模式之間選擇。在路由模式下,監(jiān)督智能體將直接將簡單請求路由到相關(guān)的子智能體,繞過完整的編排。

圖片

最后,也是更為重要的一點,便是防止大型語言模型幻覺導(dǎo)致的事實錯誤的功能——自動推理檢查(Automated Reasoning checks),這是Amazon Bedrock Guardrails中新增的一項功能。

圖片

這種新的防護(hù)措施,旨在通過數(shù)學(xué)驗證來確保LLMs生成的響應(yīng)的準(zhǔn)確性,并防止幻覺導(dǎo)致的事實錯誤。

自動推理檢查使用基于數(shù)學(xué)和邏輯的算法驗證和推理過程來驗證模型生成的信息,確保輸出與已知事實一致,而不是基于虛構(gòu)或不一致的數(shù)據(jù)。

與機(jī)器學(xué)習(xí)(ML)不同,自動推理提供了關(guān)于系統(tǒng)行為的數(shù)學(xué)保證。

據(jù)悉,亞馬遜云科技已經(jīng)在存儲、網(wǎng)絡(luò)、虛擬化、身份和密碼學(xué)等關(guān)鍵服務(wù)領(lǐng)域使用自動推理,例如,自動推理用于正式驗證密碼實現(xiàn)的正確性,提高性能和開發(fā)速度。

圖片

在性能方面,Bedrock還推出了低延遲優(yōu)化推理,由此,用戶可以在使用最先進(jìn)的大模型基礎(chǔ)上,還享受卓越的推理性能。

值得一提的是,Llama 405B和Llama 70B低延遲優(yōu)化版本,在亞馬遜云科技上展現(xiàn)出超越其他云提供商的出色表現(xiàn)。

圖片

還有應(yīng)用層和其它更新

針對開發(fā)者和企業(yè),亞馬遜云科技在應(yīng)用層上的代表作便是Amazon Q了。

針對越來越多的企業(yè)尋求從本地數(shù)據(jù)中心遷移到云的痛點,亞馬遜云科技在Amazon Q Developer上推出了多項新功能。

其中較為引人注目的就是Transformation for Windows .NET Applications,這項功能使得企業(yè)能夠更快速地將.NET應(yīng)用程序遷移到AWS,同時還能夠顯著降低遷移成本。

圖片

Amazon Q為.NET應(yīng)用程序提供了自動化遷移工具,能夠識別應(yīng)用程序中可能存在的不兼容問題,生成遷移計劃,并且自動調(diào)整源代碼,確保平滑過渡到云端。這種自動化遷移大幅提高了工作效率,減少了人為干預(yù)。

通過將應(yīng)用程序從Windows遷移到Linux,企業(yè)能夠節(jié)省高昂的Windows許可費用,降低TCO(總擁有成本)。

Matt指出,使用Amazon Q的企業(yè)能夠節(jié)省多達(dá)40%的許可成本。

而且遷移速度比傳統(tǒng)手動遷移快了四倍,大大減少了系統(tǒng)遷移的停機(jī)時間和風(fēng)險。

除了Windows應(yīng)用的遷移,亞馬遜云科技還推出了Amazon Q Developer Transformation for VMware Workloads功能,專為運行在VMware上的企業(yè)工作負(fù)載設(shè)計。

通過這一工具,亞馬遜云科技可以幫助企業(yè)將本地的VMware環(huán)境遷移到云平臺。

圖片

應(yīng)用層之外,還有諸如將AI和分析做結(jié)合的產(chǎn)品——Amazon SageMaker。

它作為一個可以幫企業(yè)加速AI應(yīng)用的開發(fā)、訓(xùn)練和部署的數(shù)據(jù)科學(xué)平臺,今天也正式步入了“下一代”。

新一代SageMaker的核心是SageMaker Unified Studio。

這是一個單一的數(shù)據(jù)和AI開發(fā)環(huán)境,它整合了Amazon Athena、Amazon EMR、AWS Glue、Amazon Redshift、Amazon Managed Workflows for Apache Airflow (MWAA)以及現(xiàn)有的SageMaker Studio中的工具和功能。

其次是Amazon SageMaker Lakehouse,可以統(tǒng)一Amazon S3數(shù)據(jù)湖、Amazon Redshift數(shù)據(jù)倉庫和第三方及聯(lián)合數(shù)據(jù)源。

圖片

亞馬遜云科技的“AI步法”

在看完本屆re:Invent所有內(nèi)容和實力之后,亞馬遜云科技在生成式AI時代的發(fā)展路徑其實也就比較清晰了——

從客戶的真實業(yè)務(wù)需求出發(fā)。

上文種種內(nèi)容的更新,都是基于“客戶的服務(wù)出現(xiàn)了什么問題”,包括計算、存儲、數(shù)據(jù)庫上的瓶頸,包括客戶在模型上的選擇,再包括應(yīng)用上的遷移服務(wù)等等。

圖片

洞悉了背后的實用主義邏輯,也就不難理解,亞馬遜云科技為何選擇在這個時間節(jié)點上發(fā)布一系列多模態(tài)大模型,還是因為客戶有需要。

這種需要,具體而言,就是客戶在模型上的選擇,畢竟“沒有一個模型可以一統(tǒng)天下”,每個模型都有自己所擅長的領(lǐng)域。

但亞馬遜云科技所做的,是利用自己在基礎(chǔ)設(shè)施、工具/模型和應(yīng)用三個層面的深耕和實力,給客戶多提供了一個“快、好、省”的選項。

圖片

回顧亞馬遜云科技的起步,似乎這一點從未變過。

正如Matt在大會上回憶的那樣:

亞馬遜云科技在2006年推出時,初創(chuàng)公司是第一批用戶,他們總是非常積極地采用新技術(shù),并且能夠提供有價值的反饋。

圖片

而這種反饋也進(jìn)一步推動了亞馬遜云科技的發(fā)展,也有助于理解如何更好地支持創(chuàng)業(yè)精神。

因此,Matt在大會中還宣布了一個重磅消息:

將在2025年為全球的初創(chuàng)公司提供10億美元的資金支持!

One More Thing

本屆re:Invent共計6萬人參與,來感受一下這個熱情、這個feel~

圖片

參考鏈接:[1]https://www.aboutamazon.com/news/aws/amazon-nova-artificial-intelligence-bedrock-aws。

[2]https://aws.amazon.com/blogs/aws/amazon-ec2-trn2-instances-and-trn2-ultraservers-for-aiml-training-and-inference-is-now-available/。

[3]https://aws.amazon.com/blogs/aws/new-amazon-s3-tables-storage-optimized-for-analytics-workloads/。

責(zé)任編輯:姜華 來源: 量子位
相關(guān)推薦

2021-03-29 12:22:25

微信iOS蘋果

2023-12-21 10:53:15

百度AI云計算

2023-12-18 23:09:25

開源優(yōu)化引擎

2020-03-31 08:12:25

Kafka架構(gòu)數(shù)據(jù)庫

2021-06-08 22:43:07

IPC方式Qt

2022-05-24 11:50:46

延時消息分布式

2024-03-28 12:52:00

AI模型

2021-12-06 08:30:49

SpringSpring Bean面試題

2025-05-14 01:55:00

FCMCPAI

2020-04-14 13:32:56

@Transacti失效場景

2020-10-21 06:39:21

CPU寄存器架構(gòu)

2020-09-24 09:08:04

分布式系統(tǒng)架構(gòu)

2020-10-22 12:30:33

MySQL

2024-04-26 09:40:10

項目精度丟失javascrip

2022-08-14 15:40:55

表情DIY

2021-03-01 18:52:39

工具在線瀏覽器

2021-05-18 09:03:16

Gomapslice

2020-05-19 10:33:31

機(jī)器翻譯GitHubNLP

2020-07-08 07:45:44

OAuth2.0授權(quán)

2024-01-29 00:29:49

通信技術(shù)行業(yè)
點贊
收藏

51CTO技術(shù)棧公眾號