偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

圖靈獎得主LeCun加盟AI芯片黑馬Groq,估值28億挑戰(zhàn)英偉達!

人工智能 新聞
Groq又雙叒給英偉達上壓力了!不僅之前展現(xiàn)了每秒1256個token的破紀錄輸出速度,最新獲得的一輪6.4億美元融資更提供了在AI芯片領域挑戰(zhàn)英偉達的底氣。

英偉達又雙叒迎來強勁挑戰(zhàn)者了。

成立于2016年的初創(chuàng)公司Groq在最新一輪融資中籌集了 6.4 億美元,由 BlackRock Inc. 基金領投,并得到了思科和三星投資部門的支持。

目前,Groq的估值已經達到28億美元。

公司創(chuàng)始人Jonathan Ross曾在谷歌從事TPU芯片的開發(fā),而Groq目前的頂梁柱LPU也是專門用于加速AI基礎模型,尤其是LLM。

圖片

Ross表示,一旦人們看到在Groq的快速引擎上使用大語言模型有多么方便,LLM的使用量將會進一步增加。

以更低的價格和能耗,達到與英偉達芯片相同的速度,甚至更快,讓Groq有底氣叫板英偉達。

值得一提的是,Groq還宣布,圖靈獎得主LeCun即將擔任技術顧問。

LeCun的正式加入,成為Groq在競爭激烈的芯片領域一個強大的盟友。

圖片

每秒1256.54個token,快如閃電

天下武功,唯快不破。

而能打敗每秒響應800個token的Groq只有下一代的Groq。

從500 token到800 token再到1256.54 token/s,Groq如此之快的速度可謂是讓一眾GPU望塵莫及。

圖片

隨著7月初新功能的低調發(fā)布,Groq現(xiàn)在的結果要比之前演示的要快得多,也智能得多,不僅支持文本查詢,還能輸入語音命令進行查詢。

圖片

默認情況下,Groq 的網站引擎使用Meta的開源Llama3-8b-8192大語言模型。

用戶還可以選擇更大的Llama3-70b,以及來自Google的Gemma和Mistral模型,并且很快也將支持其他模型。

圖片

這種快速且靈活的體驗對于開發(fā)者來說非常重要。在傳統(tǒng)AGI處理數(shù)據時,等待是稀松平常的事情,要看著字符一個一個吐出來再進行下一步的操作。

而在最新版本的Groq中,以上任務幾乎全部瞬間回答,快如閃電。

舉個栗子。比如,在Groq上讓它評論VB Transform活動議程有哪些地方可以加以改進。

圖片

1225.15token/s的速度——幾乎就在一瞬間回答就彈了出來。

而且內容也十分詳細清楚,包括建議更清晰的分類、更詳細的會議描述和更好的演講者簡介等等,共十點修改意見。

圖片

當語音輸入要求推薦一些優(yōu)秀的演講者以使陣容更加多樣化時,它立即生成了一份名單,姓名、所屬組織和可供選擇的演講主題給你安排的明明白白的,并且以清晰表格格式呈現(xiàn)。

圖片

要求它追加一列聯(lián)系方式,也瞬間補充好郵箱地址和推特賬號,不在話下。

再舉個栗子。視頻中巴拉巴拉說了一分多鐘,要求Groq為下周的演講課程創(chuàng)建一個日程表格。

Groq不僅耐心地聽懂了,創(chuàng)建了要求的表格,還允許快速輕松地進行修改,包括拼寫更正。

圖片

還可以改變主意,要求它為我忘記要求的內容創(chuàng)建額外的欄目,耐心高效細致,甲方眼里的完美乙方不過如此。

還可以翻譯成不同的語言。有時會出現(xiàn)發(fā)出了幾次請求才做出更正的情況,但這種錯誤一般是在LLM層面,而不是處理層面。

可以說,從500 token/s到800 token/s再到如今直接拉到每秒四位數(shù)的生成速度,把GPT-4和英偉達秒的更徹底了。

當然,除了「快」之外,此次更新的另一亮點是除了引擎內直接輸入查詢,還允許用戶通過語音命令進行查詢。

Groq使用了OpenAI的最新開源的自動語音識別和翻譯模型Whisper Large v3,將語音轉換為文本,然后作為LLM的提示。

提速增效再加多模態(tài)輸入,不卡頓還能不打字,這種創(chuàng)新的使用方式為用戶提供了極大的便利。

Groq + Llama 3強強聯(lián)合

7月17日,Groq的研究科學家Rick Lamers又在推特上官宣了一個「秘密項目」——微調出的Llama3 Groq Synth Tool Use模型8B和70B型號 ,旨在提升AI的工具使用和函數(shù)調用能力。

團隊結合了全量微調和直接偏好優(yōu)化(DPO),并且完全使用符合道德規(guī)范的生成數(shù)據,沒有涉及任何用戶數(shù)據。

圖片

伯克利函數(shù)調用排行榜(Berkeley Function-Calling Leaderboard, BFCL)中的數(shù)據全部來源于真實世界,專門用于評估LLM調用工具或函數(shù)的的能力。

Groq本次發(fā)布的微調Llama3 8B和70B的版本都在BFCL上取得了相當驚艷的成績,總體準確率分別為90.76%和89.06%。

其中,70B版本的分數(shù)超過了Claude Sonnet 3.5、GPT-4 Turbo、GPT-4o和Gemini 1.5 Pro等專有模型,達到了BFCL榜單第一的位置。

圖片

兩個版本的模型都已開源,用戶可從HuggingFace上下載權重或通過GroqCloud訪問。

圖片

HugggingFace地址:https://huggingface.co/Groq

此外,Groq還在Llama 3的基礎上進一步發(fā)揮自己「唯快不破」的秘籍,推出了一款名為Groqbook的應用程序,可以在1分鐘內內生成出一整本書。

圖片

GitHub地址:https://github.com/Bklieger/groqbook

根據GitHub主頁的介紹,Groqbook混合使用了Llama3-8B和70B兩個模型,用較大模型生成結構,再讓較小模型創(chuàng)作具體內容。

目前,這個程序只適用于非虛構類書籍,并需要用戶輸入每一章節(jié)的標題作為上下文。

圖片

Groq表示,未來將讓Groqbook生成整本書內容,并擴展到虛構類書籍,創(chuàng)作出高質量的小說。

開發(fā)者4個月突破28萬

解決了用戶使用的核心痛點,Groq自然備受使用者歡迎。

上線4個月后,Groq已經開始免費提供服務來處理LLM工作負載,吸引了超過28.2萬名開發(fā)者使用。

Groq提供了一個平臺供開發(fā)者構建他們的應用程序,類似于其他推理服務提供商。

然而,Groq的特別之處在于,它允許在OpenAI上構建應用程序的開發(fā)者通過簡單的步驟在幾秒鐘內將他們的應用程序遷移到Groq。

Ross表示他將很快專注于需求量極大的企業(yè)市場。大公司正在廣泛推進AI應用的部署,因此需要更高效的處理能力來應對他們的工作負載。

Groq表示,其技術在最壞情況下使用的功率約為GPU的三分之一,而大多數(shù)工作負載僅使用十分之一的功率。

在LLM工作負載不斷擴展、能源需求持續(xù)增長的背景下,Groq的高效性能對GPU主導的計算領域構成了挑戰(zhàn)。

Nvidia雖然擅長AI訓練但在推理方面存在局限,Groq的芯片在推理速度和成本上都有數(shù)倍優(yōu)勢,未來推理市場的份額將從現(xiàn)在的5%提升到90%-95%。

Ross自信聲稱,到明年底將部署150萬個LPU,占據全球推理需求半壁江山。

LPU:快,真的快

目前來說,模型訓練雖然首選GPU,但是部署AI應用程序時,更高的效率和更低的延遲也極為重要。

正如Groq第一次闖入大眾視野是因為一個字,「快」,Groq此次提速繼續(xù)在速度的賽道狂飆。

Groq承諾可以比競爭對手更快更經濟地完成任務,在一定程度上得益于其語言處理單元(LPU)。

相比GPU,LPU減少了管理多個線程的開銷,并避免了核心利用率不足。此外,Groq 的芯片設計還允許連接多個專用核心,而不會出現(xiàn) GPU 集群中出現(xiàn)的傳統(tǒng)瓶頸。

LPU的工作原理和 GPU存在顯著差異,具體來說,LPU采用的是時序指令集計算機(Temporal Instruction Set Computer)架構,這一架構的特性就是無需像依賴高帶寬存儲器(HBM)的GPU那樣,頻繁地從內存中加載數(shù)據。

圖片

LPU不依賴外部內存,其權重、鍵值緩存(KV Cache)和激活函數(shù)等數(shù)據在處理期間全部存儲在芯片內,不僅能夠巧妙規(guī)避HBM短缺所帶來的困擾,還能切實有效地削減成本。

與Nvidia GPU對高速數(shù)據傳輸?shù)囊蕾囉兴煌?,Groq的LPU在其系統(tǒng)架構中并未采用HBM,而是選用了SRAM。

由于每塊芯片只配備了230MB的SRAM,沒有任何復雜的模型能夠僅通過單個芯片運行。值得一提的是,SRAM的速度相較GPU所使用的存儲器約快20倍。

圖片

鑒于AI的推理計算所需的數(shù)據量相較于模型訓練大幅減少,Groq的LPU展現(xiàn)出更為出色的節(jié)能優(yōu)勢。

在執(zhí)行推理任務時,其從外部內存讀取的數(shù)據量顯著降低,所消耗的電量也明顯低于GPU。

遺憾的是,英偉達的GPU可以同時用于訓練和推理,但LPU僅為模型推理設計。

責任編輯:張燕妮 來源: 新智元
相關推薦

2021-09-02 16:10:21

人工智能機器學習技術

2024-03-06 13:21:20

英偉達處理器AI

2023-12-27 13:46:00

2023-05-08 15:22:00

AI研究

2023-04-25 13:46:42

AI開源

2023-10-30 17:14:59

AI模型

2020-07-31 09:42:18

AI 數(shù)據人工智能

2020-08-17 10:08:47

芯片半導體技術

2023-12-08 08:16:24

2023-07-05 12:28:36

芯片

2025-07-30 09:05:00

2024-05-24 13:19:26

2021-07-21 16:56:33

人工智能機器學習技術

2024-09-12 11:10:49

2025-04-15 03:43:00

2025-09-18 12:55:18

2024-11-28 13:20:18

2024-05-06 08:00:00

AILLM

2024-10-14 13:45:00

AI模型

2021-09-23 09:35:00

編程技能開發(fā)
點贊
收藏

51CTO技術棧公眾號