OpenAI停服,國(guó)產(chǎn)大模型免費(fèi)用!開(kāi)發(fā)者Token自由實(shí)現(xiàn)了
今天凌晨,OpenAI 突然宣布終止對(duì)中國(guó)提供 API 服務(wù),進(jìn)一步收緊國(guó)內(nèi)開(kāi)發(fā)者訪問(wèn) GPT 等高水平大模型。國(guó)內(nèi)開(kāi)發(fā)者真是太難了。
好在,隨著開(kāi)源大模型水平越來(lái)越高,開(kāi)發(fā)者已經(jīng)有很多不錯(cuò)的 “平替”,比如 Qwen2、DeepSeek V2 等模型。為了給開(kāi)發(fā)者提供更快、更便宜、更全面、體驗(yàn)更絲滑的開(kāi)源大模型 API,AI Infra 領(lǐng)域的專業(yè)選手硅基流動(dòng)(SiliconFlow)上場(chǎng),推出了一站式大模型 API 平臺(tái) SiliconCloud。
剛剛,硅基流動(dòng)為國(guó)內(nèi)開(kāi)發(fā)者獻(xiàn)上一份前所未有的大禮:Qwen2 (7B)、GLM4 (9B)、Yi1.5(9B)等頂尖開(kāi)源大模型永久免費(fèi)。
從此,開(kāi)發(fā)者 “Token 自由” 不再是夢(mèng),可以甩開(kāi)膀子開(kāi)發(fā)超級(jí)應(yīng)用了。
“Token 自由” 傳送門,一鍵直達(dá):
cloud.siliconflow.cn/s/free
正如在工業(yè)化時(shí)代,機(jī)械化工廠推動(dòng)了大規(guī)模生產(chǎn)商品的效率。在大模型時(shí)代,生成式 AI 應(yīng)用的繁榮亟需高性價(jià)比的 Token 生產(chǎn)工廠。
通過(guò)云服務(wù)接入大模型 API 已成為開(kāi)發(fā)者的最優(yōu)選擇。不過(guò),很多平臺(tái)只提供自家大模型 API,不包含其他頂尖大模型,同時(shí),在模型響應(yīng)速度、用戶體驗(yàn)以及成本方面,遠(yuǎn)不能滿足開(kāi)發(fā)者的需求。
現(xiàn)在,硅基流動(dòng)的超級(jí) Token 工廠 SiliconCloud,讓開(kāi)發(fā)者不用再花費(fèi)精力部署大模型,大規(guī)模降低 AI-Native 應(yīng)用開(kāi)發(fā)門檻與成本。
大模型 Token 工廠
即時(shí)上新、極速輸出、價(jià)格親民
既然叫 Token 工廠,那用戶喜歡的模型就都能直接在 SiliconCloud 上找到。
最近,大模型社區(qū)相當(dāng)熱鬧,開(kāi)源模型不斷刷新著 SOTA,輪流霸榜。
硅基流動(dòng)第一時(shí)間將這些大模型快速上架到 SiliconCloud,包括最強(qiáng)開(kāi)源代碼生成模型 DeepSeek-Coder-V2,超越 Llama3 的大語(yǔ)言模型 Qwen2、GLM-4-9B-Chat、DeepSeek V2 系列模型。還支持 Stable Diffusion 3 Medium、InstantID 等文生圖模型。
值得一提的是,對(duì) DeepSeek V2 等部署難度極高的模型,SiliconCloud 是除官方之外唯一支持這些開(kāi)源大模型的云服務(wù)平臺(tái)。
考慮到在不同應(yīng)用場(chǎng)景下需要選擇適合的大模型,開(kāi)發(fā)者可在 SiliconCloud 自由切換。
這樣的開(kāi)源大模型聚合平臺(tái),已經(jīng)為開(kāi)發(fā)者提供了不少便利,但還遠(yuǎn)遠(yuǎn)不夠,作為世界頂級(jí)的 AI Infra 團(tuán)隊(duì),硅基流動(dòng)致力于將大模型部署成本降低 10000 倍。
要實(shí)現(xiàn)這一目標(biāo),核心挑戰(zhàn)是如何大幅提升大模型推理速度。對(duì)此,SiliconCloud 做到了什么程度?
直觀上圖,感受一下 Qwen2-72B-Instruct 在 SiliconCloud 上的響應(yīng)速度。
剛開(kāi)源不久的 SD3 Medium 的生圖時(shí)間在 1s 左右。
這些開(kāi)源大模型的響應(yīng)速度變快,相同的算力的產(chǎn)出更高,價(jià)格自然就打下來(lái)了。
SiliconCloud 上的大模型 API 價(jià)格也(很卷)更為親民。即使是 Qwen2-72B,官網(wǎng)顯示只要 4.13 元 / 1M Token。新用戶還可免費(fèi)暢享 2000 萬(wàn) Token。
開(kāi)發(fā)者評(píng)價(jià):“速度快得再也回不去了”
SiliconCloud 一經(jīng)發(fā)布,不少開(kāi)發(fā)者就在各大社交平臺(tái)分享了使用體驗(yàn)。部分 “自來(lái)水” 用戶是這樣評(píng)價(jià)的:
知乎上,機(jī)器學(xué)習(xí)系統(tǒng)專家 @方佳瑞稱贊了 SiliconCloud 的輸出速度,“用久了就受不了其他大模型廠商 web 端的響應(yīng)速度”。
微博用戶 @祝威廉二世稱,其他幾家平臺(tái)都不敢放 Qwen2 大規(guī)模參數(shù)的模型,SiliconCloud 都放了,速度很快,還很便宜,一定會(huì)付費(fèi)。
他還提到,大模型的最終產(chǎn)物是 Token,未來(lái)會(huì)由硅基流動(dòng)這樣的 Token 工廠,或 OpenAI、阿里云這樣的大模型企業(yè)或云廠商完成 Token 的生產(chǎn)。
還有 X 用戶強(qiáng)烈推薦 SiliconCloud,體驗(yàn)太過(guò)絲滑,尤其還有體貼周到的一流售后服務(wù)團(tuán)隊(duì)。
微信公眾號(hào)博主評(píng)價(jià):SiliconCloud 是國(guó)內(nèi)同類產(chǎn)品中體驗(yàn)最好的一家。
這些評(píng)價(jià)有一個(gè)明顯的共性,他們不約而同地提到了 SiliconCloud 平臺(tái)的速度。為什么它的響應(yīng)這么快?
答案很簡(jiǎn)單:硅基流動(dòng)團(tuán)隊(duì)做了大量性能優(yōu)化工作。
早在 2016 年,硅基流動(dòng)的前身 OneFlow 團(tuán)隊(duì)就投身大模型基礎(chǔ)設(shè)施,是世界上做通用深度學(xué)習(xí)框架的唯一創(chuàng)業(yè)團(tuán)隊(duì)。再次創(chuàng)業(yè),他們基于豐富的 AI 基礎(chǔ)設(shè)施及加速優(yōu)化經(jīng)驗(yàn),率先研發(fā)了高性能大模型推理引擎,在某些場(chǎng)景中,讓大模型吞吐實(shí)現(xiàn)最高 10 倍加速,該引擎也集成到了 SiliconCloud 平臺(tái)。
換句話說(shuō),讓開(kāi)發(fā)者用上輸出速度更快、價(jià)格實(shí)在的大模型服務(wù),是硅基流動(dòng)團(tuán)隊(duì)的拿手絕活。
Token 自由后,現(xiàn)象級(jí)應(yīng)用還遠(yuǎn)嗎?
此前,阻礙國(guó)內(nèi)開(kāi)發(fā)者開(kāi)發(fā) AI 應(yīng)用的一大因素是不方便訪問(wèn)高水平大模型,即便做出了優(yōu)質(zhì)應(yīng)用也不敢大規(guī)模推廣,因?yàn)闊X太快,他們無(wú)力承受。
隨著國(guó)產(chǎn)開(kāi)源大模型不斷迭代,以 Qwen2、DeepSeek V2 為代表的模型已足夠支持超級(jí)應(yīng)用,更重要的是,Token 工廠 SiliconCloud 的出現(xiàn)能解決超級(jí)個(gè)體的后顧之憂,他們不用再擔(dān)心應(yīng)用研發(fā)與大規(guī)模推廣帶來(lái)的算力成本,只需專注實(shí)現(xiàn)產(chǎn)品想法,做出用戶需要的生成式 AI 應(yīng)用。
可以說(shuō),現(xiàn)在是超級(jí)個(gè)體開(kāi)發(fā)者與產(chǎn)品經(jīng)理的最佳 “掘金” 時(shí)刻,而 SiliconCloud 這個(gè)好用的掘金工具已經(jīng)為你準(zhǔn)備好了。
再提醒一下:Qwen2 (7B)、GLM4 (9B) 等頂尖開(kāi)源大模型永久免費(fèi)。