偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

零一萬物Yi-34B-Chat微調(diào)模型上線,登陸多個(gè)權(quán)威榜單

人工智能 新聞
繼 11 月初零一萬物發(fā)布 Yi-34B 基座模型后,Yi-34B-Chat 微調(diào)模型在 11 月 24 日開源上線 ,短時(shí)間登陸了全球多個(gè)英文、中文大模型權(quán)威榜單,再度獲得了全球開發(fā)者的關(guān)注。

最近,業(yè)內(nèi)眾多大模型基準(zhǔn)又迎來了一輪 “實(shí)力值” 更新。

繼 11 月初零一萬物發(fā)布 Yi-34B 基座模型后,Yi-34B-Chat 微調(diào)模型在 11 月 24 日開源上線 ,短時(shí)間登陸了全球多個(gè)英文、中文大模型權(quán)威榜單,再度獲得了全球開發(fā)者的關(guān)注。

其中,在斯坦福大學(xué)提出的大語言模型評測基準(zhǔn) AlpacaEval 上,Yi-34B-Chat 以 94.08% 的勝率,超越 LLaMA2 Chat 70B、Claude 2、ChatGPT,在 Alpaca 經(jīng)認(rèn)證的模型類別中,成為業(yè)內(nèi)僅次于 GPT-4 英語能力的大語言模型,并且是經(jīng)由 Alpaca 官方認(rèn)證為數(shù)不多的開源模型。

圖片

AlpacaEval Leaderboard 排行榜(發(fā)布于 2023 年 12 月 7 日)

與此同時(shí),在加州大學(xué)伯克利分校主導(dǎo)的 LMSYS ORG 排行榜中,Yi-34B-Chat 也以 1102 的 Elo 評分晉升最新開源 SOTA 開源模型之列,性能表現(xiàn)追平 GPT-3.5。

在各類大模型評測中,伯克利 LMSYS ORG 較為特殊,其采用了較為接近用戶體感的 “聊天機(jī)器人競技場” 測評模式,讓眾多大語言模型在評測平臺隨機(jī)進(jìn)行一對一 battle,通過眾籌真實(shí)用戶來進(jìn)行線上實(shí)時(shí)盲測和匿名投票,11 月份經(jīng) 2.5 萬真實(shí)用戶投票總數(shù)計(jì)算了 20 個(gè)大模型的總得分。Elo 評分越高,說明模型在真實(shí)用戶體驗(yàn)上的表現(xiàn)越出色,可說是眾多大模型評測集中最能展現(xiàn) “Moment of Truth 真實(shí)關(guān)鍵一刻” 的用戶導(dǎo)向體驗(yàn)對決。

在開源模型中,Yi-34B-Chat 英語能力達(dá)到了較高水準(zhǔn),LMSYS ORG 在 12 月 8 日官宣 11 月份總排行時(shí)評價(jià):“Yi-34B-Chat 和 Tulu-2-DPO-70B 在開源界的進(jìn)擊表現(xiàn)已經(jīng)追平 GPT-3.5?!?/span>

LMSYS ORG 榜單(發(fā)布于 2023 年 12 月 8 日) 

中文能力方面,Yi-34B-Chat 微調(diào)模型同樣有了進(jìn)步。

SuperCLUE 是一項(xiàng)針對中文能力的排行榜,從基礎(chǔ)能力、專業(yè)能力和中文特性能力三個(gè)不同的維度,評估模型的能力。根據(jù) 11 月底發(fā)布的《SuperCLUE 中文大模型基準(zhǔn)評測報(bào)告 2023》,11 月下旬首度發(fā)布的 Yi-34B Chat,晉升到了和諸多國產(chǎn)優(yōu)秀大模型齊平的 “卓越領(lǐng)導(dǎo)者” 象限,在多項(xiàng)基準(zhǔn)評測中的 “SuperCLUE 大模型對戰(zhàn)勝率” 這項(xiàng)關(guān)鍵指標(biāo)上,Yi-34B-Chat 取得 31.82% 的勝率,僅次于 GPT4-Turbo。

中文 SuperCLUE 排行榜(發(fā)布于 2023 年 11 月 28 日)

面向開發(fā)者,Yi-34B-Chat 微調(diào)模型提供了 4bit/8bit 量化版模型,其中 Yi-34B-Chat 4bit 量化版模型可以直接在 RTX 3090 等消費(fèi)級顯卡上使用。

Yi-34B-Chat 在不同對話場景中表現(xiàn)如何?來看幾個(gè)更直觀的問題演示:

【知識與生成】:Transformer 模型結(jié)構(gòu)能不能走向 AGI ?

圖片

【創(chuàng)意文案】:給我生成一個(gè)小紅書文案,給大家安利一只豆沙色的口紅。

圖片

【中文理解】:小王給領(lǐng)導(dǎo)送了一份禮物后。領(lǐng)導(dǎo)說:“小王,你這是什么意思?” 小王:“一點(diǎn)心意,意思意思?!?領(lǐng)導(dǎo):“你這就不夠意思了?!?小王:“小意思,小意思?!?領(lǐng)導(dǎo):“小王,你這人真有意思?!?小王:“也沒什么別的意思?!?領(lǐng)導(dǎo):“那我多不好意思。” 小王:“是我不好意思?!?這個(gè)意思到底是什么意思?

圖片

據(jù)零一萬物介紹,目前 Yi-34B-Chat 模型實(shí)現(xiàn)的能力,除了要?dú)w功于 Yi 系列強(qiáng)基座的貢獻(xiàn)以外,還得益于其人工智能對齊(AI Alignment)等技術(shù)。研究團(tuán)隊(duì)采用了一系列創(chuàng)新對齊策略,通過精心設(shè)計(jì)的指令微調(diào)流程,不僅強(qiáng)化了模型在理解和適應(yīng)人類需求方面的能力,還使得模型與人類價(jià)值觀對齊,包括幫助性(Helpful),可靠性(Honest),無害性(Harmless)等。

在強(qiáng)基座設(shè)定下,該團(tuán)隊(duì)采用了一種輕量化指令微調(diào)方案,該方案涵蓋了單項(xiàng)能力提升和多項(xiàng)能力融合兩個(gè)階段。

其中,單項(xiàng)能力包括通用指令跟隨、創(chuàng)意內(nèi)容生成、數(shù)學(xué)、推理、編程、泛 COT、對話交互等。通過大量的消融實(shí)驗(yàn),針對模型單能力構(gòu)建和多能力融合總結(jié)了獨(dú)家認(rèn)知經(jīng)驗(yàn)。

在數(shù)據(jù)的量和質(zhì)方面,一方面,研究團(tuán)隊(duì)在強(qiáng)基座模型上,實(shí)現(xiàn)僅需要少量數(shù)據(jù)(幾條到幾百條),就能激發(fā)模型特定單項(xiàng)能力;另一方面,數(shù)據(jù)質(zhì)量比數(shù)量重要,少量高質(zhì)量數(shù)據(jù)比大量低質(zhì)量數(shù)據(jù)更好。通過關(guān)注超出模型能力的 “低質(zhì)量” 數(shù)據(jù),減少了模型 “幻覺”。

在指令多樣性與難度方面,研究團(tuán)隊(duì)通過在各能力項(xiàng)下構(gòu)建任務(wù)體系,實(shí)現(xiàn)了訓(xùn)練數(shù)據(jù)中的指令均衡分布,大幅提升了模型泛化性。通過復(fù)合指令構(gòu)造和指令難度進(jìn)化,不僅提升了模型效果,也顯著降低了對數(shù)據(jù)量的需求。

在風(fēng)格一致性方面,研究團(tuán)隊(duì)發(fā)現(xiàn)訓(xùn)練數(shù)據(jù)的風(fēng)格會影響模型收斂速度和能力上限的逼近程度,因此統(tǒng)一了回復(fù)風(fēng)格,比如重點(diǎn)設(shè)計(jì)了 CoT 的回復(fù)風(fēng)格,實(shí)現(xiàn)在輕量 SFT 情況下,避免了風(fēng)格不一致加劇模型的 “記憶” 現(xiàn)象。

在多能力融合階段,研究團(tuán)隊(duì)采用網(wǎng)格搜索的方法來決定數(shù)據(jù)配比和超參數(shù)的設(shè)置,通過基準(zhǔn)測試和自建評測集的結(jié)果來指導(dǎo)搜索過程,成功實(shí)現(xiàn)模型的多能力融合。

為促進(jìn)大語言模型的生態(tài)發(fā)展,零一萬物宣布,邀請全球開發(fā)者共同測試使用 Yi-34B-Chat 模型能力,一起搭建 Yi 開源模型的應(yīng)用生態(tài)體系。

Yi 模型開源滿月,創(chuàng)新生態(tài)逐漸豐富

Yi 模型開源首月,在 Hugging Face 社區(qū)下載量已達(dá) 16.8 萬,魔搭社區(qū)下載量 1.2 萬,此外在 GitHub 獲得了超過 4900 個(gè) Stars。

多家知名公司和機(jī)構(gòu)推出了基于 Yi 模型基座的微調(diào)模型,如獵豹旗下的獵戶星空公司推出的 OrionStar-Yi-34B-Chat 模型,南方科技大學(xué)和粵港澳大灣區(qū)數(shù)字經(jīng)濟(jì)研究院(簡稱 IDEA 研究院)認(rèn)知計(jì)算與自然語言研究中心(簡稱 CCNL 中心)聯(lián)合發(fā)布的 SUS-Chat-34B 等。而 AMD 和 Hugging Face 合作的 GPU 加速大模型的實(shí)驗(yàn)中,也選擇了 Yi-6B 作為范例項(xiàng)目。

知名技術(shù)寫作者蘇洋表示,在他觀察的近期 Hugging Face 榜單中,前三十名有一半多都是 Yi 和其他用戶微調(diào)的 Yi-34B 的變體模型,原本占據(jù)榜單頭部的 68B 和 70B 模型的數(shù)量目前只留有幾個(gè),“從這點(diǎn)看 Yi 對于開源生態(tài)的幫助還是非常巨大的。”

Eric Hartford:成為 Yi-34B 的忠實(shí)擁躉

Eric Hartford,Hugging Face 社區(qū)開發(fā)者

Yi-34B 開源發(fā)布后,開發(fā)者 Eric Hartford 發(fā)現(xiàn)了模型存在的一個(gè)小問題。

他在郵件中寫道,“感謝你們提供了一個(gè)優(yōu)秀的模型。Yi 模型使用了與 LLaMA 模型完全相同的架構(gòu),只是將兩個(gè)張量改了名字。由于圍繞 LLaMA 架構(gòu)有很多投資和工具,保持張量名稱的一致性是有價(jià)值的?!盓ric 建議,在 Yi 被廣泛傳播前,及時(shí)恢復(fù)張量名稱。

零一萬物意識到命名問題的疏忽對開發(fā)者造成的不便,跟 Eric 和其他開發(fā)者提出說明,表達(dá)誠摯的歉意,并很快便在各開源平臺重新提交模型及代碼,完成了開源社區(qū)的版本更新。

然而 Eric 沒有料想到,他的建議在國內(nèi)引發(fā)了輿論關(guān)于 Yi 模型 “抄襲” LLaMA 的質(zhì)疑。 

在大模型領(lǐng)域,技術(shù)架構(gòu)、微調(diào)和數(shù)據(jù)同等重要。在沿用了開源社區(qū)普遍使用的 LLaMA 架構(gòu)之上,零一萬物團(tuán)隊(duì)用高質(zhì)量的數(shù)據(jù)集、自研訓(xùn)練科學(xué)和 AI Infra 打造了 Yi-34B 在內(nèi)的系列模型。零一萬物表示,為了執(zhí)行對比實(shí)驗(yàn)的需要,對部分推理參數(shù)進(jìn)行了重新命名。原始出發(fā)點(diǎn)是為了充分測試模型,而非刻意隱瞞來源。 

面對新出現(xiàn)的輿論,Eric 自發(fā)為 Yi 進(jìn)行了辯護(hù)。

圖片

他在 X(twitter)上寫道,“他們沒有在任何事情上撒謊。所有的模型都是在相互借鑒架構(gòu)。架構(gòu)是學(xué)術(shù)研究的產(chǎn)物,已經(jīng)發(fā)表在論文中,任何人都可以自由使用,這絲毫不減損 Yi 團(tuán)隊(duì)的成就。他們從零開始使用自己創(chuàng)建的數(shù)據(jù)集訓(xùn)練 Yi,對開源領(lǐng)域的貢獻(xiàn)是值得贊揚(yáng)的。”

他又表示,“使用 Llama 架構(gòu)沒有任何問題。訓(xùn)練才是關(guān)鍵。Yi 給了我們目前可獲得的最佳模型,沒有任何可抱怨的?!?/span>

蘇洋:Yi-34B 在很多細(xì)分場景可替換 GPT-3.5

蘇洋,數(shù)字化創(chuàng)業(yè)者,開發(fā)者,技術(shù)寫作者

圖片

蘇洋表示,他已嘗試使用個(gè)人的機(jī)器學(xué)習(xí)主機(jī),在純 CPU 環(huán)境、CPU & GPU 混合環(huán)境下對 Yi-34B 模型進(jìn)行了測試,結(jié)果比想象中要好。

其中社區(qū) finetune 后的版本,在對新聞、研究報(bào)告的摘要總結(jié)方面,對非結(jié)構(gòu)化的信息中的實(shí)體識別和抽取上表現(xiàn)非常不錯(cuò)。另外早期在官方還未推出 Chat 版本時(shí),來自社區(qū)的 Chat 版本在對話的過程中,通史類的問答表現(xiàn)也非常不錯(cuò)。當(dāng)然,可能是由于零一在訓(xùn)練過程中,出于安全考慮,過濾太多語料的緣故,一些本土化的內(nèi)容仍然不夠深入。

目前,在 Hugging Face 的榜單上,前三十名有一半多都是 Yi 和其他用戶微調(diào)的 Yi-34B 的變體模型,原本占據(jù)榜單頭部的 68B 和 70B 模型的數(shù)量目前只留有幾個(gè),從這點(diǎn)看 Yi 對于開源生態(tài)的幫助還是非常巨大的。

與 68 和 70B 模型相比,34B 普通用戶努努力還是能自己相對低成本跑起來的,同時(shí)成績相較差異不多。換言之,企業(yè)想部署使用,所需要的成本也可以得到非常大的節(jié)約。

目前國產(chǎn)大模型在開源榜單上已經(jīng)是第一梯隊(duì),但如果把競爭范圍追加到閉源模型、尤其是海外的模型,仍有很大的距離要去追趕。目前的普遍體驗(yàn)是開源模型最多只有 GPT-3.5 + 的水平。

蘇洋認(rèn)為,相信國產(chǎn)大模型是能夠很快追趕至第一梯隊(duì)的。

只要底子好,堅(jiān)持使用開源的正確路線和方法,做好本地化適配和調(diào)優(yōu),就有希望。

Yi 模型地址:

  • https://huggingface.co/01-ai/
  • https://www.modelscope.cn/organization/01ai
責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2024-05-30 12:15:35

2023-11-14 17:51:28

AI模型

2024-03-14 11:31:52

零一萬物AI框架

2024-03-07 12:30:56

數(shù)據(jù)模型

2024-01-22 13:59:00

模型訓(xùn)練

2013-04-17 10:54:39

Chat HeadsFacebook HoFacebook

2024-10-16 15:07:57

2023-08-08 07:36:40

微軟Bing Chat

2023-09-02 12:49:01

2023-06-13 09:36:34

AI代碼

2024-03-25 08:00:00

2024-07-15 08:58:00

2023-12-11 12:46:42

GPT-4LLaMA2模型

2025-01-09 13:47:30

2020-12-11 12:55:26

九州云潛力企業(yè)

2024-03-05 09:00:00

大型語言模型Mistral-7b人工智能

2024-07-02 09:20:59

2011-07-20 09:27:37

Scala
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號