偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

發(fā)布幾小時(shí),微軟秒刪媲美GPT-4開源大模型!竟因忘記投毒測試

人工智能 新聞
前段時(shí)間,微軟公布并開源了最新一代大模型WizardLM-2,號(hào)稱性能堪比GPT-4。不過,還未上線一天,模型權(quán)重和公告全被刪除了,原因竟是......

上周,微軟空降了一個(gè)堪稱GPT-4級(jí)別的開源模型WizardLM-2。

卻沒想到發(fā)布幾小時(shí)之后,立馬被刪除了。

有網(wǎng)友突然發(fā)現(xiàn),WizardLM的模型權(quán)重、公告帖子全部被刪除,并且不再微軟集合中,除了提到站點(diǎn)之外,卻找不到任何證據(jù)證明這個(gè)微軟的官方項(xiàng)目。

圖片

GitHub項(xiàng)目主頁已成404。

圖片

項(xiàng)目地址:https://wizardlm.github.io/

包括模型在HF上的權(quán)重,也全部消失了.....

圖片

全網(wǎng)滿臉疑惑,WizardLM怎么沒了?

圖片

然鵝,微軟之所以這么做,是因?yàn)閳F(tuán)隊(duì)內(nèi)部忘記對(duì)模型做「測試」。

隨后,微軟團(tuán)隊(duì)現(xiàn)身道歉并解釋道,自幾個(gè)月前WizardLM發(fā)布以來有一段時(shí)間,所以我們對(duì)現(xiàn)在新的發(fā)布流程不太熟悉。

我們不小心遺漏了模型發(fā)布流程中所需的一項(xiàng)內(nèi)容 :投毒測試

圖片

微軟WizardLM升級(jí)二代

去年6月,基于LlaMA微調(diào)而來的初代WizardLM一經(jīng)發(fā)布,吸引了開源社區(qū)一大波關(guān)注。

圖片

論文地址:https://arxiv.org/pdf/2304.12244.pdf

隨后,代碼版的WizardCoder誕生——一個(gè)基于Code Llama,利用Evol-Instruct微調(diào)的模型。

測試結(jié)果顯示,WizardCoder在HumanEval上的pass@1達(dá)到了驚人的 73.2%,超越了原始GPT-4。

時(shí)間推進(jìn)到4月15日,微軟開發(fā)者官宣了新一代WizardLM,這一次是從Mixtral 8x22B微調(diào)而來。

它包含了三個(gè)參數(shù)版本,分別是8x22B、70B和7B。

最值得一提的是,在MT-Bench基準(zhǔn)測試中,新模型取得了領(lǐng)先的優(yōu)勢。

具體來說,最大參數(shù)版本的WizardLM 8x22B模型性能,幾乎接近GPT-4和Claude 3。

在相同參數(shù)規(guī)模下,70B版本位列第一。

而7B版本是最快的,甚至可以達(dá)到與,參數(shù)規(guī)模10倍大的領(lǐng)先模型相當(dāng)?shù)男阅堋?/span>

WizardLM 2出色表現(xiàn)的背后的秘訣在于,微軟開發(fā)的革命性訓(xùn)練方法論Evol-Instruct。

Evol-Instruct利用大型語言模型,迭代地將初始指令集改寫成越來越復(fù)雜的變體。然后,利用這些演化指令數(shù)據(jù)對(duì)基礎(chǔ)模型進(jìn)行微調(diào),從而顯著提高其處理復(fù)雜任務(wù)的能力。

另一個(gè)是強(qiáng)化學(xué)習(xí)框架RLEIF,也在WizardLM 2開發(fā)過程中起到了重要作用。

在WizardLM 2訓(xùn)練中,還采用了AI Align AI(AAA)方法,可以讓多個(gè)領(lǐng)先的大模型相互指導(dǎo)和改進(jìn)。

AAA框架由兩個(gè)主要的組件組成,分別是「共同教學(xué)」和「自學(xué)」。

共同教學(xué)這一階段,WizardLM和各種獲得許可的開源和專有先進(jìn)模型進(jìn)行模擬聊天、質(zhì)量評(píng)判、改進(jìn)建議和縮小技能差距。

通過相互交流和提供反饋,模型可向同行學(xué)習(xí)并完善自身能力。

對(duì)于自學(xué),WizardLM可通過主動(dòng)自學(xué),為監(jiān)督學(xué)習(xí)生成新的進(jìn)化訓(xùn)練數(shù)據(jù),為強(qiáng)化學(xué)習(xí)生成偏好數(shù)據(jù)。

這種自學(xué)機(jī)制允許模型通過學(xué)習(xí)自身生成的數(shù)據(jù)和反饋信息來不斷提高性能。

另外,WizardLM 2模型的訓(xùn)練使用了生成的合成數(shù)據(jù)。

在研究人員看來,大模型的訓(xùn)練數(shù)據(jù)日益枯竭,相信AI精心創(chuàng)建的數(shù)據(jù)和AI逐步監(jiān)督的模型將是通往更強(qiáng)大人工智能的唯一途徑。

因此,他們創(chuàng)建了一個(gè)完全由AI驅(qū)動(dòng)的合成訓(xùn)練系統(tǒng)來改進(jìn)WizardLM-2。

手快的網(wǎng)友,已經(jīng)下載了權(quán)重

然而,在資料庫被刪除之前,許多人已經(jīng)下載了模型權(quán)重。

在該模型被刪除之前,幾個(gè)用戶還在一些額外的基準(zhǔn)上進(jìn)行了測試。

好在測試的網(wǎng)友對(duì)7B模型感到印象深刻,并稱這將是自己執(zhí)行本地助理任務(wù)的首選模型。

圖片

還有人對(duì)其進(jìn)行了投毒測試,發(fā)現(xiàn)WizardLM-8x22B的得分為98.33,而基礎(chǔ)Mixtral-8x22B的得分為89.46,Mixtral 8x7B-Indict的得分為92.93。

得分越高越好,也就是說WizardLM-8x22B還是很強(qiáng)的。

如果沒有投毒測試,將模型發(fā)出來是萬萬不可的。

大模型容易產(chǎn)生幻覺,人盡皆知。

如果WizardLM 2在回答中輸出「有毒、有偏見、不正確」的內(nèi)容,對(duì)大模型來說并不友好。

尤其是,這些錯(cuò)誤引來全網(wǎng)關(guān)注,對(duì)與微軟自身來說也會(huì)陷入非議之中,甚至?xí)划?dāng)局調(diào)查。

有網(wǎng)友疑惑道,你可以通過「投毒測試」更新指標(biāo)。為什么要?jiǎng)h除整個(gè)版本庫和權(quán)重?

微軟作者表示,根據(jù)內(nèi)部最新的規(guī)定,只能這樣操作。

還有人表示,我們就想要未經(jīng)「腦葉切除」的模型。

圖片

不過,開發(fā)者們還需要耐心等待,微軟團(tuán)隊(duì)承諾,會(huì)在測試完成后重新上線。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-12-26 08:17:23

微軟GPT-4

2023-07-05 09:57:11

2024-02-01 14:56:13

GPT-4開源模型

2024-04-19 14:52:13

MetaGPT-4模型

2023-11-10 09:48:34

2023-06-08 08:09:43

2023-08-15 10:33:06

微軟必應(yīng)人工智能

2024-01-30 21:18:57

模型智能CMMLU

2023-09-11 15:57:16

人工智能模型GPT-4

2023-08-11 13:15:35

ChatGPTMBTIGPT-4

2023-07-12 16:10:48

人工智能

2023-03-10 13:30:01

微軟人工智能

2023-06-19 08:19:50

2023-12-09 13:32:21

GPT-4MoE架構(gòu)開源大模型

2024-02-27 11:46:40

2024-01-19 12:51:00

AI數(shù)據(jù)

2024-04-19 09:17:33

AI模型

2024-08-19 13:35:09

2023-03-28 08:23:38

2023-06-05 12:32:48

模型論文
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)