斯坦福“草泥馬”火了:100美元就能比肩GPT-3.5!手機(jī)都能運行的那種
一夜之間,大模型界又炸出個big news!
斯坦福發(fā)布Alpaca(羊駝,網(wǎng)友口中的“草泥馬”):
只花100美元,人人都可微調(diào)Meta家70億參數(shù)的LLaMA大模型,效果竟可比肩1750億參數(shù)的GPT-3.5(text-davinci-003)。
而且還是單卡就能運行的那種,甚至樹莓派、手機(jī)都能hold住!

還有一個更絕的“騷操作”。
研究所涉及到的數(shù)據(jù)集,是斯坦福團(tuán)隊花了不到500美元用OpenAI的API來生成的。
所以整個過程下來,就等同于GPT-3.5自己教出了個旗鼓相當(dāng)?shù)膶κ諥I。
然后團(tuán)隊還說,用大多數(shù)云計算平臺去微調(diào)訓(xùn)練好的模型,成本也不到100美元:
復(fù)制一個GPT-3.5效果的AI,很便宜,很容易,還很小。
而且團(tuán)隊還把數(shù)據(jù)集(秒省500刀)、代碼統(tǒng)統(tǒng)都給開源了,這下子人人都能去微調(diào)個效果炸裂的對話AI:

項目在GitHub發(fā)布才半天時間,便已經(jīng)狂攬1800+星,火爆程度可見一斑。
Django聯(lián)合開發(fā)者甚至對斯坦福的新研究用“驚天大事”來形容:

不僅如此,斯坦福團(tuán)隊還搞了個demo,在線可玩的那種。
話不多說,我們現(xiàn)在就來看看這個“草泥馬”的效果。
比肩davinci-003的草泥馬Aplaca
在斯坦福官方的演示中,他們先小試牛刀地提了一個問題:
什么是羊駝?它和美洲駝的區(qū)別是什么?

草泥馬Aplaca給出的答案較為干練:
羊駝是一種小型駱駝科動物,原產(chǎn)于秘魯、玻利維亞、厄瓜多爾和智利;它比美洲駝小,羊毛更細(xì),也沒有駝峰。
而后又簡單的介紹了二者群居生活的不同。
同樣的問題若是交給ChatGPT(GPT3.5-turbo),則答案就不會像草泥馬Aplaca那般簡潔:

對此,團(tuán)隊給出的解釋是:
Alpaca的答案通常比ChatGPT短,反映出text-davinci-003的輸出較短。
而后團(tuán)隊演示了讓草泥馬Alpaca寫郵件:
寫一封e-mail祝賀被斯坦福大學(xué)錄取的新生,并提到你很高興能親自見到他們。
草泥馬Alpaca對于這個任務(wù)也是信手拈來,直接給出了一個像模像樣的郵件模板:

難度再次進(jìn)階,團(tuán)隊這次提出了讓草泥馬Alpaca寫論文摘要的需求:
寫一篇經(jīng)過深思熟慮的機(jī)器學(xué)習(xí)論文摘要,證明42是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的最優(yōu)seed。
草泥馬Alpaca給出的答案從內(nèi)容上來看,非常符合大多數(shù)論文的摘要形式:試圖回答什么問題、用了什么方法、結(jié)果如何,以及未來展望。

當(dāng)然,也有迫不及待的網(wǎng)友親自下場試驗,發(fā)現(xiàn)草泥馬Alpaca寫代碼也是不在話下。

不過即便草泥馬Alpaca能夠hold住大部分問題,但這并不意味著它沒有缺陷。
例如團(tuán)隊便演示了一個例子,在回答“坦桑尼亞的首都是哪里”的問題時,草泥馬Alpaca給出的答案是“達(dá)累斯薩拉姆”。
但實際上早在1975年便被“多多馬”取代了。

除此之外,若是親自體驗過草泥馬Alpaca就會發(fā)現(xiàn),它……巨慢:

對此,有網(wǎng)友認(rèn)為可能是使用的人太多的原因。

筆記本、手機(jī)、樹莓派都能跑
Meta開源的LLaMA大模型,剛發(fā)布幾周就被大家安排明白了,單卡就能運行。
所以理論上,基于LLaMA微調(diào)的Alpaca同樣可以輕松在本地部署。
沒有顯卡也沒關(guān)系,蘋果筆記本甚至樹莓派、手機(jī)都可以玩。
在蘋果筆記本部署LLaMA的方法來自GitHub項目llama.cpp,使用純C/C++做推理,還專門對ARM芯片做了優(yōu)化。

作者實測,M1芯片的MacBook Pro上即可運行,另外也支持Windows和Linux系統(tǒng)。

還是這個C++移植版本,有人成功在4GB內(nèi)存的樹莓派4上成功運行了LLaMA的 70億參數(shù)版本。
雖然速度非常慢,大約10秒生成一個token(也就是一分鐘蹦出4.5個單詞)。

更離譜的是僅僅2天之后,有人把LLaMA模型量化壓縮(權(quán)重轉(zhuǎn)換成更低精度的數(shù)據(jù)格式)后成功在Pixel 6安卓手機(jī)上運行(26秒一個token)。
Pixel 6使用谷歌自研處理器Google Tensor,跑分成績在驍龍865+到888之間,也就是說新一點的手機(jī)理論上都能勝任。

微調(diào)數(shù)據(jù)集也開源
斯坦福團(tuán)隊微調(diào)LLaMA的方法,來自華盛頓大學(xué)Yizhong Wang等去年底提出的Self-Instruct。

以175個問題作為種子任務(wù),讓AI自己從中組合出新的問題以及生成配套答案實例,人工過濾掉低質(zhì)量的,再把新任務(wù)添加到任務(wù)池里。
所有這些任務(wù),之后可以采用InstructGPT的方法讓AI學(xué)會如何遵循人類指令。
套娃幾圈下來,相當(dāng)于讓AI自己指導(dǎo)自己。

斯坦福版Alpaca,就是花了不到500美元使用OpenAI API生成了5.2萬個這樣的示例搞出來的。
這些數(shù)據(jù)同樣開源了出來,并且比原論文的數(shù)據(jù)多樣性更高。

同時還給出了生成這些數(shù)據(jù)的代碼,也就是說如果有人還嫌不夠,可以再去自行擴(kuò)充微調(diào)數(shù)據(jù),繼續(xù)提高模型的表現(xiàn)。

微調(diào)代碼也會在HuggingFace官方支持LLaMA后放出。

不過Alpaca最終的模型權(quán)重需要Meta許可才能發(fā)布,并且繼承了LLaMA的非商用開源協(xié)議,禁止任何商業(yè)用途。
并且由于微調(diào)數(shù)據(jù)使用了OpenAI的API,根據(jù)使用條款也禁止用來開發(fā)與OpenAI形成競爭的模型。
One More Thing
還記得AI繪畫的發(fā)展歷程嗎?
2022年上半年還只是話題熱度高,8月份Stable Diffusion的開源讓成本下降到可用,并由此產(chǎn)生爆炸式的工具創(chuàng)新,讓AI繪畫真正進(jìn)入各類工作流程。
語言模型的成本,如今也下降到了個人電子設(shè)備可用的程度。
最后還是由Django框架創(chuàng)始人Simon Willison喊出:
大語言模型的Stable Diffusion時刻到了。
















 
 
 














 
 
 
 