偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

ChatGPT的五大開(kāi)源替代方案

譯文
人工智能
自去年11月發(fā)布以來(lái),ChatGPT吸引了全球各行業(yè)人士的注意力和想象力。人們將它用于各種任務(wù)和應(yīng)用程序,而且它有可能改變流行的應(yīng)用程序并創(chuàng)建新的應(yīng)用程序。

譯者 | 李睿

審校 | 重樓

自去年11月發(fā)布以來(lái),ChatGPT吸引了全球各行業(yè)人士的注意力和想象力。人們將它用于各種任務(wù)和應(yīng)用程序,而且它有可能改變流行的應(yīng)用程序并創(chuàng)建新的應(yīng)用程序。

但ChatGPT也引發(fā)了微軟和谷歌等科技巨頭之間的人工智能競(jìng)賽,使得該行業(yè)在大型語(yǔ)言模型(LLM)上的競(jìng)爭(zhēng)更加激烈,并越來(lái)越降低了開(kāi)放性。這些遵循指令的LLM的源代碼、模型架構(gòu)、權(quán)重和訓(xùn)練數(shù)據(jù)不對(duì)公眾開(kāi)放。它們中的大多數(shù)都可以通過(guò)商業(yè)API或黑盒網(wǎng)絡(luò)應(yīng)用程序獲得。

ChatGPT、Bard和Claude等封閉式LLM有很多優(yōu)勢(shì),包括容易獲得尖端技術(shù)。但它們也對(duì)想要學(xué)習(xí)和更好地理解LLM的研究實(shí)驗(yàn)室和科學(xué)家?guī)?lái)了一些限制。對(duì)于想要?jiǎng)?chuàng)建和運(yùn)行自己的模型的企業(yè)和組織來(lái)說(shuō),也很不方便。

幸運(yùn)的是,在創(chuàng)建商業(yè)LLM的競(jìng)賽中,也有一個(gè)社區(qū)努力創(chuàng)建與最先進(jìn)的LLM性能相匹配的開(kāi)源模型。這些模型可以通過(guò)分享結(jié)果來(lái)幫助改進(jìn)研究。他們還可以幫助防止一些資金充足的企業(yè)對(duì)LLM市場(chǎng)擁有太多的影響和權(quán)力。

LLaMa

最重要的開(kāi)源語(yǔ)言模型之一來(lái)自Meta公司的人工智能研究實(shí)驗(yàn)室FAIR。今年2月,F(xiàn)AIR發(fā)布了LLaMA,這是一個(gè)LLM家族,有四種不同的大?。?億個(gè)、13億個(gè)、33億個(gè)和650億個(gè)參數(shù)(ChatGPT基于1750億參數(shù)的InstructGPT模型)。

FAIR研究人員對(duì)1.4萬(wàn)億令牌的LLaMA 65B和LLaMA 33B進(jìn)行了訓(xùn)練,對(duì)1萬(wàn)億令牌的最小模型LLaMA 7B進(jìn)行了訓(xùn)練(GPT-3 175B是InstructGPT的基本模型,在4990億個(gè)令牌上進(jìn)行了訓(xùn)練)。

LLaMa不像ChatGPT那樣是一個(gè)遵循指令的LLM。但LLaMA規(guī)模較小背后的想法是,在更多令牌上預(yù)訓(xùn)練的較小模型更容易重新訓(xùn)練,并更容易針對(duì)特定任務(wù)和用例進(jìn)行微調(diào)。這使得其他研究人員可以通過(guò)人類(lèi)反饋強(qiáng)化學(xué)習(xí)(RLHF)等技術(shù)對(duì)模型進(jìn)行微調(diào),使其具有類(lèi)似ChatGPT的性能。

Meta公司以“專(zhuān)注于研究用例的非商業(yè)許可”發(fā)布了該模型。它只讓學(xué)術(shù)研究人員、政府附屬組織、民間社會(huì)和研究實(shí)驗(yàn)室根據(jù)具體情況訪問(wèn)該模型。人們?yōu)榱肆私饪梢圆殚喴恍┱撐模⒄?qǐng)求訪問(wèn)訓(xùn)練過(guò)的模型。

LLaMa模型在發(fā)布后不久就被泄露到網(wǎng)上,這實(shí)際上讓所有人都可以使用它。

Alpaca

斯坦福大學(xué)的研究人員在今年3月發(fā)布了Alpaca,這是一種基于LLaMA 7B LLM之后的指令。他們?cè)谟蒊nstructGPT生成的52,000個(gè)指令遵循示例的數(shù)據(jù)集上對(duì)LLaMA模型進(jìn)行了微調(diào)。

研究人員使用了一種叫做自我指導(dǎo)的技術(shù),在這種技術(shù)中,LLM生成指令、輸入和輸出樣本來(lái)微調(diào)自己。自我指導(dǎo)從一小部分工作人員編寫(xiě)的例子開(kāi)始,包括指導(dǎo)和輸出。研究人員使用這些例子來(lái)提示語(yǔ)言模型生成類(lèi)似的例子。然后他們審查和過(guò)濾生成的示例,將高質(zhì)量的輸出添加到種子池中,并刪除其余的輸出。他們重復(fù)這個(gè)過(guò)程,直到獲得足夠大的數(shù)據(jù)集來(lái)微調(diào)目標(biāo)模型。

Alpaca的訓(xùn)練流程

根據(jù)他們的初步實(shí)驗(yàn),Alpaca的表現(xiàn)與InstructGPT非常相似。

斯坦福大學(xué)的研究人員發(fā)布了整個(gè)自我指導(dǎo)的數(shù)據(jù)集,數(shù)據(jù)生成過(guò)程的細(xì)節(jié),以及生成數(shù)據(jù)和微調(diào)模型的代碼由于Alpaca是基于LLaMA的,必須從Meta公司獲取原始模型

其研究人員表示,其樣品生成的微調(diào)成本不到600美元,這對(duì)于資金緊張的實(shí)驗(yàn)室和組織來(lái)說(shuō)很適用。

然而,研究人員強(qiáng)調(diào),Alpaca僅用于學(xué)術(shù)研究,禁止用于任何商業(yè)用途。它是由LLaMa創(chuàng)建的,這使得它受到與其基本模型相同的許可規(guī)則的約束。由于研究人員使用了InstructGPT來(lái)生成微調(diào)數(shù)據(jù),因此他們必須遵守OpenAI公司的使用條款,該條款禁止開(kāi)發(fā)與OpenAI公司競(jìng)爭(zhēng)的模型。

Vicuna

加州大學(xué)伯克利分校、卡內(nèi)基梅隆大學(xué)、斯坦福大學(xué)和加州大學(xué)圣地亞哥分校的研究人員發(fā)布了Vicuna,這是基于LLaMA的遵循指令的另一個(gè)LLM。Vicuna有70億個(gè)和130億個(gè)參數(shù)的兩種大小。

研究人員使用Vicuna的訓(xùn)練代碼和ShareGPT上的7萬(wàn)個(gè)例子對(duì)Vicuna進(jìn)行了微調(diào)。ShareGPT是一個(gè)用戶可以與ChatGPT分享對(duì)話的網(wǎng)站。他們對(duì)訓(xùn)練過(guò)程做了一些改進(jìn),以支持更長(zhǎng)的對(duì)話場(chǎng)景。他們還使用了SkyPilot機(jī)器學(xué)習(xí)工作量管理器,將訓(xùn)練成本從500美元降至140美元左右。

Vicuna的LLM訓(xùn)練流程

初步評(píng)估表明,Vicuna的表現(xiàn)優(yōu)于LLaMA和Alpaca,也非常接近Bard和ChatGPT-4。研究人員發(fā)布了模型權(quán)重以及安裝、訓(xùn)練和運(yùn)行LLM的完整框架。還有一個(gè)非常有趣的在線演示,用戶可以在其中測(cè)試和比較Vicuna與其他開(kāi)源指令LLM。

Vicuna的在線演示是“僅供非商業(yè)用途的研究預(yù)覽”。用戶要運(yùn)行自己的模型,必須首先從Meta獲取LLaMA實(shí)例并對(duì)其應(yīng)用權(quán)重增量。

Dolly

Databricks公司在今年3月發(fā)布了Dolly,這是EleutherAI的GPT-J 6B的微調(diào)版本。研究人員受到LLaMA和Alpaca研究團(tuán)隊(duì)所做工作的啟發(fā)。訓(xùn)練Dolly的費(fèi)用不到30美元,只需在一臺(tái)計(jì)算機(jī)上花費(fèi)30分鐘訓(xùn)練。

EleutherAI基礎(chǔ)模型的使用消除了Meta對(duì)LLaMA衍生LLM的限制。然而,Databricks根據(jù)Standford Alpaca團(tuán)隊(duì)通過(guò)ChatGPT生成的相同數(shù)據(jù)訓(xùn)練Dolly。因此,由于OpenAI公司對(duì)ChatGPT生成的數(shù)據(jù)施加了競(jìng)業(yè)限制,該模型仍然不能用于商業(yè)目的。

Databricks公司在今年4月發(fā)布了Dolly 2.0,這是一個(gè)基于EleutherAI的Pythia模型的具有120億個(gè)參數(shù)的大型語(yǔ)言模型。這一次,Databricks公司在15000個(gè)示例數(shù)據(jù)集上對(duì)模型進(jìn)行了微調(diào),這些示例完全由人類(lèi)生成。他們通過(guò)一個(gè)有趣的、游戲化的過(guò)程收集了這些例子,其中包括Databricks公司的5000名員工。

Databricks公司發(fā)布了訓(xùn)練有素的Dolly 2.0模型,它沒(méi)有以前模型的條款限制,用戶可以將它用于商業(yè)目的。Databricks公司還發(fā)布了15K指令遵循語(yǔ)料庫(kù),用于微調(diào)Pythia模型。機(jī)器學(xué)習(xí)工程師可以使用這個(gè)語(yǔ)料庫(kù)來(lái)微調(diào)他們自己的LLM。

Open Assistant

Open Assistant是一個(gè)非常有趣的項(xiàng)目,這是一個(gè)類(lèi)似于ChatGPT的語(yǔ)言模型,從一開(kāi)始就以防止大公司壟斷LLM市場(chǎng)為目的。

其研究團(tuán)隊(duì)將開(kāi)放他們所有的模型、數(shù)據(jù)集、開(kāi)發(fā)、數(shù)據(jù)收集等,這是一項(xiàng)全面、透明的社區(qū)努力結(jié)果。所有參與該項(xiàng)目的人員都是志愿者,致力于開(kāi)放性。

觀看其聯(lián)合創(chuàng)始人兼團(tuán)隊(duì)負(fù)責(zé)人Yannic Kilcher的娛樂(lè)視頻,可以了解Open Assistant的最佳方式。Kilcher長(zhǎng)期以來(lái)一直直言不諱地批評(píng)OpenAI等公司采取的封閉方式。

Open Assistant有基于LLaMA和Pythia的不同版本。用戶可以將Pythia版本用于商業(yè)目的。大多數(shù)模型可以在單個(gè)GPU上運(yùn)行。

來(lái)自世界各地的13000多名志愿者幫助收集了用于微調(diào)基本模型的樣本。該團(tuán)隊(duì)將很快發(fā)布所有數(shù)據(jù)以及一篇解釋該項(xiàng)目的論文。經(jīng)過(guò)訓(xùn)練的模型可以在Hugging Face上找到。該項(xiàng)目的GitHub頁(yè)面包含用于訓(xùn)練模型和使用模型的前端的完整代碼。

該項(xiàng)目還有一個(gè)網(wǎng)站,用戶可以在那里與Open Assistant聊天并測(cè)試模型。它有一個(gè)任務(wù)儀表板,用戶可以通過(guò)創(chuàng)建提示或標(biāo)記輸出來(lái)為項(xiàng)目做出貢獻(xiàn)。

開(kāi)源之美

最近推出開(kāi)源LLM的努力為科技公司重振合作和共享權(quán)力的承諾做出了很大貢獻(xiàn),而這正是互聯(lián)網(wǎng)最初的承諾。它展示了所有這些不同的社區(qū)如何相互幫助,共同推動(dòng)這一領(lǐng)域的發(fā)展。

LLaMA的開(kāi)源模型幫助推動(dòng)了這場(chǎng)運(yùn)動(dòng)。Alpaca項(xiàng)目表明,創(chuàng)建調(diào)整指令的LLM不需要付出巨大的努力和成本。這反過(guò)來(lái)又激發(fā)了Vicuna項(xiàng)目的靈感,該項(xiàng)目進(jìn)一步降低了訓(xùn)練和收集數(shù)據(jù)的成本。Dolly則朝著不同的方向努力,展示了社區(qū)主導(dǎo)的數(shù)據(jù)收集工作的好處,以解決商業(yè)模型的競(jìng)業(yè)限制要求。

當(dāng)然,還有其他幾個(gè)值得一提的模型,包括加州大學(xué)伯克利分校的Koala和LLaMA.cpp, LLaMA .cpp是LLaMA模型的C++實(shí)現(xiàn),可以在ARM處理器上運(yùn)行。在接下來(lái)的幾個(gè)月,觀察開(kāi)源運(yùn)動(dòng)將如何發(fā)展以及它將如何影響LLM市場(chǎng),將成為一件有趣的事情。

原文標(biāo)題:A look at open-source alternatives to ChatGPT,作者:Ben Dickson

責(zé)任編輯:華軒 來(lái)源: 51CTO
相關(guān)推薦

2009-11-02 09:38:07

開(kāi)源ESB

2009-07-23 13:23:47

開(kāi)源游戲引擎

2021-05-19 08:00:00

Linux開(kāi)源程序

2019-02-14 10:48:31

開(kāi)源網(wǎng)絡(luò)監(jiān)控工具

2010-03-31 10:29:38

開(kāi)源技術(shù)

2020-10-15 08:00:00

機(jī)器學(xué)習(xí)開(kāi)源

2017-03-02 15:06:37

2021-09-03 08:00:00

開(kāi)源工具游戲

2016-09-12 09:47:40

云計(jì)算

2010-03-31 10:31:18

開(kāi)源許可協(xié)議

2010-08-12 13:31:49

2017-11-10 08:44:40

Dreamweaver移動(dòng)應(yīng)用云服務(wù)

2011-05-20 09:41:50

Web服務(wù)器開(kāi)源

2014-07-15 12:30:39

關(guān)系管開(kāi)源工具

2016-03-21 15:14:24

開(kāi)源Web代理服務(wù)器

2013-03-28 10:49:24

開(kāi)源工具

2015-09-21 13:17:55

免費(fèi)開(kāi)源游戲

2024-05-14 15:04:04

ChatGPT人工智能大型語(yǔ)言模型

2018-12-28 09:00:00

人工智能機(jī)器學(xué)習(xí)開(kāi)源框架

2018-11-29 13:25:09

Android開(kāi)源操作系統(tǒng)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)