一次10萬token!GPT4最強(qiáng)對(duì)手史詩升級(jí),百頁資料一分鐘總結(jié)完畢
本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。
號(hào)稱ChatGPT“最強(qiáng)競(jìng)爭對(duì)手”的Claude,今天迎來史詩級(jí)更新——
模型記憶力原地起飛,現(xiàn)在1分鐘看完一本數(shù)萬字的小說,已經(jīng)不在話下。
消息一出,評(píng)論區(qū)直接炸了,網(wǎng)友們蜂擁而至,“woc連連”:
瘋了瘋了!
事情進(jìn)展得太快了,又是為人類擔(dān)心的一天!
原來,這次更新,將模型的上下文窗口token數(shù)提到了足足10萬,相當(dāng)于7.5萬個(gè)單詞!
這意味著,大模型“記性”不好的缺陷現(xiàn)在得到補(bǔ)強(qiáng),我們可以直接丟給它上百頁上萬字的材料,比如財(cái)報(bào)、技術(shù)文檔甚至是一本書。
而它都能在一分鐘之內(nèi)幫你分析總結(jié)完畢!
要知道,之前市面上幾乎所有AI聊天機(jī)器一次都只能讀取有限數(shù)量的文本,理解長資料里的上下文關(guān)系非常災(zāi)難。
而我們人類自己去處理大篇幅的文本又太慢了,比如光是要讀完10萬token的材料,就需要大約5個(gè)多小時(shí),更別提還要花更多的時(shí)間去理解去消化才能進(jìn)行總結(jié)。
現(xiàn)在,Claude直接一把搞定。
這波,簡直是“五雷轟頂”、“反向開卷”GPT-4,因?yàn)?,剛剛后者也不過才做到3.2萬token。
所以,一次性比GPT-4多出3倍的處理量,Claude效果提升究竟如何?
Claude重磅更新:一次記憶10萬token
據(jù)Anthropic官方介紹,升級(jí)后的Claude-100k版本,對(duì)話和任務(wù)處理能力雙雙得到極大提升。
一方面,是“一次性可處理文本量”的增加,直接拓寬了Claude的可從事崗位類型。
之前,大模型最多用來處理個(gè)幾十頁的文檔。
現(xiàn)在,Claude已經(jīng)能速讀公司財(cái)報(bào)年報(bào)、技術(shù)開發(fā)文檔、識(shí)別法律文件中的風(fēng)險(xiǎn)、閱讀上百頁研究論文、乃至于處理整個(gè)代碼庫中的數(shù)據(jù)。
最關(guān)鍵的是,它不僅能通讀全文總結(jié)其中的要點(diǎn),還能進(jìn)一步完成具體任務(wù),如寫代碼、整理表格等。
例如,快速理解幾百頁的開發(fā)文檔,并根據(jù)文檔開發(fā)應(yīng)用程序demo。
以Claude之前沒見過的一項(xiàng)新技術(shù)LangChain作為示例:
當(dāng)交給它一個(gè)240頁的LangChain API報(bào)告后,要求它快速給出一個(gè)LangChain的demo演示:
幾乎沒用多少時(shí)間,Claude就快速給出了一個(gè)基于LangChain開發(fā)的應(yīng)用程序demo:
又例如,甩給它一個(gè)漫長但又不得不聽的5小時(shí)知識(shí)播客:
它不僅能將重點(diǎn)轉(zhuǎn)成文字提取出來,還能快速整理表格,對(duì)觀點(diǎn)進(jìn)行分析:
難度增大一點(diǎn),30頁的研究論文也能很好地處理,甚至能準(zhǔn)確指定它整理某一章節(jié)的某一段落:
除此之外,還能幫導(dǎo)演處理劇本選址一類的問題。如給出《沙丘》的電影腳本,問Claude最適合拍攝的地點(diǎn),它很快就能給出幾個(gè)對(duì)應(yīng)的參考地址:
最后,官方還給出了一個(gè)《了不起的蓋茨比》案例,雖然沒有demo演示。
他們將這篇喂給Claude后,替換了其中一個(gè)角色Mr. Carraway,把他的角色變成“Anthropic里的一位工程師”,再交給Claude閱讀,讓它找不同。
幾乎只用22秒鐘,Claude就讀完這本書,并發(fā)現(xiàn)了Mr. Carraway的“不同身份”。
另一方面則是“記憶力”的增加,帶來了對(duì)話題掌控度的提升、以及聊天能力的提升。
此前大模型經(jīng)常會(huì)出現(xiàn)“聊著聊著忘了話題”的情況,對(duì)話窗口總字?jǐn)?shù)超過幾千字后,開始胡言亂語。
舉個(gè)栗子??,如果你用大量提示詞設(shè)置了一個(gè)ChatGPT版貓娘,那么它開始聊天后,可能幾個(gè)小時(shí)就忘記了自己和你說過的話,開始表現(xiàn)出一些“出軌”的跡象(手動(dòng)狗頭)
但現(xiàn)在,擁有一次10萬+個(gè)token記憶力的Claude,則不太可能出現(xiàn)這種情況,反而能牢牢記住和你聊過的話題,連續(xù)交談上好幾天。
那么,目前我們能通過什么方式用上最新版Claude呢?
API和網(wǎng)頁版均已上線
Anthropic先是宣布推出了Claude-100k的API版本,之后又火速上線了網(wǎng)頁端。
△Anthropic工程師
所以無論你是用網(wǎng)頁端還是用API,目前都已經(jīng)可以直接體驗(yàn)這個(gè)擁有“超長記憶力”的Claude版本。
很快啊,已經(jīng)有網(wǎng)友迫不及待玩上了。
像OthersideAI的CEO Matt Shumer,就試用了一下網(wǎng)頁端的Claude-100k總結(jié)技術(shù)報(bào)告的效果。
他先測(cè)了波Claude-9k的效果,發(fā)現(xiàn)它面對(duì)長達(dá)上百頁的GPT-4技術(shù)報(bào)告,還是會(huì)出現(xiàn)“幻覺”;隨后測(cè)試新版Claude-100k,發(fā)現(xiàn)它給出了有理有據(jù)的估計(jì):
GPT-4的參數(shù)量級(jí)大約在5000億左右!
這是它的推測(cè)過程:
不知道這波OpenAI的奧特曼會(huì)不會(huì)出來辟謠(手動(dòng)狗頭)。
還有一位Assembly AI的老哥,測(cè)試了一下Claude-100k的API版本。
在視頻演示中,他用Claude-100k總結(jié)了一下Lex Friedman的5小時(shí)長播客(內(nèi)容與John Carmack有關(guān)),效果看起來也非常不錯(cuò):
但無論是網(wǎng)頁版還是API,都還不是我們能免注冊(cè)直接試玩的版本。
之前我們說的不用注冊(cè)、不用申請(qǐng)、不用“騷操作”就能玩、體驗(yàn)也很不錯(cuò)的是slack端,它的添加方法我們?cè)?a >之前的文章中介紹過,非常簡單。
遺憾的是,目前它還是Claude-9k“體驗(yàn)版”。
所以,總結(jié)一下就是,這個(gè)Claude-100k的版本:
- 可以用API的方式體驗(yàn),不過不是免費(fèi)的;
- 網(wǎng)頁版也行,但需要你有試用資格,沒有就去申請(qǐng),等一等;
- Slack端還不行,只是個(gè)體驗(yàn)版。
反向開卷GPT-4,網(wǎng)友:卷對(duì)了方向
昨天,谷歌剛剛在I/O大會(huì)上宣布了數(shù)項(xiàng)重大更新,包括:
- 重構(gòu)谷歌搜索、開啟AI對(duì)話
- 發(fā)布大模型PaLM 2
- 全面開放Bard,不用排隊(duì)直接玩
……
這被視作針對(duì)微軟和OpenAI的一系列反擊。
現(xiàn)在,來自Anthropic的Claude緊隨其后,發(fā)布如此重大更新,直接反向開卷GPT-4——
有網(wǎng)友評(píng)價(jià):
Claude卷對(duì)了方向。
確實(shí),目前大部分語言模型普遍都只能處理2-8k的token量,大家都在苦苦追尋提高模型記憶力的辦法。
比如上個(gè)月那篇可將Transformer token上限擴(kuò)展到100萬甚至200萬的論文就引起了非常大的關(guān)注,不過網(wǎng)友測(cè)試效果似乎不太理想。
現(xiàn)在,Claude直接“業(yè)內(nèi)第一人”宣布做到了100k,并拿出來給大家用,很難不讓人稱贊。
除此之外,還有網(wǎng)友“站得更高”,稱:
資本主義之間的競(jìng)爭果然很美妙。
言外之意,卷得好啊卷得妙。沒有巨頭和各垂直企業(yè)之間的你爭我搶,我們哪能在短短兩天之間又目睹了如此多和重大的進(jìn)展呢?
誒,不過話說回來,鑒于Anthropic是由當(dāng)初不滿意OpenAI與微軟走得太近的幾位前員工創(chuàng)立,而谷歌也斥資3億美元投資了這家公司。
大膽猜測(cè):
這次兩人前后腳的“一唱一和”,是不是提前商量好的?