一口氣看完《哈利波特》:AI大模型「量子速讀」,一分鐘抵人類五小時(shí)
最近一段時(shí)間,OpenAI 憑借 GPT 系列模型以及 ChatGPT,一直是最受關(guān)注的研究機(jī)構(gòu)。但最近兩年,一家 AI 初創(chuàng)公司正在走進(jìn)大家的視野,這家公司名為 Anthropic,成立于 2021 年,專注于開發(fā)通用 AI 系統(tǒng)和語言模型,并秉持負(fù)責(zé)任的 AI 使用理念。
不知大家是否還記得 2020 年末,OpenAI 核心員工集體離職事件,當(dāng)時(shí)這件事在 AI 圈還引起了不小的轟動(dòng)。Anthropic 就是由這些離職的人員創(chuàng)建的,其中包括 OpenAI 前研究副總裁 Dario Amodei、GPT-3 論文一作 Tom Brown 等人。
今年一月,Anthropic 已籌集了超過 7 億美元的資金,最新一輪的估值達(dá)到了 50 億美元。與此同時(shí),在 ChatGPT 發(fā)布兩個(gè)月后,這家公司就迅速開發(fā)了一種對(duì)標(biāo)老東家 ChatGPT 的人工智能系統(tǒng) Claude。
Claude 申請(qǐng)?jiān)L問地址:https://www.anthropic.com/earlyaccess
Claude 使用了 Anthropic 自行開發(fā)的一種被稱為「constitutional AI」的機(jī)制,其旨在提供一種「基于原則」的方法使 AI 系統(tǒng)與人類意圖保持一致。
Claude 可以完成摘要總結(jié)、搜索、協(xié)助創(chuàng)作、問答、編碼等任務(wù)。根據(jù)用戶反饋,Claude 生成有害輸出的可能性較小,更容易進(jìn)行對(duì)話,并且更易于控制。除此以外,Claude 還可以根據(jù)指示來設(shè)定個(gè)性、語氣和行為。
不過 Anthropic 并沒有提供關(guān)于 Claude 的太多技術(shù)細(xì)節(jié),但在論文《Constitutional AI: Harmlessness from AI Feedback》中描述了 Claude 背后技術(shù),感興趣的讀者可以前去查看。
論文地址:https://arxiv.org/pdf/2212.08073.pdf
早在一月份,就有研究者對(duì) Claude 一次性可以處理的最大文本量進(jìn)行了測(cè)試,顯示 Claude 可以回憶起 8k 個(gè) token 中的信息。
時(shí)隔沒多久,本周四,Anthropic 推出了 100K Context Windows,它將 Claude 的上下文窗口從 9k token 擴(kuò)展到了 100k,這相當(dāng)于 75,000 個(gè)單詞。這意味著企業(yè)可以提交數(shù)百頁材料讓 Claude 消化和解釋,并且與它的對(duì)話可以持續(xù)數(shù)小時(shí)甚至數(shù)天?,F(xiàn)在可以通過 Anthropic API 訪問 100K context windows。
我們知道,大模型越先進(jìn),能夠同時(shí)處理的文本就越長(zhǎng),7.5 萬字是個(gè)什么概念呢?大概相當(dāng)于一鍵總結(jié)《哈利波特》第一部。
看起來絕大多數(shù)論文、新聞報(bào)道和中短篇小說都不在話下了。
Claude 再進(jìn)化:真「AI 量子速讀」
根據(jù)科學(xué)研究,普通人可以在 5 小時(shí)左右的時(shí)間里閱讀 100,000 個(gè) token,并可能需要更長(zhǎng)的時(shí)間來消化、記憶和分析這些信息。現(xiàn)在 Claude 可以在不到 1 分鐘的時(shí)間里完成這些。
上下文窗口的一般計(jì)算。
Anthropic 首先將《了不起的蓋茨比》的整個(gè)文本加載到了 Claude-Instant(72 K tokens,Claude 兩個(gè)版本 Claude 和 Claude Instant,Claude 是最先進(jìn)的高性能模型,而 Claude Instant 是更輕、更便宜、更快的選擇。)中,并修改了一行「Carraway 先生是一位在 Anthropic 從事機(jī)器學(xué)習(xí)工作的軟件工程師」。當(dāng) Anthropic 要求模型找出與原文的不同之處時(shí),它會(huì)在 22 秒內(nèi)給出正確答案。
除了閱讀長(zhǎng)文本之外,Claude 還有助于從文檔中檢索信息,從而對(duì)業(yè)務(wù)運(yùn)營(yíng)產(chǎn)生助益。用戶可以將多個(gè)文檔甚至一本書放入 prompt 中,然后向 Claude 提出問題(需要對(duì)文本的很多部分進(jìn)行綜合知識(shí)分析)。對(duì)于復(fù)雜的問題,這可能比基于向量搜索的方法有效得多。Claude 可以按照用戶的指令返回他們正在搜尋的信息,就像人類助手一樣。
Anthropic 接著將大語言集成工具 LangChain API 開發(fā)者文檔(240 頁)放入模型中,然后針對(duì)所提問題給出了使用 Anthropic 語言模型的 LangChain demo。
與此同時(shí),100k token 可以轉(zhuǎn)換為 6 個(gè)小時(shí)左右的音頻。AssemblyAI 對(duì)此做了很好的演示,他們將一個(gè)長(zhǎng)播客轉(zhuǎn)錄為了近 58k 個(gè)單詞,然后使用 Claude 進(jìn)行摘要總結(jié)和問答。
圖源:AssemblyAI
總之,使用 100k context windows,用戶可以做到如下:
- 消化、總結(jié)和解釋財(cái)務(wù)報(bào)表或研究論文等密集文件;
- 基于公司年度報(bào)告分析戰(zhàn)略風(fēng)險(xiǎn)和機(jī)遇;
- 評(píng)估一項(xiàng)立法的利弊;
- 識(shí)別法律文件中的風(fēng)險(xiǎn)、主題和不同形式的爭(zhēng)論;
- 閱讀數(shù)百頁的開發(fā)者文檔,并給出技術(shù)問題的答案;
- 通過將整個(gè)代碼庫(kù)放入上下文并智能地構(gòu)建或修改以快速制作原型。
有網(wǎng)友用以下梗圖形象地描述了 Context Windows 與 Claude 100k、GPT-4 32K 的關(guān)系。
圖源:推特 @nathanwchan
至于價(jià)格,Anthropic 技術(shù)人員 Ben Mann 表示,100K Context Windows 的百萬 token 售價(jià)與以往模型一樣。