偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

GPT4、ChatGPT大比拼:餐巾紙草圖變網(wǎng)站,中文能力還是差!

原創(chuàng) 精選
人工智能
OpenAI稱GPT4是努力擴(kuò)展深度學(xué)習(xí)的最新里程碑。GPT4作為一個(gè)大型多模態(tài)模型(接受圖像和文本輸入,發(fā)出文本輸出),在各種專業(yè)和學(xué)術(shù)基準(zhǔn)上表現(xiàn)出人類水平的表現(xiàn)。

?作者 | 云昭

一開始據(jù)說是本周四發(fā)布,結(jié)果en~~周三凌晨就發(fā)布了,果真,OpenAI向來喜歡提前給人們制造驚喜!

圖片


1、GPT4、ChatGPT大比拼

廢話不多說,先上GPT4的硬技能。

首先,是長(zhǎng)文本處理的能力,OpenAI官網(wǎng)上是這么描述的:“GPT4 能夠處理超過25,000個(gè)單詞的文本,允許使用長(zhǎng)格式內(nèi)容創(chuàng)建、擴(kuò)展對(duì)話以及文檔搜索和分析等用例。”

OpenAI怕大家不能很形象的理解,干脆用一篇維基百科的長(zhǎng)文舉了個(gè)例子,這個(gè)文本有多長(zhǎng)呢?小編實(shí)際點(diǎn)開了鏈接(見下圖),要比目前ChatGPT(GPT3.5)能處理的文本長(zhǎng)出一倍去。不信的朋友可以去這個(gè)鏈接:https://en.wikipedia.org/wiki/Rihanna看一看實(shí)際長(zhǎng)度。

圖片

對(duì)于文本對(duì)話任務(wù),兩者表現(xiàn)幾何?OpenAI官方是這樣說的。

在隨意的交談中,GPT3.5和GPT4之間的區(qū)別可能很細(xì)微。當(dāng)任務(wù)的復(fù)雜性達(dá)到足夠的閾值時(shí),差異就會(huì)顯現(xiàn)出來。GPT4比GPT3.5更可靠、更具創(chuàng)造力,并且能夠處理更細(xì)微的指令。

GPT4的上下文長(zhǎng)度為8192個(gè)令牌。OpenAI還提供了對(duì)32768上下文(約50頁文本)版本gpt-4-32k的有限訪問,該版本也將隨著時(shí)間的推移自動(dòng)更新(當(dāng)前版本gpt-4-22k-0314,也支持到6月14日)。定價(jià)為每1K提示令牌0.06美元,每1K完成令牌0.12美元。

OpenAI仍在改進(jìn)長(zhǎng)期環(huán)境下的模型質(zhì)量,并希望得到有關(guān)它在的用例中表現(xiàn)如何的反饋。OpenAI根據(jù)容量以不同的速率處理8K和32K引擎的請(qǐng)求,因此可以在不同的時(shí)間訪問它們。

第二個(gè),對(duì)圖像的識(shí)別能力:接受圖像作為輸入。

GPT4可以接受文本和圖像的提示,這與純文本設(shè)置并行,允許用戶指定任何視覺或語言任務(wù)。具體來說,它生成文本輸出(自然語言、代碼等),給定由穿插的文本和圖像組成的輸入。在一系列領(lǐng)域,包括帶有文本和照片的文檔、圖表或屏幕截圖,GPT4表現(xiàn)出與純文本輸入類似的功能。此外,它還可以通過為純文本語言模型開發(fā)的測(cè)試時(shí)間技術(shù)來增強(qiáng),包括少量鏡頭和思維鏈提示。遺憾的是,圖像輸入仍然只是研究預(yù)覽階段,暫時(shí)沒有公開。

圖片

(問題和答案都是英文:為了便于理解,已翻譯為中文)

圖片上給出了一些食材,問GPT4可以根據(jù)圖片上的食材做哪些美食??梢钥闯鯣PT4正式跨界了!

第三個(gè),更靠譜的推理能力。

GPT4較之前的模型,更具有創(chuàng)造性和協(xié)作性。它不僅能夠完成許多創(chuàng)意和基礎(chǔ)寫作,而且還能創(chuàng)作歌曲、劇本,重要的是還能學(xué)習(xí)用戶的寫作風(fēng)格。

關(guān)于推理能力這塊,OpenAI還給出了一個(gè)讓GPT4預(yù)定會(huì)議室的例子:

圖片

問題大致是這樣的:三個(gè)人在每一天的空閑時(shí)間不一樣,讓GPT找出一個(gè)30分鐘會(huì)議的合適時(shí)間。

可以看出ChatGPT的邏輯思路和文本分析的都沒毛病,但給出的答案全錯(cuò)。而GPT4則給出了正確的答案。

GPT4還有一個(gè)更強(qiáng)的BUFF,讓它參加考試,會(huì)碾壓不少學(xué)霸!而ChatGPT則弱爆了!

圖片

在統(tǒng)一律師考試中取得了前10%的成績(jī),而ChatGPT獲得了倒數(shù)10%。

除此之外,OpenAI還給出了SAT等其他考試的排名,均比ChatGPT能扛能打!

圖片

與ChatGPT比起來,還有哪些硬貨??

GPT4的可操作性更加靈活。使用過ChatGPT的朋友都知道,如果用API提交請(qǐng)求的話,一般有兩個(gè)消息:系統(tǒng)消息(規(guī)定的AI風(fēng)格和角色)和用戶消息(具體提出的問題)。之前的ChatGPT對(duì)于系統(tǒng)消息不太看重,風(fēng)格、語調(diào)比較固定。

而GPT4則不然,開發(fā)人員(以及很快的ChatGPT用戶)現(xiàn)在可以通過在“系統(tǒng)”消息中描述這些方向來規(guī)定他們的AI風(fēng)格和任務(wù),系統(tǒng)消息允許API用戶在一定范圍內(nèi)顯著自定義用戶體驗(yàn)。OpenAI將繼續(xù)在這里進(jìn)行改進(jìn)(尤其要知道,系統(tǒng)消息是“越獄”當(dāng)前模型的最簡(jiǎn)單方法,即,對(duì)邊界的遵守不再那么死板),OpenAI也非常鼓勵(lì)讓他們知道用戶想要嘗試這些ideas。

還有對(duì)多語種的支持能力也更強(qiáng)。測(cè)試的26種語言當(dāng)中,有24種要比GPT3.5和其他的語言模型的精確度都要強(qiáng)。

圖片

小編瞪大眼睛瞅來瞅去,也沒有看見中文。果斷就去找了相關(guān)中文測(cè)試的效果究竟如何,結(jié)果呵呵了。不僅速度慢,一樣也是給出了錯(cuò)誤的答案!

圖片

ChatGPT有沒有比GPT4領(lǐng)先的地方?

有!那就是生成文本的速度,GPT4生成答案的速度明顯慢于ChatGPT。看來能力越強(qiáng),回答問題就會(huì)越慎重!

2、實(shí)際測(cè)評(píng)

第一個(gè)例子是:餐巾紙上的草圖都能讓GPT4魔法一樣生成個(gè)網(wǎng)頁圖!

圖片

圖源:推特

真實(shí)例子,推特上一位用戶將一張餐巾紙上的草紙圖拍完照后,交給GPT4,結(jié)果真的變成一張功能齊全的html/css/JavaScript網(wǎng)站。

網(wǎng)友驚呼:這模型竟然能夠閱讀和解釋餐巾紙上寫的任何內(nèi)容!

還有位網(wǎng)友腦洞大開:那是不是基于GPT4的應(yīng)用程序,將我的書面處方變成藥劑師可以實(shí)際閱讀的東西,就可以成為下一個(gè)美國(guó)生物技術(shù)億萬富翁。

第二個(gè)例子:用GPT4重建游戲。

一位叫Pietro的用戶在60s內(nèi)重建了Pong游戲,而且分?jǐn)?shù)還不錯(cuò)。

圖片

圖源:推特

圖片

圖源:推特

GPT4由于其廣泛的通用知識(shí)和解決問題的能力,可以更準(zhǔn)確地解決難題。GPT4的創(chuàng)造性恐怖如斯。

3、GPT4的局限性

GPT4雖然能力比ChatGPT更強(qiáng),但局限性依舊與早期GPT模型相似。最重要的是,它仍然不完全可靠(它依舊會(huì)編造事實(shí),并會(huì)犯推理錯(cuò)誤)。在使用語言模型輸出時(shí),尤其是在高風(fēng)險(xiǎn)上下文中,應(yīng)非常小心,使用與特定用例需求匹配的精確協(xié)議(如人工審查、附加上下文基礎(chǔ)或完全避免高風(fēng)險(xiǎn)使用)。

在OpenAI的內(nèi)部對(duì)抗性真實(shí)性評(píng)估中,GPT4的得分比我們最新的GPT3.5高40%。也就是說,即便GPT4生成的答案更準(zhǔn)確,但也只是比GPT4更加可信了40%而已!

4、訪問權(quán)限

ChatGPT Plus用戶可以從chat.openai.com上獲得GPT4訪問權(quán)限。同時(shí),OpenAI將根據(jù)實(shí)際需求和系統(tǒng)性能調(diào)整確切的使用上限,但OpenAI預(yù)計(jì)會(huì)產(chǎn)生嚴(yán)重的容量限制(盡管OpenAI將在未來幾個(gè)月內(nèi)進(jìn)行擴(kuò)展和優(yōu)化)。

根據(jù)OpenAI看到的流量模式,OpenAI可能會(huì)為更高容量的GPT4使用量引入新的訂閱級(jí)別;OpenAI還希望在某個(gè)時(shí)候提供一些免費(fèi)的GPT4查詢,這樣那些沒有訂閱的用戶也可以嘗試。

要訪問GPT-4 API(它使用與GPT-3.5-turbo相同的ChatCompletions API),還需要注冊(cè)O(shè)penAI的等待名單。

OpenAI從今天開始,將邀請(qǐng)一些開發(fā)商,并逐步擴(kuò)大規(guī)模,以平衡容量和需求。如果是有社會(huì)影響的研究人員,也可以通過OpenAI的研究人員準(zhǔn)入計(jì)劃申請(qǐng)使用。

5、應(yīng)用生態(tài)已有探索

OpenAI在內(nèi)部使用GPT4,對(duì)支持、銷售、內(nèi)容管理和編程等功能產(chǎn)生了巨大影響。OpenAI還使用它來幫助人類評(píng)估人工智能輸出,開始OpenAI對(duì)齊策略的第二階段。

OpenAI期待GPT4通過為許多應(yīng)用程序提供動(dòng)力,成為改善人們生活的寶貴工具。還有很多工作要做,OpenAI期待著通過社區(qū)建設(shè)的集體努力來改進(jìn)這一模式,探索并為這一模式做出貢獻(xiàn)。小編注意到OpenAI已經(jīng)和一家虛擬志愿者工具的公司達(dá)成合作。

圖片

Be My Eyes的合作伙伴。通過世界各地的事實(shí)視頻將需要視力支持的人與志愿者和住院者和公司聯(lián)系起來。

簡(jiǎn)化低視力人群的任務(wù)

圖片

借助Be My Eyes應(yīng)用程序,可以支持視障人群并幫助他們實(shí)現(xiàn)獨(dú)立。盲人或低視力用戶可能需要的支持包括:檢查有效期、區(qū)分顏色、閱讀說明或在新環(huán)境中導(dǎo)航。

6、寫在最后

OpenAI稱GPT4是努力擴(kuò)展深度學(xué)習(xí)的最新里程碑。GPT4作為一個(gè)大型多模態(tài)模型(接受圖像和文本輸入,發(fā)出文本輸出),在各種專業(yè)和學(xué)術(shù)基準(zhǔn)上表現(xiàn)出人類水平的表現(xiàn)。

雖然跟我們之前做出的多模態(tài)能力預(yù)測(cè)?(文本、圖像、音頻、視頻等輸入)有較大的差距,但可以看出GPT模型的演進(jìn)正在扎實(shí)推進(jìn),尤其是通用知識(shí)的理解能力和更難問題的處理上,著實(shí)驚艷到了!

責(zé)任編輯:武曉燕 來源: 51CTO技術(shù)棧
相關(guān)推薦

2011-01-19 11:10:30

2010-03-18 14:54:46

主流無線技術(shù)

2020-08-04 17:06:40

Merging Rebasing Git

2010-07-14 13:38:51

Perl開發(fā)工具

2010-05-28 11:09:51

SVN功能

2017-09-10 14:29:03

眼力

2014-01-07 17:08:02

Java開源框架

2021-03-15 21:07:17

IT行業(yè)薪酬薪水

2010-08-25 16:12:34

職場(chǎng)

2010-09-08 15:41:28

SIP協(xié)議棧

2023-05-26 15:53:48

MidjourneyAI圖像

2011-11-08 10:29:44

2018-10-25 14:08:07

KubernetesGoogle

2011-04-01 09:18:01

MRTGCactiZabbix

2010-04-21 12:54:46

Unix內(nèi)核

2019-08-27 09:00:00

敏捷開發(fā)開發(fā)方法項(xiàng)目

2019-03-29 08:25:21

JSONXML前端

2012-08-15 09:26:54

虛擬化

2013-04-22 14:21:13

WP、Android、

2009-12-01 08:47:41

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)