偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

GPT-4強(qiáng)到離譜,OpenAI拒絕Open!首席科學(xué)家:開源并不明智,我們之前錯了

人工智能 新聞
OpenAI的聯(lián)合創(chuàng)始人Greg Brockman和首席科學(xué)家Ilya Sutskever評價GPT-4的性能,并對安全問題和開源的爭議進(jìn)行解釋。

毫無疑問,GPT-4一經(jīng)發(fā)布,就引爆了整個業(yè)界和學(xué)界。

憑借著自己強(qiáng)大的推理和多模態(tài)能力,引發(fā)了一眾熱議。

然鵝,GPT-4不是一個open的模型。

雖然OpenAI分享了大量GPT-4的基準(zhǔn)和測試結(jié)果,但是基本上沒有提供用于訓(xùn)練的數(shù)據(jù)、成本、或者用于創(chuàng)建模型的方法。

當(dāng)然了,這樣的「獨家秘笈」OpenAI肯定不會公布了。

馬庫斯直接拿出當(dāng)初OpenAI的初衷,發(fā)文嘲諷了一波。

圖片

網(wǎng)友改進(jìn)了一個版本。

人無完人,GPT-4也是

當(dāng)OpenAI的總裁、聯(lián)合創(chuàng)始人之一Greg Brockman將GPT-4和GPT-3進(jìn)行比較時,他說了一個詞——不同。

「它只是不同而已,模型仍然有很多問題和錯誤......但你真的可以看到它在微積分或法律等方面的技能提升。在某些領(lǐng)域,它從表現(xiàn)非常糟糕進(jìn)化到現(xiàn)在足以匹敵人類?!?/span>

圖片

GPT-4的測試結(jié)果很不錯:在AP微積分BC考試中,GPT-4得了4分,而GPT-3得了1分。在模擬的律師考試中,GPT-4以大約前10%考生的分?jǐn)?shù)通過;GPT-3.5的分?jǐn)?shù)徘徊在后10%。

在上下文能力,也就是說在生成文本之前可以記憶的文本方面,GPT-4大約能夠記住50頁左右的內(nèi)容,是GPT-3的8倍。

在提示方面,GPT-3和GPT-3.5只能接受文字提示:「寫一篇關(guān)于長頸鹿的文章」,而多模態(tài)的GPT-4可以接受圖片和文字的提示:給出一張長頸鹿的圖片,提示問「這里有多少只長頸鹿?」 這些GPT-4都能答對,而且它的讀梗能力也很強(qiáng)!

我們之前錯了,開源并不明智

而強(qiáng)到離譜的GPT-4一發(fā)布,便引起了大量研究人員和專家的興趣。但令人失望的是,OpenAI發(fā)布的GPT-4,不是「Open的AI模型?!?/span>

盡管OpenAI分享了大量GPT-4的基準(zhǔn)、測試結(jié)果和有趣的演示,但基本上沒有提供用于訓(xùn)練該系統(tǒng)的數(shù)據(jù)、能源成本或用于創(chuàng)建它的具體硬件或方法的相關(guān)信息。

之前Meta的LLaMa模型泄露的時候,就引發(fā)過一波關(guān)于開源的討論。不過,這次大家對于GPT-4封閉模型的最初反應(yīng)是大部分都是負(fù)面的。

圖片

人工智能社區(qū)普遍認(rèn)為,這不僅破壞了OpenAI作為研究機(jī)構(gòu)的創(chuàng)始精神,而且讓其他人難以制定保障措施來應(yīng)對威脅。

Nomic AI的信息設(shè)計副總裁Ben Schmidt表示,由于無法看到GPT-4是在什么數(shù)據(jù)上訓(xùn)練的,大家很難知道該系統(tǒng)在什么地方是安全使用的,并提出修復(fù)方案。

「為了讓人們知道這個模型什么地方不起作用,OpenAI需要更好地了解GPT-4所做的事情以及其中的假設(shè)。我可不會在下雪的時候,相信一個沒有在雪地氣候情況下訓(xùn)練出來的自動駕駛汽車。因為很可能,漏洞和問題只在真實使用的時候才會浮現(xiàn)?!?/span>

對此,OpenAI的首席科學(xué)家兼聯(lián)合創(chuàng)始人Ilya Sutskever解釋稱:OpenAI不分享更多關(guān)于GPT-4的信息是因為害怕競爭,也是因為對安全的擔(dān)憂,這一點是毋庸置疑的。

「外面的競爭很激烈,GPT-4的開發(fā)并不容易。幾乎所有的OpenAI的員工在一起工作了很長時間才生產(chǎn)出這個東西。從競爭的角度來看,有很多很多公司都想做同樣的事情,而GPT-4像是一個成熟的果實。」

眾所周知,OpenAI在2015年成立之初是一個非營利組織。其創(chuàng)始人包括Sutskever、現(xiàn)任首席執(zhí)行官Sam Altman、總裁Greg Brockman以及現(xiàn)已離開OpenAI的馬斯克。

Sutskever等人曾表示,該組織的目標(biāo)是為每個人創(chuàng)造價值,而不是單單為股東創(chuàng)造價值,并表示將與該領(lǐng)域的各方進(jìn)行「自由合作」。

然而,為了獲得數(shù)十億美元的投資(主要來自微軟),OpenAI還是被加蓋了一層商業(yè)屬性。

不過,當(dāng)被問及為什么OpenAI改變了分享其研究的方法時,Sutskever簡單地回答道:

「我們錯了。在某個時候,AI/AGI將變得極其強(qiáng)大,那時,開源就是沒有意義的。可以預(yù)料的是,在幾年內(nèi),每個人都會完全明白,開源人工智能是不明智的。因為這個模型是非常有力的。如果有人想,用它就能夠造成巨大的傷害,這將是相當(dāng)容易的。所以隨著模型的能力越來越高,不想披露它們是有道理的。」

Lightning AI的首席執(zhí)行官和開源工具PyTorch Lightning的創(chuàng)建者William Falcon從商業(yè)角度解讀稱:「作為一家公司,你完全有權(quán)利這樣做?!?/span>

安全風(fēng)險

與此同時,Brockman也認(rèn)為GPT-4的應(yīng)用推廣應(yīng)當(dāng)是緩慢推進(jìn)的,因為OpenAI正在評估風(fēng)險和利益。

「我們需要解決一些政策問題,如面部識別和如何對待人的圖像,我們需要弄清楚,危險區(qū)在哪里,紅線在哪里,然后慢慢澄清這些點。」

還有就是老生常談的,GPT-4被用來干壞事的風(fēng)險。

以色列網(wǎng)絡(luò)安全初創(chuàng)公司Adversa AI發(fā)表了一篇博文,展示了繞過OpenAI的內(nèi)容過濾器,讓GPT-4生成釣魚郵件、生成對同性戀者的性描述等讓人高度反感的文本的方法。

因此,很多人都希望GPT-4在審核方面帶來重大改進(jìn)。

圖片

針對這一點,Brockman強(qiáng)調(diào),他們花了很多時間試圖了解GPT-4的能力,而該模型已經(jīng)經(jīng)歷了六個月的安全培訓(xùn)。在內(nèi)部測試中,對于OpenAI的使用政策所不允許的內(nèi)容,GPT-4作出反應(yīng)的可能性比GPT-3.5低82%,產(chǎn)生「事實性」反應(yīng)的可能性高40%。

不過,Brockman并不否認(rèn)GPT-4在這方面的不足。但他強(qiáng)調(diào)了該模型的新的緩和導(dǎo)向工具,稱為「系統(tǒng)信息」的API級能力。

系統(tǒng)信息本質(zhì)上是為GPT-4的互動設(shè)定基調(diào),并建立界限的指令。這樣,以系統(tǒng)信息作為護(hù)欄,就可以防止GPT-4偏離方向。

例如,一條系統(tǒng)信息的人設(shè)可能是這樣的:「你是一個總是以蘇格拉底方式回答問題的導(dǎo)師。你從不給學(xué)生答案,而是總是試圖提出正確的問題,幫助他們學(xué)會自己思考?!?/span>

新的道路

其實,從一定程度上,Sutskever也認(rèn)同批評者的觀點:「如果更多的人愿意研究這些模型,我們會對它們有更多的了解,這將是好事?!?/span>

所以O(shè)penAI出于這些原因,向某些學(xué)術(shù)和研究機(jī)構(gòu)提供了訪問其系統(tǒng)的機(jī)會。

而且Brockman還提到了Evals,這是OpenAI新近開源的軟件框架,用于評估其人工智能模型的性能。

Evals采用的是模型測試眾包的方式,讓用戶開發(fā)和運行評估GPT-4等模型的基準(zhǔn),同時檢查其性能,這也是OpenAI致力于「健全」模型的標(biāo)志之一。

「通過Evals,我們可以看到用戶關(guān)心的用例,能夠以一種系統(tǒng)的形式進(jìn)行測試。我們開源的部分原因是,我們正在從每三個月發(fā)布一個新模型轉(zhuǎn)向不斷改進(jìn)新模型。當(dāng)我們制作新的模型版本時,我們至少可以通過開源知道這些變化是什么。」

其實,關(guān)于共享研究的討論一直頗為火熱。一方面,谷歌和微軟這樣的科技巨頭正急于將人工智能功能添加到他們的產(chǎn)品中,往往會將以前的道德問題擱置一邊,微軟最近就解雇了一個團(tuán)隊,該團(tuán)隊是專門確保人工智能產(chǎn)品遵循道德準(zhǔn)則的);另一方面;技術(shù)的迅速改善引發(fā)了人們對人工智能的擔(dān)憂。

圖片

英國人工智能政策負(fù)責(zé)人 Jess Whittlestone 說,平衡這些不同的壓力帶來了嚴(yán)重的治理挑戰(zhàn),這意味著我們可能需要第三方監(jiān)管機(jī)構(gòu)參與。

「OpenAI 不分享關(guān)于 GPT-4 的更多細(xì)節(jié)的出發(fā)點是好的,但也可能導(dǎo)致人工智能世界的權(quán)力集中化。這些決定不應(yīng)該由個別公司來做。」

Whittlestone 說:「理想的情況是,我們需要把這里的做法編纂成冊,然后讓獨立的第三方去審查與某些模型相關(guān)的風(fēng)險?!?/span>

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-03-16 17:26:09

AI模型

2024-05-15 09:28:01

2023-10-11 13:09:09

OpenAI模型GPT-4

2023-03-29 14:58:04

GPT-4技術(shù)

2013-09-03 13:03:27

諾基亞谷歌微軟

2023-03-16 08:13:56

人工智能?OpenAI

2023-11-02 13:35:00

訓(xùn)練模型

2021-05-31 08:13:39

亞馬遜職場面試

2023-10-12 14:18:06

2023-12-15 15:10:36

OpenAI人工智能ChatGPT

2024-09-05 12:57:08

2017-08-04 15:53:10

大數(shù)據(jù)真?zhèn)螖?shù)據(jù)科學(xué)家

2025-05-14 09:03:00

2012-12-06 15:36:55

CIO

2013-11-12 09:27:01

大數(shù)據(jù)科學(xué)家大數(shù)據(jù)

2023-02-17 15:16:06

ChatGPTAI

2017-06-29 15:53:43

5Gsdnnfv

2024-11-11 15:05:44

2009-03-27 09:09:03

GoogleAndroid移動OS

2023-12-28 15:18:37

MetaOpenAI
點贊
收藏

51CTO技術(shù)棧公眾號