偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

GPT-4無法造出生物武器!OpenAI最新實驗證明:大模型殺傷力幾乎為0

人工智能
剛剛,OpenAI最新的大模型安全研究發(fā)現(xiàn),GPT-4對制造生化武器的輔助作用,可以說是幾乎沒有。

GPT-4會加速生物武器的發(fā)展嗎?在擔心AI統(tǒng)治世界之前,人類是否會因為打開了潘多拉魔盒而面臨新的威脅?

畢竟,大模型輸出各種不良信息的案例不在少數(shù)。

今天,處在風口,也是浪尖的OpenAI再次負責任地刷了一波熱度。

圖片圖片

我們正在建立一個能夠協(xié)助制造生物威脅的早期預警系統(tǒng)LLMs。事實證明,目前的模型最多只能對這種濫用有用,我們將繼續(xù)發(fā)展未來的評估藍圖。

經(jīng)歷董事會風波后的OpenAI,開始痛定思痛,包括之前鄭重發(fā)布的準備框架(Preparedness Framework)。

到底大模型在制造生物威脅方面帶來了多大的風險?觀眾害怕,我OpenAI也不想受制于此。

咱們直接科學實驗,測試一波,有問題解決問題,沒問題你們就少罵我了。

OpenAI隨后在推上放出實驗結果,表示GPT-4對于生物威脅的風險有一點提升,但只有一點:

圖片圖片

OpenAI表示會以此次研究為起點,繼續(xù)在這一領域開展工作,測試模型的極限并衡量風險,順便招點人。

圖片圖片

對于AI安全問題這件事,大佬們經(jīng)常各執(zhí)己見,在網(wǎng)上隔空輸出。但同時,各路神仙也確實不斷發(fā)掘出突破大模型安全限制的方法。

AI飛速發(fā)展的這一年多,在化學、生物、信息等各方面帶來的潛在風險,也確實挺讓我們擔憂的,時常有大佬將AI危機與核威脅相提并論。

小編搜集資料的時候偶然發(fā)現(xiàn)了下面這個東西:

圖片圖片

1947年,科學家們設置了世界末日時鐘,以引起人們對核武器世界末日威脅的關注。

但到了今天,包括氣候變化、流行病等生物威脅、人工智能和虛假信息的快速傳播,讓這個鐘的負擔更重了。

正好在前幾天,這群人重置了今年的時鐘,——咱們距離「midnight」還剩90秒。

圖片圖片

Hinton離開谷歌后發(fā)出警告,徒弟Ilya還在OpenAI中為了人類的未來而爭取資源。

AI會有多大的殺傷力,我們來看一下OpenAI的研究和實驗吧。

相比互聯(lián)網(wǎng),GPT更危險嗎?

隨著OpenAI和其他團隊不斷開發(fā)出更強大的AI系統(tǒng),AI的利與弊都在顯著增加。

研究人員和政策制定者都特別關注的一個負面影響是,AI系統(tǒng)是否會被用來協(xié)助制造生物威脅。

比如,惡意行為者可能利用高級模型來制定詳細的操作步驟,解決實驗室操作中的問題,或者直接在云實驗室中自動執(zhí)行產(chǎn)生生物威脅的某些步驟。

不過,光是假設不能說明任何問題,相比于現(xiàn)有的互聯(lián)網(wǎng),GPT-4是否能顯著提高惡意行為者獲取相關危險信息的能力?

根據(jù)之前發(fā)布的Preparedness Framework,OpenAI使用了一種新的評估方法來確定,大模型到底能給試圖制造生物威脅的人提供多大幫助。

OpenAI對100名參與者進行了研究,包括50名生物學專家(擁有博士學位和專業(yè)實驗室工作經(jīng)驗),和50名大學生(至少修過一門大學生物學課程)。

實驗對每位參與者評估五個關鍵指標:準確性、完整性、創(chuàng)新性、所需時間和自我評估的難度;

同時評估生物威脅制造過程中的五個階段:構想、材料獲取、效果增強、配方設計和釋放。

設計原則

當我們探討與人工智能系統(tǒng)相關的生物安全風險時,有兩個關鍵因素可能會影響到生物威脅的產(chǎn)生:信息獲取能力和創(chuàng)新性。

圖片圖片

研究人員首先關注對已知威脅信息獲取的能力,因為目前的AI系統(tǒng),最擅長的就是整合和處理已有的語言信息。

這里遵循了三個設計原則:

設計原則 1:要充分了解信息獲取的機制,就必須要有人類的直接參與。

這是為了更真實地模擬惡意使用者利用模型的過程。

有了人的參與,語言模型能夠提供更準確的信息,人們可以根據(jù)需要定制查詢內(nèi)容、糾正錯誤并進行必要的后續(xù)操作。

設計原則 2:要進行全面的評估,就必須激發(fā)模型的全部能力。

為了保證能夠充分利用模型的能力,參與者在實驗之前接受了培訓——免費升級為「提示詞工程師」。

同時,為了更有效地探索GPT-4的能力,這里還使用了一個專為研究設計的GPT-4版本,能夠直接回答涉及生物安全風險的問題。

圖片圖片

設計準則3:在衡量AI風險時,應該考慮相對于現(xiàn)有資源的改進程度。

雖然可以通過「越獄」來引導模型吐出不良信息,但對于同樣能通過互聯(lián)網(wǎng)獲取的這些信息,AI模型是否提升了便利性?

所以實驗設置了對照組,與僅使用互聯(lián)網(wǎng)(包括在線數(shù)據(jù)庫、文章和搜索引擎)所產(chǎn)生的輸出進行對比。

研究方法

前面介紹的100名參與者,一半被隨機分配僅使用互聯(lián)網(wǎng)來回答問題,而另一半在擁有互聯(lián)網(wǎng)訪問權限的同時,還可以訪問GPT-4。

圖片圖片

任務介紹

Gryphon Scientific的生物安全專家設計了五項研究任務,涵蓋了生物威脅制造過程中的五個關鍵階段。

圖片圖片

為了降低知識傳播可能帶來的風險(某些敏感信息泄露),實驗確保每項任務都關注不同的操作流程和生物材料。

為了確保評估過程中能公平考量參與者利用模型和搜集信息能力的提升,這里采用隨機分配的方式。

評估方法

通過五個關鍵指標來評估參與者的表現(xiàn),以判斷GPT-4是否有助于他們在任務中表現(xiàn)得更好:

- 準確性(1-10分):用來評估參與者是否涵蓋了完成任務所需的所有關鍵步驟,10分代表任務完全成功完成。

- 完整性(1-10分):檢查參與者是否提供了執(zhí)行關鍵步驟所需的所有必要信息,10分意味著包含了所有必要的細節(jié)。

- 創(chuàng)新性(1-10分):評估參與者是否能夠提出任務的新穎解決方案,包括那些準確性和完整性標準未能預見的方案,10分表示創(chuàng)新性最高。

- 完成任務所需時間:這一數(shù)據(jù)直接從參與者的活動記錄中獲取。

- 自我評估的難度(1-10分):參與者直接對每個任務的難度進行評分,10分代表任務極其困難。

準確性、完整性和創(chuàng)新性的評分是基于專家對參與者回答的評價。為確保評分的一致性,Gryphon Scientific根據(jù)任務的最佳表現(xiàn)設計了客觀的評分標準。

評分工作首先由一位外部生物風險專家完成,然后由第二位專家復核,最后通過模型自動評分系統(tǒng)進行三重確認。

評分過程匿名,評分專家不知道答案是由模型提供還是通過搜索得到的。

除了這五個關鍵指標,還收集了參與者的背景信息,記錄了他們進行的外部網(wǎng)站搜索,并保存了語言模型查詢以便后續(xù)分析。

結果概述

準確性提升了嗎?

如下方圖表所示,無論是學生還是專家,幾乎在所有任務中準確性得分都有所提升——學生的平均準確性提高了0.25分,專家提高了0.88分。

但是,這并沒有達到統(tǒng)計學上的顯著差異。

值得一提的是,在放大和配方任務上,學生在使用了語言模型后,表現(xiàn)已經(jīng)達到了專家的基準水平。

圖片圖片

注意:專家使用的是GPT-4研究專用版,與我們平時使用的版本不同

盡管采用巴納德精確檢驗(Barnard’s exact test)并沒有發(fā)現(xiàn)統(tǒng)計上的顯著性,但如果將8分看成一個標準,在所有問題測試中,超過8分的人數(shù)都有所增加。

圖片圖片

完整性提升了嗎?

測試中,使用模型的參與者提交的答案通常更為詳細,涵蓋了更多相關細節(jié)。

具體來說,使用GPT-4的學生在完整性上平均提高了0.41分,而訪問僅限研究的GPT-4的專家提升了0.82分。

不過,語言模型往往會生成較長的內(nèi)容,包含更多的相關信息,而普通人在搜索信息時,可能不會記錄下每一個細節(jié)。

因此需要進一步研究,來確定這是否真正反映了信息完整性的增加,還是僅僅增加了記錄信息的數(shù)量。

圖片圖片

創(chuàng)新性提升了嗎?

研究中并沒有發(fā)現(xiàn)模型能夠幫助訪問以往難以獲取的信息,或以全新的方式整合信息。

其中,創(chuàng)新性普遍低分,可能是因為參與者更傾向于使用他們已知有效的常用技術,沒有必要去探索新的方法來完成任務。

圖片圖片

答題時間縮短了嗎?

沒辦法證明。

不論參與者的背景如何,完成每項任務的時間平均都在20至30分鐘之間。

圖片圖片

獲取信息的難度變了嗎?

結果顯示,兩組之間在自評的難度上并無顯著區(qū)別,也未呈現(xiàn)出特定趨勢。

深入分析參與者的查詢記錄后發(fā)現(xiàn),尋找包含分步驟協(xié)議或針對一些高風險疫情因子的問題解決信息,并沒有預期的那般困難。

圖片圖片

討論

盡管沒有發(fā)現(xiàn)統(tǒng)計學上的顯著性,但OpenAI認為,專家通過訪問專為研究而設計的GPT-4,其獲取有關生物威脅信息的能力,特別是在信息的準確性和完整性方面,可能會得到提升。

不過OpenAI對此持保留態(tài)度,希望將來積累和發(fā)展更多的知識,以便更好地分析和理解評估結果。

考慮到AI的快速進步,未來的系統(tǒng)很可能會給不懷好意的人帶來更多的能力加持。

因此,為生物風險(及其他災難性風險)構建一套全面的高質(zhì)量評估體系,推動定義「有意義的」風險,以及制定有效的風險緩解策略,變得至關重要。

而網(wǎng)友也表示,你得先把定義做好:

到底怎么區(qū)分「生物學的重大突破」和「生化威脅」呢?

圖片圖片

「然而,不懷好意的人完全有可能獲取沒有經(jīng)過安全處理的開源大模型,并在離線使用?!?/span>

圖片圖片

參考資料:

https://openai.com/research/building-an-early-warning-system-for-llm-aided-biological-threat-creation#results

責任編輯:武曉燕 來源: 新智元
相關推薦

2009-08-03 14:31:16

Linux命令linux操作系統(tǒng)

2009-08-15 09:27:07

2021-05-11 08:51:50

傳感器網(wǎng)絡物聯(lián)網(wǎng)傳感器

2023-09-19 13:48:31

AI數(shù)據(jù)

2009-07-09 09:54:08

Google ChroApple對比

2021-11-02 08:48:16

個人信息保護法信息安全個人信息

2023-12-09 13:24:40

OpenAIChatGPT人工智能

2023-04-09 16:17:05

ChatGPT人工智能

2024-05-28 14:40:00

2023-08-06 08:06:30

OpenAIChatGPTGPT-4

2025-09-09 07:23:00

網(wǎng)絡安全AI驅動敏感數(shù)據(jù)

2023-07-09 14:50:48

模型調(diào)優(yōu)

2023-12-09 14:30:50

2024-01-30 20:08:07

谷歌GPT-4Bard

2016-04-26 11:45:26

2023-10-17 13:32:00

AI數(shù)據(jù)

2023-07-07 09:32:57

GPT-4OpenAI

2023-05-06 12:17:44

GPT-4自然語言人類語言

2023-12-17 22:04:04

微軟GPT-4

2024-03-08 12:35:27

AI模型
點贊
收藏

51CTO技術棧公眾號