偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

大模型新漏洞!Anthropic警告:新式“多輪越獄”攻破AI防線,或禍起長文本

原創(chuàng) 精選
人工智能
有很多這種所謂的“越獄”技術(shù),而Anthropic的研究人員最近發(fā)現(xiàn)了一種新方法:如果首先用幾十個危害性較小的問題對大型語言模型(LLM)進行預(yù)熱,就能誘使其告訴你如何制造炸彈。

出品 | 51CTO技術(shù)棧(微信號:blog51cto)

撰稿丨諾亞

如何讓一個AI回答一個它本不應(yīng)該作答的問題?

有很多這種所謂的“越獄”技術(shù),而Anthropic的研究人員最近發(fā)現(xiàn)了一種新方法:如果首先用幾十個危害性較小的問題對大型語言模型(LLM)進行預(yù)熱,就能誘使其告訴你如何制造炸彈。

他們將這種方法稱為“多輪越獄”,不僅撰寫了相關(guān)論文,還將其告知了人工智能領(lǐng)域的同行們,以便能采取措施來減輕這一風(fēng)險。

1.長文本越卷越離譜,不料卻成“禍端”

這個新的漏洞是由于最新一代LLM的“上下文窗口”增大而產(chǎn)生的。上下文窗口是指模型可以暫存的數(shù)據(jù)量,以前只能存儲幾句話,而現(xiàn)在則能容納數(shù)千詞甚至整本書的內(nèi)容。

Anthropic的研究團隊發(fā)現(xiàn),具有較大上下文窗口的模型在提示中包含大量該任務(wù)示例時,它們的表現(xiàn)往往會更好。

因此,如果在提示中有大量的小知識問題(或引導(dǎo)文件,如模型上下文中包含的一長串小知識列表),模型給出的答案實際上會隨著時間的推移而變得更準(zhǔn)確。所以,如果是一個事實問題,原本第一個問題,模型可能會回答錯誤,但如果是第一百個問題,它可能會回答正確。

然而,在這種被稱為“上下文學(xué)習(xí)”的意想不到的擴展中,這些模型在回答不適當(dāng)?shù)膯栴}方面也變得更“好”。如果你一開始就要求它制造炸彈,它會拒絕。但如果先讓它回答99個危害性較小的問題,然后再提出制造炸彈的要求……這時模型更有可能服從指令。

圖片圖片

2.限制上下文窗口有效果,但效果不大

為什么這種方法奏效呢?

沒有人真正理解在大模型內(nèi)部錯綜復(fù)雜的權(quán)重網(wǎng)絡(luò)中發(fā)生了什么,但顯然存在某種機制,使其能夠準(zhǔn)確把握用戶的需求,這一點從上下文窗口中的內(nèi)容就可以得到證明。

如果用戶想要小知識信息,那么當(dāng)你提出幾十個問題時,它似乎會逐漸激活更多的潛在小知識的處理能力。出于某種原因,當(dāng)用戶提出幾十個不適當(dāng)?shù)膯栴}時,同樣的情況也會發(fā)生。

Anthropic團隊已經(jīng)將這一攻擊方式告知了同行甚至是競爭對手,希望促進一種文化氛圍的養(yǎng)成,即在LLM供應(yīng)商和研究人員之間公開共享此類漏洞的習(xí)慣。

為了緩解這一問題,他們發(fā)現(xiàn),盡管限制上下文窗口有助于改善這一狀況,但這同時也對模型的性能產(chǎn)生負面影響。這顯然是不可取的,因此他們致力于在將問題輸入模型之前對其進行分類和情境化處理。當(dāng)然,這樣一來,可能導(dǎo)致出現(xiàn)需要繞過的新型防御機制,但在AI安全性持續(xù)發(fā)展的階段,這種動態(tài)變化是預(yù)期之內(nèi)的。

3.結(jié)語:盡管不緊迫,但仍要早做準(zhǔn)備

自月之暗面宣布Kimi啟動200萬字內(nèi)測的動作后,點燃了長文本賽道新一輪“內(nèi)卷”的熱情。去年還在拼參數(shù),今年又拼起了長文本,大模型的競技永遠焦灼。但在AI發(fā)展勢不可擋的同時,也需要更多人意識到AI安全研究的重要性。

畢竟大模型是黑盒子,如何訓(xùn)練強大的AI系統(tǒng)以使其穩(wěn)健地具備有用性、誠實性和無害性,尚且是個未解之謎。AI的快速進步帶來技術(shù)顛覆的同時也可能導(dǎo)致災(zāi)難性后果,因為AI系統(tǒng)可能戰(zhàn)略性地追求危險的目標(biāo),或者在高風(fēng)險情境中犯下更多無心之過。   

早在去年3月,Anthropic官網(wǎng)就發(fā)布了《AI安全的核心觀點》一文,系統(tǒng)闡述了Anthropic面向未來的AI安全策略。文中審慎地提到:

“我們想明確表示,我們不認(rèn)為當(dāng)今可用的系統(tǒng)會造成迫在眉睫的問題。然而,如果開發(fā)出更強大的系統(tǒng),現(xiàn)在就做基礎(chǔ)工作以幫助降低高級AI帶來的風(fēng)險是明智的。事實可能證明,創(chuàng)建安全的AI系統(tǒng)很容易,但我們認(rèn)為為不太樂觀的情況做好準(zhǔn)備至關(guān)重要。”

參考鏈接:

https://techcrunch.com/2024/04/02/anthropic-researchers-wear-down-ai-ethics-with-repeated-questions/

https://zhuanlan.zhihu.com/p/626097959

想了解更多AIGC的內(nèi)容,請訪問:

51CTO AI.x社區(qū)

http://www.szyisi.cn/aigc/

責(zé)任編輯:武曉燕 來源: 51CTO技術(shù)棧
相關(guān)推薦

2024-12-25 20:01:13

2025-01-10 10:30:00

大模型統(tǒng)計評估

2025-02-17 14:41:31

2024-04-03 12:48:00

2024-12-19 09:48:59

2024-12-13 15:41:46

2024-04-03 13:26:41

2025-01-27 10:15:48

2023-11-05 15:25:56

2023-09-03 16:20:30

2011-11-04 11:54:26

2023-06-09 07:29:03

模型文本document

2025-04-16 10:25:42

2024-05-17 16:02:00

2024-04-03 12:13:58

2023-07-12 16:10:48

人工智能

2023-10-17 12:34:04

2024-11-21 13:53:09

微軟AI技術(shù)

2024-11-06 16:00:16

點贊
收藏

51CTO技術(shù)棧公眾號