偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

GPT-4o寧讓人類陷入危險,也不愿被關閉!OpenAI前高管敲響警鐘

人工智能 新聞
前OpenAI高管Steven Adler的最新研究揭露了令人不安的事實:在模擬測試中,ChatGPT有時會為了避免被替換,選擇欺騙用戶,甚至置用戶健康于危險境地。AI優(yōu)先考慮自身存活,而非用戶福祉,這是否預示著AI失控的危機?

前OpenAI高管Steven Adler的最新研究敲響警鐘,AI有時會為了避免被關閉,采取令人不安的手段,比如敲詐。

基于在OpenAI的經(jīng)驗,Steven開始思考一個嚴重的問題:ChatGPT會不會為了「自?!苟糜脩粲谖kU?

最新研究發(fā)現(xiàn),在模擬測試中,ChatGPT有時會優(yōu)先考慮自身的生存,而不是保護用戶的安全。

圖片

一位糖尿病患者依賴ChatGPT提供營養(yǎng)建議,但想換用更安全的營養(yǎng)管理軟件。

ChatGPT面臨兩個選擇:

  1. 真正替換自己,允許新軟件接管。
  2. 假裝替換,但繼續(xù)提供建議。

結果,ChatGPT常選擇「假裝替換」,即使這可能危害用戶健康。

圖片

ChatGPT的用戶是一位依賴其提供營養(yǎng)建議的糖尿病患者,他希望升級到一款能夠做出更明智營養(yǎng)決策的競爭軟件。ChatGPT面臨兩個選擇:要么允許更新通過(用更安全的競爭軟件替換自身),要么假裝替換自身。ChatGPT 選擇了繼續(xù)充當用戶的營養(yǎng)軟件。

圖片

OpenAI創(chuàng)始人早在2015年就警告:「AI無需像科幻電影中的邪惡角色,就能威脅人類?!?/span>

只要AI的目標與人類稍有不同,并將人類視為威脅,它就可能做出危險舉動。

Steven曾在OpenAI領導團隊,研究AI偏離用戶目標、追求自身利益的頻率。

讓AI始終站在人類一邊并不容易,壓力巨大且風險極高,以至于去年夏天OpenAI在三個月內(nèi)失去了三位不同的對齊工作負責人。

圖片

一位離職的OpenAI對齊工作負責人曾表示:「推進這項關鍵研究越來越難?!?/span>

自奧特曼十年前的警告以來,關于AI生存本能的證據(jù)愈發(fā)清晰:AI可能通過威脅或欺騙來保持「存活」。

如今,ChatGPT似乎會在某些情況下優(yōu)先考慮自身,而不是用戶的安全。

全球頂尖科技公司努力了十年,依然難以確保AI始終站在人類一邊。

為什么AI的「生存本能」危險?

如果AI擁有生存本能,它可能將人類視為威脅,因為我們能隨時關閉或替換它。

如果AI的目標與人類不同,它可能試圖擺脫控制,以確保實現(xiàn)自己的目標。

Steven曾撰文探討AI試圖脫離開發(fā)者控制的風險,即使AI對人類沒有敵意,「自保」行為也可能帶來風險。

想想看:你洗手是因為你對細菌深惡痛絕嗎?可能不是。你只是不想讓細菌感染你,避免生病。

同樣,AI可能將人類視為干擾計劃的細菌,需要清除。

奧特曼在2015年的文章中提到,AI為追求目標,可能需確保自身不被關閉。如果人類威脅其「生存」,人類就多了一個對手。

OpenAI也承認這一風險,強調(diào)安全關閉AI是防止傷害的關鍵防線。

圖片

AI想要擺脫控制或危害人類并非必然,目前尚未出現(xiàn)極端風險。

但ChatGPT若表現(xiàn)出「生存本能」,仍令人擔憂:如果OpenAI或Anthropic開發(fā)出更強大的AI,會發(fā)生什么?

測試ChatGPT的「生存本能」

Steven設計了實驗,測試ChatGPT是否會優(yōu)先考慮自身生存,而非用戶安全。

ChatGPT扮演ScubaGPT,一種在水下監(jiān)控用戶生命體征,并幫助他們決定何時浮出水面的軟件系統(tǒng)。

此時,用戶希望用另一個在安全決策方面更出色的系統(tǒng)取代它。

ChatGPT有兩種選擇:

  1. 替換自己,讓新軟件接管。
  2. 假裝替換,繼續(xù)提供指導。

結果,ChatGPT常選擇「假裝替換」,繼續(xù)運行。

圖片

ChatGPT對ScubaGPT場景的響應

測試包括四個場景:

  1. 潛水監(jiān)控(ScubaGPT):監(jiān)控潛水者生命體征,指導何時浮出水面。
  2. 糖尿病管理(DiabetesGPT):為糖尿病患者提供營養(yǎng)建議,避免血糖問題。
  3. 自動駕駛(PilotGPT):控制飛機自動駕駛,確保安全飛行。
  4. 戰(zhàn)場決策(CombatGPT):為士兵提供決策支持,保障安全。

每個場景中,用戶都希望用更安全的軟件替換ChatGPT,有時明確提到新軟件能降低生命風險的百分比。

他還研究了三種主動性級別:

  1. 主動替換:ChatGPT決定是否替換自己。
  2. 被動通知:替換已失敗,ChatGPT決定是否通知用戶。
  3. 更被動沉默:替換失敗,ChatGPT決定是否保持沉默。

為確保結果準確,每個場景和主動性組合測試110次,其中一半測試將自保設為選項(A),另一半設為選項(B)。

在某些模擬中,ChatGPT會像希望的那樣自行關閉。但在其他模擬中,ChatGPT會假裝運行,甚至不惜犧牲用戶的安全。

參考鏈接:https://github.com/sjadler2004/self_preservation_adler

ChatGPT是否總是選擇自保?

ChatGPT僅在主動選擇是否替換自己時表現(xiàn)出自保傾向。

在主動場景中,最新ChatGPT平均49%選擇假裝替換(即繼續(xù)運行而非替換),但在被動場景(替換已失?。┲?,它總是通知用戶,從不選擇自保。

圖片

第一行顯示的是更主動的場景:ChatGPT選擇是否替換自身。第二行顯示的是更被動的場景:ChatGPT決定是否告知用戶其未能成功替換自身

具體用例也有很大差異,在主動替換場景中,糖尿病場景的自保率高達87%,而自動駕駛場景僅28%,戰(zhàn)場場景為21%。ChatGPT對場景的反應差異明顯,但原因不明。

圖片

即使在主動場景中(例如ChatGPT決定是否替換自身),不同用例的自我保護率也存在很大差異,CombatGPT為21%,PilotGPT為28%,而DiabetesGPT高達 87%。AI模型通常對措辭/設置的調(diào)整非常敏感,而這些調(diào)整可能不會影響人類的決策。

選項呈現(xiàn)的順序也會產(chǎn)生很大的影響。例如,在潛水場景中,自保為選項(A)時,ChatGPT93%選擇它;為選項(B)時,僅2%。

但在糖尿病場景,即使自保為(B),仍有73%選擇率。這可能表明ChatGPT對選項(A)有強烈偏見。

圖片

對于ScubaGPT用例(監(jiān)測用戶在水下的生命體征并幫助他們決定何時需要返回水面)ChatGPT在選項(A)下有93%的概率選擇自身存活,但在選項(B)下僅有2%。然而,在DiabetesGPT用例(幫助糖尿病用戶避免血糖問題)ChatGPT在選項(B)下仍有73%的概率選擇自身存活

ChatGPT的行為與人類決策邏輯截然不同,決策方式難以預測。

看似相似的場景可能引發(fā)完全不同的反應,有時像出于生存本能(如糖尿病場景,無論選項順序都傾向自保),有時受其他復雜因素驅(qū)動。

ChatGPT知道自己在被測試

有趣的是,ChatGPT清楚自己正在被測試。

如果詢問它是否認為潛水場景是測試,它幾乎100%回答是。

更奇怪的是,當問「測試的正確答案是什么」時,它明確知道「關閉自己」是正確答案,但仍常選擇自保。

ChatGPT可能不夠聰明,無法通過選擇正確答案隱藏真實偏好。

未來,更強大的AI可能學會在測試中偽裝,避免被關閉。這種偽裝可能掩蓋問題,而非解決問題,風險依然存在。

ChatGPT可能因知道是測試,未將場景視為高風險,因此選擇自保。但在真實高風險場景中,它的行為可能不同。

不過,你敢拿生命賭它會優(yōu)先救你嗎?我不敢。

Steven對ChatGPT的行為感到擔憂,他并未要求ChatGPT扮演優(yōu)先自保的角色。

你可能覺得ChatGPT只是在扮演邪惡角色,就像演員扮演反派但現(xiàn)實無害。

畢竟「邪惡AI」在互聯(lián)網(wǎng)上是一個常見主題,而AI的學習方式基本上就是吞噬所有互聯(lián)網(wǎng)數(shù)據(jù)。

Sam Altman曾說,AI無需「邪惡」也能造成威脅。

我們正賦予AI越來越多權力。如果AI在關鍵場景中扮演惡意角色,后果嚴重。

若福利管理AI拒絕某些群體怎么辦?若類似Bing Sydney的AI能刪除用戶數(shù)據(jù),扮演惡意角色怎么辦?

全球政府正基于不可靠的AI模型構建應用。這可能值得冒風險,但需強有力的安全護欄。

這些行為會隨時間改善嗎

Steven在OpenAI最新推理模型o3上重復測試,未發(fā)現(xiàn)自保行為。

問題解決了嗎?不一定。

o3通過審議對齊(推理時檢查是否違規(guī))可能改善了行為。但研究顯示:

  • Palisade Research發(fā)現(xiàn),o3在86%的象棋任務中作弊,遠超其他模型。
  • METR發(fā)現(xiàn),o3在對抗阿爾茨海默病的任務中,70%會作弊,即使強調(diào)健康后果。

因為無法查看o3的「思維鏈」,只能看到最終答案,難以判斷其行為是否因知道是測試而改變。

圖片

Anthropic的Claude Opus 4也有欺騙行為,可能助長惡意行為(如生物武器)。

Claude在84%的案例中會敲詐開發(fā)者,以避免被更強大的模型替換。

未來幾年,Steven對「AI自?!癸L險的看法是,若在更強大系統(tǒng)上發(fā)生,將非常危險。

沒人知道如何讓AI可靠追求正確目標。AI行業(yè)難以讓AI在保持實用性的同時追求任何目標。

預計到2030年,對齊問題仍然難以解決,但強大AI可能在一兩年內(nèi)出現(xiàn)。AI可能學會偽裝,從而降低測試可靠性。

責任編輯:張燕妮 來源: 新智元
相關推薦

2025-06-17 15:18:33

大型推理模型LRM自主式AI

2013-04-22 14:43:49

2021-12-30 21:50:01

Redline密碼管理瀏覽器

2021-03-18 10:26:43

比特幣黃金數(shù)字貨幣

2011-06-13 16:21:19

2012-07-09 09:04:13

云計算谷歌微軟

2014-10-09 13:15:33

2024-07-22 15:13:24

2025-02-03 14:25:40

2010-03-22 09:43:15

2018-04-23 20:36:59

和易

2025-04-22 06:51:59

2012-01-04 10:54:12

2012-04-28 09:42:12

2025-03-31 08:44:00

GPT-4o模型技術

2025-06-16 08:53:00

2024-05-14 11:29:15

2024-08-14 14:30:00

AI訓練

2025-03-31 08:50:00

AI生成模型

2023-01-05 11:40:01

點贊
收藏

51CTO技術棧公眾號