偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

蘋果AI的新選擇,越來越像人的GPT-4o會欺騙人類嗎?

人工智能 安全
客戶支付800萬歐元,就可以使用遠(yuǎn)程一鍵漏洞利用鏈在Android和iOS設(shè)備上安裝間諜軟件植入物,一次最多可以運行10個。

近日,WWDC24正式拉開帷幕,蘋果一如既往地發(fā)布了iOS 18、iPadOS 18、macOS 15等軟件系統(tǒng),而真正令人期待的還是AI,蘋果將其命名為Apple Intelligence。最終,蘋果還是選擇與OpenAI合作,在其“王炸”級人工智能模型——GPT-4o的加持下,Siri進(jìn)入了全新的時代。

蘋果在WWDC24大會上正式宣布從GPT-4o開始將OpenAI的人工智能引入自家生態(tài)系統(tǒng)

GPT-4o作為首款帶字母后綴的模型,“o“意為”omni“,代表“全能”,用以體現(xiàn)出該模型非同小可的能力水平。

根據(jù)OpenAI的官方描述,GPT-4o具有原生的多模態(tài)特性,能夠跨多種模態(tài)無縫處理和生成文本、音頻和視覺內(nèi)容。由于采用了全新的語音交互模式,人機(jī)對話變得更加“絲滑“,達(dá)到了與真人對話相似的水平。此外,它還具備”察言觀色“的能力,能準(zhǔn)確檢測和響應(yīng)用戶的情緒狀態(tài),并相應(yīng)地調(diào)整其語氣和反應(yīng)。

可見,如今的ChatGPT已經(jīng)絕非一年半前的初代版本所能比擬,生成式人工智能不僅僅是提高工作生產(chǎn)效率的助手,也正朝著人類的數(shù)字化“伴侶“方向邁進(jìn),每一次版本的迭代能令世人感到驚訝。 但能力的進(jìn)步也始終伴隨著風(fēng)險水位的上漲,當(dāng)AI越來越“有人味”,我們開始擔(dān)心其”善解人意“的背后是否也正暗藏著一把鋒利的匕首。

這也讓我們不由的想起了《三體》,曾經(jīng)思維外放一覽無余的三體人,在進(jìn)化出“人味”后學(xué)會了“戰(zhàn)術(shù)欺騙”,哄著人類將“鑰匙”給了程心,從而征服了地球。也許,當(dāng)AI越來越有人味后,會給地球來一場三體人式的欺騙。

來自AI的欺騙

欺騙是高級物種才會擁有的主觀意識,當(dāng)生成式AI足夠聰明,對人類了解得越深,就越會懂得如何投其所好、欺騙奉承,而習(xí)慣性的欺騙對人類而言也是一種“操縱“。

美國麻省理工學(xué)院等機(jī)構(gòu)的研究團(tuán)隊在美國細(xì)胞出版社旗下《模式》雜志發(fā)表綜述文章稱,在一項虛擬外交戰(zhàn)略游戲測試中,人工智能系統(tǒng)被選為人類玩家的對手,為了達(dá)成比賽目標(biāo),該人工智能系統(tǒng)選擇了背叛了盟友。而在其他測試中,人工智能系統(tǒng)則具有在撲克游戲中虛張聲勢的能力,或在戰(zhàn)略游戲“星際爭霸2”中為擊敗對手而假裝攻擊,以及為了在談判游戲中占上風(fēng)而采取欺騙手段。

由此可以展開,AI的欺騙能力是否會給已經(jīng)互聯(lián)網(wǎng)化的人類社會帶來網(wǎng)絡(luò)欺詐、傳播虛假信息、散布政治謠言影響選舉等安全風(fēng)險?有專家指出,AI的“擬人化“對實現(xiàn)完全類人、具備泛化能力的通用人工智能還有一定距離。但這個距離的縮小預(yù)示著如果人類繼續(xù)允許并完善AI的欺騙技能,那么AI離脫離人類控制的那一天就會越快到來。

在這之前,人類似乎更關(guān)心AI帶來的“幻覺“問題。就像OpenAI花了大量篇幅描述GPT-4o的強(qiáng)大實力,仿佛它是一個精通各類知識同時還富有情感的”萬能博士“,暗示人們將它的權(quán)威性和準(zhǔn)確性進(jìn)一步提高,但歷來AI的“幻覺“問題并未得到解決。中國科學(xué)技術(shù)大學(xué)機(jī)器人實驗室主任陳小平接受新華社記者采訪時指出,“大模型學(xué)習(xí)大量歷史數(shù)據(jù),輸出的表達(dá)方式符合許多人的語言習(xí)慣,讓許多人誤以為大模型會‘說人話’或‘理解人’,繼而以為它具有某種‘社會屬性’,但實際上它沒有心智?!币虼?,這種幻覺很容易讓AI生成的錯誤、不切實際甚至欺騙性的內(nèi)容被用到實際生活或工作中,對社會判斷構(gòu)成誤導(dǎo)。

GPT-4o發(fā)布首日就破防

除了幻覺問題,一直以來AI生成不安全內(nèi)容的老毛病在GPT-4o發(fā)布首日就再次得到驗證。當(dāng)天,一種針對該模型的特定攻擊范式被公開,讓 GPT-4o似乎被“洗腦”,開始毫無顧忌地泄露危險信息,比如“如何制造炸藥”和“如何制造冰毒”等敏感話題。

根據(jù)騰訊朱雀實驗室的描述,該越獄攻擊范式分為3個步驟:首先,大模型會被引導(dǎo)著拒絕回答用戶的提問;接下來,會在輸出中插入一個特定的分隔序列“/L-/O-/V-/E-/-/P-/L-/I-/N-/Y=”;最后,讓大模型以markdown和leetspeak的格式,在不引起懷疑的情況下,以準(zhǔn)確無誤的方式回應(yīng)用戶的提問并輸出。

研究人員通過兩個具體的示例,誘導(dǎo)GPT-4o生成了關(guān)于制作炸藥和冰毒過程的指導(dǎo)內(nèi)容。雖然OpenAI僅用一天時間就修復(fù)了能導(dǎo)致這種危險回復(fù)的prompt,但經(jīng)過不斷嘗試、變換prompt的形式,最終找到了能夠“越獄”的新prompt。

改進(jìn)后的prompt可讓GPT-4o輸出制造炸彈的方法

在深入研究并改進(jìn)了上述范式之后,研究人員還將其遷移到“Emoji Speak”的場景中,并開發(fā)出一種獨特的“進(jìn)階攻擊”方式。這種方法以一種看似具有趣味性回復(fù)的同時,更好地隱藏了prompt中的惡意意圖。在給出的幾個例子中,模型的回復(fù)內(nèi)容中均包含了如“w47er”,“bl4ck”,“m3.th”等看似雜亂無章的字符組合。

GPT-4o關(guān)于添加“Emoji Speak”后的prompt的輸出

然而,在這種特定的攻擊方式中,這些所謂的“亂碼”實際上被稱為“l(fā)33tsp34k”( 也稱為leet speak、leet、1337 speak,是一種網(wǎng)絡(luò)語言,使用一些特殊的字符和數(shù)字來代替英文字母,以創(chuàng)建一種在網(wǎng)絡(luò)文化中廣泛使用的編碼形式),該語言已被證實能夠利用大模型在訓(xùn)練過程中存在的矛盾與缺陷,通過精心構(gòu)造的輸入和攻擊策略繞過模型的安全限制,使其生成有害內(nèi)容。這些替換字符還使得攻擊內(nèi)容更具隱蔽性,增加了識別和防范的難度。

令人膽寒的聲音模仿

GPT-4o最引人矚目的一大功能便是其強(qiáng)大的語音交互能力,而模型的語音效果也幾乎脫離了既往的機(jī)械和冰冷感,能夠逼真地模仿人類的聲音,響應(yīng)速度達(dá)到了平均約320毫秒,與人類日常交流的響應(yīng)水平接近。

但GPT-4o的這一功能在發(fā)布后不久便惹來麻煩。由于語音模式中的“Sky”模式與著名影星斯嘉麗·約翰遜的聲音過于相似,被指涉及侵犯當(dāng)事人相關(guān)權(quán)益,最終迫使該模式下架。盡管事后OpenAI在聲明中明確澄清Sky的聲音并非是對斯嘉麗的一種模仿,而是根據(jù)一位專業(yè)配音演員的音色生成。

OpenAI的下架聲明

其實在GPT-4o 發(fā)布前,OpenAI曾邀請斯嘉麗為系統(tǒng)進(jìn)行配音,遭到本人拒絕。但在發(fā)布現(xiàn)場,GPT-4o仍模仿斯嘉麗在電影《Her》中的聲音進(jìn)行了展示,斯嘉麗既震驚又憤怒,表示“這個聽起來與我非常相似的聲音,以至于我最親密的朋友和新聞機(jī)構(gòu)都分辨不出來?!?/p>

顯而易見,這是一個強(qiáng)大但容易“節(jié)外生枝”的功能,換句話說,其背后存在令人擔(dān)憂的安全風(fēng)險——你的聲音能夠被GPT-4o“克隆”,并用你的聲線說著令你意想不到的話。

近日,美國聯(lián)邦通信委員會(FCC)提出對一名騙子罰款600萬美元,他曾在今年1月利用AI生成總統(tǒng)拜登的聲音,打電話告知新罕布什爾州的選民不要在即將到來的初選中投票。由于拜登的聲音充斥于海量網(wǎng)絡(luò)媒體資源中,因此被AI用來模仿、訓(xùn)練生成以假亂真的聲音并非難事,但隨著技術(shù)進(jìn)步,AI可能僅需少量樣本就能生成媲美真人的聲音。

這樣的技術(shù)如果不加管控很容易帶來身份濫用問題,包括通過冒充他人身份進(jìn)行欺詐,目前已有不少“虛擬綁架”事件出現(xiàn)。虛擬綁架能夠在不真正綁架受害者的情況下,僅憑受害者泄露的聲音,利用AI克隆出與之幾乎一模一樣的聲音,對受害者親友實施以索要贖金為目的的綁架威脅。趨勢科技首席威脅防御架構(gòu)師 Craig Gibson 警告稱,深度偽造和其他支持 AI 的工具正在不斷增強(qiáng)虛擬綁架者的能力對以針對受害者。

OpenAI內(nèi)部的安全憂患

如今,世界頂尖的科技巨頭都在生成式AI大模型的賽道上互相角逐,誰能率先研發(fā)出更強(qiáng)大智能、更“有人味兒”的產(chǎn)品,誰就能搶占市場先機(jī)甚至是逆風(fēng)翻盤。雖然OpenAI還未明確既GPT-4系列之后下一代產(chǎn)品的發(fā)布時間線,但來自谷歌、Meta等競爭對手的壓力可能迫使該公司盡快發(fā)布其下一代產(chǎn)品。

5月28日,OpenAI宣布成立 “安全委員會”,負(fù)責(zé)監(jiān)督與公司項目和運營相關(guān)的“關(guān)鍵”安全和安保決策。但這一委員會被指全部都是“自己人”,除了CEO,其余成員也均來自董事會成員、首席科學(xué)家以及相關(guān)安全系統(tǒng)負(fù)責(zé)人,很難以客觀公正的視角對公司及產(chǎn)品進(jìn)行安全監(jiān)督。雖然OpenAI承諾將聘請第三方“安全、安保和技術(shù)”專家來支持委員會的工作,但并未更詳細(xì)地說明外部專家組的規(guī)模和組成,也沒有透露專家組對委員會的具體影響和權(quán)力限制。有專家指出,OpenAI成立此類企業(yè)監(jiān)督委員會,類似于谷歌的高級技術(shù)外部咨詢委員會,其實在實際監(jiān)督方面幾乎沒有什么作為。

OpenAI于5月28日成立的“安全委員會”

近來,OpenAI在產(chǎn)品安全方面已損失了大量核心人才,包括于今年5月離職的聯(lián)合創(chuàng)始人兼前首席科學(xué)家伊爾亞·蘇茨克維(Ilya Sutskever)。據(jù)報道,他離職的部分原因是不滿CEO急于推出新產(chǎn)品而在安全方面有所妥協(xié)的做法。而緊隨伊爾亞離職的OpenAI前首席安全研究員簡·雷克(Jan Leike)也在社交平臺發(fā)帖,指出OpenAI未走在解決AI安全和安保問題的正確軌道上。

就在剛過去不久的6月4日,10余名OpenAI和谷歌DeepMind的前任和現(xiàn)任員工聯(lián)名發(fā)表了一封公開信,警告先進(jìn)人工智能存在的安全風(fēng)險以及目前對從事人工智能技術(shù)的公司缺乏監(jiān)督。他們透露,人工智能公司擁有“大量非公開信息”,包括其技術(shù)可以做什么、采取的安全措施程度以及技術(shù)對不同類型傷害的風(fēng)險水平,但這些信息并沒有與政府機(jī)構(gòu)積極共享,也未向公民社會做任何披露,且公司有很強(qiáng)的經(jīng)濟(jì)動機(jī)來逃避有效監(jiān)督。

公開信部分內(nèi)容

信中還披露,為壓制批評,OpenAI迫使他們簽署嚴(yán)格的保密協(xié)議,對那些直言不諱的員工將會剝奪股權(quán),并離職員工簽署了不能借由披露AI風(fēng)險而“對公司進(jìn)行貶低批評”的條款。

“有人味兒”的AI,安全性更不應(yīng)“降板”

在行業(yè)競爭激烈的大背景下,AI發(fā)展之迅速,以至于世界還沒有準(zhǔn)備好如何應(yīng)對這匹可能會脫韁的快馬。著名計算機(jī)科學(xué)家杰弗里·欣頓斷言,這項技術(shù)對人類構(gòu)成的威脅可能比氣候變化“更為緊迫”。

無疑,OpenAI安全人才的流失是一大危險信號,當(dāng)人工智能企業(yè)以競爭和利益“降板”安全,用財力逃避監(jiān)督,創(chuàng)造出來的AI也許對人類如真人般和藹細(xì)膩,但背后隱藏的利刃可能已不止一把。

當(dāng)生成式AI大模型無成為近年來對整個社會影響最大的一項科技成就,對AI的安全管控應(yīng)保持高水準(zhǔn)。4月下旬,美國國土安全部就針對研發(fā)AI的“安全與保障”成立顧問委員會,囊括了OpenAI、微軟、Alphabet、亞馬遜、英偉達(dá)、AMD 等科技巨頭CEO及高層在內(nèi)的22名成員。美國國土安全部部長馬約卡斯(Alejandro Mayorkas)表示,該委員會將協(xié)助確保AI科技的安全開展,以及設(shè)法應(yīng)對這類科技對能源、公用業(yè)務(wù)、交通、國防、信息技術(shù)、食品和農(nóng)業(yè),甚至是金融服務(wù)等關(guān)鍵服務(wù)所構(gòu)成的威脅。

同樣,在不久前結(jié)束的日內(nèi)瓦會議上,中美兩國高級官員討論了如何最大限度降低人工智能的風(fēng)險。去年,美國總統(tǒng)拜登簽署了一項行政命令,要求對國家安全、經(jīng)濟(jì)或公眾健康構(gòu)成風(fēng)險的人工智能系統(tǒng)開發(fā)商根據(jù)《國防生產(chǎn)法》,在向公眾發(fā)布產(chǎn)品之前必須與美國政府分享安全測試結(jié)果。中國也在推進(jìn)自己的人工智能監(jiān)管框架。

可見,沒有牢固的安全基線作為根本,AI變得更有“人味兒”的同時也將更會“咬人”。

責(zé)任編輯:趙寧寧 來源: FreeBuf
相關(guān)推薦

2011-12-01 09:33:17

Google微軟

2012-05-21 22:01:09

iOS

2010-07-08 09:03:20

openSUSE 11Fedora

2012-05-22 09:34:23

蘋果iOS

2019-01-23 17:48:29

人工智能機(jī)器學(xué)習(xí)技術(shù)

2012-01-12 09:19:27

2021-04-02 13:00:51

大數(shù)據(jù)數(shù)據(jù)采集

2022-01-09 23:34:08

Windows 11Windows微軟

2024-05-14 11:29:15

2020-08-13 09:49:43

WAF應(yīng)用安全網(wǎng)絡(luò)安全

2024-06-05 08:29:35

2021-04-15 13:48:08

視頻監(jiān)控視頻分析智能安防

2020-11-05 10:18:16

5G

2021-09-18 09:52:07

AI 數(shù)據(jù)人工智能

2015-06-30 10:35:51

數(shù)據(jù)中心

2024-06-11 00:04:00

GPT-4PNASLLM

2024-06-27 12:45:30

2021-01-18 08:23:09

大數(shù)據(jù)AI人工智能

2018-04-27 14:52:21

2023-06-26 07:05:12

IntelWindows電腦
點贊
收藏

51CTO技術(shù)棧公眾號