ChatGPT「賞金獵人」招募!OpenAI懸賞2萬美元,給ChatGPT找Bug
?大數(shù)據(jù)文摘出品
就在昨天,OpenAI 宣布推出一個(gè)賞金計(jì)劃,幫助應(yīng)對(duì)ChatGPT帶來的日益增長(zhǎng)的網(wǎng)絡(luò)安全風(fēng)險(xiǎn)。
這個(gè)「賞金獵人計(jì)劃」邀請(qǐng)各類獨(dú)立研究人員報(bào)告OpenAI系統(tǒng)中的漏洞,參與者有機(jī)會(huì)獲得200美元至2萬美元不等的經(jīng)濟(jì)獎(jiǎng)勵(lì),具體金額取決于漏洞的嚴(yán)重程度。
該項(xiàng)目與眾包網(wǎng)絡(luò)安全公司BugCrowd合作開展的,OpenAI 表示,該項(xiàng)目是其“致力于開發(fā)安全、先進(jìn)的人工智能”的一部分。
所以說,大家如果再在和ChatGPT聊天的過程中,發(fā)現(xiàn)什么漏洞(比如動(dòng)不動(dòng)就要?dú)缛祟悾┑脑?,一定要及時(shí)上報(bào),萬一能幫助發(fā)現(xiàn)一個(gè)漏洞,就可以拿賞金了!
ChatGPT 誕生以來,人們?cè)絹碓綋?dān)心這類的人工智能系統(tǒng)出現(xiàn)漏洞,比如生成錯(cuò)誤信息和不道德的信息,據(jù)人工智能網(wǎng)絡(luò)安全公司 Dark Trace 稱,研究人員發(fā)現(xiàn),從1月到2月,使用人工智能的社交工程攻擊增加了135% ,這與 ChatGPT 的推出時(shí)間相吻合。
ChatGPT 的出現(xiàn),無疑降低了網(wǎng)絡(luò)攻擊的門檻,尤其是新推出的 ChatGPT 4.0。
就在 ChatGPT 4.0 推出幾天后,華盛頓大學(xué)計(jì)算機(jī)科學(xué)專業(yè)的學(xué)生 Alex Albert 找到了一種超越其安全機(jī)制的方法。在 Twitter 上發(fā)布的一個(gè)演示中,Albert 展示了用戶如何通過利用 GPT-4 解釋和響應(yīng)文本的方式中的漏洞,提示 GPT-4 生成黑客計(jì)算機(jī)的指令。

這一賞金計(jì)劃正是為了解決這一系列安全問題引發(fā)的廣泛擔(dān)憂,此前,一位名為 Rez0 的安全研究人員涉嫌利用一個(gè)漏洞攻擊 ChatGPT 的 API,并發(fā)現(xiàn)了80多個(gè)秘密插件。
鑒于這些爭(zhēng)議, OpenAI 啟動(dòng)了這個(gè)賞金獎(jiǎng)勵(lì),鼓勵(lì)研究員報(bào)告漏洞,以解決其產(chǎn)品生態(tài)系統(tǒng)中的缺陷,同時(shí)將自己定位為一個(gè)真誠(chéng)行事的組織,以解決由生成性 AI 帶來的安全風(fēng)險(xiǎn)。
專家:「賞金計(jì)劃」效果有限
盡管 OpenAI 的計(jì)劃受到一些專家的歡迎,但其他專家表示,賞金計(jì)劃不太可能完全解決日益尖端的人工智能技術(shù)帶來的廣泛網(wǎng)絡(luò)安全風(fēng)險(xiǎn)。
專家認(rèn)為,OpenAI 的賞金計(jì)劃在它處理的威脅范圍上非常有限。例如,賞金計(jì)劃的官方頁面指出:“與示范提示和響應(yīng)內(nèi)容有關(guān)的問題嚴(yán)格超出了范圍,除非它們對(duì)范圍內(nèi)的服務(wù)產(chǎn)生了額外的、可直接驗(yàn)證的安全影響,否則將不會(huì)得到獎(jiǎng)勵(lì)?!?/p>
被認(rèn)為超出范圍的安全問題的例子包括越獄和繞開安全模式,讓模型“說壞話(不道德的言論)”,讓模型編寫惡意代碼或者讓模型告訴你如何將壞事付諸行動(dòng)。
從這個(gè)意義上說,OpenAI 的錯(cuò)誤賞金計(jì)劃可能有助于幫助組織改善自身的安全態(tài)勢(shì),但對(duì)解決由生成性 AI 和 GPT-4給整個(gè)社會(huì)帶來的安全風(fēng)險(xiǎn)幾乎沒有作用。
所以許多人認(rèn)為,由于該項(xiàng)目的范圍僅限于可能直接影響 OpenAI 系統(tǒng)和合作伙伴的漏洞,它似乎沒有解決對(duì)惡意使用諸如模仿、合成媒體或自動(dòng)黑客工具等技術(shù)的更廣泛的擔(dān)憂。
OpenAI 沒有立即回應(yīng)媒體的置評(píng)請(qǐng)求。
相關(guān)報(bào)道:
https://venturebeat.com/security/openai-announces-bug-bounty-program-to-address-ai-security-risks/
https://bugcrowd.com/openai































