偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

全球首份《AI系統(tǒng)安全開發(fā)準則》發(fā)布,提出四方面安全監(jiān)管要求

人工智能 安全
這份準則是全球第一份由官方機構(gòu)發(fā)布的針對AI系統(tǒng)開發(fā)安全的指導文件。準則明確要求AI企業(yè)必須優(yōu)先考慮為客戶確保安全結(jié)果,積極倡導AI應用的透明度和問責機制,并以保障安全設計為首要任務來構(gòu)建組織的管理結(jié)構(gòu)。準則旨在提高AI的網(wǎng)絡安全性,有助于確保安全地設計、開發(fā)和部署AI技術。

2023年11月26日 ,美國、英國、澳大利亞等18個國家的網(wǎng)絡安全監(jiān)管部門聯(lián)合發(fā)布了全球首份《AI系統(tǒng)安全開發(fā)準則》,旨在實現(xiàn)保護人工智能模型不被惡意篡改,并敦促人工智能公司在開發(fā)或使用人工智能模型時更加關注“設計安全”。

作為這份準則制定的主要參與方,美國網(wǎng)絡安全和基礎設施安全局(CISA)表示:世界正處于AI技術快速發(fā)展的拐點,AI很可能是如今最具影響力的技術,但充分保障網(wǎng)絡安全是建立安全、可靠和值得信賴AI系統(tǒng)的關鍵。因此,我們聯(lián)合了多個國家的網(wǎng)絡安全監(jiān)管部門,并與谷歌、亞馬遜、OpenAI和微軟等公司的技術專家合作,共同編寫發(fā)布了這份準則,旨在提高AI技術應用的安全性。

據(jù)了解,這份準則是全球第一份由官方機構(gòu)發(fā)布的針對AI系統(tǒng)開發(fā)安全的指導文件。準則明確要求AI企業(yè)必須優(yōu)先考慮為客戶確保安全結(jié)果,積極倡導AI應用的透明度和問責機制,并以保障安全設計為首要任務來構(gòu)建組織的管理結(jié)構(gòu)。準則旨在提高AI的網(wǎng)絡安全性,有助于確保安全地設計、開發(fā)和部署AI技術。

此外,依托美國政府一貫以來在管理網(wǎng)絡安全風險方面的工作經(jīng)驗,準則要求所有AI研發(fā)公司在新的AI工具公開發(fā)布之前要經(jīng)過充分測試,確保已實施安全護欄以最大程度消除社會危害(比如偏見和歧視)和隱私問題。準則還要求AI研發(fā)公司承諾:通過漏洞懸賞系統(tǒng),方便第三方發(fā)現(xiàn)和報告其AI系統(tǒng)中的漏洞,從而迅速發(fā)現(xiàn)和修復漏洞。

具體而言,此次發(fā)布的準則為AI系統(tǒng)安全開發(fā)提出了4大方面的監(jiān)管要求:

1、要優(yōu)先考慮“設計安全”和“默認安全”

在準則中,多次強調(diào)了“設計安全”和“默認安全”原則,即AI開發(fā)公司應該主動保護AI產(chǎn)品免受攻擊的方法。起草者敦促AI開發(fā)人員在決策過程中優(yōu)先考慮安全,而不單單注重功能和性能。準則還建議產(chǎn)品提供設置為最安全的默認應用選項,并向用戶清楚地傳達替代該默認配置的風險。根據(jù)準則要求,AI系統(tǒng)的開發(fā)人員應該為下游的應用結(jié)果承擔責任,而不是依賴客戶去控制安全。

要求摘錄:“用戶(無論是‘最終用戶’還是整合外部AI組件的提供商)通常缺乏足夠的可見性及專業(yè)知識來充分了解、評估或解決與他們正在使用的AI系統(tǒng)相關的風險。因此,根據(jù)‘設計安全’原則,AI組件的提供商應該對供應鏈下游用戶的安全后果負責。”

2、密切關注復雜的供應鏈安全

AI工具開發(fā)人員在設計自己的產(chǎn)品時常依賴第三方組件,比如基礎模型、訓練數(shù)據(jù)集和API。龐大的供應商網(wǎng)絡會給AI系統(tǒng)帶來更大的攻擊面,其中任何一個薄弱環(huán)節(jié)都可能會對產(chǎn)品的安全性產(chǎn)生負面影響。因此,準則要求開發(fā)人員在決定引用第三方組件時,需要充分評估其中的安全風險。在與第三方合作時,開發(fā)人員應該審查和監(jiān)控供應商的安全狀況,要求供應商遵守與自己組織相同的安全標準,并對導入的第三方代碼實施掃描和隔離。

要求摘錄:“如果第三方組件未達到安全標準,開發(fā)者要為關鍵任務系統(tǒng)準備好切換到替代解決方案。企業(yè)可以使用NCSC的《供應鏈指南》等資源,以及軟件工件供應鏈級別(SLSA)等資源,用于跟蹤供應鏈和軟件開發(fā)生命周期的認證?!?/p>

3、考慮AI應用中面臨的獨特風險

AI系統(tǒng)應用時會產(chǎn)生一些特有的威脅(如提示注入攻擊和數(shù)據(jù)中毒),因此開發(fā)者需要充分考慮AI系統(tǒng)獨特的安全因素。AI系統(tǒng)“設計安全”方法的一個重要組成部分就是為AI模型輸出設置安全護欄,以防止敏感數(shù)據(jù)泄露,并限制用于文件編輯等任務的AI組件的操作。開發(fā)人員應該將AI特有的威脅場景納入發(fā)布前的測試中,并監(jiān)控用戶輸入以判斷是否存在惡意利用系統(tǒng)的企圖。

要求摘錄:“‘對抗性機器學習’(AML)一詞用于描述利用機器學習組件(包括硬件、軟件、工作流和供應鏈)中的安全漏洞。AML使攻擊者能夠在機器學習系統(tǒng)中引發(fā)意想不到的行為,包括:影響模型的分類或回歸性能、允許用戶執(zhí)行未經(jīng)授權的操作以及提取敏感的模型信息。”

4、AI系統(tǒng)安全開發(fā)應該具有持續(xù)性和協(xié)作性

準則概述了貫穿AI系統(tǒng)設計、開發(fā)、部署、操作及維護等全生命周期階段的最佳安全實踐,并強調(diào)了要持續(xù)監(jiān)控已部署AI系統(tǒng)的重要性,這樣能夠發(fā)現(xiàn)模型行為方面的變化和可疑的用戶輸入?!霸O計安全”原則是任何軟件更新的關鍵組成部分,準則建議開發(fā)者在默認情況下自動更新。最后,則建議開發(fā)人員利用更龐大的AI社區(qū)反饋和信息共享,不斷改進系統(tǒng)的安全性。

要求摘錄:“需要時,AI系統(tǒng)開發(fā)者可以將遇到的安全問題上報到更龐大的社區(qū),比如發(fā)布響應漏洞披露的公告,包括詳細而完整的常見漏洞枚舉。當發(fā)現(xiàn)安全問題時,開發(fā)者要采取行動,迅速而適當?shù)鼐徑夂托迯蛦栴}?!?/p>

參考鏈接:

https://thehackernews.com/2023/11/us-uk-and-global-partners-release.html。

https://www.scmagazine.com/news/4-key-takeaways-from-new-global-ai-security-guidelines。

責任編輯:姜華 來源: 安全牛
相關推薦

2017-09-19 09:24:18

2009-11-05 13:44:45

WCF優(yōu)勢

2009-11-06 09:05:41

WCF性能

2012-04-24 09:58:26

2011-11-10 09:29:45

虛擬化桌面虛擬化云計算

2010-04-30 14:09:26

Windows Ser

2009-07-16 11:30:12

iBATIS發(fā)展方向

2021-07-15 07:20:23

工信部數(shù)據(jù)安全網(wǎng)絡安全

2011-11-23 09:13:15

虛擬化IT服務云計算

2013-06-20 09:26:13

云計算亞馬遜惠普

2009-10-26 15:11:25

VB.NET多媒體編程

2011-11-15 10:53:46

虛擬化虛擬桌面工具箱

2020-06-17 08:59:49

數(shù)據(jù)中心IT技術

2021-07-07 17:50:08

大數(shù)據(jù)發(fā)展大數(shù)據(jù)數(shù)據(jù)

2021-11-17 09:44:44

信息安全通信安全

2010-02-24 17:22:39

金山

2010-08-24 10:15:40

2024-11-04 09:35:00

2010-04-08 12:27:06

微軟HPC

2012-11-30 11:08:57

點贊
收藏

51CTO技術棧公眾號