偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

解決AI安全問題:NIST人工智能風險管理框架

人工智能 應用安全
盡管人工智能框架面臨著與其他NIST框架類似的風險,但前者的某些風險“差距”或對其的擔憂,是人工智能所獨有的。而這些差距正是AI RMF想要彌補解決的。

與任何信息技術一樣,人工智能也會面臨各種安全問題以及其他新出現(xiàn)的問題,如隱私、歧視、不公平等。美國國家標準與技術研究所(NIST)正在開發(fā)一個志愿性質的框架,以更好地管理人工智能相關的風險,稱為人工智能風險管理框架(AI RMF)。該框架的目標是提高將可信度納入AI的能力,包括AI的產品、服務、系統(tǒng)的設計、開發(fā)、使用和評估。

該框架的初稿建立在2021年12月NIST發(fā)布的一份概念性文件上。NIST希望AI RMF能夠描述基于人工智能的系統(tǒng),其風險與其他領域的風險有何不同,并鼓勵利益相關群體有針對性地解決這些風險。NIST表示,它可以用于超出框架之外的合規(guī)映射,如現(xiàn)有法律法規(guī)或其他強制性指南等。

盡管人工智能框架面臨著與其他NIST框架類似的風險,但前者的某些風險“差距”或對其的擔憂,是人工智能所獨有的。而這些差距正是AI RMF想要彌補解決的。

AI利益相關群體和技術特征

NIST將四個利益相關群體確定為該框架的預期受眾:人工智能系統(tǒng)利益相關者、運營商和評估者、外部利益相關者和公眾。采用三級特征分類法,在識別和管理人工智能系統(tǒng)相關風險的綜合方法中應考慮這些特征:技術特征、社會技術特征和指導原則。

技術特征是指人工智能系統(tǒng)設計者和開發(fā)者直接控制的因素,可以使用標準評估標準來衡量,如準確性、可靠性和彈性。社會技術特征指人工智能系統(tǒng)在個人、群體和社會環(huán)境中的使用和感知方式,如“可解釋性”、隱私、安全和管理歧視。在AI RMF分類法中,指導原則指的是更廣泛的社會規(guī)范和價值觀,表明了公平、問責和透明度等社會優(yōu)先事項。

與其他NIST框架一樣,AI RMF核心包含AI風險管理活動的三個要素:功能、類別和子類別。功能是為了映射、測量、管理和治理人工智能風險。盡管AI RMF預期通過概要文件為特定用例提供上下文,但該任務以及計劃的實踐指南已被推遲到以后的草案中。

在3月中旬發(fā)布框架草案后,NIST舉行了為期三天的研討會,討論人工智能RMF的各個方面,包括深入探討如何減輕人工智能技術中的有害偏見(歧視)。以下是研討會中的一些觀點:

繪制人工智能風險:上下文環(huán)境很重要

卡內基梅隆大學的研究人員Rayid Ghani在NIST的研討會上聲稱,在繪制人工智能風險圖時,“我們仍然需要弄清楚上下文、用例和部署場景。較為理想化的是,所有這些事情都應該在構建系統(tǒng)時發(fā)生?!?/p>

美國醫(yī)療保險計劃副總裁Marilyn Zigmund Luke告訴與會者,“考慮到不同環(huán)境和結構的多樣性,個人和組織的風險當然會不同。我認為應該從評估風險的角度來理解所有這些風險,你必須從零開始,去建立一些不同的參數(shù)?!?/p>

測量人工智能活動:需要新技術

由于人工智能系統(tǒng)中固有的社會政治倫理和習俗的復雜性,人工智能相關活動的測量仍處于初級階段。圣地亞哥加利福尼亞大學的David Danks認為:“測量功能中的很大一部分實質上是交給人去了解的。在這種特定的背景下,歧視味著什么?相關的價值觀是什么?因為,風險從根本上來說是對組織或人類價值觀的威脅,價值觀很難確定?!?/p>

人工智能安全與研究公司Anthropic的聯(lián)合創(chuàng)始人杰克·克拉克表示,人工智能的出現(xiàn)產生了對新指標和測量方法的需求,理想的情況是將其融入人工智能技術本身的創(chuàng)造中?!艾F(xiàn)代人工智能技術的挑戰(zhàn)之一是,需要設計新的測量技術,并與技術本身共同開發(fā)。”

管理人工智能風險:培訓數(shù)據需要升級

AI RMF的管理內容解決繪制和測量的風險,以最大限度地提高效益和減少不利影響。但ParityAI的首席技術官陳家豪表示,數(shù)據質量問題可能會阻礙人工智能的風險管理。“當下的模型培訓數(shù)據,可用性不一定適用于現(xiàn)實世界,因為它可能已經過時了幾年。我們必須考慮培訓數(shù)據是否真的反映了當今世界的狀態(tài)?!?/p>

Adobe倫理創(chuàng)新總監(jiān)Grace Yee說,“對于我們來說,提供世界上最好的技術來創(chuàng)造數(shù)字體驗已經不夠了。我們希望確保我們的技術是為包容性而設計的,并尊重我們的客戶、社區(qū)和Adobe價值觀。具體來說,我們正在開發(fā)新的系統(tǒng)和流程,以評估我們的人工智能是否在制造有害的偏見。”

紐約大學法學院的文森特·索瑟蘭提出,使用擁有預測能力的警務工具可能會出現(xiàn)很大的問題?!斑@些人工智能系統(tǒng)部署在整個刑事系統(tǒng)中,從確定犯罪者到何時釋放罪犯。但直到最近,人們還沒有從根本上認識到,這些工具所依賴的數(shù)據以及這些工具的運作方式實際上有助于加劇種族不平等,并有助于放大刑事系統(tǒng)本身的弊端?!?/p>

人工智能治理:很少有組織這么做

在人工智能治理政策方面,bnh.ai的科研人員帕特里克·霍爾表示,在大型消費金融組織和其他幾個高監(jiān)管的領域之外,人工智能的使用沒有正式的治理指導,因此公司只能自己解決這些棘手的治理問題。

微軟首席人工智能負責人Natasha Crampton:“當你的治理方法過于分散時,失敗的跡象就會顯現(xiàn)出來。在這種情況下,各團隊希望將人工智能模型部署到生產中,但他們只是采用自己的流程和結構,相互之間幾乎沒有協(xié)調?!?/p>

富國銀行執(zhí)行副總裁兼企業(yè)模型風險主管Agus Sudjianto也強調了高層對人工智能風險治理的重要性?!叭绻斯ぶ悄茇撠熑嘶蚬芾砣藛T沒有地位、信息來源和高層的支持,談不上治理?!?/p>

埃森哲云首席技術師Teresa Tung強調,所有企業(yè)都需要關注人工智能。“全球排名前2000內的公司中大約一半的公司在其財報上都提及了人工智能。這是每個企業(yè)都需要認識到的?!?/p>

與NIST開發(fā)的其他風險管理框架(如網絡安全框架)一樣,最終的AI RMF可能會對私營和公共部門產生廣泛的影響。NIST正在向社會征求針對草案的意見,截止日期為2022年4月29日。

責任編輯:趙寧寧 來源: 數(shù)世咨詢
相關推薦

2022-06-09 16:35:31

人工智能安全數(shù)據暴露

2023-06-25 16:22:24

人工智能AI

2023-06-26 16:37:30

AI人工智能

2018-07-09 00:07:18

人工智能安全AI

2024-05-10 13:15:27

2023-09-28 00:09:04

NIST網絡安全

2022-07-01 15:13:12

黑客人工智能安全

2017-10-16 05:51:45

2021-01-04 13:34:12

云安全安全框架數(shù)據安全

2023-08-08 15:58:03

2021-07-17 06:56:01

人工智能AI

2023-03-14 10:19:14

AIML數(shù)據管理

2024-03-01 10:00:09

2024-03-29 06:00:00

人工智能新興風險安全威脅

2020-05-18 22:15:46

人工智能人工智能安全AI

2022-06-16 11:35:05

人工智能數(shù)據ML

2018-08-13 20:40:02

AI金融企業(yè)風險

2023-03-27 11:33:37

人工智能物聯(lián)網

2024-01-09 15:11:56

2022-09-29 14:40:32

人工智能人工智能風險
點贊
收藏

51CTO技術棧公眾號