偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

生成式 AI 面臨的的主要安全風險以及解決策略

安全
生成式AI安全性非常重要,因為它可以確保 生成式AI系統(tǒng)能夠在整個組織內(nèi)安全、可靠、負責任地部署。

生成式AI 的主要安全風險、威脅和挑戰(zhàn)包括:

  • 即時注入攻擊
  • 人工智能系統(tǒng)和基礎設施安全
  • 不安全的AI生成代碼
  • 數(shù)據(jù)中毒
  • 人工智能供應鏈漏洞
  • 人工智能生成的內(nèi)容完整性風險
  • 影子人工智能
  • 敏感數(shù)據(jù)泄露或泄漏
  • 訪問和身份驗證漏洞
  • 模型漂移和性能下降
  • 治理和合規(guī)問題
  • 算法透明度和可解釋性

為什么 生成式AI 安全很重要? 

生成式AI 安全性非常重要,因為它可以確保 生成式AI 系統(tǒng)能夠在整個組織內(nèi)安全、可靠、負責任地部署。

更具體地說:生成式人工智能正在迅速被采用,速度快得超過了大多數(shù)組織對其的保障。

根據(jù)麥肯錫的調(diào)查《人工智能現(xiàn)狀:企業(yè)如何重塑以捕捉價值》, 71% 的受訪者表示,其企業(yè)至少在一項業(yè)務職能中定期使用生成式人工智能。這一比例高于 2024 年初的 65% 和 2023 年的 33%。

這才是核心問題。生成式AI 不僅能提升生產(chǎn)力,還能重塑數(shù)據(jù)流動方式、系統(tǒng)交互方式以及決策制定方式。隨之而來的是更廣泛、更動態(tài)的攻擊面。

Gartner 公司表示:“到 2027 年,超過 40% 的人工智能相關數(shù)據(jù)泄露將因跨境不當使用生成人工智能 (生成式AI) 而造成?!?/p>

- Gartner 新聞稿,“Gartner 預測,到 2027 年,40% 的 AI 數(shù)據(jù)泄露將源于跨境 生成式AI濫用”,2025 年 2 月 17 日。

即時注入攻擊

即時注入攻擊會操縱人工智能系統(tǒng)的輸入,旨在使模型產(chǎn)生有害或非預期的輸出。

他們通過在提示中嵌入惡意指令來實現(xiàn)這一點。人工智能會像處理任何正常輸入一樣處理該提示。但它會遵循攻擊者的意圖。

例如:提示可能會誘使人工智能泄露敏感信息或繞過安全控制。這是因為許多模型在沒有嚴格輸入驗證的情況下就能響應自然語言。

這在交互式工具中尤其危險。想想客服聊天機器人。攻擊者可能會潛入隱藏命令。聊天機器人可能會在不知情的情況下提取私人賬戶信息。

攻擊并非總是直接的。在某些情況下,攻擊者會操縱模型所依賴的數(shù)據(jù)。這些間接的即時注入會改變 AI 所提取的 Web 內(nèi)容或數(shù)據(jù)庫。

這意味著:模型會隨著時間的推移吸收不良信息。這會導致有偏差、扭曲或不安全的輸出——即使之后沒有惡意提示。

對策:

  • 約束模型行為:在系統(tǒng)提示中定義嚴格的操作邊界。明確指示模型拒絕任何試圖修改其行為的行為。將靜態(tài)規(guī)則與動態(tài)檢測相結合,實時捕獲惡意輸入。
  • 強制輸出格式:限制模型響應的結構。使用預定義模板并在顯示輸出之前進行驗證——尤其是在開放式生成可能被濫用的高風險工作流程中。
  • 驗證和過濾輸入:使用多層輸入過濾。其中包括正則表達式、特殊字符檢測、基于 NLP 的異常檢測以及拒絕 Base64 或 Unicode 變體等混淆內(nèi)容。
  • 應用最小權限:限制模型的訪問權限。使用基于角色的訪問控制(RBAC),限制 API 權限,并將模型與敏感環(huán)境隔離。安全存儲憑證并定期審核訪問。
  • 敏感操作需人工審批:為高影響決策添加人工審核步驟。這包括任何涉及系統(tǒng)變更、外部命令或數(shù)據(jù)檢索的操作。使用風險評分和多步驟驗證來指導何時需要人工介入。
  • 隔離外部數(shù)據(jù):將用戶生成的內(nèi)容或第三方內(nèi)容與模型內(nèi)部指令分開。在使用外部輸入影響模型行為之前,請標記這些輸入并驗證其可信度。
  • 模擬攻擊:定期使用真實案例進行對抗性測試。紅隊演練和自動化攻擊模擬可以幫助攻擊者搶在對手之前發(fā)現(xiàn)漏洞。
  • 監(jiān)控 AI 交互:記錄會話間的輸入和輸出。注意異常的提示結構、意外的輸出模式以及偏離模型預期角色的行為
  • 保持防御措施的時效性:隨著威脅形勢的變化,更新您的提示工程、檢測邏輯和模型限制。在實施更改之前,請在沙盒環(huán)境中進行測試。
  • 訓練模型識別惡意輸入:使用對抗訓練和實時輸入分類器來提升模型檢測危險提示的能力?;谌斯し答伒膹娀瘜W習可以幫助模型逐步完善這一能力。
  • 教育用戶:確保用戶了解快速注入的工作原理。教會他們識別可疑行為,并負責任地與人工智能系統(tǒng)互動。

人工智能系統(tǒng)和基礎設施安全

安全性較差的 生成式AI 基礎設施會帶來嚴重風險。如果沒有得到妥善保護,API、插件和托管環(huán)境都可能成為入口點。

例如:如果 API 缺乏適當?shù)纳矸蒡炞C或輸入驗證,攻擊者可能會獲取敏感功能的訪問權限。這可能意味著篡改模型輸出,甚至觸發(fā)拒絕服務事件。

這為什么重要?

因為這些漏洞不僅影響系統(tǒng)正常運行時間,還會影響人們對 生成式AI系統(tǒng)的整體信任。

訪問控制失效、集成不安全以及隔離不足都可能導致數(shù)據(jù)泄露,甚至導致未經(jīng)授權的模型操縱。

這對于處理敏感數(shù)據(jù)的行業(yè)尤其重要,例如醫(yī)療保健、金融或個人數(shù)據(jù)平臺。

簡而言之:保障基礎設施安全至關重要。沒有它,系統(tǒng)的其余部分就不可信。

對策:

  • 增強的身份驗證協(xié)議:使用多重身份驗證和強加密技術,確保對 生成式AI API、插件接口和系統(tǒng)組件的訪問安全。這有助于防止未經(jīng)授權使用模型功能或暴露敏感端點。
  • 全面的輸入驗證:驗證所有輸入(無論是來自用戶、應用程序還是上游服務),以降低針對 生成式AI工作流的提示注入和其他基于輸入的攻擊的風險。
  • 定期安全審計:針對 生成式AI特定的基礎設施進行持續(xù)的審計和滲透測試。優(yōu)先考慮那些配置不當可能導致模型篡改或數(shù)據(jù)泄露的 API、插件和編排層。
  • 異常檢測系統(tǒng):實施監(jiān)控工具,對正常的 生成式AI操作(例如模型查詢、插件活動或資源使用情況)進行基準測試,并對可能表明存在泄露或濫用的偏差發(fā)出警報。
  • 安全培訓和意識:對開發(fā)人員和操作員進行 生成式AI特定風險(例如提示注入或不安全的模型端點)的培訓,并確保安全性嵌入到模型部署和集成工作流程中。
  • 事件響應計劃:通過將這些場景集成到事件響應計劃和桌面演習中,為特定于 生成式AI的事件(例如模型誤用、插件泄露或 API 濫用)做好準備。
  • 數(shù)據(jù)加密:加密 生成式AI系統(tǒng)使用的所有敏感數(shù)據(jù),包括訓練數(shù)據(jù)、API 響應和插件通信。這可以保護存儲和傳輸過程中的機密性,尤其是在使用第三方服務時。

不安全的AI生成代碼

AI 生成的代碼通常用于節(jié)省時間。許多人認為這是一條捷徑——開發(fā)速度更快,而且質量不會受到影響。

但事情并不總是這樣。這些工具可能會帶來嚴重的安全問題。而開發(fā)人員甚至可能沒有意識到這一點。

方法如下:

AI 編程助手基于大型訓練數(shù)據(jù)集生成輸出。這些數(shù)據(jù)集通常包含來自開源存儲庫的公共代碼。但其中許多代碼從未經(jīng)過安全審查。如果存在不安全的模式,模型可能會復制這些模式。而且在很多情況下,情況確實如此。

為什么這很危險?

因為漏洞可能在早期就已嵌入軟件中。不安全的代碼可能會調(diào)用過時的軟件包、忽略輸入驗證或錯誤處理內(nèi)存。它也可能編譯并正常運行。

但在表面之下,它卻十分脆弱。攻擊者正是尋找這種弱點。

事實上,這些模型生成具有已知錯誤和漏洞的代碼并不少見。

在CSET 評估中,包括 GPT-4 和 Code Llama 等開源工具在內(nèi)的五種主流模型生成的代碼片段中,近一半存在至少一個安全相關缺陷。其中一些缺陷嚴重到足以導致緩沖區(qū)溢出或未經(jīng)授權的內(nèi)存訪問。

這些不僅僅是不好的做法——它們還是可利用的切入點。

這是最棘手的部分。許多開發(fā)人員對 AI 生成的代碼過于信任。在CSET 的研究中,大多數(shù)參與者認為這些代碼是安全的——即使事實并非如此。這就是自動化偏見。它會導致不安全的代碼被直接復制到生產(chǎn)環(huán)境中。

透明度是另一個問題。開發(fā)人員無法檢查模型是如何做出決策的,也無法了解它為什么會提出特定的模式。即使被提示“注意安全”,一些模型仍然會輸出有風險的代碼。另一些模型會返回無法編譯或驗證的部分函數(shù)。

這使得自動化審查更加困難。如果沒有審查,不良代碼就可能被漏掉。此外,還存在反饋風險。不安全的人工智能生成的代碼有時會被發(fā)布到開源存儲庫。之后,它可能會被重新用于訓練數(shù)據(jù)。這就形成了一個循環(huán)——今天的糟糕代碼會影響明天的模型行為。而這正是讓情況變得更糟的原因。

盡管模型在生成代碼方面越來越優(yōu)秀,但它們在生成安全代碼方面并不總是表現(xiàn)得更好。許多模型仍然優(yōu)先考慮功能性,而不是安全性。

這很重要,因為AI生成的代碼不僅僅是一個工具。它改變了代碼的編寫、審查和復用方式。除非這些變化得到充分考慮,否則它們會在整個軟件生命周期中帶來風險。

對策:

  • 不要盲目相信輸出結果:對 AI 生成的代碼要像審查初級開發(fā)人員的貢獻一樣進行審查。人工審核仍然必不可少。
  • 安全機制提前:在開發(fā)生命周期的早期階段集成安全檢查,最好是在開發(fā)者的 IDE 中。在開發(fā)初期發(fā)現(xiàn)問題比事后再清理更快捷、更經(jīng)濟。
  • 盡可能使用形式化驗證工具:這些工具可以自動檢測特定類型的錯誤,并減少對人工檢查的依賴。但請記?。簺]有完美的工具。應使用多種方法。
  • 使用安全的訓練數(shù)據(jù)和基準: AI開發(fā)者應該從數(shù)據(jù)集中過濾掉已知的不安全模式。他們不僅應該評估模型的運行效果,還應該評估其安全性。
  • 教育開發(fā)人員:確保他們理解“有效代碼”并不總是意味著“安全代碼”。提高對自動化偏見的認識,并鼓勵團隊以合理的懷疑態(tài)度看待人工智能生成的代碼。

數(shù)據(jù)中毒

數(shù)據(jù)中毒涉及惡意改變用于構建人工智能模型的訓練數(shù)據(jù),導致其行為不可預測或惡意。

通過向數(shù)據(jù)集注入誤導性或有偏見的數(shù)據(jù),攻擊者可以影響模型的輸出,使其偏向某些操作或結果。這可能導致錯誤的預測、漏洞或有偏見的決策。

防止數(shù)據(jù)中毒需要安全的數(shù)據(jù)收集實踐和監(jiān)控訓練數(shù)據(jù)集中的異常模式。

在 生成式AI系統(tǒng)中,數(shù)據(jù)中毒尤其難以檢測,因為中毒樣本通常數(shù)量少,但影響卻很大。只需少量被篡改的樣本,就可能使模型的行為朝著特定方向轉變。

一些數(shù)據(jù)中毒攻擊旨在改變模型對特定提示的響應方式。另一些攻擊則嵌入僅在特定條件下激活的隱藏觸發(fā)器。這就是為什么這是一個問題。

許多 生成式AI系統(tǒng)會根據(jù)第三方來源或用戶交互進行重新訓練或微調(diào)。因此,攻擊者無需訪問原始訓練流程,就可以毒害后續(xù)傳入的數(shù)據(jù)。由于這些系統(tǒng)經(jīng)常持續(xù)更新,中毒輸入會慢慢累積,這使得在行為變化引發(fā)問題之前發(fā)現(xiàn)它們變得更加困難。

并非所有的中毒攻擊都試圖破壞模型。有些攻擊會在保持輸出功能的同時引入偏差。

例如:一個情緒模型可能被訓練成偏向某個群體或品牌。結果看起來正確,但這種偏差是故意造成的。

重要提示:生成式AI系統(tǒng)在大多數(shù)情況下通常表現(xiàn)正常。正因如此,中毒行為才如此難以察覺。

標準性能測試可能無法發(fā)現(xiàn)這個問題。相反,組織需要針對邊緣情況和對抗性輸入進行有針對性的測試。

對策:

  • 保障AI 應用程序開發(fā)生命周期的安全:這包括維護軟件供應鏈的安全,該供應鏈本身涵蓋了開發(fā)過程中所需的模型、數(shù)據(jù)庫和數(shù)據(jù)源。確保這些元素的安全有助于防止數(shù)據(jù)中毒。
  • 了解、控制和管理數(shù)據(jù)路徑:通過確保您了解數(shù)據(jù)如何在系統(tǒng)中移動,您可以防止未經(jīng)授權的訪問或操縱,其中包括防止數(shù)據(jù)中毒。
  • 實施基于身份的訪問控制:應用基于身份的嚴格訪問控制,特別是在訓練數(shù)據(jù)等敏感區(qū)域,可以幫助防止未經(jīng)授權的注入中毒數(shù)據(jù)的企圖。
  • 檢測并刪除中毒或不良的訓練數(shù)據(jù):建立流程來檢測數(shù)據(jù)中可能表明篡改或中毒的異常,并確保刪除或更正此類數(shù)據(jù)。

人工智能供應鏈漏洞

許多組織依賴第三方模型、開源數(shù)據(jù)集和預訓練的 AI 服務。這帶來了諸如模型后門、數(shù)據(jù)集中毒和訓練流程受損等風險。

例如:模型竊取,又稱模型提取,是指攻擊者竊取已訓練的人工智能模型的架構或參數(shù)。攻擊者可以通過查詢模型并分析其響應來推斷其內(nèi)部工作原理。

簡而言之,竊取的模型可以讓攻擊者繞過訓練高質量人工智能系統(tǒng)所需的努力和成本。

但模型盜竊并不是唯一的問題。

生成式AI系統(tǒng)通常依賴于復雜的軟件包、組件和基礎架構鏈,這些組件和基礎架構可能在多個位置被利用。單個受感染的依賴項就可能允許攻擊者竊取敏感數(shù)據(jù)或將惡意邏輯注入系統(tǒng)。

例如: 2022 年 12 月,針對PyTorch-nightly軟件包的供應鏈攻擊充分展現(xiàn)了被入侵的軟件庫的危險性。攻擊者利用惡意依賴項收集和傳輸環(huán)境變量,從而暴露了受影響計算機上存儲的機密信息。

它并不僅限于軟件庫?;A設施漏洞(例如配置錯誤的 Web 服務器、數(shù)據(jù)庫或計算資源)也同樣危險。攻擊者只要攻陷任何底層組件,就可能干擾數(shù)據(jù)流、劫持計算作業(yè)或泄露敏感信息。如果系統(tǒng)缺乏適當?shù)脑L問控制,這種風險可能會蔓延至各個服務和組件。

此外,還有來自數(shù)據(jù)集中毒的風險。攻擊者可以修改數(shù)據(jù)或將數(shù)據(jù)注入訓練流程,從而巧妙地操縱模型行為。

這并非只是假設。有毒的輸入會隨著時間的推移影響模型輸出,尤其是在能夠適應新數(shù)據(jù)的 生成式AI系統(tǒng)中。

更糟糕的是:如果基礎模型已經(jīng)受到威脅,任何繼承自該基礎模型的微調(diào)模型也可能延續(xù)這些問題。預訓練期間插入的后門可能會悄無聲息地持續(xù)存在,除非被發(fā)現(xiàn)并修復。

第三方組件也可能因實施不當而產(chǎn)生風險。2023 年 3 月,ChatGPT 使用的 Redis 連接器庫中存在一個漏洞,導致橫向權限提升。不恰當?shù)母綦x機制導致用戶能夠查看其他用戶會話的數(shù)據(jù)。

這一事件凸顯了即插即用組件即使被廣泛采用,如果不能安全集成,也會帶來嚴重的安全隱患。

對策:

  • 跟蹤并審查依賴項:定期審核第三方軟件包、庫和插件。密切關注集成到模型訓練或推理工作流程中的工具。被入侵的組件可能被用于竊取數(shù)據(jù)或篡改模型行為。
  • 驗證數(shù)據(jù)和模型完整性:使用加密哈希和數(shù)字簽名來確保數(shù)據(jù)集和模型文件未被更改。這有助于在部署之前檢測中毒嘗試或未經(jīng)授權的更改。
  • 保護您的數(shù)據(jù)管道:限制訓練數(shù)據(jù)的來源。應用監(jiān)控措施,監(jiān)控數(shù)據(jù)內(nèi)容或結構的異常變化。持續(xù)進行再訓練的 生成式AI系統(tǒng)尤其容易受到隱蔽的長期中毒攻擊。
  • 強化基礎架構和連接器:通過強大的身份驗證和訪問控制來保護 API、托管環(huán)境和模型服務平臺。即使是間接組件(例如緩存層或連接器庫)也可能帶來風險。
  • 將安全性集成到模型生命周期工作流程中:像對待其他軟件開發(fā)流程一樣對待模型開發(fā)、微調(diào)和部署。在每個階段都融入漏洞掃描、訪問檢查和依賴項審查。
  • 制定事件響應計劃:定義調(diào)查可疑模型行為的流程。如果發(fā)生供應鏈攻擊,您需要一種方法來隔離系統(tǒng)、確認完整性并快速回滾受損組件。

人工智能生成的內(nèi)容完整性風險

生成式AI模型可能會引入偏見、產(chǎn)生誤導性內(nèi)容或生成完全錯誤的信息。這對于安全來說是一個問題,但對于信任來說也是一個問題。

資料來源:https://www.bmj.com/content/372/bmj.n304

原因如下: 這些模型通常以自信流暢的語氣呈現(xiàn)輸出——即使信息錯誤或存在偏見。這使得用戶更難發(fā)現(xiàn)錯誤,也更容易被攻擊者利用。

例如:一個基于有偏見的數(shù)據(jù)訓練的模型,可能會在招聘摘要中始終偏向某一特定人群?;蛘?,它會生成看似真實但實際上并非如此的醫(yī)療證明。這些不僅僅是不準確的信息,它們還會影響決策,有時甚至會以至關重要的方式產(chǎn)生影響。

攻擊者知道這一點。

即時操縱可能會觸發(fā)降低信任的輸出。它可能是攻擊性語言,也可能是精心設計的錯誤信息內(nèi)容。在某些情況下,生成式AI系統(tǒng)已被用于生成網(wǎng)絡釣魚和社會工程的材料。

需要注意的是:并非所有問題都源于惡意。有些問題源于模型設計,有些則源于糟糕的訓練數(shù)據(jù)。 無論哪種方式,有缺陷的輸出都會帶來真正的風險——尤其是在受監(jiān)管或高風險的環(huán)境中。

這就是為什么對齊和幻覺控制很重要。對齊有助于模型保持在規(guī)范的范圍內(nèi),從而使輸出符合預期目標和規(guī)范?;糜X控制有助于減少虛構的細節(jié)。它們共同維護了內(nèi)容的完整性,并有助于防止 生成式AI成為錯誤信息的來源。

對策:

  • 控制訓練數(shù)據(jù)中的偏差:在訓練或微調(diào)之前,審查并篩選數(shù)據(jù)集。密切關注人口統(tǒng)計代表性和已知的偏差來源。
  • 通過人工監(jiān)督驗證輸出:對于影響重大的用例,尤其是在決策可能影響健康、安全或個人權利的情況下,使用人工參與審查。
  • 調(diào)整對齊:微調(diào)模型以遵循預期目標和規(guī)范。這有助于減少有害、偏離主題或操縱性的輸出。
  • 限制提示操作的暴露:限制敏感環(huán)境中的提示訪問。監(jiān)控可能存在濫用行為的模式,例如試圖觸發(fā)帶有偏見或不安全內(nèi)容的行為。
  • 監(jiān)控虛假信息:添加檢查,標記未經(jīng)證實的聲明或虛假信息。這對于受監(jiān)管或高信任度的域名尤其重要。
  • 設定清晰的模型使用邊界:為每個模型定義合適的用例。應用控制措施,防止其在不受支持或高風險的環(huán)境中被使用。
  • 在邊緣條件下進行測試:使用對抗性輸入來評估模型在非典型情況下的表現(xiàn)。這有助于發(fā)現(xiàn)常規(guī)測試中未發(fā)現(xiàn)的風險。 

影子人工智能

對人工智能能力的渴求已經(jīng)催生了影子人工智能,就像影子IT是邁向云和軟件即服務 (SaaS) 轉型的第一步一樣。安全領導者需要再次引領這一進程。

-Palo Alto Networks,《Unit 42 威脅前沿:為新興人工智能風險做好準備》

影子人工智能是指組織內(nèi)的員工或個人在沒有 IT 或安全團隊監(jiān)督的情況下未經(jīng)授權使用人工智能工具。

這些未經(jīng)批準的工具雖然經(jīng)常用于提高生產(chǎn)力,但絕對會暴露敏感數(shù)據(jù)或造成合規(guī)性問題。不受管理的 AI 采用會帶來與早期 SaaS 采用類似的風險。

員工可能會使用外部AI工具來總結會議記錄、撰寫電子郵件或生成代碼。雖然這些工具的意圖通常無害,但如果沒有采取任何安全措施,它們可能會無意中處理機密數(shù)據(jù),例如客戶信息、知識產(chǎn)權、內(nèi)部通信等。

當這些工具在正式審查和采購渠道之外使用時,沒有人會驗證它們是否符合組織的安全性、合規(guī)性或隱私標準。這就造成了盲點。

而且,由于安全和IT團隊通常無法了解正在使用哪些工具或訪問哪些數(shù)據(jù),這種缺乏監(jiān)督的情況使得追蹤數(shù)據(jù)移動、防止數(shù)據(jù)泄露或實施控制變得十分困難。此外,不安全的AI工作流程或不良的數(shù)據(jù)處理實踐也增加了數(shù)據(jù)泄露的風險。

換句話說:影子人工智能允許在缺乏基礎治理和風險控制的情況下采用人工智能,從而削弱了組織的安全態(tài)勢。

人工智能在日常工作中的應用越深入,主動彌補這些差距就越重要。否則,人工智能的使用增長速度將超過組織管理風險的能力。

對策:

  • 制定明確的人工智能使用政策:設定可使用哪些工具、允許使用哪些類型的數(shù)據(jù)以及員工應如何評估人工智能服務的界限。
  • 監(jiān)控未經(jīng)授權的 AI 使用:跟蹤用戶、設備和網(wǎng)絡的活動,以檢測未經(jīng)批準的 AI 工具并評估潛在的風險。
  • 定義 AI 治理角色:分配批準工具、制定政策和執(zhí)行合規(guī)性的責任,以確保所有權明確且一致。
  • 采用前審查工具安全性:要求對新的人工智能服務進行正式的風險評估,以確保它們符合安全、隱私和合規(guī)標準。
  • 保持持續(xù)監(jiān)督:使用實時監(jiān)控和定期審計來跟上不斷發(fā)展的人工智能使用速度并防止無管理的蔓延。

敏感數(shù)據(jù)泄露或泄漏

生成式AI系統(tǒng)可能會無意中泄露機密信息,包括個人數(shù)據(jù)、商業(yè)機密或訓練期間使用的其他敏感輸入。這可以通過多種方式實現(xiàn):

這種現(xiàn)象可以通過過度擬合表現(xiàn)出來,即模型生成的輸出與其訓練數(shù)據(jù)過于緊密地聯(lián)系在一起?;蛘咄ㄟ^諸如提示注入攻擊之類的漏洞,操縱模型來泄露敏感信息。

這之所以會成為一個重大的潛在威脅,是因為 生成式AI系統(tǒng)通常會處理大量數(shù)據(jù),其中包括專有商業(yè)信息或個人信息。這些信息屬于敏感信息,不應被披露。

此類數(shù)據(jù)泄露可能導致財務損失、聲譽損害和法律后果。

此外:生成式AI系統(tǒng)的多功能性和復雜性意味著它們可以訪問和綜合跨多個數(shù)據(jù)點的信息——無意中以泄露機密見解的方式將它們組合起來。

例如:一個基于敏感醫(yī)療記錄訓練的 生成式AI模型可能會生成無意中包含個人身份信息 (PII)的輸出,即使這并非查詢的意圖。同樣,如果金融服務中使用的模型沒有得到妥善保護,也可能會無意中泄露商業(yè)機密或戰(zhàn)略信息。

對策:

  • 匿名化敏感信息:差異隱私等技術可以應用于訓練數(shù)據(jù),以防止人工智能學習或泄露可識別信息。
  • 實施嚴格的訪問控制:規(guī)定誰可以與人工智能系統(tǒng)交互以及在什么情況下交互。
  • 定期測試模型是否存在漏洞:持續(xù)掃描可能被利用來提取敏感數(shù)據(jù)的弱點。
  • 監(jiān)控外部 AI 的使用情況:跟蹤 AI 系統(tǒng)的部署方式和位置,以確保敏感數(shù)據(jù)不會泄露到組織邊界之外。
  • 確保 AI 應用程序開發(fā)生命周期:在 AI 模型的整個開發(fā)和部署過程中實施安全最佳實踐,從根本上防范漏洞。
  • 控制數(shù)據(jù)路徑:了解并保護系統(tǒng)中的數(shù)據(jù)流,以防止未經(jīng)授權的訪問或泄漏。
  • 掃描和檢測敏感數(shù)據(jù):使用先進的工具來檢測和保護網(wǎng)絡中的敏感信息。

訪問和身份驗證漏洞

當威脅行為者繞過或濫用身份控制進入 生成式AI系統(tǒng)或其背后的基礎設施時,就會發(fā)生這些攻擊。

這些策略并不新鮮。但在 生成式AI環(huán)境中,風險更高。

為什么?

因為 生成式AI平臺通常連接到內(nèi)部數(shù)據(jù)、生產(chǎn) API 和外部服務。因此,如果攻擊者獲得訪問權限,他們不僅可以看到數(shù)據(jù),還可以操縱模型、輸出和下游系統(tǒng)。

工作原理如下:大多數(shù) 生成式AI設置包括 API、Web 服務以及跨存儲、推理引擎、數(shù)據(jù)庫和前端應用的集成。它們通過憑證(例如令牌、密鑰或服務帳戶)連接在一起。如果其中任何一個被暴露,攻擊者就可以冒充合法用戶或服務。

例如:攻擊者可能會從模型推理 API 中竊取令牌。該令牌可能被用來發(fā)送惡意提示或提取過去的輸出歷史記錄?;蛘?,他們可能會入侵連接到云存儲的插件,并利用該插件上傳有害數(shù)據(jù)或獲取機密文件。

其他攻擊始于泄露管理員憑據(jù)。這些攻擊可能來自網(wǎng)絡釣魚或憑據(jù)重用。

一旦攻擊者進入,他們就可以升級訪問權限或改變模型的行為方式。

注意:在 生成式AI環(huán)境中,會話和令牌處理尤為敏感。許多模型依賴于上下文。如果會話令牌被重復使用或存儲不安全,攻擊者可能會跨會話持續(xù)存在或訪問之前的交互。

另一個常見問題是權限過高。服務帳戶和測試環(huán)境通常擁有超出實際需要的訪問權限。如果這些憑證在生產(chǎn)環(huán)境中重復使用,可能會造成嚴重損害。

最終:一個薄弱環(huán)節(jié)(例如被遺忘的令牌或過度許可的 API)可能會為整個系統(tǒng)的入侵打開大門。

對策:

  • 實施基于身份的訪問控制:要求在每個訪問點進行身份驗證,包括 API、服務和用戶界面。
  • 使用強身份驗證:應用多因素身份驗證和短期令牌來限制暴露。
  • 應用最小權限:限制賬戶和服務的訪問權限,使其僅用于其所需。避免授予廣泛或默認的訪問權限。
  • 監(jiān)控異常:定期檢查身份驗證日志。查找異?;顒樱缥恢米兏?、重復使用令牌或異常 API 行為。
  • 安全憑證:避免對令牌或密鑰進行硬編碼。使用安全保管庫或密鑰管理系統(tǒng)妥善存儲它們。

模型漂移和性能下降

當 生成式AI模型隨著時間的推移變得不那么準確或可靠時,就會發(fā)生模型漂移。這通常是因為模型開始使用未經(jīng)訓練的數(shù)據(jù),或者使用自訓練以來發(fā)生變化的數(shù)據(jù)。

這有什么關系?

因為 生成式AI系統(tǒng)并非停留在實驗室中,而是在真實環(huán)境中運行。這包括不斷變化的用戶行為、更新的內(nèi)容或不斷變化的業(yè)務條件。如果模型無法適應,性能就會下降,進而影響決策。

它看起來是這樣的:如果沒有更新,法律摘要模型可能會遺漏新術語。如果產(chǎn)品發(fā)生變化而模型保持不變,支持聊天機器人可能會給出錯誤答案。即使是輸入的微小變化也可能導致性能下降。這會導致混亂、結果不佳,在某些情況下還會帶來監(jiān)管或法律風險。

重要的:在閉源模型中,漂移尤其難以追蹤。如果無法了解訓練數(shù)據(jù)或模型變化,就很難理解問題所在,也很難找到解決辦法。

還有安全層面的問題。

漂移會增加出現(xiàn)幻覺和錯位的可能性。如果模型看到不熟悉的輸入,它可能會猜測。有時它會出錯,但聽起來很有把握。在其他情況下,它可能會忽略內(nèi)置規(guī)則,或生成違反預期的輸出。

換句話說:如果偏差未被發(fā)現(xiàn),它不僅會降低質量,還會造成運營風險、決策問題和聲譽受損。

對策:

  • 定期監(jiān)測模型性能:將輸出結果與已知基準或 KPI 進行比較。留意可能預示偏差的漸進式變化。
  • 驗證上游數(shù)據(jù)管道:確保輸入模型的數(shù)據(jù)準確、結構化且與模型預期一致。
  • 使用新數(shù)據(jù)重新訓練:定期使用最新數(shù)據(jù)更新模型。這有助于模型與不斷變化的輸入保持一致。
  • 使用反饋循環(huán):將實際使用數(shù)據(jù)納入模型評估。持續(xù)的反饋可以隨著時間的推移提高相關性。
  • 使用后備模型或集成模型:當置信度得分較低時,依賴輔助模型。這有助于在主模型出現(xiàn)偏差時保持準確率。
  • 實施版本控制和回滾計劃:備份過去的模型并跟蹤其隨時間的變化。如果出現(xiàn)性能問題,請快速回滾。
  • 引入領域專家:當檢測到偏差時,專家審查有助于解釋輸出是否仍然符合現(xiàn)實世界的需求。

治理和合規(guī)問題

生成式AI系統(tǒng)發(fā)展迅速,但管理它們所需的治理卻往往滯后。

這就是為什么這是一個問題:這些工具可以處理敏感數(shù)據(jù)、自動化決策,并生成影響人員和系統(tǒng)的內(nèi)容。如果沒有監(jiān)管,它們會帶來法律、運營和聲譽方面的風險。

換句話說:管控看不見摸不著的東西非常困難。許多組織缺乏對正在使用的模型、接觸的數(shù)據(jù)以及它們在生產(chǎn)中的行為方式的可見性。

當模型以不同的方式部署時,事情會變得更加復雜?;?API 的模型可能有一套要求。內(nèi)部托管的開源模型可能需要另一套要求。每種設置都需要各自的控制措施,并且可能根據(jù)使用地點和方式受到不同的監(jiān)管。

這使得一致性變得困難。許多 生成式AI模型也難以審計。它們通常像黑匣子一樣工作。并不總是清楚哪些數(shù)據(jù)影響了輸出結果,或者決策是如何做出的。這在招聘、醫(yī)療保健或金融等敏感領域尤其危險——這些領域的法律可能要求證明其公平性、透明度或非歧視性。

培訓又增加了一層。如果微調(diào)涉及內(nèi)部數(shù)據(jù),則存在泄露個人或專有信息的風險——尤其是在沒有明確政策或安全流程的情況下。

而且它不僅限于內(nèi)部使用。面向公眾的 生成式AI工具可能會被探測或操縱。如果沒有防護措施,它們可能會泄露數(shù)據(jù)或生成有害內(nèi)容。這將使組織面臨違反合規(guī)性的風險,甚至更糟的是,引發(fā)公眾的強烈反應。

對策:

  • 正在使用的庫存模型:識別整個組織的所有 生成式AI工具,包括實驗或影子項目。
  • 記錄數(shù)據(jù)源:追蹤數(shù)據(jù)在訓練、微調(diào)和推理中的使用情況。標記任何敏感或受監(jiān)管的內(nèi)容。
  • 制定模型批準政策:定義哪些可以批準,哪些不可以批準,以及如何做出決策。
  • 跨團隊共享所有權:法律、合規(guī)、安全和工程應在治理方面進行協(xié)調(diào)。
  • 監(jiān)控模型行為:注意漂移、偏差或誤用——尤其是在面向客戶或影響較大的用例中。
  • 遵守法規(guī):定期審查法律和框架。AI合規(guī)性是一個不斷變化的目標。

算法透明度和可解釋性

生成式AI模型通常很復雜。它們的輸出結果可能難以追蹤。而且在很多情況下,我們并不清楚某個決策是如何或為何做出的。

這就是透明度和可解釋性的作用所在。

它們是相關的——但并不相同。

透明度關乎可見性。這意味著了解模型的工作原理、訓練數(shù)據(jù)以及其局限性。它還包括訪問文檔、性能指標和輸入/輸出行為。

可解釋性則更進一步。它側重于理解。人類能否以一種合理的方式來解讀模型的決策?

這很重要。

如果人工智能系統(tǒng)拒絕貸款或標記健康狀況,用戶會想知道原因。如果它無法自我解釋,就會在操作、法律和倫理方面產(chǎn)生問題。

這就是為什么它如此重要:如果沒有透明度,偏見就更難被發(fā)現(xiàn)。如果模型是基于偏差數(shù)據(jù)進行訓練的,它可能會強化不公平的結果。但如果沒有人能夠洞察內(nèi)部,就無法審核或糾正這種行為。

缺乏可解釋性也使得系統(tǒng)更難改進。開發(fā)人員無法調(diào)試他們不理解的內(nèi)容。用戶也可能不再信任系統(tǒng)——尤其是在高風險的環(huán)境中。

這也是一個隱私問題。有些模型會記住部分訓練數(shù)據(jù)。如果其中包含敏感信息,則可能會在推理過程中泄露。如果模型的訓練過程不透明,這些風險可能會被忽視。

簡而言之:如果您無法解釋模型在做什么,您就無法保護它、管理它或期望其他人信任它。

對策:

  • 記錄正在使用的每個模型:包括其功能、訓練數(shù)據(jù)源和已知的限制。
  • 應用可解釋性技術:根據(jù)用例使用特征重要性、顯著性圖或自然語言論證等方法。
  • 透明度設計:闡明模型看到什么、可以輸出什么以及涉及人工監(jiān)督的地方。
  • 持續(xù)監(jiān)控輸出:注意偏見、漂移或異常行為,并在必要時觸發(fā)審查。
  • 與法律和合規(guī)團隊保持一致:確保透明度實踐支持監(jiān)管要求。
  • 避免在敏感區(qū)域使用黑匣子模型:或者在必須使用時添加護欄以降低風險。
  • 使解釋有意義:目標不僅僅是生成解釋,而是幫助人們理解模型正在做什么。
責任編輯:趙寧寧 來源: FreeBuf
相關推薦

2023-08-11 17:02:57

2023-12-06 13:10:07

2024-02-20 17:28:06

2023-11-07 16:03:46

人工智能

2023-08-10 07:04:13

2020-03-31 10:37:14

物聯(lián)網(wǎng)安全物聯(lián)網(wǎng)IOT

2010-09-30 15:49:00

2023-04-10 10:28:33

ChatGPTAI風險管理計劃

2023-12-01 15:34:34

人工智能

2023-11-29 08:00:00

人工智能機器學習

2024-03-07 11:15:46

2023-06-27 17:21:08

2022-01-05 22:38:09

云計算云安全技術

2023-10-08 07:00:12

2012-09-21 09:20:20

2010-09-17 13:23:12

2023-07-10 14:01:36

2024-07-22 15:56:44

2021-01-22 10:01:37

智能家居物聯(lián)網(wǎng)智能科技

2022-03-02 14:15:25

物聯(lián)網(wǎng)醫(yī)療安全
點贊
收藏

51CTO技術棧公眾號