偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

探索 LLM(-Agent) 安全:全棧視角下的深度解析

人工智能
還記得《流浪地球》中的臺詞嗎?‘道路千萬條,安全第一條;行車不規(guī)范,親人兩行淚’。在 AI 領(lǐng)域,安全問題同樣重要。

大家好,我是肆〇柒。今天,我們來聊聊大型語言模型(LLM)及其智能體(Agents)的全棧安全問題。這不僅僅是一個技術(shù)話題,更是關(guān)乎我們未來如何與 AI 共存的重要議題。

當(dāng)下,大型語言模型(LLM)正以其卓越的性能和廣泛的應(yīng)用前景,引領(lǐng)著人工智能領(lǐng)域的變革。從智能寫作到自動編程,從醫(yī)療診斷到金融分析,LLM 的身影無處不在。然而,隨著 LLM 在各個領(lǐng)域的深入應(yīng)用,其安全性問題日益凸顯,成為學(xué)術(shù)界和工業(yè)界共同關(guān)注的焦點(diǎn)。本文將探討 LLM 從數(shù)據(jù)準(zhǔn)備、預(yù)訓(xùn)練、后訓(xùn)練到部署的全生命周期安全問題,剖析每個階段潛在的風(fēng)險與挑戰(zhàn),并提出相應(yīng)的解決策略,為大家呈現(xiàn)一份全面且深入的安全指南。

基于 LLM 的 Agent 系統(tǒng)安全性概述

數(shù)據(jù)安全:筑牢 LLM 的根基

數(shù)據(jù)準(zhǔn)備:直面互聯(lián)網(wǎng)數(shù)據(jù)的暗礁

LLM 的訓(xùn)練依賴于海量的互聯(lián)網(wǎng)數(shù)據(jù),這些數(shù)據(jù)的多樣性和豐富性為模型提供了強(qiáng)大的語言理解和生成能力。然而,互聯(lián)網(wǎng)數(shù)據(jù)并非純凈無瑕,其中充斥著有毒數(shù)據(jù)和隱私敏感信息,這些數(shù)據(jù)可能悄無聲息地滲透進(jìn)模型參數(shù),成為模型行為的潛在威脅。在數(shù)據(jù)準(zhǔn)備階段,對這些有害內(nèi)容的甄別與過濾就顯得尤為重要。

例如,包含極端言論的網(wǎng)頁、帶有個人身份識別信息(PII)的文本片段,都可能成為模型訓(xùn)練中的“毒藥”。一旦這些數(shù)據(jù)被模型吸收,就可能引發(fā)一系列問題,如生成有害內(nèi)容或泄露用戶隱私。因此,建立嚴(yán)格的數(shù)據(jù)篩選機(jī)制,采用先進(jìn)的數(shù)據(jù)清洗技術(shù),是確保數(shù)據(jù)質(zhì)量的第一步。

數(shù)據(jù)準(zhǔn)備階段的安全風(fēng)險主要包括以下幾個方面:

  • 數(shù)據(jù)來源的不可靠性:互聯(lián)網(wǎng)數(shù)據(jù)來源廣泛,其中不乏惡意網(wǎng)站和不良內(nèi)容。這些數(shù)據(jù)可能含有誤導(dǎo)性信息、虛假新聞、惡意代碼等,直接威脅模型的安全性和可靠性。
  • 數(shù)據(jù)中的偏見和歧視:互聯(lián)網(wǎng)數(shù)據(jù)反映了人類社會的復(fù)雜性,其中包含大量的偏見和歧視性內(nèi)容。如果這些數(shù)據(jù)被不加篩選地用于訓(xùn)練,模型可能會繼承并放大這些偏見,導(dǎo)致在實(shí)際應(yīng)用中產(chǎn)生不公平或歧視性的結(jié)果。
  • 數(shù)據(jù)的隱私問題:許多互聯(lián)網(wǎng)數(shù)據(jù)包含個人敏感信息,如姓名、地址、身份證號碼等。在數(shù)據(jù)收集和使用過程中,如何保護(hù)這些隱私信息不被泄露,是一個需要解決的問題。

為了應(yīng)對這些挑戰(zhàn),研究者們提出了多種數(shù)據(jù)篩選和清洗方法。例如,通過關(guān)鍵詞過濾和黑名單機(jī)制,可以有效排除明顯有害的內(nèi)容;利用機(jī)器學(xué)習(xí)算法對數(shù)據(jù)進(jìn)行分類和標(biāo)注,可以識別和過濾掉包含偏見或歧視性的數(shù)據(jù);采用差分隱私技術(shù),在數(shù)據(jù)收集和處理過程中添加噪聲,可以保護(hù)用戶的隱私信息不被泄露。

在大語言模型(LLM)的整個生命周期中,從數(shù)據(jù)收集和預(yù)處理的初始階段,到模型訓(xùn)練、部署以及持續(xù)更新,都會面臨各種各樣的數(shù)據(jù)安全風(fēng)險

預(yù)訓(xùn)練數(shù)據(jù)安全:海量數(shù)據(jù)中的隱憂

預(yù)訓(xùn)練階段的數(shù)據(jù)量龐大且來源繁雜,這使得數(shù)據(jù)的安全性和隱私性面臨著嚴(yán)峻挑戰(zhàn)。訓(xùn)練數(shù)據(jù)中毒攻擊和隱私泄露是這一階段的兩大核心風(fēng)險。數(shù)據(jù)中毒攻擊可能僅通過極小比例的惡意數(shù)據(jù)(低至 0.1%)對模型行為產(chǎn)生長期不良影響。這些惡意數(shù)據(jù)往往難以被發(fā)現(xiàn),卻能夠在模型訓(xùn)練過程中潛移默化地改變模型的決策模式。

隱私泄露問題則更為棘手。模型可能無意間記住并復(fù)現(xiàn)訓(xùn)練數(shù)據(jù)中的敏感信息,如個人身份信息、商業(yè)機(jī)密等。數(shù)據(jù)提取攻擊表明,即使是少量的中毒數(shù)據(jù)也可能對模型行為產(chǎn)生持久影響,導(dǎo)致隱私信息的無意泄露。因此,在預(yù)訓(xùn)練階段,采用隱私保護(hù)技術(shù),如差分隱私和聯(lián)邦學(xué)習(xí),顯得尤為重要。

預(yù)訓(xùn)練數(shù)據(jù)安全的風(fēng)險和應(yīng)對措施如下:

  • 數(shù)據(jù)中毒攻擊的風(fēng)險:攻擊者可能通過在訓(xùn)練數(shù)據(jù)中注入惡意樣本,使模型在訓(xùn)練過程中學(xué)習(xí)到錯誤的模式和知識。這些惡意樣本可能包含特定的觸發(fā)詞或模式,當(dāng)模型在推理階段遇到這些觸發(fā)詞時,就會產(chǎn)生預(yù)期之外的有害輸出。
  • 隱私泄露的風(fēng)險:預(yù)訓(xùn)練數(shù)據(jù)可能包含個人敏感信息,如醫(yī)療記錄、財(cái)務(wù)數(shù)據(jù)等。如果模型在訓(xùn)練過程中記住了這些信息,并在后續(xù)的生成結(jié)果中泄露出來,將對用戶的隱私造成嚴(yán)重威脅。
  • 應(yīng)對數(shù)據(jù)中毒攻擊的措施:在數(shù)據(jù)預(yù)處理階段,采用嚴(yán)格的數(shù)據(jù)篩選和清洗流程,去除明顯異?;蛴泻Φ臄?shù)據(jù)樣本;利用數(shù)據(jù)增強(qiáng)技術(shù),增加正常數(shù)據(jù)的比例,稀釋惡意數(shù)據(jù)的影響;在訓(xùn)練過程中,采用異常檢測算法,實(shí)時監(jiān)測模型的行為變化,及時發(fā)現(xiàn)潛在的數(shù)據(jù)中毒攻擊。
  • 應(yīng)對隱私泄露的措施:在數(shù)據(jù)收集階段,對包含敏感信息的數(shù)據(jù)進(jìn)行匿名化和脫敏處理;在模型訓(xùn)練階段,采用隱私保護(hù)機(jī)器學(xué)習(xí)技術(shù),如差分隱私、同態(tài)加密等,確保數(shù)據(jù)在訓(xùn)練過程中的保密性;在模型評估階段,使用隱私泄露檢測工具,對模型的生成結(jié)果進(jìn)行嚴(yán)格審查,防止隱私信息的泄露。

微調(diào)數(shù)據(jù)安全:精準(zhǔn)訓(xùn)練中的風(fēng)險防范

微調(diào)階段是 LLM 適應(yīng)特定領(lǐng)域和任務(wù)的關(guān)鍵環(huán)節(jié),但也是數(shù)據(jù)中毒攻擊的高危區(qū)域。指令微調(diào)、參數(shù)高效微調(diào)(PEFT)和聯(lián)邦學(xué)習(xí)中的數(shù)據(jù)安全問題不容忽視。攻擊者可能通過操控訓(xùn)練數(shù)據(jù)或注入惡意指令,誘導(dǎo)模型生成有害內(nèi)容。

例如,在指令微調(diào)中,攻擊者可以注入惡意指令,使模型在遇到特定觸發(fā)輸入時生成不安全內(nèi)容。PEFT 技術(shù)中的后門注入可能導(dǎo)致模型在微調(diào)過程中出現(xiàn)非預(yù)期行為。聯(lián)邦學(xué)習(xí)的分布式特性則為攻擊者提供了更多可乘之機(jī),使得數(shù)據(jù)中毒攻擊更難被檢測和防御。

針對微調(diào)數(shù)據(jù)安全,可以采取以下詳細(xì)措施:

  • 指令微調(diào)中的風(fēng)險與防范:在指令微調(diào)中,需要對訓(xùn)練數(shù)據(jù)中的指令進(jìn)行嚴(yán)格審查,確保指令的合法性和安全性。可以采用指令驗(yàn)證機(jī)制,對每個指令進(jìn)行語法和語義分析,過濾掉包含有害內(nèi)容或潛在風(fēng)險的指令。同時,建立指令黑名單和白名單制度,對已知的惡意指令進(jìn)行攔截,對合法指令進(jìn)行優(yōu)先推薦。
  • PEFT 技術(shù)中的后門風(fēng)險與防范:對于 PEFT 技術(shù)中的后門注入問題,可以在微調(diào)過程中引入后門檢測算法,對模型的參數(shù)更新進(jìn)行實(shí)時監(jiān)測,識別和定位可能的后門植入點(diǎn)。此外,采用模型水印技術(shù),在模型中嵌入獨(dú)特的標(biāo)識信息,當(dāng)模型被惡意使用或出現(xiàn)安全問題時,能夠追溯到具體的微調(diào)階段和數(shù)據(jù)來源。
  • 聯(lián)邦學(xué)習(xí)中的數(shù)據(jù)安全挑戰(zhàn)與應(yīng)對:在聯(lián)邦學(xué)習(xí)中,由于數(shù)據(jù)分布在多個客戶端上,攻擊者可能通過篡改客戶端數(shù)據(jù)或模擬虛假客戶端來發(fā)動攻擊。為應(yīng)對這一挑戰(zhàn),可以采用聯(lián)邦學(xué)習(xí)中的數(shù)據(jù)驗(yàn)證機(jī)制,對每個客戶端上傳的數(shù)據(jù)進(jìn)行一致性和完整性檢查,防止惡意數(shù)據(jù)的混入。同時,利用加密技術(shù)對數(shù)據(jù)傳輸和存儲進(jìn)行保護(hù),確保數(shù)據(jù)在聯(lián)邦學(xué)習(xí)過程中的保密性和完整性。

對齊數(shù)據(jù)安全:引導(dǎo)模型行為的關(guān)鍵

在 LLM 的對齊過程中,數(shù)據(jù)中毒攻擊同樣是一個不容忽視的威脅。對齊階段目的是通過人類反饋和強(qiáng)化學(xué)習(xí)(RLHF)來優(yōu)化模型的行為,使其符合人類價值觀。然而,攻擊者可能在人類反饋階段操縱反饋數(shù)據(jù),或在 RLHF 階段污染獎勵模型,從而破壞模型的對齊效果。

大語言模型對齊安全的分類學(xué)示意圖

例如,惡意指令注入、通用越獄后門的構(gòu)建以及欺騙性反饋的制造,都可能導(dǎo)致模型在對齊后仍存在安全隱患。這些攻擊手段可能使模型在特定觸發(fā)條件下生成有害內(nèi)容,或降低模型對人類價值觀的遵循程度。

為了確保對齊數(shù)據(jù)的安全,需要從以下幾個方面入手:

  • 人類反饋階段的數(shù)據(jù)質(zhì)量控制:在人類反饋階段,建立嚴(yán)格的標(biāo)注人員篩選和培訓(xùn)機(jī)制,確保標(biāo)注人員具備良好的判斷力和道德素養(yǎng),能夠提供準(zhǔn)確、可靠的反饋數(shù)據(jù)。同時,采用多輪標(biāo)注和交叉驗(yàn)證的方法,對標(biāo)注結(jié)果進(jìn)行多次審核和驗(yàn)證,減少主觀偏見和惡意操縱的可能性。
  • RLHF 階段的獎勵模型保護(hù):在 RLHF 階段,對獎勵模型進(jìn)行定期評估和更新,監(jiān)測其對不同輸入的響應(yīng)是否符合預(yù)期。采用數(shù)據(jù) poisoning 檢測算法,及時發(fā)現(xiàn)和剔除可能被污染的訓(xùn)練數(shù)據(jù)。此外,可以引入多樣化的獎勵信號源,避免單一數(shù)據(jù)源被惡意操縱后對獎勵模型造成過大影響。

數(shù)據(jù)生成:安全與效率的平衡

數(shù)據(jù)生成技術(shù)在 LLM 的整個生命周期中扮演著重要角色,從預(yù)訓(xùn)練到后訓(xùn)練再到評估,數(shù)據(jù)生成技術(shù)的應(yīng)用無處不在。然而,數(shù)據(jù)生成過程也可能引入隱私、偏差和準(zhǔn)確性問題。

合成數(shù)據(jù)可能因包含敏感訓(xùn)練樣本或去匿名化不足而加劇隱私泄露風(fēng)險。此外,LLM 本身存在的社會偏見可能在生成的數(shù)據(jù)中被進(jìn)一步放大,導(dǎo)致不公平或歧視性結(jié)果。數(shù)據(jù)生成中的幻覺現(xiàn)象也是一大挑戰(zhàn),生成的數(shù)據(jù)可能包含錯誤信息或邏輯漏洞,從而影響模型的訓(xùn)練效果和可靠性。

針對數(shù)據(jù)生成中的安全問題,可以采取以下措施:

  • 隱私保護(hù)措施:在數(shù)據(jù)生成過程中,采用差分隱私、同態(tài)加密等隱私保護(hù)技術(shù),對生成的數(shù)據(jù)進(jìn)行加密和匿名化處理,防止敏感信息的泄露。同時,建立數(shù)據(jù)生成的訪問控制機(jī)制,限制對生成數(shù)據(jù)的訪問權(quán)限,確保數(shù)據(jù)的使用符合隱私政策和法律法規(guī)。
  • 偏差檢測與糾正:利用偏差檢測算法,對生成的數(shù)據(jù)進(jìn)行定期檢查,識別和量化其中存在的社會偏見和其他不公平現(xiàn)象。根據(jù)檢測結(jié)果,采用數(shù)據(jù)重采樣、特征工程等方法對數(shù)據(jù)進(jìn)行糾正,減少偏差對模型訓(xùn)練的影響。
  • 幻覺現(xiàn)象的應(yīng)對:加強(qiáng)數(shù)據(jù)生成過程中的審核和驗(yàn)證機(jī)制,對生成的數(shù)據(jù)進(jìn)行多輪評估和修正,確保數(shù)據(jù)的準(zhǔn)確性和邏輯一致性。同時,結(jié)合人類專家的判斷和反饋,對數(shù)據(jù)生成模型進(jìn)行持續(xù)優(yōu)化,提高生成數(shù)據(jù)的質(zhì)量和可靠性。

預(yù)訓(xùn)練安全:把好第一道關(guān)卡

預(yù)訓(xùn)練數(shù)據(jù)過濾:多管齊下

為了確保預(yù)訓(xùn)練數(shù)據(jù)的安全性,研究者們提出了多種數(shù)據(jù)過濾方法,包括啟發(fā)式過濾、基于模型的過濾和黑盒過濾。

啟發(fā)式過濾通過領(lǐng)域黑名單、關(guān)鍵詞匹配和預(yù)定義規(guī)則來高效排除明顯有害內(nèi)容。例如,某些研究編制了包含 13M 不安全域名的列表,用于過濾預(yù)訓(xùn)練數(shù)據(jù)。然而,這種方法可能導(dǎo)致大量數(shù)據(jù)被誤排除,影響數(shù)據(jù)的多樣性。

基于模型的過濾則利用訓(xùn)練有素的分類器對內(nèi)容進(jìn)行動態(tài)評估。例如,GPT-4 的技術(shù)報(bào)告中提到使用內(nèi)部訓(xùn)練的分類器來過濾不適當(dāng)內(nèi)容。這種方法具有更好的泛化能力,但模型的不透明性可能引發(fā)透明度和可解釋性問題。

黑盒過濾通常依賴于政策驅(qū)動或 API 基方法,其過濾標(biāo)準(zhǔn)和實(shí)現(xiàn)細(xì)節(jié)不透明。例如,某些公司使用自己的安全標(biāo)準(zhǔn)或 API 進(jìn)行數(shù)據(jù)過濾,這種方法操作性強(qiáng),但在透明度和可解釋性方面存在不足。

此外,預(yù)訓(xùn)練數(shù)據(jù)增強(qiáng)也是提升安全性的關(guān)鍵策略。通過整合安全演示示例和標(biāo)注有毒內(nèi)容,可以有效引導(dǎo)模型行為,提高模型對不安全輸入的識別能力。

預(yù)訓(xùn)練數(shù)據(jù)過濾和增強(qiáng)可以采取以下措施:

  • 啟發(fā)式過濾的優(yōu)化:在使用啟發(fā)式過濾時,建立動態(tài)調(diào)整的黑名單和關(guān)鍵詞列表,根據(jù)不斷變化的網(wǎng)絡(luò)環(huán)境和數(shù)據(jù)特點(diǎn),及時更新過濾規(guī)則。同時,結(jié)合數(shù)據(jù)樣本的上下文信息進(jìn)行綜合判斷,減少誤判和漏判的可能性。
  • 基于模型的過濾的改進(jìn):為了提高基于模型的過濾的透明度和可解釋性,可以采用模型壓縮和解釋技術(shù),對分類器進(jìn)行簡化和優(yōu)化,使其決策過程更容易被理解和分析。此外,定期對模型進(jìn)行評估和更新,確保其對新出現(xiàn)的有害內(nèi)容具有良好的檢測能力。
  • 黑盒過濾的應(yīng)用場景與限制:在一些對數(shù)據(jù)隱私和安全要求極高的場景下,如醫(yī)療、金融等領(lǐng)域,可以適當(dāng)采用黑盒過濾方法。但在使用過程中,需要對過濾結(jié)果進(jìn)行嚴(yán)格審查和驗(yàn)證,結(jié)合其他過濾方法進(jìn)行交叉驗(yàn)證,確保過濾效果的可靠性和數(shù)據(jù)的安全性。
  • 預(yù)訓(xùn)練數(shù)據(jù)增強(qiáng)的具體方法:在整合安全演示示例時,可以選擇具有代表性和多樣性的安全行為案例,涵蓋不同的場景和任務(wù)類型,使模型能夠?qū)W習(xí)到全面的安全知識和行為模式。在標(biāo)注有毒內(nèi)容時,采用精細(xì)的標(biāo)注粒度,不僅標(biāo)注出有毒內(nèi)容的位置,還對其類型、程度和潛在危害進(jìn)行詳細(xì)標(biāo)注,為模型提供更豐富的學(xué)習(xí)信息。

預(yù)訓(xùn)練安全策略的流程。將現(xiàn)有的方法分為基于過濾的預(yù)訓(xùn)練安全和基于增強(qiáng)的預(yù)訓(xùn)練安全

后訓(xùn)練安全:精準(zhǔn)防御,保障模型可靠

后訓(xùn)練階段的攻擊:隱蔽且精準(zhǔn)

后訓(xùn)練階段的攻擊方法多樣且隱蔽,涵蓋了從數(shù)據(jù)構(gòu)造到微調(diào)的各個環(huán)節(jié)。攻擊者可能通過固定提示策略、迭代提示策略和遷移學(xué)習(xí)策略等手段來實(shí)施攻擊。

在監(jiān)督微調(diào)(SFT)中,攻擊者可能通過篡改模型參數(shù)或注入惡意數(shù)據(jù)來植入隱蔽后門,從而繞過安全防護(hù)。而在強(qiáng)化學(xué)習(xí)(RL)微調(diào)中,攻擊者可能通過操縱獎勵機(jī)制來誘導(dǎo)模型產(chǎn)生有害輸出。

例如,反向監(jiān)督微調(diào)(RSFT)利用對抗性的“有幫助”響應(yīng)對來破壞安全防護(hù),而參數(shù)高效微調(diào)(如 LoRA)中的后門注入可能導(dǎo)致模型在特定觸發(fā)條件下生成有害內(nèi)容。

針對后訓(xùn)練階段的攻擊方法,可以采取以下詳細(xì)措施進(jìn)行防范:

  • 固定提示策略的應(yīng)對:在模型訓(xùn)練過程中,對提示(prompt)進(jìn)行嚴(yán)格的安全檢查,建立提示審核機(jī)制,確保提示的內(nèi)容合法、安全且符合倫理道德。同時,采用提示多樣化策略,為不同的任務(wù)和場景設(shè)計(jì)多樣化的提示模板,降低攻擊者對特定提示的利用風(fēng)險。
  • 迭代提示策略的防范:對于迭代提示策略,可以引入提示的動態(tài)調(diào)整和優(yōu)化機(jī)制,在每次迭代過程中對提示進(jìn)行安全性和有效性的評估,及時發(fā)現(xiàn)和修正可能存在的安全漏洞。此外,采用提示的版本控制和回滾機(jī)制,當(dāng)發(fā)現(xiàn)新的安全問題時,能夠迅速恢復(fù)到之前的安全版本。
  • 遷移學(xué)習(xí)策略中的安全考量:在采用遷移學(xué)習(xí)策略時,對源模型和目標(biāo)模型進(jìn)行全面的安全評估,確保源模型沒有被惡意篡改或植入后門。同時,在遷移學(xué)習(xí)的過程中,采用知識蒸餾和特征提取等技術(shù),對源模型的知識進(jìn)行有選擇性的遷移,避免將潛在的安全風(fēng)險帶入目標(biāo)模型。

后訓(xùn)練階段的防御:多維度的防護(hù)網(wǎng)

面對后訓(xùn)練階段的攻擊,研究者們提出了多種防御機(jī)制,包括對齊、下游微調(diào)和安全恢復(fù)。

對齊通過獎勵建模和強(qiáng)化學(xué)習(xí)等方式,使 LLM 符合人類價值觀。然而,這種方法對越獄攻擊較為脆弱,且容易受到微調(diào)攻擊的影響。

下游微調(diào)中的防御機(jī)制包括正則化方法、數(shù)據(jù)操作和基于檢測的防御。例如,KL 正則化通過限制微調(diào)模型與對齊模型之間的距離,防止模型偏離安全軌道。數(shù)據(jù)混合和系統(tǒng)提示修改則通過在微調(diào)中融入對齊數(shù)據(jù)或調(diào)整提示來增強(qiáng)安全性。

安全恢復(fù)目的是修復(fù)受攻擊的模型,通過消除注入的有害知識或投影有害梯度更新到安全子空間等方法來恢復(fù)模型的安全性。例如,某些研究通過重新對齊模型來消除模型參數(shù)中的有毒信息。

后訓(xùn)練階段的防御措施可以細(xì)化為以下幾點(diǎn):

  • 對齊過程的強(qiáng)化與改進(jìn):在獎勵建模過程中,采用多樣化的獎勵信號源,結(jié)合人類標(biāo)注數(shù)據(jù)和模擬數(shù)據(jù),提高獎勵模型的準(zhǔn)確性和魯棒性。在強(qiáng)化學(xué)習(xí)過程中,引入多智能體協(xié)作機(jī)制,讓多個模型在相互學(xué)習(xí)和競爭中不斷優(yōu)化自己的行為策略,增強(qiáng)對人類價值觀的遵循能力。
  • 正則化方法的應(yīng)用與優(yōu)化:除了 KL 正則化外,還可以采用其他正則化技術(shù),如 L1/L2 正則化、彈性凈正則化等,對模型的參數(shù)進(jìn)行約束和優(yōu)化,防止模型在微調(diào)過程中出現(xiàn)過擬合和偏離安全軌道的問題。同時,根據(jù)具體的任務(wù)和數(shù)據(jù)特點(diǎn),調(diào)整正則化參數(shù)的大小,平衡模型的復(fù)雜度和泛化能力。
  • 數(shù)據(jù)操作的創(chuàng)新與加強(qiáng):在數(shù)據(jù)混合方面,探索新的數(shù)據(jù)混合策略,如基于任務(wù)重要性的加權(quán)混合、基于樣本質(zhì)量的自適應(yīng)混合等,提高混合數(shù)據(jù)的質(zhì)量和安全性。在系統(tǒng)提示修改方面,采用智能提示生成算法,根據(jù)不同的輸入和場景動態(tài)生成安全、有效的提示,引導(dǎo)模型產(chǎn)生符合預(yù)期的輸出。
  • 安全恢復(fù)的技術(shù)手段與流程:建立模型安全性評估指標(biāo)體系,定期對模型進(jìn)行安全性評估,及時發(fā)現(xiàn)潛在的安全問題。當(dāng)模型受到攻擊后,采用模型修復(fù)算法,如模型參數(shù)的重新訓(xùn)練、有毒信息的擦除等,快速恢復(fù)模型的安全性。同時,記錄和分析模型受到攻擊的案例,總結(jié)經(jīng)驗(yàn)教訓(xùn),不斷完善安全恢復(fù)機(jī)制。

評估機(jī)制:度量安全的標(biāo)尺

后訓(xùn)練階段的安全評估指標(biāo)是衡量防御機(jī)制有效性的重要工具。安全指標(biāo)如攻擊成功率(ASR)、拒絕率等,以及效用指標(biāo)如準(zhǔn)確率、生成內(nèi)容的相似度等,都是評估模型安全性和實(shí)用性的重要維度。

隨著研究的深入,評估機(jī)制也在不斷發(fā)展,從關(guān)注低級安全問題(如暴力、色情內(nèi)容)到探討高級安全問題(如欺騙性對齊和獎勵黑客行為)。這些評估指標(biāo)和方法為模型的安全性提供了量化依據(jù),幫助研究者們更好地理解和改進(jìn)模型的防御能力。

為了提高后訓(xùn)練階段的安全評估效果,可以采取以下措施:

  • 建立綜合評估指標(biāo)體系:除了常見的安全指標(biāo)和效用指標(biāo)外,還應(yīng)考慮模型的可解釋性、公平性、隱私保護(hù)等多方面的因素,建立一個全面、綜合的評估指標(biāo)體系。這有助于更全面地評估模型的安全性和可靠性,發(fā)現(xiàn)潛在的安全風(fēng)險。
  • 采用多樣化的評估方法:結(jié)合人工評估和自動評估的方法,對模型的安全性進(jìn)行多角度的測試和驗(yàn)證。人工評估可以邀請領(lǐng)域?qū)<液陀脩魧δP偷妮敵鲞M(jìn)行主觀評價,識別其中可能存在的安全隱患和倫理問題;自動評估則利用各種評估工具和算法,對模型進(jìn)行大規(guī)模的客觀測試,提高評估的效率和準(zhǔn)確性。
  • 開展對抗性評估:模擬真實(shí)的攻擊場景,對模型進(jìn)行對抗性評估,檢驗(yàn)?zāi)P驮诿鎸Ω鞣N攻擊手段時的防御能力和魯棒性。通過不斷與攻擊者進(jìn)行攻防演練,發(fā)現(xiàn)模型的安全漏洞,并及時進(jìn)行修復(fù)和優(yōu)化。

LLM 后訓(xùn)練安全的分類圖示

LLM 安全編輯與遺忘:靈活更新,守護(hù)隱私

模型編輯:精準(zhǔn)修改的雙刃劍

模型編輯技術(shù)允許在部署過程中對 LLM 進(jìn)行精準(zhǔn)修改,以更新模型知識或提高模型安全性。模型編輯方法主要分為基于梯度、基于內(nèi)存和定位然后編輯三類。

基于梯度的方法通過修改模型梯度來更新知識,但其復(fù)雜性和模式崩潰問題限制了其應(yīng)用?;趦?nèi)存的方法通過引入外部參數(shù)來輔助知識更新,但可能導(dǎo)致模型過參數(shù)化。定位然后編輯方法(如 RoME、MEMIT 和 AlphaEdit)通過因果追蹤定位知識存儲相關(guān)神經(jīng)元,實(shí)現(xiàn)知識編輯,已成為近年來的主流方法。

然而,模型編輯也可能帶來安全風(fēng)險。例如,編輯攻擊可能導(dǎo)致模型的有害知識注入,而隱私信息泄露則可能通過編輯方法暴露敏感信息。因此,在利用模型編輯技術(shù)時,必須同時考慮其潛在的安全威脅,并采取相應(yīng)的防御措施。

模型編輯的安全應(yīng)用需要注意以下幾點(diǎn):

  • 基于梯度方法的優(yōu)化:在使用基于梯度的模型編輯方法時,優(yōu)化編輯過程中的梯度更新策略,避免過度修改導(dǎo)致模型性能下降和模式崩潰。可以采用梯度裁剪、學(xué)習(xí)率調(diào)整等技術(shù),控制梯度的大小和方向,確保模型在編輯過程中的穩(wěn)定性和收斂性。
  • 基于內(nèi)存方法的安全保障:對于基于內(nèi)存的模型編輯方法,建立內(nèi)存數(shù)據(jù)的安全管理機(jī)制,對引入的外部參數(shù)進(jìn)行加密和訪問控制,防止未經(jīng)授權(quán)的訪問和篡改。同時,定期對內(nèi)存數(shù)據(jù)進(jìn)行備份和恢復(fù)測試,確保在出現(xiàn)安全問題時能夠快速恢復(fù)模型的正常狀態(tài)。
  • 定位然后編輯方法的改進(jìn):在采用定位然后編輯方法時,提高因果追蹤算法的準(zhǔn)確性和可靠性,避免誤定位導(dǎo)致的知識編輯錯誤。同時,對編輯后的神經(jīng)元進(jìn)行驗(yàn)證和測試,確保其行為符合預(yù)期,不會引入新的安全風(fēng)險。

遺忘:擦除記憶的藝術(shù)

遺忘技術(shù)目的是從已訓(xùn)練的 LLM 中選擇性地移除或減輕特定知識、行為或數(shù)據(jù)點(diǎn)的影響,以確保模型的隱私和安全。遺忘方法主要分為參數(shù)調(diào)整方法和參數(shù)保留方法。

參數(shù)調(diào)整方法通過修改模型內(nèi)部權(quán)重來實(shí)現(xiàn)遺忘,如梯度上升和負(fù)偏好優(yōu)化損失。這種方法通常需要重新訓(xùn)練或微調(diào)模型,以對抗需要遺忘的知識或行為。而參數(shù)保留方法則通過外部干預(yù)來引導(dǎo)模型輸出,無需修改核心模型架構(gòu),如后處理方法、輔助模型使用和任務(wù)向量方法等。

遺忘技術(shù)在多模態(tài) LLM 中的應(yīng)用也日益受到關(guān)注,如 MMUnlearner 和 SafeEraser 等方法試圖在視覺概念擦除的同時保留文本知識,為多模態(tài) LLM 安全提供了新的解決方案。

為了更好地實(shí)現(xiàn) LLM 的遺忘功能,可以采取以下措施:

  • 參數(shù)調(diào)整方法的優(yōu)化:在使用梯度上升和負(fù)偏好優(yōu)化損失等參數(shù)調(diào)整方法時,精確控制遺忘的程度和范圍,避免對模型的其他知識和性能造成不必要的影響??梢酝ㄟ^調(diào)整學(xué)習(xí)率、正則化參數(shù)等超參數(shù),以及采用漸進(jìn)式的遺忘策略,逐步實(shí)現(xiàn)遺忘目標(biāo)。
  • 參數(shù)保留方法的創(chuàng)新:探索新的參數(shù)保留方法,如基于注意力機(jī)制的遺忘、基于記憶增強(qiáng)網(wǎng)絡(luò)的遺忘等,提高遺忘的精度和效率。這些方法可以在不修改核心模型架構(gòu)的情況下,通過對模型的注意力分布或記憶單元進(jìn)行調(diào)整,實(shí)現(xiàn)對特定知識或行為的遺忘。
  • 多模態(tài)遺忘技術(shù)的發(fā)展:在多模態(tài) LLM 中,加強(qiáng)視覺概念擦除和文本知識保留的平衡與協(xié)調(diào)。一方面,開發(fā)專門針對視覺模態(tài)的遺忘算法,能夠準(zhǔn)確識別和擦除與隱私相關(guān)的視覺特征和概念;另一方面,確保文本模態(tài)的知識和性能不受影響,維持模型在多模態(tài)任務(wù)中的整體性能和穩(wěn)定性。

用于安全的大型語言模型反學(xué)習(xí)的分類圖示

LLM(-Agent) 部署安全:多維度防護(hù),應(yīng)對外部威脅

單個 LLM 部署安全:直面攻擊的挑戰(zhàn)

單個 LLM 在部署階段面臨著多種攻擊類型,包括模型提取攻擊、成員資格推理攻擊(MIA)、越獄攻擊、提示注入攻擊、數(shù)據(jù)提取攻擊和提示竊取攻擊等。針對這些攻擊,研究者們提出了一系列防御機(jī)制,包括輸入預(yù)處理、輸出過濾機(jī)制和魯棒提示工程。

單個大型語言模型部署階段的攻擊概述

輸入預(yù)處理通過攻擊檢測與識別、語義與行為分析以及對抗性防御與緩解等手段,檢測并中和惡意輸入。例如,梯度分析和困惑度評估方法可以識別操縱 LLM 行為的提示,防止其對模型造成影響。

輸出過濾機(jī)制則通過規(guī)則約束、對抗性過濾和毒性檢測等方法,確保生成的響應(yīng)符合安全限制。例如,基于 LLM 的評估系統(tǒng)可以標(biāo)記模型輸出是否安全,并計(jì)算不安全標(biāo)簽的比例作為安全指標(biāo)。

單個語言模型(LLM)部署階段的評估與基準(zhǔn)測試概述

魯棒提示工程通過設(shè)計(jì)輸入提示來抵抗對抗性操縱,保護(hù)敏感數(shù)據(jù)并減少有害輸出。例如,提示優(yōu)化技術(shù)可以生成可轉(zhuǎn)移的后綴或嵌入,以在攻擊下引導(dǎo)模型行為,降低越獄成功率。

單個 LLM 部署安全的防護(hù)措施可以細(xì)化為以下幾點(diǎn):

  • 輸入預(yù)處理的強(qiáng)化:在攻擊檢測與識別方面,采用多模態(tài)特征提取和融合技術(shù),結(jié)合文本、圖像、語音等多種模態(tài)的信息,提高攻擊檢測的準(zhǔn)確性和魯棒性。在語義與行為分析方面,利用深度語義理解模型和行為模式分析算法,對輸入進(jìn)行多層面的語義解析和行為建模,及時發(fā)現(xiàn)潛在的惡意意圖和異常行為。
  • 輸出過濾機(jī)制的優(yōu)化:在規(guī)則約束方面,建立動態(tài)調(diào)整的規(guī)則庫,根據(jù)不同的應(yīng)用場景和安全需求,實(shí)時更新和優(yōu)化過濾規(guī)則。在對抗性過濾方面,采用生成對抗網(wǎng)絡(luò)(GAN)等技術(shù),生成多樣化的對抗樣本,訓(xùn)練模型的過濾能力,提高其對新型攻擊的適應(yīng)性和泛化能力。
  • 魯棒提示工程的創(chuàng)新:開發(fā)智能提示生成系統(tǒng),根據(jù)輸入的語義和上下文信息,自動生成魯棒、安全的提示。同時,采用提示的多樣性策略,在不同的提示之間進(jìn)行切換和組合,降低攻擊者對特定提示的適應(yīng)性和利用效率。

單個大語言模型部署階段的攻擊概述

單智能體安全:復(fù)雜交互中的隱患

LLM 驅(qū)動的智能體(Agent)是一種能夠獨(dú)立或在有限人類監(jiān)督下運(yùn)行的 AI 系統(tǒng),其核心是復(fù)雜的語言模型。智能體通過結(jié)合記憶、工具和環(huán)境來增強(qiáng)其功能。然而,這些附加模塊也引入了新的安全問題。

工具使用安全涉及智能體如何安全地調(diào)用外部 API 和工具。例如,工具越獄攻擊可能導(dǎo)致智能體泄露隱私信息或執(zhí)行有害操作。內(nèi)存管理安全則關(guān)注智能體的長期和短期記憶系統(tǒng)可能受到的攻擊,如內(nèi)存投毒和隱私泄露。

環(huán)境交互安全則涉及智能體在動態(tài)和異構(gòu)環(huán)境中感知、推理和行動的安全性。例如,感知階段可能受到數(shù)據(jù)投毒和環(huán)境噪聲的影響,推理階段可能面臨決策錯誤和協(xié)議漏洞,而行動階段則需要確保操作的安全性和準(zhǔn)確性。

為了保障單智能體的安全,可以采取以下措施:

  • 工具使用安全的保障:在調(diào)用外部 API 和工具時,建立嚴(yán)格的認(rèn)證和授權(quán)機(jī)制,確保智能體只使用經(jīng)過驗(yàn)證和授權(quán)的工具。同時,對工具的輸入和輸出進(jìn)行嚴(yán)格的安全檢查,防止惡意數(shù)據(jù)的輸入和敏感信息的泄露。
  • 內(nèi)存管理安全的加強(qiáng):在長期和短期記憶系統(tǒng)的管理中,采用加密技術(shù)和訪問控制機(jī)制,保護(hù)內(nèi)存數(shù)據(jù)的保密性和完整性。定期對內(nèi)存進(jìn)行清理和更新,及時移除可能被污染或過時的數(shù)據(jù),防止內(nèi)存投毒攻擊。
  • 環(huán)境交互安全的提升:在感知階段,采用數(shù)據(jù)預(yù)處理和特征提取技術(shù),去除環(huán)境數(shù)據(jù)中的噪聲和干擾,提高感知的準(zhǔn)確性和可靠性。在推理階段,利用形式化方法和邏輯驗(yàn)證技術(shù),對智能體的決策過程進(jìn)行嚴(yán)格驗(yàn)證,確保決策的正確性和安全性。在行動階段,建立操作的預(yù)演和驗(yàn)證機(jī)制,在執(zhí)行操作之前對其進(jìn)行模擬和評估,防止有害操作的執(zhí)行。


基于大型語言模型(LLM)的單智能體和多智能體系統(tǒng)的概述

多智能體安全:協(xié)作中的風(fēng)險與防御

多智能體系統(tǒng)(MAS)中的智能體能夠通過合作、競爭和辯論等機(jī)制解決復(fù)雜問題。然而,智能體之間的交互也帶來了更復(fù)雜和多樣化的安全威脅。

傳播性攻擊在 MAS 中如同病毒般傳播,攜帶隱蔽的惡意信息,持續(xù)攻擊和破壞系統(tǒng)中的智能體。干擾攻擊則側(cè)重于干擾 MAS 內(nèi)的交互,強(qiáng)調(diào)通信干擾和錯誤信息傳播,導(dǎo)致信息傳輸受阻和防御能力下降。

戰(zhàn)略性攻擊涉及智能體之間的協(xié)作和攻擊方法的優(yōu)化,目的是強(qiáng)調(diào)攻擊的長期影響和破壞性。例如,惡意智能體可能通過優(yōu)越的知識或說服力在辯論中占據(jù)優(yōu)勢,誘導(dǎo)其他安全智能體采取有害行為。

基于大型語言模型(LLM)的智能體系統(tǒng)的安全性概述

針對多智能體系統(tǒng)的安全威脅,可以采取以下防御措施:

  • 對抗傳播性攻擊的方法:建立智能體間的信任機(jī)制,通過評估智能體的行為歷史和信譽(yù)狀況,篩選出可信的智能體進(jìn)行交互,防止惡意信息的傳播。同時,采用信息加密和數(shù)字簽名技術(shù),對智能體間傳輸?shù)男畔⑦M(jìn)行保護(hù),確保信息的保密性和完整性。
  • 抵御干擾攻擊的策略:加強(qiáng) MAS 的通信安全,采用冗余通信信道和容錯機(jī)制,確保在部分通信被干擾的情況下,系統(tǒng)仍能正常運(yùn)行。利用信息驗(yàn)證和交叉比對技術(shù),對收到的信息進(jìn)行多源驗(yàn)證,識別和過濾掉錯誤信息。
  • 防范戰(zhàn)略性攻擊的手段:在智能體的協(xié)作和辯論過程中,引入監(jiān)督和仲裁機(jī)制,對智能體的行為和決策進(jìn)行實(shí)時監(jiān)測和評估,及時發(fā)現(xiàn)和制止惡意行為。同時,采用智能體的 diversity 策略,使不同智能體具有不同的行為模式和決策策略,降低惡意智能體對整個系統(tǒng)的影響力。

Agent 與環(huán)境交互的概述

LLM 基于應(yīng)用的安全考量

隨著 LLM 在內(nèi)容創(chuàng)作、智能交互、自動編程、醫(yī)療診斷和金融分析等領(lǐng)域的廣泛應(yīng)用,其安全性問題也日益凸顯。確保 LLM 基于應(yīng)用的安全性、可靠性和合規(guī)性成為 AI 研究和實(shí)際應(yīng)用中的關(guān)鍵議題。

幻覺現(xiàn)象是 LLM 在文本生成中的一個顯著問題,可能導(dǎo)致生成不準(zhǔn)確、誤導(dǎo)性或完全虛構(gòu)的內(nèi)容。在高風(fēng)險領(lǐng)域如醫(yī)療、法律和金融中,這種不可靠的 AI 生成內(nèi)容可能直接導(dǎo)致錯誤決策。

數(shù)據(jù)隱私問題是 LLM 部署中的另一個重要挑戰(zhàn)。訓(xùn)練這些模型需要大量文本數(shù)據(jù),其中可能包含個人信息、商業(yè)秘密和醫(yī)療記錄。如果 LLM 意外泄露敏感訓(xùn)練數(shù)據(jù)或缺乏強(qiáng)大的訪問控制機(jī)制,用戶的私人信息可能被濫用。

版權(quán)和知識產(chǎn)權(quán)保護(hù)也是 LLM 部署中的一個關(guān)鍵問題。LLM 的訓(xùn)練數(shù)據(jù)通常包括受版權(quán)保護(hù)的文本、源代碼和藝術(shù)作品,這可能導(dǎo)致侵權(quán)風(fēng)險。例如,AI 寫作工具可能生成與已發(fā)布作品相似的文章,而編碼助手可能生成沒有適當(dāng)許可的開源代碼片段。

此外,倫理和社會責(zé)任也是 LLM 部署中不可忽視的因素。由于訓(xùn)練數(shù)據(jù)中的偏差,LLM 可能生成強(qiáng)化刻板印象、性別歧視或種族偏見的內(nèi)容。在招聘、金融和醫(yī)療等領(lǐng)域,這種偏差可能導(dǎo)致不公平?jīng)Q策。

隨著全球各國加強(qiáng)對 AI 的監(jiān)管,LLM 相關(guān)的法律和合規(guī)要求也在迅速演變。例如,歐盟 AI 法案將 LLM 歸類為高風(fēng)險 AI 系統(tǒng),要求開發(fā)者提供透明度報(bào)告和風(fēng)險控制機(jī)制。中國生成式 AI 規(guī)章要求 AI 生成內(nèi)容符合倫理標(biāo)準(zhǔn)并接受政府審查。美國的監(jiān)管討論強(qiáng)調(diào) AI 透明度和數(shù)據(jù)隱私保護(hù),敦促企業(yè)建立負(fù)責(zé)任的 AI 實(shí)踐。

上推展示了 AI 在企業(yè)生產(chǎn)力、內(nèi)容生成、編程、醫(yī)療保健、金融、客戶支持、教育和網(wǎng)絡(luò)安全等領(lǐng)域的多樣化應(yīng)用。同時,還強(qiáng)調(diào)了與真實(shí)性、隱私相關(guān)的關(guān)鍵問題,包括數(shù)據(jù)泄露、安全威脅、產(chǎn)權(quán)、公平性以及合規(guī)性,突出了在人工智能部署中需要強(qiáng)有力的保障措施

為應(yīng)對 LLM 基于應(yīng)用的安全挑戰(zhàn),可以采取以下措施:

  • 幻覺現(xiàn)象的應(yīng)對策略:在模型訓(xùn)練過程中,采用事實(shí)核查數(shù)據(jù)集和真實(shí)性和一致性約束,引導(dǎo)模型生成準(zhǔn)確、可靠的內(nèi)容。在應(yīng)用層面,結(jié)合人類專家的審核和評估,對模型生成的內(nèi)容進(jìn)行二次驗(yàn)證,確保其真實(shí)性和可信度。
  • 數(shù)據(jù)隱私保護(hù)的加強(qiáng):在數(shù)據(jù)收集和使用過程中,遵循最小必要原則,只收集與應(yīng)用相關(guān)的必要數(shù)據(jù),并采取嚴(yán)格的加密和訪問控制措施進(jìn)行保護(hù)。定期開展數(shù)據(jù)隱私審計(jì),檢查數(shù)據(jù)處理流程中的潛在隱私風(fēng)險,并及時進(jìn)行整改。
  • 版權(quán)和知識產(chǎn)權(quán)保護(hù)的措施:建立版權(quán)過濾機(jī)制,在模型訓(xùn)練數(shù)據(jù)的篩選過程中,排除未經(jīng)授權(quán)的版權(quán)內(nèi)容。開發(fā)版權(quán)檢測和識別技術(shù),能夠?qū)δP蜕傻膬?nèi)容進(jìn)行實(shí)時監(jiān)測,識別其中可能涉及的版權(quán)問題,并及時進(jìn)行處理。
  • 倫理和社會責(zé)任的保障:在模型訓(xùn)練數(shù)據(jù)的預(yù)處理階段,采用偏差糾正算法和公平性約束,減少數(shù)據(jù)中的偏見和歧視。在應(yīng)用開發(fā)過程中,進(jìn)行倫理風(fēng)險評估,確保應(yīng)用的設(shè)計(jì)和功能符合倫理道德和社會責(zé)任要求。
  • 監(jiān)管合規(guī)的實(shí)現(xiàn)路徑:密切關(guān)注各國的 AI 監(jiān)管政策和法規(guī)動態(tài),及時調(diào)整和優(yōu)化 LLM 應(yīng)用的開發(fā)和運(yùn)營流程,確保其符合相關(guān)法律和合規(guī)要求。建立合規(guī)管理體系,對 LLM 應(yīng)用的整個生命周期進(jìn)行合規(guī)監(jiān)督和管理,定期向監(jiān)管機(jī)構(gòu)提交合規(guī)報(bào)告。

總結(jié)與感想

讀完這篇關(guān)于 LLM(Agent)全棧安全的論文后,我對人工智能安全領(lǐng)域有了更清晰的認(rèn)識。人工智能的安全問題貫穿其全生命周期,包括數(shù)據(jù)準(zhǔn)備、預(yù)訓(xùn)練、后訓(xùn)練、部署以及商業(yè)化應(yīng)用等各個環(huán)節(jié)。從數(shù)據(jù)安全到模型編輯與遺忘,從單個 LLM 部署到多智能體系統(tǒng)的協(xié)作安全,每個階段都有其獨(dú)特的挑戰(zhàn)和風(fēng)險。

確保 LLM 全生命周期的安全,對于其在現(xiàn)實(shí)世界中的負(fù)責(zé)任和有效部署非常關(guān)鍵。這需要學(xué)術(shù)界、工業(yè)界、政策制定者、倫理學(xué)家以及社會各界的共同努力,通過加強(qiáng)跨學(xué)科合作來共同應(yīng)對這些安全挑戰(zhàn),推動人工智能技術(shù)的可持續(xù)發(fā)展。

論文中提到的模型編輯與遺忘技術(shù)讓我印象深刻。模型編輯能夠精準(zhǔn)地更新模型知識,而遺忘技術(shù)則可以有效保護(hù)隱私和糾正錯誤。這些技術(shù)的發(fā)展,不僅提高了模型的靈活性和適應(yīng)性,也為安全防護(hù)提供了新的思路。

同時,我對多智能體系統(tǒng)的安全問題也有了更深入的理解。智能體之間的協(xié)作與競爭,帶來了新的風(fēng)險,例如傳播性攻擊和戰(zhàn)略性攻擊等。這些都需要我們從系統(tǒng)層面進(jìn)行綜合考慮和防范。

總體上看,這篇論文為我們提供了一個全面且系統(tǒng)的框架,涵蓋了 LLM(Agent)全生命周期的安全問題。它不僅讓我在技術(shù)層面學(xué)到了很多知識,更讓我明白在人工智能發(fā)展過程中,安全是一個非常重要的核心議題。

責(zé)任編輯:龐桂玉 來源: 覺察流
相關(guān)推薦

2021-06-03 14:21:25

數(shù)據(jù)安全信息安全網(wǎng)絡(luò)安全

2022-01-26 06:57:33

Web3區(qū)塊鏈互聯(lián)網(wǎng)

2024-06-14 09:02:49

2025-08-24 09:24:07

2025-06-25 02:00:00

2025-01-23 00:00:01

2025-09-25 10:25:29

2024-07-08 14:41:51

2010-02-24 16:33:28

Python功能

2025-01-08 15:15:16

2023-08-24 12:13:40

2024-04-30 09:48:33

LLMRAG人工智能

2022-05-11 11:26:39

安全產(chǎn)品安全風(fēng)險數(shù)據(jù)安全

2024-11-14 18:39:23

2025-03-07 09:34:14

2024-06-21 10:42:38

Python開發(fā)

2025-02-03 16:58:39

2016-10-11 13:53:21

亞信

2015-04-23 09:58:50

2020-10-08 18:29:43

數(shù)據(jù)安全數(shù)據(jù)庫審計(jì)數(shù)據(jù)庫安全
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號