偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

為什么AI編程助手需要接受安全審查

人工智能
雖然AI代碼助手提高了開(kāi)發(fā)者的生產(chǎn)力,但它們?cè)诙鄠€(gè)領(lǐng)域引入了重大且常被忽視的安全風(fēng)險(xiǎn)。

在采訪中,Sonar的安全專(zhuān)家兼安全治理負(fù)責(zé)人Silviu Asandei討論了AI代碼助手如何改變開(kāi)發(fā)工作流程并影響安全性,他解釋了這些工具如何提高生產(chǎn)力,但如果未經(jīng)過(guò)適當(dāng)審查,也可能傳播漏洞。

AI代碼助手對(duì)開(kāi)發(fā)者和企業(yè)可能忽視的安全風(fēng)險(xiǎn)有哪些?

雖然AI代碼助手提高了開(kāi)發(fā)者的生產(chǎn)力,但它們?cè)诙鄠€(gè)領(lǐng)域引入了重大且常被忽視的安全風(fēng)險(xiǎn)。在人為層面,過(guò)度依賴(lài)可能培養(yǎng)一種“虛假自信”,導(dǎo)致未經(jīng)審查的不安全代碼和開(kāi)發(fā)者技能下降,這可能創(chuàng)造一個(gè)“生成式單一文化”,其中流行AI建議中的一個(gè)缺陷會(huì)被廣泛復(fù)制。

技術(shù)上,這些工具可能生成包含SQL注入等漏洞的代碼,嵌入硬編碼的秘密,并建議過(guò)時(shí)的依賴(lài)項(xiàng)。使用基于云的助手會(huì)引發(fā)數(shù)據(jù)隱私問(wèn)題,因?yàn)閷?zhuān)有代碼可能會(huì)被暴露或用于訓(xùn)練,從而導(dǎo)致知識(shí)產(chǎn)權(quán)和許可侵權(quán)。

AI模型本身也容易受到諸如提示注入和數(shù)據(jù)中毒等攻擊,正如OWASP針對(duì)大型語(yǔ)言模型(LLM)的十大威脅所強(qiáng)調(diào)的那樣。此外,AI助手可能成為軟件供應(yīng)鏈攻擊的新載體,通過(guò)大規(guī)模引入漏洞來(lái)擴(kuò)大潛在的攻擊面。這些多方面的風(fēng)險(xiǎn)遠(yuǎn)遠(yuǎn)超出了簡(jiǎn)單的代碼錯(cuò)誤,需要一種全面的安全方法,該方法涵蓋人為因素、數(shù)據(jù)治理、模型完整性以及更廣泛的軟件開(kāi)發(fā)生命周期。

審查或保護(hù)AI代碼助手生成的代碼有哪些最佳實(shí)踐?

保護(hù)AI代碼助手生成的代碼需要一種多層次的策略,該策略結(jié)合了人類(lèi)勤勉、穩(wěn)健的技術(shù)和明確的組織治理,這種方法的核心是保持關(guān)鍵的人類(lèi)監(jiān)督。

開(kāi)發(fā)者必須采取“信任但驗(yàn)證”的心態(tài),將AI建議視為來(lái)自經(jīng)驗(yàn)不足的助手的代碼,需要進(jìn)行徹底審查。至關(guān)重要的是,不僅要驗(yàn)證代碼的功能性,還要完全理解其底層邏輯和潛在的安全影響。這種警惕性應(yīng)該通過(guò)加強(qiáng)代碼審查文化來(lái)正式化,其中AI生成的片段應(yīng)接受額外審查。

技術(shù)上,所有代碼都應(yīng)使用一套公正的安全工具進(jìn)行掃描,這包括靜態(tài)(SAST)、動(dòng)態(tài)(DAST)和軟件成分分析(SCA),以分別檢測(cè)漏洞、運(yùn)行時(shí)問(wèn)題和不安全的依賴(lài)項(xiàng)。開(kāi)發(fā)者還應(yīng)通過(guò)提供詳細(xì)上下文并明確要求AI納入安全措施來(lái)實(shí)踐安全的提示工程,例如,通過(guò)請(qǐng)求防止 SQL 注入等特定攻擊的代碼。

這些個(gè)人實(shí)踐必須得到強(qiáng)大的組織護(hù)欄的支持,企業(yè)需要建立明確的AI使用政策,概述哪些工具獲得批準(zhǔn)以及可以共享哪些數(shù)據(jù),對(duì)開(kāi)發(fā)者進(jìn)行關(guān)于AI風(fēng)險(xiǎn)、安全提示以及對(duì)AI輸出進(jìn)行批判性評(píng)估的全面培訓(xùn)至關(guān)重要。

此外,對(duì)所有AI生成的代碼執(zhí)行最小權(quán)限原則,并對(duì)智能體助手進(jìn)行沙盒處理,可以防止?jié)撛诘膫?。通過(guò)培養(yǎng)一個(gè)開(kāi)發(fā)者與AI作為隊(duì)友協(xié)作并致力于持續(xù)學(xué)習(xí)的環(huán)境,企業(yè)可以安全地利用這些強(qiáng)大的工具。這種整體方法確保了從AI中獲得的生產(chǎn)力提升不會(huì)以犧牲安全性為代價(jià)。

訓(xùn)練數(shù)據(jù)和模型架構(gòu)在多大程度上影響代碼助手的安全態(tài)勢(shì)?它們是否容易復(fù)制不安全的編碼模式?

AI 代碼助手的安全性從根本上由其訓(xùn)練數(shù)據(jù)和模型架構(gòu)決定,這兩者都可能導(dǎo)致生成不安全的代碼。

訓(xùn)練數(shù)據(jù),通常來(lái)源于龐大的公共倉(cāng)庫(kù),是一個(gè)主要關(guān)注點(diǎn)。如果這些數(shù)據(jù)包含不安全的編碼實(shí)踐、硬編碼的秘密(如 API 密鑰)或具有已知漏洞的過(guò)時(shí)庫(kù),AI 就會(huì)學(xué)習(xí)并復(fù)制這些缺陷。這可能導(dǎo)致建議中包含 SQL 注入等漏洞或使用過(guò)時(shí)的加密函數(shù)。模型的知識(shí)僅限于其訓(xùn)練數(shù)據(jù),因此它可能會(huì)推薦較舊、易受攻擊的組件。此外,惡意行為者可以故意污染訓(xùn)練數(shù)據(jù),導(dǎo)致AI生成有害代碼。

模型的架構(gòu)也增加了安全風(fēng)險(xiǎn),當(dāng)前模型往往缺乏對(duì)特定應(yīng)用程序安全需求的深入上下文理解,生成語(yǔ)法正確但功能上不安全的代碼,它們難以區(qū)分受信任的開(kāi)發(fā)者指令和不受信任的用戶輸入,使它們?nèi)菀资艿教崾咀⑷牍?。一種稱(chēng)為“生成式單一文化”的現(xiàn)象也可能出現(xiàn),其中AI反復(fù)建議相似的代碼結(jié)構(gòu)。如果這種常見(jiàn)代碼存在缺陷,它可能會(huì)創(chuàng)建廣泛的漏洞。最終,這些模型優(yōu)先考慮復(fù)制所學(xué)的模式而非遵守安全原則,而且它們的復(fù)雜、“黑箱”性質(zhì)使得審計(jì)其推理和識(shí)別潛在弱點(diǎn)變得困難。

在代碼生成方面,專(zhuān)有AI助手(如GitHub Copilot)和開(kāi)源模型之間在安全性上是否存在可測(cè)量的差異?

最顯著的可測(cè)量的安全差異在于數(shù)據(jù)隱私,其中自托管的開(kāi)源模型具有明顯優(yōu)勢(shì)。就生成的代碼本身的安全性而言,兩種模型類(lèi)型都容易受到從訓(xùn)練數(shù)據(jù)中繼承的相似缺陷的影響。輸出的最終安全性更多地取決于訓(xùn)練數(shù)據(jù)質(zhì)量、提示工程以及應(yīng)用于生成代碼的嚴(yán)格人類(lèi)監(jiān)督等因素,而非模型是專(zhuān)有還是開(kāi)源。

? 其訓(xùn)練數(shù)據(jù)和微調(diào)的質(zhì)量和安全重點(diǎn)。

? 其架構(gòu)在理解上下文和安全要求方面的復(fù)雜性。

? 開(kāi)發(fā)者使用的提示的特異性和安全意識(shí)。

? 應(yīng)用于生成代碼的人類(lèi)審查、測(cè)試和驗(yàn)證過(guò)程的嚴(yán)格性。

你是否觀察到AI代碼助手對(duì)安全開(kāi)發(fā)生命周期或DevSecOps實(shí)踐產(chǎn)生任何影響模式?

AI代碼助手通過(guò)引入挑戰(zhàn)和機(jī)遇,顯著重塑了安全開(kāi)發(fā)(DevSecOps)。一個(gè)主要模式是加速了開(kāi)發(fā),這產(chǎn)生了大量代碼,超出了傳統(tǒng)安全審查的能力范圍。這擴(kuò)大了攻擊面并引入了新的漏洞,因?yàn)锳I可以建議不安全的代碼、硬編碼的秘密或過(guò)時(shí)的庫(kù)。

這種新動(dòng)態(tài)使得將“左移”(shift left)進(jìn)一步推進(jìn)為“開(kāi)始左移”(start left)變得至關(guān)重要——在開(kāi)發(fā)生命周期的開(kāi)始階段就集成安全檢查,它還要求開(kāi)發(fā)能夠掃描AI生成代碼的獨(dú)特潛在缺陷的“AI 感知”安全工具。人類(lèi)監(jiān)督仍然至關(guān)重要,開(kāi)發(fā)者需要采取“信任但驗(yàn)證”的方法并適應(yīng)代碼審查過(guò)程。

采用“開(kāi)始左移”的心態(tài)對(duì)于開(kāi)發(fā)團(tuán)隊(duì)自信地接受AI生成的代碼至關(guān)重要,這確保了從第一行代碼開(kāi)始,無(wú)論是人類(lèi)還是AI輔助的代碼,都符合最高的質(zhì)量和安全標(biāo)準(zhǔn)。通過(guò)盡早識(shí)別潛在問(wèn)題,團(tuán)隊(duì)可以防止代價(jià)高昂的重做,提高開(kāi)發(fā)速度,并在其代碼中建立更強(qiáng)的信任基礎(chǔ)。

雖然AI可能會(huì)通過(guò)“影子 AI”等增加合規(guī)和數(shù)據(jù)泄露的風(fēng)險(xiǎn),但AI也為增強(qiáng) DevSecOps 提供了機(jī)會(huì)。AI驅(qū)動(dòng)的工具可以自動(dòng)化威脅檢測(cè)、漏洞評(píng)估和補(bǔ)丁管理,從而形成一個(gè)新的范式,其中AI用于防御AI驅(qū)動(dòng)的威脅并保護(hù)AI生成的代碼。

責(zé)任編輯:姜華 來(lái)源: 企業(yè)網(wǎng)D1Net
相關(guān)推薦

2025-07-18 12:42:59

2015-01-23 10:19:08

2024-08-12 08:41:40

2014-07-02 09:56:33

2021-06-29 10:30:49

口令安全黑名網(wǎng)絡(luò)安全

2015-01-07 14:04:25

2024-06-24 20:57:06

2018-05-30 14:49:51

編程語(yǔ)言API語(yǔ)法

2022-02-11 11:17:24

物聯(lián)網(wǎng)安全物聯(lián)網(wǎng)IOT

2025-04-03 11:04:40

2014-11-19 10:05:26

編程

2022-12-12 07:30:59

編程語(yǔ)言架構(gòu)

2020-09-17 14:32:52

AI

2024-09-02 13:59:16

2019-07-15 08:00:00

AI人工智能

2011-02-16 09:42:04

DevOps

2025-05-23 10:41:00

2020-11-30 23:51:36

零信任電子郵件郵件安全

2021-04-08 10:05:11

架構(gòu)運(yùn)維安全

2025-03-28 00:00:00

SOCAI安全
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)