行為分析:被誤解的人工智能帶來的安全風險
如果你相信炒作,那人工智能(AI)和機器學習(ML)已經在保護現(xiàn)代IT基礎設施安全方面發(fā)揮了重大作用。但真相是,這兩種技術是強大卻常被誤解的工具,某些情況下,如果未能正確實現(xiàn),甚至還會破壞公司的數(shù)據安全。
很多實例表明,“AI”是個過度使用的營銷行話,無法準確描述這項與真正的人工智能相去甚遠的現(xiàn)有技術。所謂的“AI平臺”可能會讓首席信息官們撓頭,想知道到底是怎么能從龐大且不斷增長的客戶數(shù)據庫中了解每位客戶的行為的,或者平臺到底有沒有基于算法做出有根據的猜測。區(qū)分真正的AI和標準固定邏輯太難了。
對于Microsoft Teams、SharePoint、Microsoft 365、Google Drive等云應用,有權定義誰能訪問文件和文件夾的是最終用戶而非管理員。這種做法盡管對最終用戶來說非常方便,卻導致幾乎無法以遵從策略的標準方式來控制公司的數(shù)據訪問:因為每個人都可以修改許可。真正解決這一問題的唯一方法可能是某種形式的自動化解決方案,或者將訪問權限審查外包出去。
大多數(shù)企業(yè)的環(huán)境中流轉著大量數(shù)據,因而很多企業(yè)試圖將AI用作自動化解決方案來查找和審核敏感數(shù)據的訪問權限。這些解決方案僅顯示應控制訪問權限的文件子集(可能仍有成千上萬),可避免用戶被與其權限相關的數(shù)百萬份文件的審查工作狂轟濫炸??雌饋砗苊髦?,對吧?但實際上,這種方式忽略了不遵循算法所查找模式的數(shù)據,還常常引發(fā)誤報。
用AI執(zhí)行行為分析的三個問題
當前行為分析市場上沒有真正的AI解決方案。真正的AI創(chuàng)建隨機生成的算法,并用大量“正確”答案測試這些算法,再從中挑出最有效的。這就給使用AI進行行為分析帶來了三個重大問題。
(1) 沒有哪家公司擁有足夠大的客戶數(shù)據集供算法訓練使用。即使假設有公司擁有這種體量的數(shù)據集,他們也不會想透露給別人知道,因為這有可能將自己樹成黑客集火的巨大標靶。
(2) 每位客戶都是獨特的,所以即便公司可以用客戶數(shù)據訓練算法,卻未必適用于他們的具體業(yè)務。
(3) 如果在逐個客戶的基礎上訓練算法,那就是在當前系統(tǒng)上訓練。這種情況下,如果當前系統(tǒng)已經處于理想狀態(tài),訓練結果會相當不錯;如果當前系統(tǒng)并不理想,會反而固化現(xiàn)有安全問題。
云和遠程辦公增添挑戰(zhàn)
從安全的角度來看,采用云會帶來各種各樣的數(shù)據挑戰(zhàn),員工在家辦公還會增加這樣的挑戰(zhàn)。居家辦公的員工代表著不斷壯大的最終用戶群體,而且還是突然之間獲得大量數(shù)據訪問權的最終用戶。
大多數(shù)沒有經過專門培訓的員工并不清楚云從哪里開始和結束,給非故意違反公司安全策略留下了空間。這正成為公司非常常見的內部安全威脅,尤其是在數(shù)據庫被編程為用AI來削減數(shù)據訪問時。只要使用不當,此類訪問常會存在嚴重的安全漏洞。
很多公司宣稱使用AI監(jiān)測和改善其數(shù)據訪問。許多人認為AI可以排序或分發(fā)數(shù)據,但實際上,AI通常不用來處理這樣的事務。AI最常規(guī)的用法是實現(xiàn)數(shù)據庫訪問控制。
盲目信任AI很危險
數(shù)據治理和保護一直都很重要,尤其是在遠程辦公和混合辦公趨勢延續(xù)的情況下。盡管AI和ML是功能強大的工具,公司仍需了解自己利用的是真正的技術,還是無法勝任安全任務的繡花枕頭。
這些技術不可能在真空中實現(xiàn),企業(yè)需采取果斷措施緩解關鍵安全風險,比如設置員工培訓和實現(xiàn)受監(jiān)管的訪問來確保數(shù)據安全。最終,AI與你搬運數(shù)據的任何其他計算機程序無異,都是“壞數(shù)據進壞數(shù)據出”??蛻魯?shù)據庫如此龐大,員工非故意安全違規(guī)如此常見,設置人工過程檢查這些結果真的很重要,因為風險就存在于盲目信任AI上。















 
 
 




 
 
 
 