人工智能引發(fā)新的網(wǎng)絡威脅,你準備好了嗎?

我們可以利用人工智能的優(yōu)勢,同時防范其潛在的陷阱,從人工智能驅動的網(wǎng)絡釣魚計劃,到超逼真的深度偽造。因此,保護企業(yè)的關鍵是了解這些新威脅。
人工智能的網(wǎng)絡威脅和挑戰(zhàn)
雖然人工智能的好處可以為企業(yè)提供幫助,但也為組織必須承認的額外網(wǎng)絡挑戰(zhàn)和風險打開了大門。這些新的風險和策略包括:
由人工智能驅動的網(wǎng)絡釣魚詐騙:狡猾的網(wǎng)絡犯罪分子利用人工智能驅動的聊天機器人來創(chuàng)建完美的網(wǎng)絡釣魚電子郵件,而不會出現(xiàn)語法錯誤等常見的危險信號,甚至會利用最警惕的人。為了增強防御,請謹慎對待來自陌生來源的電子郵件。仔細檢查發(fā)件人詳細信息,避免可疑鏈接,并使用反網(wǎng)絡釣魚工具來增強保護。
人工智能生成的惡意代碼:網(wǎng)絡犯罪分子利用人工智能工具快速生成代碼,超越了手動能力。這些生成的代碼片段會進入惡意軟件和其他惡意軟件。通過防火墻、防病毒軟件、自動補丁管理和員工教育等分層安全措施加強防御。
深度偽造和冒充:人工智能生成的深度偽造可能會傳播錯誤信息,欺騙毫無戒心的個人,并導致欺詐或人格誹謗。惡意行為者可以使用他人的聲音和圖像樣本創(chuàng)建超逼真的視頻。識別深度偽造需要一雙敏銳的眼睛。除其他因素外,皮膚紋理、眨眼模式和面部陰影的異常,有助于區(qū)分真實內(nèi)容和被操縱的內(nèi)容。
NIST發(fā)出警告
早些時候,美國國家標準與技術研究所(NIST)與行業(yè)合作者一起警告了另一種類型的人工智能網(wǎng)絡風險,即對抗性機器學習威脅。
其指出,惡意行為者可能會試圖故意混淆甚至毒害人工智能系統(tǒng),使其發(fā)生故障或無法正常工作。例如,惡意行為者可能會嘗試通過引入損壞的數(shù)據(jù)來破壞模型的訓練。
另一個潛在的風險是逃避攻擊,即有人試圖改變?nèi)斯ぶ悄芟到y(tǒng)在部署后的工作方式。舉個例子,制造令人困惑的車道標記,讓自動駕駛汽車駛離道路。
應對人工智能網(wǎng)絡威脅
傳統(tǒng)的網(wǎng)絡技術和實踐,例如防火墻和防病毒解決方案,不足以應對新的人工智能網(wǎng)絡威脅。網(wǎng)絡安全是一種心態(tài),主動選擇合適的IT合作伙伴是第一步。
擁有傳統(tǒng)網(wǎng)絡安全培訓和認證的企業(yè)必須跟上新威脅,例如上述人工智能威脅,以及應對這些威脅的新技術。
在這些領域提供幫助的認證包括認證道德黑客(CEH)、認證信息安全經(jīng)理(CISM)、認證信息系統(tǒng)安全專家(CISSP)和認證信息安全審核員(CISA)。此外,還需要有獲得Amazon、Azure和Oracle云和安全認證的人員。解決復雜性并獲得所需專業(yè)知識的一種快速方法,是通過合作伙伴利用人才庫。
總結
人工智能的日益廣泛使用代表了兩種截然不同的網(wǎng)絡安全挑戰(zhàn)。人工智能使惡意行為者能夠使用強大的工具和方法來開發(fā)攻擊企業(yè)網(wǎng)絡的新技術。這些工具還可用于進行日益復雜且難以檢測的社會工程攻擊,從而更容易誘騙員工采取使組織暴露于問題的行動。
此外,使用人工智能需要改變系統(tǒng),如果實施不仔細,可能會引入新的漏洞。
最重要的是,企業(yè)需要意識到人工智能帶來了新的安全挑戰(zhàn),保護組織的最佳方法是采取強大的安全態(tài)勢。






















