英國網(wǎng)絡安全機構(gòu)警告AI大語言模型風險
英國國家網(wǎng)絡安全中心(NCSC)概述了為企業(yè)集成人工智能驅(qū)動的大語言模型(LLM)的風險,并警告開發(fā)人員仍未完全掌握系統(tǒng)的弱點和漏洞。
在一篇博文中,該安全機構(gòu)承認,自2022年OpenAI的ChatGPT發(fā)布以來,大語言模型一直吸引著全球的興趣和好奇心,導致所有行業(yè)的組織都在研究將該技術(shù)用于他們的業(yè)務。
然而,作為一個快速發(fā)展的領(lǐng)域,NCSC專家發(fā)現(xiàn),在一個不確定的市場中模型是不斷更新的。這可能意味著一家現(xiàn)今提供服務的初創(chuàng)企業(yè)可能在兩年后就不復存在了。
因此,使用大語言模型構(gòu)建業(yè)務的組織需要考慮這樣一個事實,即模型可能會在所使用的API背后發(fā)生變化,從而導致集成的關(guān)鍵部分在某個時候停止存在。
該機構(gòu)進一步指出,大語言模型在嵌入組織的業(yè)務流程時可能會帶來一定的風險,研究人員發(fā)現(xiàn)大語言模型“本質(zhì)上無法區(qū)分指令和為幫助完成指令而提供的數(shù)據(jù)”。
NCSC舉例稱,如果輸入的提示結(jié)構(gòu)正確,銀行使用的AI聊天機器人可能會被騙向攻擊者匯款或進行未經(jīng)授權(quán)的交易。
“使用大語言模型構(gòu)建業(yè)務的組織需要小心,就像他們使用處于測試階段的產(chǎn)品或代碼庫一樣。”NCSC補充道。