微軟向美國政府提供GPT大模型,如何保證安全性?

生成式人工智能的熱潮已經(jīng)席卷到了美國聯(lián)邦政府,微軟宣布推出Azure OpenAI服務(wù),允許Azure政府客戶訪問GPT-3、 GPT-4以及Embeddings。
微軟在一份聲明中說,政府機構(gòu)將通過此項服務(wù)獲得ChatGPT用例,而且不會犧牲“他們?yōu)榱藵M足政府對敏感數(shù)據(jù)的要求所需要的、嚴格的安全和合規(guī)標準?!?/p>
微軟聲稱,它已經(jīng)開發(fā)了一種架構(gòu),讓政府客戶“能夠從Azure Government安全地訪問商業(yè)環(huán)境中的大語言模型”。微軟表示,通過Python SDK REST APIs或者 Azure AI Studio進行訪問,所有這一切都不會將政府?dāng)?shù)據(jù)暴露在公共互聯(lián)網(wǎng)上。
微軟承諾稱:“只有提交給Azure OpenAI服務(wù)的查詢才會轉(zhuǎn)入商業(yè)環(huán)境中的Azure OpenAI模型?!薄癆zure Government直接與微軟Azure商業(yè)網(wǎng)絡(luò)對等,而不直接與公共互聯(lián)網(wǎng)或者微軟企業(yè)網(wǎng)對等?!?/p>
微軟報告稱,它使用IEEE 802.1AE——或MACsec——網(wǎng)絡(luò)安全標準對所有Azure流量進行加密,而且所有的流量都駐留在全球骨干網(wǎng)中,該骨干網(wǎng)由超過25萬公里的光纖和海底電纜系統(tǒng)構(gòu)成。
Azure OpenAI Service for government已經(jīng)全面推出,對于經(jīng)過批準的企業(yè)或者政府客戶,已經(jīng)可以使用了。
政府用的ChatGPT到底能有多保密?
微軟一直希望贏得美國政府的信任——但它也出過紕漏。
有消息稱有超過1兆字節(jié)的政府敏感軍事文件被暴露在公共互聯(lián)網(wǎng)上——國防部和微軟就這個問題互相指責(zé)。
微軟子公司、ChatGPT的創(chuàng)建者OpenAI在安全方面也不盡如人意,3月份,一個糟糕的開源庫讓一些用戶的聊天記錄被曝光。從那個時候起,一些知名的公司——包括蘋果、亞馬遜和幾家銀行——因為擔(dān)心ChatGPT可能暴露內(nèi)部機密信息,已經(jīng)禁止內(nèi)部使用它。
英國的間諜機構(gòu)GCHQ甚至對這種風(fēng)險發(fā)出了警告。那么,即使這些秘密顯然不會被傳輸?shù)揭粋€不受信任的網(wǎng)絡(luò),但美國政府把自己的秘密交給微軟是否正確?
微軟表示,它不會專門使用政府?dāng)?shù)據(jù)來訓(xùn)練OpenAI模型,所以絕密數(shù)據(jù)很可能不會在給其他人的回復(fù)中被泄露。但是這并不意味著它可以被默認安全。微軟在公告中委婉地承認,當(dāng)政府用戶使用OpenAI模型的時候,一些數(shù)據(jù)仍將被記錄下來。
微軟表示:“微軟允許具有額外限定訪問資格并證明特定用例的客戶申請修改Azure OpenAI的內(nèi)容管理功能。”
它補充說:“如果微軟批準了客戶修改數(shù)據(jù)記錄的請求,就不會存儲與已批準的Azure訂閱相關(guān)的任何提問和回復(fù),在Azure商業(yè)中的數(shù)據(jù)記錄也會被設(shè)置為關(guān)閉?!边@意味著,除非政府機構(gòu)符合某些特定的標準,否則提問和回復(fù)——由人工智能模型返回的文本——將被保留。


























