ChatGPT的危險(xiǎn)之處:你永遠(yuǎn)不應(yīng)該告訴AI機(jī)器人的五件事
但這個(gè)征服世界的大型語(yǔ)言模型聊天機(jī)器人被描述為一個(gè)“隱私黑洞”,人們擔(dān)心它處理用戶數(shù)據(jù)的方式,這甚至導(dǎo)致它在意大利被短暫封禁。
它的創(chuàng)造者OpenAI毫不掩飾這樣一個(gè)事實(shí):任何輸入的數(shù)據(jù)都可能不安全。這些數(shù)據(jù)不僅可能被用于進(jìn)一步訓(xùn)練其模型,從而可能暴露給其他用戶,而且還可能被人工審核,以檢查其是否符合使用規(guī)則。當(dāng)然,任何發(fā)送到云服務(wù)的數(shù)據(jù)都只能和云服務(wù)提供商的安全保障水平一樣安全。
這意味著輸入到ChatGPT中的任何數(shù)據(jù)都應(yīng)被視為公開(kāi)信息??紤]到這一點(diǎn),有幾件事是絕對(duì)不應(yīng)該告訴它——或任何其他基于公有云的聊天機(jī)器人的。讓我們來(lái)看看其中的一些:
違法或不道德的要求
大多數(shù)AI聊天機(jī)器人都設(shè)有保障措施,以防止它們被用于不道德的目的。如果你的問(wèn)題或請(qǐng)求涉及可能違法的活動(dòng),那么你可能會(huì)陷入麻煩。向公共聊天機(jī)器人詢問(wèn)如何犯罪、進(jìn)行欺詐活動(dòng)或操縱他人采取可能有害的行動(dòng),絕對(duì)是壞主意。
許多使用政策都明確規(guī)定,提出非法要求或試圖利用AI進(jìn)行非法活動(dòng)可能會(huì)導(dǎo)致用戶被報(bào)告給相關(guān)部門。這些法律可能因地區(qū)而異。例如,中國(guó)的AI法律禁止利用AI破壞國(guó)家權(quán)威或社會(huì)穩(wěn)定,而歐盟的AI法案規(guī)定,看似真人但實(shí)際上是AI生成的“深度偽造”圖像或視頻必須明確標(biāo)注。在英國(guó),《網(wǎng)絡(luò)安全法案》規(guī)定,未經(jīng)同意分享AI生成的色情圖像屬于刑事犯罪。
輸入非法材料或可能對(duì)他人造成傷害的信息請(qǐng)求,不僅是道德上的錯(cuò)誤;還可能導(dǎo)致嚴(yán)重的法律后果和聲譽(yù)損害。
登錄名和密碼
隨著代理型AI的興起,我們中有越來(lái)越多的人將使用能夠連接和使用第三方服務(wù)的AI。為了做到這一點(diǎn),它們可能需要我們的登錄憑據(jù),然而,將登錄信息提供給它們可能是一個(gè)壞主意。一旦數(shù)據(jù)進(jìn)入公共聊天機(jī)器人,我們對(duì)它將如何處理這些數(shù)據(jù)就幾乎失去了控制,并且已經(jīng)有用戶輸入的個(gè)人數(shù)據(jù)在回應(yīng)其他用戶時(shí)被泄露的案例。顯然,這可能會(huì)成為隱私噩夢(mèng),因此,除非你確定你正在使用一個(gè)非常安全的系統(tǒng),否則最好避免任何涉及向AI提供用戶名和賬戶訪問(wèn)權(quán)限的交互。
財(cái)務(wù)信息
出于同樣的原因,最好不要將銀行賬戶或信用卡號(hào)碼等數(shù)據(jù)輸入到GenAI聊天機(jī)器人中。這些數(shù)據(jù)只應(yīng)輸入到用于電子商務(wù)或網(wǎng)上銀行的安全系統(tǒng)中,這些系統(tǒng)具有內(nèi)置的安全保障,如加密和數(shù)據(jù)處理后自動(dòng)刪除。聊天機(jī)器人沒(méi)有這些安全保障。事實(shí)上,一旦數(shù)據(jù)輸入,就無(wú)法知道它會(huì)被如何處理,并且輸入這些高度敏感的信息可能會(huì)使你暴露于欺詐、身份盜竊、網(wǎng)絡(luò)釣魚(yú)和勒索軟件攻擊的風(fēng)險(xiǎn)之中。
機(jī)密信息
每個(gè)人都有責(zé)任保護(hù)其負(fù)責(zé)的敏感信息的安全。其中許多責(zé)任是自動(dòng)產(chǎn)生的,例如專業(yè)人士(如醫(yī)生、律師和會(huì)計(jì)師及其客戶)之間的保密責(zé)任。但許多員工也對(duì)其雇主負(fù)有默示的保密責(zé)任。分享業(yè)務(wù)文件,如會(huì)議筆記和紀(jì)要或交易記錄,可能構(gòu)成分享商業(yè)秘密和違反保密義務(wù),就像2023年三星員工涉及的事件那樣。因此,無(wú)論將所有這些信息一股腦地輸入到ChatGPT中以獲取其能挖掘出的何種見(jiàn)解有多么誘人,除非你確定這些信息可以安全共享,否則這不是一個(gè)好主意。
醫(yī)療信息
我們都知道,向ChatGPT詢問(wèn)并讓它充當(dāng)醫(yī)生來(lái)診斷醫(yī)療問(wèn)題可能很誘人,但一定要極其謹(jǐn)慎,特別是考慮到最近的更新使其能夠“記住”甚至從不同的聊天中整合信息以更好地了解用戶。這些功能都沒(méi)有任何隱私保障,所以要清楚,我們實(shí)際上對(duì)輸入的信息會(huì)發(fā)生什么知之甚少。當(dāng)然,這對(duì)于處理患者信息的醫(yī)療相關(guān)行業(yè)來(lái)說(shuō)更是如此,它們可能面臨巨額罰款和聲譽(yù)損害的風(fēng)險(xiǎn)。
總結(jié)
與我們上傳到互聯(lián)網(wǎng)上的任何東西一樣,最好假設(shè)它永遠(yuǎn)不會(huì)保持私密性。因此,最好不要透露任何你不希望全世界都知道的事情。隨著聊天機(jī)器人和智能體在我們的生活中扮演越來(lái)越重要的角色,這將成為一個(gè)更加緊迫的問(wèn)題,而教育用戶了解相關(guān)風(fēng)險(xiǎn)將是提供此類服務(wù)的任何人的重要責(zé)任,然而,我們也應(yīng)該記住,我們有責(zé)任保護(hù)自己的數(shù)據(jù)并了解如何確保其安全。