法律和合規(guī)負(fù)責(zé)人面臨的六大ChatGPT風(fēng)險(xiǎn)
Gartner法律與合規(guī)實(shí)踐部門高級主管分析師Ron Friedmann表示,“ChatGPT和其他大型語言模型(LLM)工具生成的輸出容易存在一些風(fēng)險(xiǎn)。法律和合規(guī)領(lǐng)導(dǎo)者應(yīng)該評估這些問題是否對企業(yè)構(gòu)成重大風(fēng)險(xiǎn),以及在企業(yè)內(nèi)部及其擴(kuò)展的第三方企業(yè)中需要采取哪些控制措施。如果不這樣做,企業(yè)可能會(huì)面臨法律、聲譽(yù)和財(cái)務(wù)方面的后果。”
法律和合規(guī)負(fù)責(zé)人應(yīng)該評估的六個(gè)ChatGPT風(fēng)險(xiǎn)包括:
1、捏造的和不準(zhǔn)確的答案
也許ChatGPT和其他LLM工具最常見的問題是傾向于提供不正確的信息(盡管表面上看似合理)。
Friedmann稱,“ChatGPT也容易產(chǎn)生‘幻覺’,包括捏造錯(cuò)誤的答案,以及不存在的法律或科學(xué)引用。法律和合規(guī)領(lǐng)導(dǎo)者應(yīng)該發(fā)布指導(dǎo),要求員工在接受ChatGPT生成的任何輸出之前,審查其準(zhǔn)確性、適當(dāng)性和有效性。”
2、數(shù)據(jù)隱私及保密
法律和合規(guī)負(fù)責(zé)人應(yīng)該意識到,如果聊天歷史沒有被禁用,輸入ChatGPT的任何信息都可能成為其訓(xùn)練數(shù)據(jù)集的一部分。
Friedmann解釋稱,“在提示中使用的敏感、專有或機(jī)密信息都可能會(huì)被納入企業(yè)外用戶的回復(fù)中。法律和合規(guī)部門需要為ChatGPT的使用建立一個(gè)合規(guī)框架,并明確禁止將敏感的企業(yè)或個(gè)人數(shù)據(jù)輸入公共LLM工具?!?/p>
3、模型和輸出偏見
盡管OpenAI努力減少ChatGPT中的偏見和歧視,但已知的這些問題已經(jīng)發(fā)生,并且可能會(huì)持續(xù)存在,盡管OpenAI和其他企業(yè)正在積極努力地將這些風(fēng)險(xiǎn)降到最低。
Friedmann認(rèn)為,“完全消除偏見幾乎是不可能的,法律和合規(guī)需要凌駕于管理人工智能偏見的法律之上,并確保他們的指導(dǎo)是合規(guī)的。這可能涉及與主題專家合作,以確保輸出的可靠性,并與審計(jì)和技術(shù)部門合作,以設(shè)置數(shù)據(jù)質(zhì)量控制?!?/p>
4、知識產(chǎn)權(quán)(IP)和版權(quán)風(fēng)險(xiǎn)
考慮到ChatGPT是在大量的互聯(lián)網(wǎng)數(shù)據(jù)上訓(xùn)練的,這些數(shù)據(jù)可能包括受版權(quán)保護(hù)的信息。因此,它的輸出有可能違反版權(quán)或知識產(chǎn)權(quán)保護(hù)法案。
Friedmann稱,“ChatGPT不提供源代碼參考或解釋其輸出是如何生成的。法律和合規(guī)負(fù)責(zé)人應(yīng)該密切關(guān)注適用于ChatGPT輸出的版權(quán)法的任何變化,并要求用戶仔細(xì)檢查他們生成的任何輸出,以確保它不侵犯版權(quán)或知識產(chǎn)權(quán)?!?/p>
5、網(wǎng)絡(luò)欺詐風(fēng)險(xiǎn)
惡意行為者已經(jīng)在大規(guī)模地濫用ChatGPT來生成虛假信息,例如,虛假評論。
此外,使用LLM模型的應(yīng)用程序,包括ChatGPT,也容易受到提示注入的影響,這是一種黑客技術(shù),使用惡意的對抗性提示來欺騙模型執(zhí)行它不打算執(zhí)行的任務(wù),例如編寫惡意軟件代碼或開發(fā)假冒知名網(wǎng)站的網(wǎng)絡(luò)釣魚網(wǎng)站。
Friedmann補(bǔ)充道,“法律和合規(guī)負(fù)責(zé)人應(yīng)與網(wǎng)絡(luò)風(fēng)險(xiǎn)所有者協(xié)調(diào),探討是否或何時(shí)就這一問題向公司網(wǎng)絡(luò)安全人員發(fā)出備忘錄。他們還應(yīng)該對盡職調(diào)查來源進(jìn)行審計(jì),以核實(shí)其信息的質(zhì)量?!?/p>
6、消費(fèi)者保護(hù)風(fēng)險(xiǎn)
未能向消費(fèi)者披露ChatGPT使用情況的企業(yè)(例如,以客戶支持聊天機(jī)器人的形式)可能面臨失去客戶信任的風(fēng)險(xiǎn),并在不同法律下被指控為“不公平”的做法。
例如,加州的聊天機(jī)器人法規(guī)定,在某些消費(fèi)者互動(dòng)中,企業(yè)必須清楚而明顯地披露消費(fèi)者正在與機(jī)器人進(jìn)行交流。
Friedmann總結(jié)道,“法律和合規(guī)負(fù)責(zé)人需要確保他們企業(yè)的ChatGPT使用符合所有相關(guān)法規(guī)和法律,并向客戶進(jìn)行適當(dāng)?shù)呐??!?/p>