識(shí)別「ChatGPT造假」,效果超越OpenAI:北大、華為的AI生成檢測(cè)器來(lái)了
隨著生成式大模型的不斷進(jìn)步,它們生成的語(yǔ)料正逐步逼近人類(lèi)。雖然大模型正在解放無(wú)數(shù)文書(shū)的雙手,它以假亂真的強(qiáng)勁能力也為一些不法分子所利用,造成了一系列社會(huì)問(wèn)題:



來(lái)自北大、華為的研究者們提出了一種識(shí)別各式 AI 生成語(yǔ)料的可靠文本檢測(cè)器。根據(jù)長(zhǎng)短文本的不同特性,提出了一種基于 PU 學(xué)習(xí)的多尺度 AI 生成文本檢測(cè)器訓(xùn)練方法。通過(guò)對(duì)檢測(cè)器訓(xùn)練過(guò)程的改進(jìn),在同等條件下能取得在長(zhǎng)、短 ChatGPT 語(yǔ)料上檢測(cè)能力的可觀提升,解決了目前檢測(cè)器對(duì)于短文本識(shí)別精度低的痛點(diǎn)。
- 論文地址:https://arxiv.org/abs/2305.18149
- 代碼地址 (MindSpore):https://github.com/mindspore-lab/mindone/tree/master/examples/detect_chatgpt
- 代碼地址 (PyTorch):https://github.com/YuchuanTian/AIGC_text_detector
引言
隨著大語(yǔ)言模型的生成效果越發(fā)逼真,各行各業(yè)迫切需要一款可靠的 AI 生成文本檢測(cè)器。然而,不同行業(yè)對(duì)檢測(cè)語(yǔ)料的要求不同,例如在學(xué)術(shù)界,普遍需要對(duì)大段完整的學(xué)術(shù)文本進(jìn)行檢測(cè);在社交平臺(tái)上,需要對(duì)相對(duì)簡(jiǎn)短而較為支離破碎的假消息進(jìn)行檢測(cè)。然而,既有檢測(cè)器往往無(wú)法兼顧各式需求。例如,主流的一些 AI 文本檢測(cè)器對(duì)較短的語(yǔ)料預(yù)測(cè)能力普遍較差。
對(duì)于不同長(zhǎng)度語(yǔ)料的不同檢測(cè)效果,作者觀察到較短的 AI 生成文本可能存在著一部分歸屬上的「不確定性」;或者更直白地說(shuō),由于一些 AI 生成短句同時(shí)也常常被人類(lèi)使用,因而很難界定 AI 生成的短文本是否來(lái)自于人或 AI。這里列舉了幾個(gè)人和 AI 分別對(duì)同一問(wèn)題做出回答的例子:

由這些例子可見(jiàn),很難對(duì) AI 生成的簡(jiǎn)短回答進(jìn)行識(shí)別:這類(lèi)語(yǔ)料與人的區(qū)別過(guò)小,很難嚴(yán)格判斷其真實(shí)屬性。因此,將短文本簡(jiǎn)單標(biāo)注為人類(lèi) / AI 并按照傳統(tǒng)的二分類(lèi)問(wèn)題進(jìn)行文本檢測(cè)是不合適的。
針對(duì)這個(gè)問(wèn)題,本研究將人類(lèi) / AI 的二分類(lèi)檢測(cè)部分轉(zhuǎn)化為了一個(gè)部分 PU(Positive-Unlabeled)學(xué)習(xí)問(wèn)題,即在較短的句子中,人的語(yǔ)言為正類(lèi)(Positive),機(jī)器語(yǔ)言為無(wú)標(biāo)記類(lèi)(Unlabeled),以此對(duì)訓(xùn)練的損失函數(shù)進(jìn)行了改進(jìn)。此改進(jìn)可觀地提升了檢測(cè)器在各式語(yǔ)料上的分類(lèi)效果。
算法細(xì)節(jié)
在傳統(tǒng)的 PU 學(xué)習(xí)設(shè)定下,一個(gè)二分類(lèi)模型只能根據(jù)正訓(xùn)練樣本和無(wú)標(biāo)記訓(xùn)練樣本進(jìn)行學(xué)習(xí)。一個(gè)常用的 PU 學(xué)習(xí)方法是通過(guò)制定 PU loss 來(lái)估計(jì)負(fù)樣本對(duì)應(yīng)的二分類(lèi)損失:

其中,
表示正樣本與正標(biāo)簽計(jì)算的二分類(lèi)損失;
表示將無(wú)標(biāo)記樣本全部假定為負(fù)標(biāo)簽計(jì)算的二分類(lèi)損失;
表示將正樣本假定為負(fù)標(biāo)簽計(jì)算的二分類(lèi)損失;
表示的是先驗(yàn)正樣本概率,即正樣本在全部 PU 樣本中的預(yù)估占比。在傳統(tǒng)的 PU 學(xué)習(xí)中,通常將先驗(yàn)
設(shè)置為一個(gè)固定的超參數(shù)。然而在文本檢測(cè)的場(chǎng)景中,檢測(cè)器需要處理各式長(zhǎng)度不同的文本;而對(duì)于不同長(zhǎng)度的文本而言,其正樣本在所有和該樣本相同長(zhǎng)度的 PU 樣本中的預(yù)估占比也是不同的。因此,本研究對(duì) PU Loss 進(jìn)行了改進(jìn),提出了長(zhǎng)度敏感的多尺度 PU(MPU)loss 損失函數(shù)。
具體地,本研究提出了一個(gè)抽象的循環(huán)模型對(duì)較短文本檢測(cè)進(jìn)行建模。傳統(tǒng)的 NLP 模型在處理序列時(shí),通常是一個(gè)馬爾可夫鏈的結(jié)構(gòu),如 RNN、LSTM 等。此類(lèi)循環(huán)模型的這個(gè)過(guò)程通常可以理解為一個(gè)逐漸迭代的過(guò)程,即每個(gè) token 輸出的預(yù)測(cè),都是由上一個(gè) token 及之前序列的預(yù)測(cè)結(jié)果和該 token 的預(yù)測(cè)結(jié)果經(jīng)過(guò)變換、融合得到的。即以下過(guò)程:

為了根據(jù)這個(gè)抽象的模型進(jìn)行先驗(yàn)概率的估計(jì),需要假定該模型的輸出為某個(gè)句子為正類(lèi)(Positive)的置信度,即判定為人說(shuō)出的樣本的概率。假設(shè)每個(gè) token 的貢獻(xiàn)大小為句子 token 長(zhǎng)度的反比,是非正(Positive)即無(wú)標(biāo)記(Unlabeled)的,且為無(wú)標(biāo)記的概率遠(yuǎn)遠(yuǎn)大于為正的概率。因?yàn)殡S著大模型的詞匯量逐漸逼近人類(lèi),絕大部分詞匯會(huì)同時(shí)出現(xiàn)在 AI 和人類(lèi)語(yǔ)料中。根據(jù)這個(gè)簡(jiǎn)化后的模型和設(shè)定好的正 token 概率,通過(guò)求出不同輸入情況下模型輸出置信度的總期望,來(lái)得到最終的先驗(yàn)估計(jì)。

通過(guò)理論推導(dǎo)和實(shí)驗(yàn),估計(jì)得到先驗(yàn)概率隨著文本長(zhǎng)度的上升而上升,最終逐漸穩(wěn)定。這種現(xiàn)象也符合預(yù)期,因?yàn)殡S著文本變長(zhǎng),檢測(cè)器可以捕捉的信息更多,文本的 「來(lái)源不確定性」也逐漸減弱:

之后,對(duì)于每個(gè)正樣本,根據(jù)其樣本長(zhǎng)度得到的獨(dú)特先驗(yàn)對(duì) PU loss 進(jìn)行計(jì)算。最后,由于較短文本僅有部分 “不確定性”(即較短文本也會(huì)含有一些人或者 AI 的文本特征),可以對(duì)二分類(lèi) loss 和 MPU loss 進(jìn)行加權(quán)相加,作為最終的優(yōu)化目標(biāo):

此外需要注意的是,MPU loss 適配的是長(zhǎng)度較為多樣的訓(xùn)練語(yǔ)料。倘若既有的訓(xùn)練數(shù)據(jù)單質(zhì)化明顯,大部分語(yǔ)料為大段冗長(zhǎng)的文本,則無(wú)法全面發(fā)揮 MPU 方法的功效。為了使得訓(xùn)練語(yǔ)料的長(zhǎng)度更多樣化,本研究還引入了一個(gè)在句子層面進(jìn)行多尺度化的模塊。該模塊隨機(jī)遮蓋訓(xùn)練語(yǔ)料中的部分句子,并對(duì)余下句子在保留原有順序的前提下進(jìn)行重組。經(jīng)過(guò)訓(xùn)練語(yǔ)料的多尺度化操作,訓(xùn)練文本得到了長(zhǎng)度上的極大豐富,從而充分利用了 PU 學(xué)習(xí)進(jìn)行 AI 文本檢測(cè)器訓(xùn)練。
實(shí)驗(yàn)結(jié)果

如上表所示,作者先在較短的 AI 生成語(yǔ)料數(shù)據(jù)集 Tweep-Fake 上檢驗(yàn) MPU loss 的效果。該數(shù)據(jù)集中的語(yǔ)料均為推特上較為短小的語(yǔ)段。作者又在傳統(tǒng)的語(yǔ)言模型微調(diào)基礎(chǔ)上將傳統(tǒng)二分類(lèi) loss 替換為含有 MPU loss 的優(yōu)化目標(biāo)。改進(jìn)之后的語(yǔ)言模型檢測(cè)器效果較為突出,超過(guò)了其它基線算法。

作者又對(duì) chatGPT 生成文本進(jìn)行了檢測(cè),經(jīng)過(guò)傳統(tǒng)微調(diào)得到的語(yǔ)言模型檢測(cè)器在短句上表現(xiàn)較差;經(jīng)過(guò) MPU 方式在同等條件下訓(xùn)練得到的檢測(cè)器在短句上表現(xiàn)良好,且同時(shí)能夠在完整語(yǔ)料上取得可觀的效果提升,F(xiàn)1-score 提升了 1%,超越了 OpenAI 和 DetectGPT 等 SOTA 算法。

如上表所示,作者在消融實(shí)驗(yàn)中觀察了每個(gè)部分帶來(lái)的效果增益。MPU loss 加強(qiáng)了長(zhǎng)、短語(yǔ)料的分類(lèi)效果。

作者還對(duì)比了傳統(tǒng) PU 和 Multiscale PU(MPU)。由上表可見(jiàn) MPU 效果更勝一籌,能更好地適配 AI 多尺度文本檢測(cè)的任務(wù)。
總結(jié)
作者通過(guò)提出基于多尺度 PU 學(xué)習(xí)的方案,解決了文本檢測(cè)器對(duì)于短句識(shí)別的難題,隨著未來(lái) AIGC 生成模型的泛濫,對(duì)于這類(lèi)內(nèi)容的檢測(cè)將會(huì)越來(lái)越重要。這項(xiàng)研究在 AI 文本檢測(cè)的問(wèn)題上邁出了堅(jiān)實(shí)的一步,希望未來(lái)會(huì)有更多類(lèi)似的研究,把 AIGC 內(nèi)容進(jìn)行更好的管控,防止 AI 生成內(nèi)容的濫用。




































