arXiv正式規(guī)定:預(yù)印本不允許以ChatGPT等工具為作者
ChatGPT,這款近期發(fā)布的文本生成工具,已經(jīng)在研究界引起了熱烈的討論。它能寫出學(xué)生作文、總結(jié)研究論文、回答問題、生成可用的計(jì)算機(jī)代碼,甚至足以通過醫(yī)學(xué)考試、MBA 考試、司法考試……
其中一個(gè)關(guān)鍵的問題是:ChatGPT 可以被命名為研究論文的作者嗎?
現(xiàn)在,來自全球最大預(yù)印本發(fā)布平臺(tái) arXiv 官方的明確回答是:「不能」。
AI 沒有署名權(quán)
在 ChatGPT 之前,研究者們?cè)缇驮谑褂昧奶鞕C(jī)器人作為研究助手,幫助組織自己的思維,生成對(duì)自身工作的反饋,協(xié)助編寫代碼以及對(duì)研究文獻(xiàn)進(jìn)行摘要。
這些輔助工作似乎可以被認(rèn)可,但說到「署名」,又完全是另外一回事?!革@然,一個(gè)計(jì)算機(jī)程序不能為一篇論文的內(nèi)容負(fù)責(zé)。它也不能同意 arXiv 的條款和條件?!?/span>
有一些預(yù)印本和已發(fā)表的文章已經(jīng)將正式的作者身份賦予 ChatGPT。為了解決這個(gè)問題,arXiv 為作者采用了一項(xiàng)關(guān)于使用生成式 AI 語言工具的新政策。
官方聲明如下:
arXiv 認(rèn)識(shí)到,科學(xué)工作者使用各種工具來進(jìn)行他們所報(bào)告的科學(xué)工作以及準(zhǔn)備報(bào)告本身,包括從簡(jiǎn)單的工具到非常復(fù)雜的工具。
社區(qū)對(duì)這些工具的適當(dāng)性的看法可能是不同的,而且在不斷變化;人工智能驅(qū)動(dòng)的語言工具引發(fā)了重點(diǎn)的辯論。我們注意到,工具可能會(huì)產(chǎn)生有用和有幫助的結(jié)果,但也可能產(chǎn)生錯(cuò)誤或誤導(dǎo)性的結(jié)果;因此,了解使用了哪些工具與評(píng)估和解釋科學(xué)作品有關(guān)。
基于此,arXiv 決定:
1. 繼續(xù)要求作者在他們的工作中報(bào)告任何復(fù)雜工具的使用情況,如儀器和軟件;我們現(xiàn)在特別將「文本到文本的生成式人工智能」包含在應(yīng)報(bào)告的符合方法論主題標(biāo)準(zhǔn)的工具中。
2. 提醒所有同事,只要在論文中簽上自己的名字,他們每個(gè)人都要對(duì)論文的所有內(nèi)容承擔(dān)全部責(zé)任,無論這些內(nèi)容是如何產(chǎn)生的。如果生成式人工智能語言工具產(chǎn)生了不恰當(dāng)?shù)恼Z言、抄襲的內(nèi)容、錯(cuò)誤的內(nèi)容、不正確的參考文獻(xiàn)或誤導(dǎo)性的內(nèi)容,并且該輸出被納入科學(xué)成果中,這就是作者的責(zé)任。
3. 生成式人工智能語言工具不應(yīng)該被列為作者,可參考 1。
「規(guī)則」的意義
幾天前,《自然》雜志就公開表示,已經(jīng)與所有 Springer Nature 期刊共同制定了兩條原則,并且這些原則已被添加到現(xiàn)有的作者指南中:
首先,任何大型語言模型工具都不會(huì)被接受作為研究論文的署名作者。這是因?yàn)槿魏巫髡叩臍w屬權(quán)都伴隨著對(duì)工作的責(zé)任,而 AI 工具不能承擔(dān)這種責(zé)任。
第二,使用大型語言模型工具的研究人員應(yīng)該在方法或致謝部分記錄這種使用。如果論文不包括這些部分,可以用引言或其他適當(dāng)?shù)牟糠謥碛涗泴?duì)大型語言模型的使用。
這些規(guī)定和 arXiv 最新發(fā)布的原則十分相似,看起來,學(xué)術(shù)出版領(lǐng)域的組織們似乎達(dá)成了某種共識(shí)。
ChatGPT 的能力縱然強(qiáng)大,但其在學(xué)校作業(yè)、論文發(fā)表等領(lǐng)域的濫用已經(jīng)引發(fā)了人們廣泛的擔(dān)憂。
機(jī)器學(xué)習(xí)會(huì)議 ICML 就表示過:「ChatGPT 接受公共數(shù)據(jù)的訓(xùn)練,這些數(shù)據(jù)通常是在未經(jīng)同意的情況下收集的,這會(huì)帶來一系列的責(zé)任歸屬問題?!?/span>
因此,學(xué)界開始探索檢測(cè) ChatGPT 等大型語言模型(LLM)生成文本的方法和工具。未來,檢測(cè)內(nèi)容是否由 AI 生成或許將成為「審稿中的重要一環(huán)」。