Nature:AI讓抄襲問(wèn)題更加復(fù)雜,科學(xué)家該如何應(yīng)對(duì)?
從哈佛大學(xué)校長(zhǎng)因抄襲指控在1月份辭職,到2月份曝光的同行評(píng)審報(bào)告中存在抄襲,今年學(xué)術(shù)界因抄襲事件而動(dòng)蕩不安。
但在學(xué)術(shù)寫(xiě)作中,一個(gè)更大的問(wèn)題迫在眉睫——
生成式人工智能工具的迅速普及引發(fā)了關(guān)于何種行為構(gòu)成抄襲,以及對(duì)AI工具什么程度的使用應(yīng)該被允許的問(wèn)題。
版權(quán)和剽竊問(wèn)題顧問(wèn)Jonathan Bailey認(rèn)為,「人工智能的使用范圍很廣,從完全由人類(lèi)撰寫(xiě)到完全由人工智能撰寫(xiě),這中間存在著一個(gè)巨大的混亂地帶」。
ChatGPT等生成式人工智能工具基于被稱(chēng)為大語(yǔ)言模型 (LLM) 的方法,可以節(jié)省時(shí)間、提高清晰度并減少語(yǔ)言障礙。
現(xiàn)在,許多研究人員認(rèn)為,在某些情況下可以允許這些工具的使用,并且應(yīng)當(dāng)充分披露其使用情況。
但是,這些工具使本來(lái)就充滿(mǎn)爭(zhēng)議的關(guān)于不當(dāng)使用他人作品的界定變得更加復(fù)雜。
LLM通過(guò)消化大量以前發(fā)表的文章來(lái)生成文本。因此,使用這些工具可能會(huì)類(lèi)似于「剽竊」。
例如,研究人員將機(jī)器寫(xiě)的東西冒充為自己的作品,或者機(jī)器生成的文本與其他人的作品非常接近,卻沒(méi)有注明來(lái)源。
LLM還可以用來(lái)用來(lái)掩飾故意抄襲的文本,而且很難被檢測(cè)出來(lái)。
英國(guó)普利茅斯大學(xué)生態(tài)學(xué)家Pete Cotton說(shuō),「界定學(xué)術(shù)不誠(chéng)實(shí)或剽竊的真正含義,以及界限在哪里將是非常非常困難的?!?/span>
在2023年對(duì)1600名研究人員進(jìn)行的一項(xiàng)調(diào)查中,68%的受訪(fǎng)者表示,人工智能將使剽竊行為變得門(mén)檻更低,也更難被發(fā)現(xiàn)。
論文地址:https://www.nature.com/articles/d41586-023-02980-0
柏林應(yīng)用科學(xué)大學(xué)的剽竊問(wèn)題專(zhuān)家Debora Weber-Wulff說(shuō),「每個(gè)人都擔(dān)心別人都在使用這些系統(tǒng),也擔(dān)心自己在應(yīng)該使用的時(shí)候沒(méi)有使用。大家都在為這件事焦頭爛額。」
當(dāng)抄襲遇上AI
剽竊,美國(guó)科研誠(chéng)信辦公室將其定義為「盜用他人的觀(guān)點(diǎn)、過(guò)程、成果或文字而不給予適當(dāng)?shù)恼J(rèn)可」。
這一問(wèn)題其實(shí)并不罕見(jiàn)。2015年的一項(xiàng)研究估計(jì),有1.7%的科學(xué)家承認(rèn)自己有過(guò)剽竊行為,30%的科學(xué)家知道同事有剽竊行為。
LLM可能會(huì)讓事情變得更糟。如果有人要求LLM對(duì)措辭進(jìn)行轉(zhuǎn)述,那么故意剽竊人類(lèi)撰寫(xiě)的文本這一行為就很容易被偽裝起來(lái)。
加拿大英屬哥倫比亞大學(xué)(UBC)的計(jì)算機(jī)科學(xué)家兼語(yǔ)言學(xué)家Muhammad Abdul-Mageed說(shuō),這些工具可以被提示以復(fù)雜的方式進(jìn)行轉(zhuǎn)述,比如以學(xué)術(shù)期刊的風(fēng)格。
一個(gè)核心問(wèn)題是,使用完全由機(jī)器而非人類(lèi)撰寫(xiě)的無(wú)署名內(nèi)容是否算作剽竊。
許多研究人員認(rèn)為不一定。例如,包括大學(xué)和個(gè)人在內(nèi)的歐洲學(xué)術(shù)誠(chéng)信網(wǎng)絡(luò)將未聲明使用人工智能工具的寫(xiě)作定義為「未經(jīng)授權(quán)的內(nèi)容生成」,而不是剽竊本身。
Weber-Wulff說(shuō),「對(duì)我來(lái)說(shuō),剽竊是指可歸因于另一個(gè)可識(shí)別的人的東西。她補(bǔ)充說(shuō),雖然人工智能生成的文本與現(xiàn)有的人類(lèi)撰寫(xiě)的內(nèi)容看起來(lái)幾乎一模一樣,但這通常還不足以被視為剽竊?!?/span>
不過(guò),也有人認(rèn)為,生成式人工智能工具侵犯了版權(quán)。
剽竊和侵犯版權(quán)都是對(duì)他人作品的不當(dāng)使用,剽竊是違反學(xué)術(shù)道德的行為,而未經(jīng)授權(quán)使用受版權(quán)保護(hù)的作品則可能觸犯法律。
密歇根大學(xué)安娜堡分校的計(jì)算機(jī)科學(xué)家Rada Mihalcea說(shuō),「這些人工智能系統(tǒng)是建立在數(shù)百萬(wàn)或數(shù)億人的工作基礎(chǔ)之上的?!?/span>
一些媒體公司和作家對(duì)他們認(rèn)為人工智能侵犯版權(quán)的行為提出了抗議。
2023年12月,《紐約時(shí)報(bào)》對(duì)科技巨頭微軟和OpenAI提起版權(quán)訴訟。訴訟稱(chēng),這兩家公司復(fù)制并使用了該報(bào)的數(shù)百萬(wàn)篇文章來(lái)訓(xùn)練LLM,而這個(gè)訓(xùn)練出的模型現(xiàn)在正與該出版物的內(nèi)容競(jìng)爭(zhēng)。
訴訟內(nèi)容包括,GPT-4在提示之下幾乎一字不差地復(fù)制了報(bào)紙文章的幾個(gè)段落。
今年2月,OpenAI向聯(lián)邦法院提出動(dòng)議,要求駁回訴訟的部分內(nèi)容,認(rèn)為 「ChatGPT 絕不是《紐約時(shí)報(bào)》訂閱的替代品」。
微軟的一位發(fā)言人說(shuō),「應(yīng)該允許合法開(kāi)發(fā)的人工智能工具以負(fù)責(zé)任的方式發(fā)展」,「它們也不能替代記者所扮演的重要角色」。
版權(quán)和剽竊問(wèn)題顧問(wèn)Jonathan Bailey說(shuō):「如果法院裁定,未經(jīng)許可對(duì)文本進(jìn)行人工智能訓(xùn)練確實(shí)侵犯了版權(quán),這對(duì)人工智能公司來(lái)說(shuō)將是一個(gè)巨大的沖擊」。如果沒(méi)有大量的訓(xùn)練集,ChatGPT這樣的工具「就不可能存在」。
AI爆發(fā)
不管這是不是所謂的抄襲,自2022年11月ChatGPT發(fā)布以來(lái),人工智能在學(xué)術(shù)寫(xiě)作中的應(yīng)用呈爆炸式增長(zhǎng)。
研究人員估計(jì),在2024年前6個(gè)月的生物醫(yī)學(xué)論文中,至少有10%的摘要使用了LLM進(jìn)行寫(xiě)作——相當(dāng)于每年15萬(wàn)篇論文。
由德國(guó)圖賓根大學(xué)的數(shù)據(jù)科學(xué)家Dmitry Kobak領(lǐng)導(dǎo)的研究人員們,分析了學(xué)術(shù)平臺(tái)PubMe上2010年至2024年6月期間發(fā)表的1400萬(wàn)篇摘要。
他們發(fā)現(xiàn),「深入」(delves)、「展示」(showasing)和「強(qiáng)調(diào)」(underscores)這些詞語(yǔ)的出現(xiàn)可能標(biāo)志著LLM的使用。
通過(guò)尋找這些詞語(yǔ),他們估算出了使用人工智能處理過(guò)的摘要的比例。
研究團(tuán)隊(duì)發(fā)現(xiàn),基于LLM的寫(xiě)作助手的出現(xiàn)對(duì)科學(xué)文獻(xiàn)產(chǎn)生了前所未有的影響。
研究認(rèn)為,與以英語(yǔ)為主要語(yǔ)言的國(guó)家相比,中國(guó)、韓國(guó)等國(guó)家的論文顯示出更多使用LLM的跡象。
不過(guò),Kobak說(shuō),英語(yǔ)國(guó)家的作者可能同樣經(jīng)常使用這些工具,只是使用的方式更難發(fā)現(xiàn)。他預(yù)測(cè),LLM的使用「肯定會(huì)繼續(xù)增加」,而且「可能會(huì)越來(lái)越難以發(fā)現(xiàn)」。
在學(xué)術(shù)寫(xiě)作中使用未公開(kāi)的軟件并非新鮮事。
自2015年以來(lái),法國(guó)圖盧茲大學(xué)計(jì)算機(jī)科學(xué)家Guillaume Cabanac和他的同事們一直在揭露由名為SCIgen的軟件編寫(xiě)的「胡言亂語(yǔ)」的論文,以及那些包含「折磨人的短語(yǔ)」的論文,這些短語(yǔ)是由翻譯或轉(zhuǎn)述文本的軟件自動(dòng)生成的。
Cabanac說(shuō),「即使在生成式人工智能出現(xiàn)之前,人們也有一些工具可以瞞天過(guò)海?!?/span>
在學(xué)術(shù)寫(xiě)作中使用人工智能也有一定的價(jià)值。研究人員說(shuō),它可以使文字和概念更加清晰,減少語(yǔ)言障礙,并騰出時(shí)間進(jìn)行實(shí)驗(yàn)和思考。
利雅得沙特國(guó)王大學(xué)的信息技術(shù)研究員Hend Al-Khalifa說(shuō),在人工智能生成工具問(wèn)世之前,許多以英語(yǔ)為第二語(yǔ)言的同事在撰寫(xiě)論文時(shí)都會(huì)很吃力。
但現(xiàn)在,他們專(zhuān)注于研究,利用這些工具解決了寫(xiě)作的麻煩。
但是,對(duì)于使用人工智能何時(shí)構(gòu)成剽竊或違反倫理道德,人們?nèi)匀桓械嚼Щ蟆?/span>
馬里蘭大學(xué)學(xué)院帕克分校的計(jì)算機(jī)科學(xué)家Soheil Feizi 說(shuō),使用LLM來(lái)轉(zhuǎn)述現(xiàn)有論文的內(nèi)容顯然是抄襲。
但是,使用LLM來(lái)幫助表達(dá)想法,無(wú)論是根據(jù)詳細(xì)提示生成文本,還是編輯草稿,如果做到透明,就不應(yīng)該受到懲罰。
Feizi 認(rèn)為,「我們應(yīng)該允許人們利用LLM,毫不費(fèi)力地、更清晰地表達(dá)自己的想法」。
現(xiàn)在,許多期刊的政策都允許在一定程度上使用LLM。
在最初禁止使用ChatGPT生成文本之后,Science于2023年11月更新了其政策,規(guī)定在撰寫(xiě)稿件時(shí)使用人工智能技術(shù)應(yīng)完全公開(kāi),包括所使用的系統(tǒng)和提示。作者要對(duì)準(zhǔn)確性負(fù)責(zé),并「確保沒(méi)有抄襲行為」。
Nature也表示,研究手稿的作者應(yīng)在方法部分記錄任何使用LLM的情況。
對(duì)100家大型學(xué)術(shù)出版商和100種排名靠前的期刊進(jìn)行分析后發(fā)現(xiàn),到2023年10月,24%的出版商和87%的期刊都制定了關(guān)于使用生成式人工智能的指南。
幾乎所有提供指南的出版商都表示,人工智能工具不能作為作者收錄,但在允許使用人工智能的類(lèi)型和要求披露的程度方面,政策有所不同。
Weber-Wulff說(shuō),學(xué)術(shù)寫(xiě)作中迫切需要更明確的人工智能使用指南。
Abdul-Mageed說(shuō),就目前而言,使用LLM撰寫(xiě)科學(xué)論文的熱潮因其局限性而受到抑制。用戶(hù)需要?jiǎng)?chuàng)建詳細(xì)的提示,描述受眾、語(yǔ)言風(fēng)格和研究子領(lǐng)域。「實(shí)際上,語(yǔ)言模型很難完全滿(mǎn)足你的要求?!?/span>
但Abdul-Mageed表示,開(kāi)發(fā)人員正在開(kāi)發(fā)能讓研究人員更容易生成專(zhuān)業(yè)科學(xué)內(nèi)容的應(yīng)用程序。用戶(hù)今后無(wú)需撰寫(xiě)詳細(xì)的提示,只需從下拉菜單中選擇選項(xiàng),然后按下按鈕,就能從頭開(kāi)始撰寫(xiě)整篇論文。
「?jìng)商健构ぷ?/h3>
在快速采用LLM編寫(xiě)文本的同時(shí),也出現(xiàn)了大量旨在檢測(cè)LLM的工具。
盡管許多工具吹噓自己的準(zhǔn)確率很高,有些甚至超過(guò) 90%,但研究表明,大多數(shù)工具并沒(méi)有達(dá)到它們的要求。
在去年12月發(fā)表的一項(xiàng)研究中,Weber-Wulff 和她的同事對(duì)學(xué)術(shù)界廣泛使用的14 種人工智能檢測(cè)工具進(jìn)行了評(píng)估。
只有5款工具能準(zhǔn)確識(shí)別70%或以上的文本是人工智能還是人類(lèi)撰寫(xiě)的,沒(méi)有一款工具的識(shí)別率超過(guò)80%。
當(dāng)人工智能生成的文本被人通過(guò)替換同義詞和調(diào)整語(yǔ)序等方式進(jìn)行了輕微編輯后,檢測(cè)器的準(zhǔn)確率平均下降到50%以下。
作者寫(xiě)道,這種文本「目前的工具幾乎檢測(cè)不出來(lái)」。其他研究也表明,要求人工智能對(duì)文本進(jìn)行多次轉(zhuǎn)述會(huì)大大降低檢測(cè)器的準(zhǔn)確性。
人工智能檢測(cè)器還存在其他問(wèn)題。
一項(xiàng)研究表明,如果英語(yǔ)不是母語(yǔ)的人撰寫(xiě)的英文文章,它們更有可能誤判為人工智能生成的文章。
Feizi說(shuō),檢測(cè)器無(wú)法可靠地區(qū)分完全由人工智能撰寫(xiě)的文本,和作者使用人工智能來(lái)幫助改善語(yǔ)法和句子清晰度來(lái)潤(rùn)色文本的情況。
他說(shuō),區(qū)分這些情況相當(dāng)困難,也不可靠,可能會(huì)導(dǎo)致巨大的誤報(bào)率。而且,被錯(cuò)誤地指控使用人工智能會(huì)對(duì)這些學(xué)者或?qū)W生的聲譽(yù)造成相當(dāng)大的損害。
人工智能的合法使用與非法使用之間的界限可能會(huì)進(jìn)一步模糊。
2023年3月,微軟開(kāi)始將人工智能生成工具納入其應(yīng)用程序,包括Word、PowerPoint和Outlook。其某些版本的人工智能助手名為Copilot,可以起草或編輯內(nèi)容。
6 月,谷歌也開(kāi)始將其生成式人工智能模型Gemini集成到Docs和Gmail等工具中。
英國(guó)普利茅斯馬戎大學(xué)高等教育專(zhuān)家Debby Cotton說(shuō),「人工智能正深入到一切事物中,我們?cè)絹?lái)越難以分辨所做的事情是否受到了AI的影響,它的發(fā)展速度會(huì)比我們能跟上的速度更快」。