偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Nature:AI讓抄襲問(wèn)題更加復(fù)雜,科學(xué)家該如何應(yīng)對(duì)?

人工智能 新聞
生成式人工智能在寫(xiě)作中的爆炸性應(yīng)用讓抄襲變得難以界定,引發(fā)了學(xué)術(shù)圈的一場(chǎng)大討論。

從哈佛大學(xué)校長(zhǎng)因抄襲指控在1月份辭職,到2月份曝光的同行評(píng)審報(bào)告中存在抄襲,今年學(xué)術(shù)界因抄襲事件而動(dòng)蕩不安。

但在學(xué)術(shù)寫(xiě)作中,一個(gè)更大的問(wèn)題迫在眉睫——

生成式人工智能工具的迅速普及引發(fā)了關(guān)于何種行為構(gòu)成抄襲,以及對(duì)AI工具什么程度的使用應(yīng)該被允許的問(wèn)題。

版權(quán)和剽竊問(wèn)題顧問(wèn)Jonathan Bailey認(rèn)為,「人工智能的使用范圍很廣,從完全由人類(lèi)撰寫(xiě)到完全由人工智能撰寫(xiě),這中間存在著一個(gè)巨大的混亂地帶」。

ChatGPT等生成式人工智能工具基于被稱(chēng)為大語(yǔ)言模型 (LLM) 的方法,可以節(jié)省時(shí)間、提高清晰度并減少語(yǔ)言障礙。

現(xiàn)在,許多研究人員認(rèn)為,在某些情況下可以允許這些工具的使用,并且應(yīng)當(dāng)充分披露其使用情況。

但是,這些工具使本來(lái)就充滿(mǎn)爭(zhēng)議的關(guān)于不當(dāng)使用他人作品的界定變得更加復(fù)雜。

LLM通過(guò)消化大量以前發(fā)表的文章來(lái)生成文本。因此,使用這些工具可能會(huì)類(lèi)似于「剽竊」。

例如,研究人員將機(jī)器寫(xiě)的東西冒充為自己的作品,或者機(jī)器生成的文本與其他人的作品非常接近,卻沒(méi)有注明來(lái)源。

LLM還可以用來(lái)用來(lái)掩飾故意抄襲的文本,而且很難被檢測(cè)出來(lái)。

英國(guó)普利茅斯大學(xué)生態(tài)學(xué)家Pete Cotton說(shuō),「界定學(xué)術(shù)不誠(chéng)實(shí)或剽竊的真正含義,以及界限在哪里將是非常非常困難的?!?/span>

在2023年對(duì)1600名研究人員進(jìn)行的一項(xiàng)調(diào)查中,68%的受訪(fǎng)者表示,人工智能將使剽竊行為變得門(mén)檻更低,也更難被發(fā)現(xiàn)。

圖片

論文地址:https://www.nature.com/articles/d41586-023-02980-0

柏林應(yīng)用科學(xué)大學(xué)的剽竊問(wèn)題專(zhuān)家Debora Weber-Wulff說(shuō),「每個(gè)人都擔(dān)心別人都在使用這些系統(tǒng),也擔(dān)心自己在應(yīng)該使用的時(shí)候沒(méi)有使用。大家都在為這件事焦頭爛額。」

當(dāng)抄襲遇上AI

剽竊,美國(guó)科研誠(chéng)信辦公室將其定義為「盜用他人的觀(guān)點(diǎn)、過(guò)程、成果或文字而不給予適當(dāng)?shù)恼J(rèn)可」。

這一問(wèn)題其實(shí)并不罕見(jiàn)。2015年的一項(xiàng)研究估計(jì),有1.7%的科學(xué)家承認(rèn)自己有過(guò)剽竊行為,30%的科學(xué)家知道同事有剽竊行為。

LLM可能會(huì)讓事情變得更糟。如果有人要求LLM對(duì)措辭進(jìn)行轉(zhuǎn)述,那么故意剽竊人類(lèi)撰寫(xiě)的文本這一行為就很容易被偽裝起來(lái)。

加拿大英屬哥倫比亞大學(xué)(UBC)的計(jì)算機(jī)科學(xué)家兼語(yǔ)言學(xué)家Muhammad Abdul-Mageed說(shuō),這些工具可以被提示以復(fù)雜的方式進(jìn)行轉(zhuǎn)述,比如以學(xué)術(shù)期刊的風(fēng)格。

一個(gè)核心問(wèn)題是,使用完全由機(jī)器而非人類(lèi)撰寫(xiě)的無(wú)署名內(nèi)容是否算作剽竊。

許多研究人員認(rèn)為不一定。例如,包括大學(xué)和個(gè)人在內(nèi)的歐洲學(xué)術(shù)誠(chéng)信網(wǎng)絡(luò)將未聲明使用人工智能工具的寫(xiě)作定義為「未經(jīng)授權(quán)的內(nèi)容生成」,而不是剽竊本身。

Weber-Wulff說(shuō),「對(duì)我來(lái)說(shuō),剽竊是指可歸因于另一個(gè)可識(shí)別的人的東西。她補(bǔ)充說(shuō),雖然人工智能生成的文本與現(xiàn)有的人類(lèi)撰寫(xiě)的內(nèi)容看起來(lái)幾乎一模一樣,但這通常還不足以被視為剽竊?!?/span>

不過(guò),也有人認(rèn)為,生成式人工智能工具侵犯了版權(quán)。

剽竊和侵犯版權(quán)都是對(duì)他人作品的不當(dāng)使用,剽竊是違反學(xué)術(shù)道德的行為,而未經(jīng)授權(quán)使用受版權(quán)保護(hù)的作品則可能觸犯法律。

密歇根大學(xué)安娜堡分校的計(jì)算機(jī)科學(xué)家Rada Mihalcea說(shuō),「這些人工智能系統(tǒng)是建立在數(shù)百萬(wàn)或數(shù)億人的工作基礎(chǔ)之上的?!?/span>

一些媒體公司和作家對(duì)他們認(rèn)為人工智能侵犯版權(quán)的行為提出了抗議。

2023年12月,《紐約時(shí)報(bào)》對(duì)科技巨頭微軟和OpenAI提起版權(quán)訴訟。訴訟稱(chēng),這兩家公司復(fù)制并使用了該報(bào)的數(shù)百萬(wàn)篇文章來(lái)訓(xùn)練LLM,而這個(gè)訓(xùn)練出的模型現(xiàn)在正與該出版物的內(nèi)容競(jìng)爭(zhēng)。

訴訟內(nèi)容包括,GPT-4在提示之下幾乎一字不差地復(fù)制了報(bào)紙文章的幾個(gè)段落。

今年2月,OpenAI向聯(lián)邦法院提出動(dòng)議,要求駁回訴訟的部分內(nèi)容,認(rèn)為 「ChatGPT 絕不是《紐約時(shí)報(bào)》訂閱的替代品」。

微軟的一位發(fā)言人說(shuō),「應(yīng)該允許合法開(kāi)發(fā)的人工智能工具以負(fù)責(zé)任的方式發(fā)展」,「它們也不能替代記者所扮演的重要角色」。

版權(quán)和剽竊問(wèn)題顧問(wèn)Jonathan Bailey說(shuō):「如果法院裁定,未經(jīng)許可對(duì)文本進(jìn)行人工智能訓(xùn)練確實(shí)侵犯了版權(quán),這對(duì)人工智能公司來(lái)說(shuō)將是一個(gè)巨大的沖擊」。如果沒(méi)有大量的訓(xùn)練集,ChatGPT這樣的工具「就不可能存在」。

AI爆發(fā)

不管這是不是所謂的抄襲,自2022年11月ChatGPT發(fā)布以來(lái),人工智能在學(xué)術(shù)寫(xiě)作中的應(yīng)用呈爆炸式增長(zhǎng)。

研究人員估計(jì),在2024年前6個(gè)月的生物醫(yī)學(xué)論文中,至少有10%的摘要使用了LLM進(jìn)行寫(xiě)作——相當(dāng)于每年15萬(wàn)篇論文。

由德國(guó)圖賓根大學(xué)的數(shù)據(jù)科學(xué)家Dmitry Kobak領(lǐng)導(dǎo)的研究人員們,分析了學(xué)術(shù)平臺(tái)PubMe上2010年至2024年6月期間發(fā)表的1400萬(wàn)篇摘要。

他們發(fā)現(xiàn),「深入」(delves)、「展示」(showasing)和「強(qiáng)調(diào)」(underscores)這些詞語(yǔ)的出現(xiàn)可能標(biāo)志著LLM的使用。

通過(guò)尋找這些詞語(yǔ),他們估算出了使用人工智能處理過(guò)的摘要的比例。

研究團(tuán)隊(duì)發(fā)現(xiàn),基于LLM的寫(xiě)作助手的出現(xiàn)對(duì)科學(xué)文獻(xiàn)產(chǎn)生了前所未有的影響。

圖片

研究認(rèn)為,與以英語(yǔ)為主要語(yǔ)言的國(guó)家相比,中國(guó)、韓國(guó)等國(guó)家的論文顯示出更多使用LLM的跡象。

不過(guò),Kobak說(shuō),英語(yǔ)國(guó)家的作者可能同樣經(jīng)常使用這些工具,只是使用的方式更難發(fā)現(xiàn)。他預(yù)測(cè),LLM的使用「肯定會(huì)繼續(xù)增加」,而且「可能會(huì)越來(lái)越難以發(fā)現(xiàn)」。

在學(xué)術(shù)寫(xiě)作中使用未公開(kāi)的軟件并非新鮮事。

自2015年以來(lái),法國(guó)圖盧茲大學(xué)計(jì)算機(jī)科學(xué)家Guillaume Cabanac和他的同事們一直在揭露由名為SCIgen的軟件編寫(xiě)的「胡言亂語(yǔ)」的論文,以及那些包含「折磨人的短語(yǔ)」的論文,這些短語(yǔ)是由翻譯或轉(zhuǎn)述文本的軟件自動(dòng)生成的。

圖片

Cabanac說(shuō),「即使在生成式人工智能出現(xiàn)之前,人們也有一些工具可以瞞天過(guò)海?!?/span>

在學(xué)術(shù)寫(xiě)作中使用人工智能也有一定的價(jià)值。研究人員說(shuō),它可以使文字和概念更加清晰,減少語(yǔ)言障礙,并騰出時(shí)間進(jìn)行實(shí)驗(yàn)和思考。

利雅得沙特國(guó)王大學(xué)的信息技術(shù)研究員Hend Al-Khalifa說(shuō),在人工智能生成工具問(wèn)世之前,許多以英語(yǔ)為第二語(yǔ)言的同事在撰寫(xiě)論文時(shí)都會(huì)很吃力。

但現(xiàn)在,他們專(zhuān)注于研究,利用這些工具解決了寫(xiě)作的麻煩。

但是,對(duì)于使用人工智能何時(shí)構(gòu)成剽竊或違反倫理道德,人們?nèi)匀桓械嚼Щ蟆?/span>

馬里蘭大學(xué)學(xué)院帕克分校的計(jì)算機(jī)科學(xué)家Soheil Feizi 說(shuō),使用LLM來(lái)轉(zhuǎn)述現(xiàn)有論文的內(nèi)容顯然是抄襲。

但是,使用LLM來(lái)幫助表達(dá)想法,無(wú)論是根據(jù)詳細(xì)提示生成文本,還是編輯草稿,如果做到透明,就不應(yīng)該受到懲罰。

Feizi 認(rèn)為,「我們應(yīng)該允許人們利用LLM,毫不費(fèi)力地、更清晰地表達(dá)自己的想法」。

現(xiàn)在,許多期刊的政策都允許在一定程度上使用LLM。

在最初禁止使用ChatGPT生成文本之后,Science于2023年11月更新了其政策,規(guī)定在撰寫(xiě)稿件時(shí)使用人工智能技術(shù)應(yīng)完全公開(kāi),包括所使用的系統(tǒng)和提示。作者要對(duì)準(zhǔn)確性負(fù)責(zé),并「確保沒(méi)有抄襲行為」。

圖片

Nature也表示,研究手稿的作者應(yīng)在方法部分記錄任何使用LLM的情況。

對(duì)100家大型學(xué)術(shù)出版商和100種排名靠前的期刊進(jìn)行分析后發(fā)現(xiàn),到2023年10月,24%的出版商和87%的期刊都制定了關(guān)于使用生成式人工智能的指南。

幾乎所有提供指南的出版商都表示,人工智能工具不能作為作者收錄,但在允許使用人工智能的類(lèi)型和要求披露的程度方面,政策有所不同。

Weber-Wulff說(shuō),學(xué)術(shù)寫(xiě)作中迫切需要更明確的人工智能使用指南。

Abdul-Mageed說(shuō),就目前而言,使用LLM撰寫(xiě)科學(xué)論文的熱潮因其局限性而受到抑制。用戶(hù)需要?jiǎng)?chuàng)建詳細(xì)的提示,描述受眾、語(yǔ)言風(fēng)格和研究子領(lǐng)域。「實(shí)際上,語(yǔ)言模型很難完全滿(mǎn)足你的要求?!?/span>

但Abdul-Mageed表示,開(kāi)發(fā)人員正在開(kāi)發(fā)能讓研究人員更容易生成專(zhuān)業(yè)科學(xué)內(nèi)容的應(yīng)用程序。用戶(hù)今后無(wú)需撰寫(xiě)詳細(xì)的提示,只需從下拉菜單中選擇選項(xiàng),然后按下按鈕,就能從頭開(kāi)始撰寫(xiě)整篇論文。

「?jìng)商健构ぷ?/h3>

在快速采用LLM編寫(xiě)文本的同時(shí),也出現(xiàn)了大量旨在檢測(cè)LLM的工具。

盡管許多工具吹噓自己的準(zhǔn)確率很高,有些甚至超過(guò) 90%,但研究表明,大多數(shù)工具并沒(méi)有達(dá)到它們的要求。

在去年12月發(fā)表的一項(xiàng)研究中,Weber-Wulff 和她的同事對(duì)學(xué)術(shù)界廣泛使用的14 種人工智能檢測(cè)工具進(jìn)行了評(píng)估。

只有5款工具能準(zhǔn)確識(shí)別70%或以上的文本是人工智能還是人類(lèi)撰寫(xiě)的,沒(méi)有一款工具的識(shí)別率超過(guò)80%。

當(dāng)人工智能生成的文本被人通過(guò)替換同義詞和調(diào)整語(yǔ)序等方式進(jìn)行了輕微編輯后,檢測(cè)器的準(zhǔn)確率平均下降到50%以下。

作者寫(xiě)道,這種文本「目前的工具幾乎檢測(cè)不出來(lái)」。其他研究也表明,要求人工智能對(duì)文本進(jìn)行多次轉(zhuǎn)述會(huì)大大降低檢測(cè)器的準(zhǔn)確性。

人工智能檢測(cè)器還存在其他問(wèn)題。

一項(xiàng)研究表明,如果英語(yǔ)不是母語(yǔ)的人撰寫(xiě)的英文文章,它們更有可能誤判為人工智能生成的文章。

Feizi說(shuō),檢測(cè)器無(wú)法可靠地區(qū)分完全由人工智能撰寫(xiě)的文本,和作者使用人工智能來(lái)幫助改善語(yǔ)法和句子清晰度來(lái)潤(rùn)色文本的情況。

他說(shuō),區(qū)分這些情況相當(dāng)困難,也不可靠,可能會(huì)導(dǎo)致巨大的誤報(bào)率。而且,被錯(cuò)誤地指控使用人工智能會(huì)對(duì)這些學(xué)者或?qū)W生的聲譽(yù)造成相當(dāng)大的損害。

人工智能的合法使用與非法使用之間的界限可能會(huì)進(jìn)一步模糊。

2023年3月,微軟開(kāi)始將人工智能生成工具納入其應(yīng)用程序,包括Word、PowerPoint和Outlook。其某些版本的人工智能助手名為Copilot,可以起草或編輯內(nèi)容。

6 月,谷歌也開(kāi)始將其生成式人工智能模型Gemini集成到Docs和Gmail等工具中。

英國(guó)普利茅斯馬戎大學(xué)高等教育專(zhuān)家Debby Cotton說(shuō),「人工智能正深入到一切事物中,我們?cè)絹?lái)越難以分辨所做的事情是否受到了AI的影響,它的發(fā)展速度會(huì)比我們能跟上的速度更快」。

責(zé)任編輯:張燕妮 來(lái)源: 新智元
相關(guān)推薦

2023-10-10 13:50:00

AI研究

2022-09-19 15:53:20

AI圖片

2012-12-06 15:36:55

CIO

2023-05-23 09:34:16

科學(xué)家AI

2017-08-04 15:53:10

大數(shù)據(jù)真?zhèn)螖?shù)據(jù)科學(xué)家

2024-01-30 17:46:24

2022-04-24 14:05:02

人工智能深度學(xué)習(xí)量化

2025-05-14 09:03:00

2023-03-17 08:00:00

人工智能工具數(shù)據(jù)科學(xué)家

2018-02-28 15:03:03

數(shù)據(jù)科學(xué)家數(shù)據(jù)分析職業(yè)

2015-08-28 09:22:07

數(shù)據(jù)科學(xué)

2016-03-10 13:56:42

數(shù)據(jù)科學(xué)數(shù)據(jù)科學(xué)家數(shù)據(jù)分析

2020-04-08 17:38:24

Python數(shù)據(jù)音樂(lè)

2023-03-29 14:58:04

GPT-4技術(shù)

2018-12-24 08:37:44

數(shù)據(jù)科學(xué)家數(shù)據(jù)模型

2022-11-03 14:13:24

騰訊科學(xué)家

2019-06-05 15:17:45

2012-12-26 10:51:20

數(shù)據(jù)科學(xué)家

2018-03-12 12:44:59

數(shù)據(jù)科學(xué)家人工智能數(shù)據(jù)科學(xué)

2022-12-01 13:59:12

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)