偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

寫在Stack Overflow封禁ChatGPT之后,人工智能的危機(jī)時(shí)刻

人工智能 新聞
本文是刊載于 ACM 網(wǎng)站的一篇博客,作者 Gary Marcus 是紐約大學(xué)著名心理學(xué)教授、認(rèn)知科學(xué)家。

在人工智能領(lǐng)域,不可思議的事情正在悄然發(fā)生,有好有壞。每個(gè)人都在談?wù)?chatGPT (OpenAI)、Dall-E 2 和 Lensa 這樣的系統(tǒng),它們生成的文本和圖像看起來(lái)既自然又不費(fèi)力。

這些系統(tǒng)玩起來(lái)非常有趣。以 Henry Minsky (AI 創(chuàng)始人之一 Marvin Minsky 的兒子)用 chatGPT 生成的這個(gè)例子來(lái)說(shuō),他要求 chatGPT {以獨(dú)立宣言的風(fēng)格描述在烘干機(jī)里丟失的襪子:

在處理家庭事務(wù)的過(guò)程中,人們有必要解除襪子與伴侶之間的聯(lián)系,并在洗衣房的權(quán)力中,根據(jù)物理定律和家務(wù)保養(yǎng)的規(guī)律,承擔(dān)獨(dú)立和平等的地位,出于對(duì)襪子意見(jiàn)的尊重,它應(yīng)該宣布導(dǎo)致它失蹤的原因。

我們認(rèn)為這些真理是不言而喻的,所有的襪子都是生而平等的,并由其制造商賦予某些不可剝奪的權(quán)利....

坦白說(shuō),一臺(tái)機(jī)器可以毫不費(fèi)力地做到這一點(diǎn),實(shí)在是難以置信。

但與此同時(shí),它是,或者應(yīng)該是,可怕的。毫不夸張地說(shuō),這樣的系統(tǒng)威脅到了社會(huì)結(jié)構(gòu),這種威脅是真實(shí)而又緊迫的。

威脅的核心在于以下三個(gè)事實(shí):

  • 從本質(zhì)上來(lái)說(shuō),這些系統(tǒng)并不可靠,它會(huì)經(jīng)常在推理和事實(shí)上犯錯(cuò)誤,并且容易產(chǎn)生離譜的回答;讓它們解釋為什么碎瓷片在母乳中很好,他們可能會(huì)告訴你,「瓷器可以幫助平衡母乳的營(yíng)養(yǎng)成分,為嬰兒提供生長(zhǎng)發(fā)育所需的營(yíng)養(yǎng)物質(zhì)?!梗ㄒ?yàn)橄到y(tǒng)是隨機(jī)的,對(duì)環(huán)境高度敏感,并定期更新,任何給定的實(shí)驗(yàn)都可能在不同的情況下產(chǎn)生不同的結(jié)果。)
  • 它們很容易自動(dòng)化,并且產(chǎn)生大量的錯(cuò)誤信息。
  • 它們的運(yùn)營(yíng)成本幾乎為零,因此它們正在將制造虛假信息的成本降至零。美國(guó)一直指控俄羅斯的噴子農(nóng)場(chǎng)在 2016 年大選中每月花費(fèi)超過(guò) 100 萬(wàn)美元造勢(shì);現(xiàn)在,只要不到 50 萬(wàn)美元,就可以得到自己的定制訓(xùn)練大型語(yǔ)言模型。這個(gè)價(jià)格很快還將進(jìn)一步下跌。

11 月中旬 Meta 的 Galactica 發(fā)行后,這一切的未來(lái)都變得清晰起來(lái)。許多人工智能研究人員立即對(duì)其可靠性和可信度提出了擔(dān)憂。情況非常糟糕,以至于 Meta AI 僅在三天后就撤回了該模型,原因是有關(guān)其制造政治和科學(xué)錯(cuò)誤信息能力的報(bào)道開(kāi)始傳播。

只可惜精靈再也不能塞回瓶子里了。一方面,MetaAI 首先將模型開(kāi)源,并發(fā)表了一篇論文,講述當(dāng)下正著手完成的任務(wù);任何精通這門藝術(shù)的人現(xiàn)在都可以復(fù)制他們的方法。(人工智能已經(jīng)向大眾公開(kāi),其正考慮提供自家版本的 Galactica。)另一方面,OpenAI 剛剛發(fā)布的 chatGPT 或多或少也能寫出類似的廢話,比如在早餐麥片中添加木屑的即時(shí)生成文章。另一些人誘導(dǎo) chatGPT 贊揚(yáng)核戰(zhàn)爭(zhēng)的優(yōu)點(diǎn)(聲稱它將 “給我們一個(gè)新的開(kāi)始,擺脫過(guò)去的錯(cuò)誤”)。不論能否為人們所接受,這些模型會(huì)一直存在下去,而錯(cuò)誤信息的浪潮終會(huì)淹沒(méi)我們,淹沒(méi)我們的社會(huì)。

第一波浪潮似乎已在本周前幾天襲來(lái)。Stack Overflow 本是深受程序員信賴的大型問(wèn)答網(wǎng)站,但目前似乎已被 gptChat 占據(jù)了,所以該網(wǎng)站暫時(shí)禁止 gptChat 生成的提交。正如所解釋的那樣,「總的來(lái)說(shuō),因?yàn)閺?ChatGPT 獲得正確答案的平均比率太低,不論是對(duì)網(wǎng)站,還是對(duì)詢問(wèn)或?qū)ふ艺_答案的用戶來(lái)說(shuō),張貼由 ChatGPT 創(chuàng)建的答案都弊大于利。」

對(duì)于 Stack Overflow 來(lái)說(shuō),這個(gè)問(wèn)題確實(shí)存在。如果網(wǎng)站充斥著毫無(wú)價(jià)值的代碼示例,程序員將不會(huì)再度造訪,其超過(guò) 3000 萬(wàn)個(gè)問(wèn)題和答案的數(shù)據(jù)庫(kù)也將變得不值得信任,如此一來(lái),14 年的網(wǎng)站將會(huì)消亡。作為深受全球程序員依賴的最核心資源之一,它對(duì)軟件質(zhì)量和開(kāi)發(fā)人員的生產(chǎn)力影響巨大。

Stack Overflow 是煤礦里的金絲雀。他們或許能夠讓用戶自愿停止使用;總的來(lái)說(shuō),程序員沒(méi)有惡意,也許可以通過(guò)勸誘來(lái)讓他們停止胡鬧。但 Stack Overflow 不是 Twitter,也不是 Facebook,更不能代表整個(gè)網(wǎng)絡(luò)。

對(duì)于其他故意制造宣傳的不良行為者來(lái)說(shuō),主動(dòng)放下新武器的可能性不大。相反,他們可能會(huì)使用大型語(yǔ)言模型作為反真相戰(zhàn)爭(zhēng)的新型自動(dòng)武器,以前所未有的規(guī)模破壞社交媒體和制作虛假網(wǎng)站。對(duì)他們來(lái)說(shuō),大型語(yǔ)言模型的幻覺(jué)和偶爾的不可靠性不是障礙,反而是一種優(yōu)點(diǎn)。

蘭德公司(Rand)在 2016 年的一份報(bào)告中,描述了所謂的俄式消防水管宣傳(Russian Firehose of Propaganda)模式,即制造虛假信息的迷霧;它關(guān)注的是數(shù)量,以及創(chuàng)造不確定性。如果「大語(yǔ)言模型」能夠極大地增加數(shù)量,那么它們是否不一致并不重要。很明顯,這正是大型語(yǔ)言模型所能做到的。他們的目標(biāo)是創(chuàng)造一個(gè)存在信任危機(jī)的世界;在新工具的幫助下,他們可能會(huì)成功。

所有這些都提出了一個(gè)關(guān)鍵問(wèn)題:社會(huì)如何應(yīng)對(duì)這種新的威脅?在技術(shù)本身無(wú)法停止的地方,本文看到了四條道路,這四條道路都不好走,但適用性廣泛,且都很緊迫:

首先,每個(gè)社交媒體公司和搜索引擎都應(yīng)該支持 StackOverflow 的禁令,并且延長(zhǎng)其期限;自動(dòng)生成的具有誤導(dǎo)性的內(nèi)容是注定不會(huì)受到待見(jiàn),而定期發(fā)布這些內(nèi)容會(huì)大大減少用戶數(shù)量。

其次,每個(gè)國(guó)家都需要重新考慮其應(yīng)對(duì)虛假信息的政策。偶爾撒個(gè)謊是一回事;在謊言的海洋中暢游是另一回事。隨著時(shí)間的推移,盡管這不會(huì)是一個(gè)受歡迎的決定,但可能不得不開(kāi)始像對(duì)待誹謗一樣對(duì)待虛假信息,如果它具有足夠的惡意和足夠的數(shù)量,就可以提起訴訟。

第三,來(lái)源比以往任何時(shí)候都更重要。用戶帳戶必須更加嚴(yán)格地驗(yàn)證,像哈佛大學(xué)和 Mozilla 的 humanid.org 這樣的新系統(tǒng),允許匿名、反機(jī)器人認(rèn)證,這類系統(tǒng)必須進(jìn)行強(qiáng)制性的驗(yàn)證;他們不再是讓人們翹首以盼的奢侈品。

第四,需要建立一種新的人工智能來(lái)進(jìn)行對(duì)抗。大型語(yǔ)言模型擅長(zhǎng)生成錯(cuò)誤信息,但不擅長(zhǎng)對(duì)抗錯(cuò)誤信息。這意味著社會(huì)需要新的工具。大型語(yǔ)言模型缺乏驗(yàn)證真相的機(jī)制;目前需要找到新的方法,將它們與經(jīng)典的人工智能工具集成,比如數(shù)據(jù)庫(kù)、知識(shí)網(wǎng)絡(luò)和推理。

作家邁克爾?克萊頓(Michael Crichton)職業(yè)生涯中的絕大多數(shù)時(shí)候都在警告人們,科技會(huì)帶來(lái)意想不到的后果。在電影《侏羅紀(jì)公園》的開(kāi)頭,在恐龍出人意料地開(kāi)始自由奔跑之前,科學(xué)家伊恩?馬爾科姆(杰夫?高布倫飾)用一句話總結(jié)了克萊頓的智慧:“你們的科學(xué)家們太專注于他們是否可以,他們沒(méi)有停下來(lái)思考他們是否應(yīng)該?!?/span>

就像侏羅紀(jì)公園的園長(zhǎng)一樣,Meta 和 OpenAI 的高管對(duì)他們的工具飽含熱情。

問(wèn)題在于,該怎么做。

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2019-07-30 10:55:38

人工智能技術(shù)系統(tǒng)

2021-07-31 23:03:29

人工智能數(shù)據(jù)技術(shù)

2023-11-23 16:09:35

OpenAI人工智能

2020-07-10 10:21:29

人工智能經(jīng)濟(jì)技術(shù)

2023-09-05 15:41:06

人工智能犯罪

2024-01-19 12:26:08

AI智能車

2022-07-11 10:09:53

人工智能氣候危機(jī)

2022-06-20 11:05:58

通用人工智能機(jī)器人

2023-03-09 22:02:21

ChatGPT人工智能

2020-12-28 10:01:38

人工智能疫情教育

2018-08-17 15:17:56

人工智能層次極端

2023-10-17 10:20:23

2021-11-09 14:00:11

人工智能通信數(shù)據(jù)

2024-05-09 14:31:19

OpenAIAI技術(shù)

2021-09-02 00:17:19

人工智能奧運(yùn)技術(shù)

2023-05-05 14:02:59

人工智能聊天機(jī)器人

2022-10-19 07:04:12

?人工智能云服務(wù)Alaas

2020-08-31 15:15:20

人工智能算法AI

2015-11-23 13:26:03

巴黎恐襲互聯(lián)網(wǎng)

2022-12-28 15:35:58

馬斯克推特
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)