偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

馬斯克等人呼吁暫停AI研究公開(kāi)信遭質(zhì)疑 被指加劇炒作、歪曲論文

人工智能
這封公開(kāi)信由非營(yíng)利組織“生命未來(lái)研究所”(Future of Life Institute)撰寫(xiě),其使命是“減少?gòu)?qiáng)大技術(shù)帶來(lái)的全球?yàn)?zāi)難性和生存風(fēng)險(xiǎn)”。具體來(lái)說(shuō),該研究所專(zhuān)注于減輕人類(lèi)的長(zhǎng)期“生存”風(fēng)險(xiǎn),比如超級(jí)智能AI。馬斯克是該組織的支持者,他在2015年曾向其捐贈(zèng)了1000萬(wàn)美元。

3月31日消息,特斯拉首席執(zhí)行官埃隆·馬斯克?(Elon Musk)、蘋(píng)果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)以及其他上千名AI?研究人員日前簽署公開(kāi)信,呼吁暫停研究更先進(jìn)的AI技術(shù)。然而,此信遭到許多專(zhuān)家甚至簽名者的質(zhì)疑,被指加劇AI炒作、簽名造假以及歪曲論文等。

這封公開(kāi)信由非營(yíng)利組織“生命未來(lái)研究所”(Future of Life Institute)撰寫(xiě),其使命是“減少?gòu)?qiáng)大技術(shù)帶來(lái)的全球?yàn)?zāi)難性和生存風(fēng)險(xiǎn)”。具體來(lái)說(shuō),該研究所專(zhuān)注于減輕人類(lèi)的長(zhǎng)期“生存”風(fēng)險(xiǎn),比如超級(jí)智能AI。馬斯克是該組織的支持者,他在2015年曾向其捐贈(zèng)了1000萬(wàn)美元。

信中寫(xiě)道:“只有在我們確信AI的影響是積極的、風(fēng)險(xiǎn)是可控的情況下,才應(yīng)該開(kāi)發(fā)更強(qiáng)大的AI系統(tǒng)。因此,我們呼吁所有AI實(shí)驗(yàn)室立即暫停至少6個(gè)月訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)。AI實(shí)驗(yàn)室和獨(dú)立專(zhuān)家應(yīng)該利用這段時(shí)間,共同開(kāi)發(fā)和實(shí)施一套高級(jí)AI設(shè)計(jì)和開(kāi)發(fā)的共享安全協(xié)議,這些協(xié)議由獨(dú)立的外部專(zhuān)家嚴(yán)格審計(jì)和監(jiān)督?!?/p>

這封信還澄清說(shuō):“這并不意味著AI發(fā)展總體上處于暫停狀態(tài),只是從危險(xiǎn)的競(jìng)賽退回到具有緊急功能的更大、不可預(yù)測(cè)的黑箱模型。”它指的是微軟和谷歌等大型科技公司之間的AI競(jìng)賽,這兩家公司在過(guò)去一年發(fā)布了許多新的AI產(chǎn)品。

其他著名的簽名者包括圖像生成器創(chuàng)企Stability AI首席執(zhí)行官伊馬德·穆斯塔克(Emad Mostaque)、作家兼歷史學(xué)家尤瓦爾·諾亞·哈拉里(Yuval Noah Harari)和Pinterest聯(lián)合創(chuàng)始人埃文·夏普(Evan Sharp)等。也有參與AI競(jìng)賽的公司的員工簽名,包括谷歌姊妹公司DeepMind和微軟。盡管OpenAI開(kāi)發(fā)并商業(yè)化了GPT系列AI模型,但沒(méi)有人在信上簽名。

盡管經(jīng)過(guò)了驗(yàn)證過(guò)程,但這封信一開(kāi)始還是有許多虛假簽名者,包括冒充OpenAI首席執(zhí)行官薩姆·阿爾特曼(Sam Altman)、Meta首席AI科學(xué)家雅恩·勒昆(Yann LeCun)的人。之后,生命未來(lái)研究所清理了名單,并在驗(yàn)證每個(gè)簽名時(shí)暫停了在信上顯示更多簽名。

然而,這封公開(kāi)信的發(fā)布已經(jīng)引起了軒然大波,受到許多AI研究人員的仔細(xì)審查,包括許多簽名者本人。有些簽名者重新改變了自己的立場(chǎng),有些知名人士的簽名被證明是假的,更多AI研究人員和專(zhuān)家則公開(kāi)對(duì)這封信中的描述和提議的方法表達(dá)了反對(duì)意見(jiàn)。

紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)教授加里·馬庫(kù)斯(Gary Marcus)說(shuō):“這封信并不完美,但其精神是正確的?!蓖瑫r(shí),Stability AI首席執(zhí)行官穆斯塔克在推特上表示,OpenAI是一家真正“開(kāi)放”的AI公司,“所以,我不認(rèn)為暫停訓(xùn)練六個(gè)月時(shí)間是最好的主意,也不同意信中的很多觀點(diǎn),但這封信中有些地方的確很有趣。”

AI專(zhuān)家批評(píng)這封信進(jìn)一步推動(dòng)了“AI炒作”,但卻沒(méi)有列出或呼吁對(duì)當(dāng)今存在的AI危害采取具體行動(dòng)。有些人認(rèn)為,這宣揚(yáng)了一種長(zhǎng)期卻有些不符合實(shí)際的觀點(diǎn),這種觀點(diǎn)被批評(píng)為有害和反民主的,因?yàn)樗鼘?duì)超級(jí)富豪更有利,并允許他們?cè)谀承├碛上虏扇〉赖律峡梢傻男袨椤?/p>

華盛頓大學(xué)語(yǔ)言學(xué)系教授、公開(kāi)信開(kāi)頭所引用論文的合著者艾米麗·本德?tīng)枺‥mily M. Bender)在推特上寫(xiě)道,這封信中“充斥著AI炒作”,并濫用了她的研究成果。信中稱(chēng):“廣泛的研究表明,具有堪比人類(lèi)智慧的AI系統(tǒng)可能會(huì)對(duì)社會(huì)和人類(lèi)構(gòu)成重大威脅?!钡镜?tīng)柗瘩g說(shuō),她在研究中特別指出,這種威脅是指目前的大型語(yǔ)言模型及其在壓迫系統(tǒng)中的使用情況,這比公開(kāi)信中假設(shè)的未來(lái)AI威脅要具體得多,也更緊迫。

本德?tīng)柪^續(xù)寫(xiě)道:“我們?cè)?020年底發(fā)布了完整論文,指出這種不考慮風(fēng)險(xiǎn)而急于建立更大語(yǔ)言模型的做法存在問(wèn)題。但風(fēng)險(xiǎn)和危害從來(lái)都不是‘AI過(guò)于強(qiáng)大’,相反,它們關(guān)乎權(quán)力集中在人民手中,關(guān)乎重現(xiàn)壓迫體系,關(guān)乎對(duì)信息生態(tài)系統(tǒng)的破壞,關(guān)乎對(duì)自然生態(tài)系統(tǒng)的破壞等?!?/p>

AI初創(chuàng)公司Hugging Face的研究科學(xué)家薩莎·盧西奧尼(Sasha Luccioni)在接受采訪時(shí)表示:“公開(kāi)信在本質(zhì)上是一種誤導(dǎo):讓每個(gè)人都注意到大型語(yǔ)言模型被臆想的力量和危害,并提出非常模糊、幾乎無(wú)效的解決方案,而不是在此時(shí)此刻關(guān)注這些危害并解決它們。例如,在涉及LLM的培訓(xùn)數(shù)據(jù)和能力時(shí)要求更多的透明度,或者要求立法規(guī)定在哪里和何時(shí)可以使用它們?!?/p>

普林斯頓大學(xué)計(jì)算機(jī)科學(xué)副教授阿爾溫德·納拉亞南(Arvind Narayanan)表示,這封公開(kāi)信充滿(mǎn)了AI炒作,“使解決真實(shí)的、正在發(fā)生的AI危害變得更加困難”。

公開(kāi)信中提出了幾個(gè)問(wèn)題:“我們是否應(yīng)該自動(dòng)化所有工作,包括那些讓人有成就感的工作?我們是否應(yīng)該培養(yǎng)非人類(lèi)思維,這些思維最終可能會(huì)超過(guò)人類(lèi)智慧并取代我們?我們應(yīng)該冒著失去對(duì)文明控制的風(fēng)險(xiǎn)繼續(xù)開(kāi)發(fā)AI嗎?”

對(duì)此,納拉亞南說(shuō),這些問(wèn)題都是“無(wú)稽之談”,“荒謬無(wú)比”。計(jì)算機(jī)是否會(huì)取代人類(lèi)并接管人類(lèi)文明,這是一個(gè)非常遙遠(yuǎn)的問(wèn)題,是長(zhǎng)期主義思維的一部分,它分散了我們對(duì)當(dāng)前問(wèn)題的注意力。畢竟,AI已經(jīng)被整合到人們的工作中,減少了對(duì)某些職業(yè)的需求,而不是一種會(huì)讓我們“過(guò)時(shí)”的“非人類(lèi)思維”。

納拉亞南還稱(chēng):“我認(rèn)為,這些可以算是合理的長(zhǎng)期擔(dān)憂(yōu),但它們已被反復(fù)提及,轉(zhuǎn)移了人們對(duì)當(dāng)前危害的注意力,包括非常真實(shí)的信息安全和安全風(fēng)險(xiǎn)!而解決這些安全風(fēng)險(xiǎn)將需要我們精誠(chéng)合作。但不幸的是,這封信中的炒作,包括對(duì)AI能力和事關(guān)人類(lèi)生存風(fēng)險(xiǎn)的夸大,可能會(huì)導(dǎo)致AI模型被更多地束縛,使應(yīng)對(duì)風(fēng)險(xiǎn)變得更加困難?!?/p>

不過(guò),許多公開(kāi)信的簽字人也進(jìn)行了辯護(hù)。研究機(jī)構(gòu)Mila創(chuàng)始人兼科學(xué)主任約書(shū)亞·本吉奧(Yoshua Bengio)表示,六個(gè)月的暫停時(shí)間對(duì)于包括政府在內(nèi)的治理機(jī)構(gòu)理解、審計(jì)和驗(yàn)證AI系統(tǒng)是必要的,可以確保這些系統(tǒng)對(duì)公眾是安全的。他補(bǔ)充說(shuō),目前存在危險(xiǎn)的權(quán)力集中,AI工具有可能破壞民主的穩(wěn)定,“民主價(jià)值觀和開(kāi)發(fā)這些工具的方式之間存在沖突”。

麻省理工學(xué)院NSF AI與基礎(chǔ)交互研究所(IAIFI)物理學(xué)教授、未來(lái)生命研究所所長(zhǎng)馬克斯·泰格馬克(Max Tegmark)表示,最糟糕的情況是,人類(lèi)將逐漸失去對(duì)文明的控制。他說(shuō),目前的風(fēng)險(xiǎn)在于,“我們失去了對(duì)科技公司中一群未經(jīng)選舉產(chǎn)生的權(quán)力人士的控制,他們的影響力太大了?!?/p>

這些評(píng)論談到了廣闊的未來(lái),暗示著對(duì)失去文明控制的恐懼,但除了呼吁6個(gè)月的暫停期之外,沒(méi)有談到任何具體措施。

計(jì)算機(jī)科學(xué)家、分布式AI研究所創(chuàng)始人蒂姆尼特·格布魯(Timnit Gebru)在推特上發(fā)帖稱(chēng),具有諷刺意味的是,他們呼吁暫停訓(xùn)練比GPT-4更強(qiáng)大的AI模型,但卻未能解決圍繞GPT-4本身的大量擔(dān)憂(yōu)。

責(zé)任編輯:姜華 來(lái)源: 網(wǎng)易科技
相關(guān)推薦

2023-03-30 10:47:38

AI訓(xùn)練OpenAI

2023-04-06 00:32:50

人工智能ChatGPT

2023-04-12 08:37:43

人工智能AI

2024-08-27 13:13:03

2023-04-18 19:04:42

2023-06-18 12:24:15

AI人工智能

2023-09-04 12:03:03

AI人工智能

2023-03-29 13:58:08

GPT-4AI 開(kāi)發(fā)

2022-11-29 14:23:08

2023-05-04 15:03:53

AI微軟

2023-12-12 17:53:27

馬斯克AIChatGPT

2023-12-13 08:46:33

人工智能ChatGPT機(jī)器人

2024-03-07 12:30:30

2022-03-09 10:12:38

自動(dòng)駕駛交通馬斯克

2010-08-12 10:44:35

李開(kāi)復(fù)

2024-12-09 14:00:00

AI生成

2022-01-23 10:53:47

星鏈互聯(lián)網(wǎng)衛(wèi)星

2024-10-21 14:50:00

AI創(chuàng)業(yè)模型

2021-05-18 10:10:01

自動(dòng)駕駛數(shù)據(jù)人工智能

2018-07-18 09:02:54

AI數(shù)據(jù)科技
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)