偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

LeCun、吳恩達(dá)等370多人簽聯(lián)名信:嚴(yán)格控制AI是危險的,開放才是解藥

人工智能 新聞
為了表達(dá)自己的想法,很多人以簽署聯(lián)名信的方式來傳達(dá)觀點(diǎn),就拿剛剛過去的幾天來說,Bengio、Hinton 等再發(fā)聯(lián)名信《在快速發(fā)展的時代管理人工智能風(fēng)險》,呼吁在開發(fā) AI 系統(tǒng)之前,研究者應(yīng)該采取緊急治理措施。

近幾日,關(guān)于如何監(jiān)督 AI 的討論越來越熱烈,各位大佬們意見非常不統(tǒng)一。

比如圖靈獎三巨頭 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 就出現(xiàn)了兩種觀點(diǎn)。Hinton、Bengio 為一隊(duì),他們強(qiáng)烈呼吁加強(qiáng)對 AI 的監(jiān)管,否則可能引發(fā)「AI 滅絕人類」的風(fēng)險。LeCun 與他們的觀點(diǎn)并不相同,他認(rèn)為 AI 強(qiáng)監(jiān)管必將帶來巨頭壟斷,結(jié)果是只有少數(shù)公司控制 AI 的研發(fā)。

為了表達(dá)自己的想法,很多人以簽署聯(lián)名信的方式來傳達(dá)觀點(diǎn),就拿剛剛過去的幾天來說,Bengio、Hinton 等再發(fā)聯(lián)名信《在快速發(fā)展的時代管理人工智能風(fēng)險》,呼吁在開發(fā) AI 系統(tǒng)之前,研究者應(yīng)該采取緊急治理措施。

與此同時,近日一封名為《人工智能安全和開放的聯(lián)合聲明》的公開信正在社交媒體發(fā)酵。

圖片

公開信鏈接:https://open.mozilla.org/letter/

截至目前,深度學(xué)習(xí)三巨頭之一的 LeCun、斯坦福大學(xué)計算機(jī)科學(xué)系教授吳恩達(dá)等 370 多人已經(jīng)在這封公開信上簽名。名單還在持續(xù)更新中。

LeCun 表示,「開放、透明和廣泛的訪問使軟件平臺更安全、更可靠。這封來自 Mozilla 基金會的公開信,我也簽了名,它為開放的人工智能平臺和系統(tǒng)提供了理由。」

圖片


以下為公開信內(nèi)容:

我們正處于人工智能治理的關(guān)鍵時刻。為了減輕人工智能系統(tǒng)當(dāng)前和未來的危害,我們需要擁抱開放、透明和廣泛的訪問。這需要成為全球優(yōu)先事項(xiàng)。

的確,公開可用的模型存在風(fēng)險和漏洞 —— 人工智能模型可能被惡意行為者濫用或被裝備不足的開發(fā)人員部署。然而,我們一次又一次地看到,各種專有技術(shù)都是如此 —— 增加公眾訪問和審查使技術(shù)更安全,而不是更危險。對基礎(chǔ)人工智能模型進(jìn)行嚴(yán)格和專有的控制是保護(hù)我們免受大規(guī)模傷害的唯一途徑,這種想法往好了說是天真,往壞了說就是危險。

此外,人類發(fā)展的歷史告訴我們,迅速采取錯誤的監(jiān)管可能會導(dǎo)致權(quán)力集中,從而損害競爭和創(chuàng)新。開放模型可以為公開辯論提供信息并改進(jìn)策略制定。如果我們的目標(biāo)是安全、保障和問責(zé),那么開放和透明就是實(shí)現(xiàn)這一目標(biāo)的重要因素。

我們正處于一場關(guān)于人工智能時代「開放」含義的動態(tài)討論之中。這場重要的辯論不應(yīng)該放慢腳步。相反,它應(yīng)該加快速度,鼓勵我們嘗試、學(xué)習(xí)和開發(fā)新的方法,在人工智能安全競賽中利用開放性。

我們需要為開源與開放構(gòu)建一系列方法,這些方法可以作為以下方面的基石:

1. 通過獨(dú)立研究、協(xié)作和知識共享,加速了解人工智能能力的風(fēng)險和危害。

2. 通過幫助監(jiān)管機(jī)構(gòu)采用工具來監(jiān)控大規(guī)模人工智能系統(tǒng),加強(qiáng)公眾監(jiān)督和問責(zé)。

3. 降低新玩家的進(jìn)入門檻,專注于創(chuàng)建負(fù)責(zé)任的人工智能。

作為這封公開信的簽署人,我們是一個多元化的群體,包括科學(xué)家、策略制定者、工程師、活動家、企業(yè)家、教育工作者和記者等等。我們代表關(guān)于如何管理和發(fā)布開源人工智能的不同觀點(diǎn)。然而,我們強(qiáng)烈同意一件事:開放、負(fù)責(zé)任和透明的方法對于確保我們在人工智能時代的安全至關(guān)重要。

在人工智能安全方面,開放是解藥,而不是毒藥。

簽名者:

  • Arthur Mensch,法國初創(chuàng)公司 MistralAI 聯(lián)合創(chuàng)始人兼首席執(zhí)行官
  • 吳恩達(dá),DeepLearning.AI 創(chuàng)始人,Landing AI 創(chuàng)始人兼首席執(zhí)行官,斯坦福大學(xué)計算機(jī)科學(xué)系教授
  • Yann Lecun,圖靈獎得主,Meta 首席 AI 科學(xué)家
  • Julien Chaumond,Hugging Face CTO
  • Brian Behlendorf,Apache 創(chuàng)始成員,OpenSSF 首席技術(shù)官
  • Eric Von Hippel,美國經(jīng)濟(jì)學(xué)家,MIT 斯隆管理學(xué)院教授
  • ……

目前,這封僅僅出現(xiàn)數(shù)天的公開信在持續(xù)發(fā)酵,在國外 AI 社區(qū)已經(jīng)引起了極大的關(guān)注與討論,大家可以持續(xù)關(guān)注名單更新。

如果你同意這封聯(lián)名信的觀點(diǎn),也可以提交自己的信息簽名。

對 AI 進(jìn)行強(qiáng)監(jiān)管,到底是弊大于利,還是利大于弊,還需要時間給出答案。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2023-11-02 13:40:45

AI智能

2023-10-25 12:44:47

2013-06-19 14:49:10

Google眼鏡谷歌眼鏡隱私保護(hù)

2023-05-31 15:59:40

AI預(yù)警

2024-09-30 13:30:00

2020-12-18 09:51:33

Google AI技術(shù)

2012-05-11 09:50:34

2022-02-13 17:27:59

吳恩達(dá)AI小數(shù)據(jù)

2023-10-31 12:53:33

2023-06-12 15:28:40

2023-06-05 09:58:52

AI無人機(jī)

2022-12-29 13:32:05

AI發(fā)展

2024-08-19 07:30:00

AI模型

2023-03-30 13:47:11

AI

2011-07-18 16:03:33

黑客簽名

2018-12-14 10:35:54

AI數(shù)據(jù)科技

2020-12-25 15:34:35

AI 數(shù)據(jù)人工智能

2024-04-26 12:37:57

AI訓(xùn)練

2024-06-14 10:19:03

2021-06-23 06:31:05

AI人工智能
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號