偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

李飛飛吳恩達(dá)等2024年AI十大預(yù)測(cè)!GPU短缺,AI智能體一年內(nèi)大爆發(fā)

人工智能 新聞
2023這個(gè)大模型爆發(fā)的元年即將過(guò)去,展望未來(lái),比爾蓋茨,李飛飛,吳恩達(dá)等人對(duì)2024年人工智能的發(fā)展作出了自己的預(yù)測(cè)。

2023,可以說(shuō)是人工智能的春天。

在過(guò)去的一年里,ChatGPT成為家喻戶曉的名字,

這一年中,AI和AI公司的各種變革,讓我們震驚,也成為我們茶余飯后的瓜果。

這一年中,生成式AI取得了重大進(jìn)展,使得人工智能初創(chuàng)公司吸引了大量資金。

人工智能領(lǐng)域的大佬們開(kāi)始討論AGI的可能性,政策制定者開(kāi)始認(rèn)真對(duì)待人工智能監(jiān)管。

但在人工智能和科技行業(yè)們的領(lǐng)袖眼中,AI浪潮可能才剛剛起步。之后的每一年,可能都是浪潮最洶涌澎湃的一年。

比爾蓋茨,李飛飛,吳恩達(dá)等人,都在最近對(duì)未來(lái)AI的發(fā)展趨勢(shì)談了自己的看法。

他們都不約而同地談到了期待更大的多模態(tài)模型、更令人興奮的新功能,以及圍繞我們?nèi)绾问褂煤捅O(jiān)管這項(xiàng)技術(shù)的更多對(duì)話。

比爾蓋茨:2個(gè)預(yù)測(cè),1個(gè)經(jīng)驗(yàn),6個(gè)問(wèn)題

比爾蓋茨在自己的官方博客上發(fā)表了一篇萬(wàn)字長(zhǎng)文,將他眼里的2023年描繪成了一個(gè)新時(shí)代的全新開(kāi)端。

文章地址:https://www.gatesnotes.com/The-Year-Ahead-2024?WT.mc_id=20231218210000_TYA-2024_MED-ST_&WT.tsrc=MEDST#ALChapter2

這篇博客依然還是從他在蓋茨基金會(huì)的工作為切入,談到了世界范圍內(nèi)已經(jīng)出現(xiàn)或者將會(huì)出現(xiàn)哪些影響深遠(yuǎn)的變化。

針對(duì)AI技術(shù)的發(fā)展,他說(shuō):

如果我必須做出預(yù)測(cè),那在像美國(guó)這樣的高收入國(guó)家,我猜我們距離普通大眾廣泛地使用人工智能還有18到24個(gè)月的時(shí)間。

在非洲國(guó)家,我預(yù)計(jì)在三年左右的時(shí)間里會(huì)看到類似的使用水平。這其中仍然存在差距,但它比我們?cè)谄渌麆?chuàng)新中看到的滯后時(shí)間要短得多。

比爾蓋茨認(rèn)為,AI作為目前地球范圍內(nèi)影響最深遠(yuǎn)地創(chuàng)新技術(shù),將會(huì)在3年內(nèi)徹底席卷全球。

蓋茨在博文中表示,2023年是他第一次在工作中出于「嚴(yán)肅的原因」使用人工智能。

與前幾年相比,世界對(duì)AI能夠自己完成哪些工作以及「充當(dāng)哪些工作的輔助工具」有了更好的認(rèn)識(shí)。

但對(duì)于大部分人來(lái)說(shuō),要讓AI在工作場(chǎng)景中充分發(fā)揮作用還有一定距離。

基于他自己獲得的數(shù)據(jù)和觀察體驗(yàn),他表示行業(yè)應(yīng)該吸取的一個(gè)最重要的教訓(xùn)是:產(chǎn)品必須適合使用它的人。

他舉了一個(gè)簡(jiǎn)單的例子,巴基斯坦人通?;ハ喟l(fā)送語(yǔ)音留言,而不是發(fā)送短信或電子郵件。因此,創(chuàng)建一個(gè)依賴語(yǔ)音命令而不是輸入長(zhǎng)查詢的應(yīng)用程序是有意義的。

從他本人最關(guān)心的角度,蓋茨提出了5個(gè)問(wèn)題,希望工智能可以在相關(guān)領(lǐng)域發(fā)揮巨大作用:

-人工智能可以對(duì)抗抗生素耐藥性嗎?

-人工智能能否為每個(gè)學(xué)生創(chuàng)造出個(gè)性化的導(dǎo)師?

-人工智能可以幫助治療高危妊娠嗎?

-人工智能可以幫助人們?cè)u(píng)估感染艾滋的風(fēng)險(xiǎn)嗎?

-人工智能能否讓每個(gè)醫(yī)務(wù)工作者更輕松地獲取醫(yī)療信息?

如果我們現(xiàn)在做出明智的投資,人工智能可以讓世界變得更加公平。它可以減少甚至消除富裕世界獲得創(chuàng)新與貧窮世界獲得創(chuàng)新之間的滯后時(shí)間。

吳恩達(dá):LLM可以理解世界,不會(huì)監(jiān)管AI不如不管

吳恩達(dá)最近在接受金融時(shí)報(bào)采訪時(shí)表示,人工智能末日論非常荒謬,AI監(jiān)管將會(huì)阻礙AI技術(shù)本身的發(fā)展。

在他看來(lái),目前人工智能的相關(guān)監(jiān)管措施對(duì)防止某些問(wèn)題產(chǎn)生幾乎沒(méi)有任何效果。這樣無(wú)效的監(jiān)管除了會(huì)阻礙技術(shù)的進(jìn)步,不會(huì)有任何正面的受益。

所以在他看來(lái),與其做低質(zhì)量的監(jiān)管,不如不要監(jiān)管。

他舉了最近美國(guó)政府讓大科技公司自我承諾對(duì)AI生成內(nèi)容自行添加「水印」,來(lái)應(yīng)對(duì)虛假信息等問(wèn)題為例。

在他看來(lái),自從白宮自愿承諾以來(lái),一些公司反而不再對(duì)文本內(nèi)容加水印。因此,他認(rèn)為自愿承諾方法作為一種監(jiān)管方法是失敗的。

而另一方面,如果監(jiān)管機(jī)構(gòu)將這種無(wú)效的監(jiān)管移植到諸如「監(jiān)管開(kāi)源AI」等問(wèn)題上,很有可能會(huì)完全扼殺開(kāi)源的發(fā)展并且造成大型科技公司的壟斷。

那如果AI獲得的監(jiān)管水平是目前的樣子,那確實(shí)沒(méi)有監(jiān)管的意義。

吳恩達(dá)重申,實(shí)際上,他希望政府能夠親自動(dòng)手并制定良好的監(jiān)管規(guī)定,而不是現(xiàn)在看到的糟糕的監(jiān)管提案。所以他并不主張放手不管。但在糟糕的監(jiān)管和沒(méi)有監(jiān)管之間,他寧愿沒(méi)有監(jiān)管。

吳恩達(dá)還在訪談中談到,現(xiàn)在LLM已經(jīng)了具備了世界模型的雛形。

「我所看到的科學(xué)證據(jù)來(lái)看,人工智能模型確實(shí)可以構(gòu)建世界模型。因此,如果人工智能有一個(gè)世界模型,那么我傾向于相信它確實(shí)理解世界。但這是我自己對(duì)理解一詞含義的理解。

如果你有一個(gè)世界模型,那么你就會(huì)了解世界如何運(yùn)作,并可以預(yù)測(cè)它在不同場(chǎng)景下如何演變。有科學(xué)證據(jù)表明,LLM在接受大量數(shù)據(jù)訓(xùn)練后,確實(shí)可以建立一個(gè)世界模型。」

李飛飛攜手斯坦福HAI發(fā)布七大預(yù)測(cè)

知識(shí)工作者的挑戰(zhàn)

斯坦福數(shù)字經(jīng)濟(jì)實(shí)驗(yàn)室主任Erik Brynjolfsson等人預(yù)計(jì),人工智能公司將能夠提供真正影響生產(chǎn)力的產(chǎn)品。

而知識(shí)工作者將受到前所未有的影響,比如創(chuàng)意工作者、律師、金融學(xué)教授的工作將發(fā)生很大變化。

在過(guò)去的30年中,這些人基本沒(méi)有受到計(jì)算機(jī)革命的影響。

我們應(yīng)該接受人工智能帶來(lái)的改變,讓我們的工作變得更好,讓我們能做以前做不到的新事情。

虛假信息擴(kuò)散

斯坦福大學(xué)工程學(xué)院教授James Landay等人認(rèn)為,我們將看到新的大型多模態(tài)模型,特別是在視頻生成方面。

所以我們還必須對(duì)嚴(yán)重的深度偽造更加警惕,

作為消費(fèi)者需要意識(shí)到這一點(diǎn),作為民眾也需要意識(shí)到這一點(diǎn)。

我們將看到OpenAI等公司和更多的初創(chuàng)公司,發(fā)布下一個(gè)更大的模型。

我們?nèi)匀粫?huì)看到很多關(guān)于「這是AGI嗎?什么是AGI?」的討論,——但我們不必?fù)?dān)心人工智能會(huì)接管世界,這都是炒作。

我們真正應(yīng)該擔(dān)心的是現(xiàn)在正在發(fā)生的危害——虛假信息和深度偽造。

GPU短缺

斯坦福大學(xué)教授Russ Altman等人對(duì)于全球性的GPU短缺表示擔(dān)心。

大公司們都在嘗試將AI功能引入內(nèi)部,而英偉達(dá)等GPU制造商已經(jīng)滿負(fù)荷運(yùn)轉(zhuǎn)。

GPU,或者說(shuō)AI的算力,代表了新的時(shí)代的競(jìng)爭(zhēng)力,對(duì)于公司甚至是國(guó)家來(lái)說(shuō)都是如此。

對(duì)于GPU的爭(zhēng)奪也會(huì)給創(chuàng)新者帶來(lái)巨大的壓力,他們需要提出更便宜、更易于制造和使用的硬件解決方案。

斯坦福大學(xué)和許多其他科研機(jī)構(gòu),都在研究當(dāng)前GPU的低功耗替代方案。

想要達(dá)到大規(guī)模商用,這項(xiàng)工作還有很長(zhǎng)的路要走,但為了實(shí)現(xiàn)人工智能技術(shù)的民主化,我們必須繼續(xù)前進(jìn)。

更有用的代理

斯坦福大學(xué)杰出教育研究員Peter Norvig認(rèn)為,未來(lái)的一年代理(Agent)將會(huì)興起,AI將能夠連接到其他服務(wù),并解決實(shí)際的問(wèn)題。

2023年是能夠與AI聊天的一年,人們與AI的關(guān)系只是通過(guò)輸入和輸出來(lái)進(jìn)行的互動(dòng)。

而到了2024年,我們將看到代理為人類完成工作的能力,——進(jìn)行預(yù)訂、計(jì)劃旅行等等。

此外,我們將朝著多媒體邁進(jìn)。

到目前為止,人們已經(jīng)非常關(guān)注語(yǔ)言模型,然后是圖像模型。之后,我們也將有足夠的處理能力來(lái)發(fā)展視頻模型,——這將非常有趣。

我們現(xiàn)在正在訓(xùn)練的東西都是非常有目的性的,——人們?cè)陧?yè)面和段落中寫(xiě)下自己認(rèn)為有趣和重要的事情;人們利用相機(jī)紀(jì)錄某些正在發(fā)生的事。

但是對(duì)于視頻來(lái)說(shuō),有些攝像機(jī)可以24小時(shí)運(yùn)行,它們捕捉發(fā)生的事情,沒(méi)有任何過(guò)濾,沒(méi)有任何目的性的篩選。

——人工智能模型以前沒(méi)有這種數(shù)據(jù),這將使模型對(duì)一切有更好的理解。

對(duì)監(jiān)管的希望

斯坦福大學(xué)HAI聯(lián)合主任李飛飛表示,2024年,人工智能政策將值得關(guān)注。

我們的政策應(yīng)該保障學(xué)生和研究人員能夠獲得AI資源、數(shù)據(jù)和工具,以此來(lái)提供更多人工智能開(kāi)發(fā)的機(jī)會(huì)。

圖片圖片

另外,我們需要安全、可靠和可信賴地開(kāi)發(fā)和使用人工智能,

所以,政策除了要致力于培養(yǎng)充滿活力的人工智能生態(tài)系統(tǒng),還應(yīng)致力于利用和管理人工智能技術(shù)。

我們需要相關(guān)的立法和行政命令,相關(guān)的公共部門也應(yīng)該獲得更多投資。

提出問(wèn)題,給出對(duì)策

斯坦福大學(xué)HAI高級(jí)研究員Ge Wang希望,我們將有足夠的資金來(lái)研究,生活、社區(qū)、教育和社會(huì)能夠從人工智能中得到什么。

越來(lái)越多的這種生成式人工智能技術(shù)將嵌入到我們的工作、娛樂(lè)和交流中。

我們需要給自己留出時(shí)間和空間,來(lái)思考什么是允許的,以及我們應(yīng)該在哪些方面做出限制。

早在今年2月,學(xué)術(shù)期刊出版商Springer Publishing就發(fā)表了一份聲明,表示可以在起草文章時(shí)使用大型語(yǔ)言模型,但不允許在任何出版物上作為合著者。他們引用的理由是問(wèn)責(zé)制,這一點(diǎn)非常重要。

——認(rèn)真地把一些東西擺在那里,闡述理由是什么,并表示這就是現(xiàn)在的理解方式,將來(lái)可能會(huì)在政策中加入更多改進(jìn)。

機(jī)構(gòu)和組織必須有這樣的視角,并努力在2024年落實(shí)在紙上。

公司將面臨復(fù)雜的法規(guī)

斯坦福大學(xué) HAI 隱私和數(shù)據(jù)政策研究員Jennifer King表示,除了今年歐盟的《人工智能法案》,到2024年年中,加利福尼亞州和科羅拉多州將通過(guò)法規(guī),解決消費(fèi)者隱私背景下的自動(dòng)決策問(wèn)題。

雖然這些法規(guī)僅限于,對(duì)個(gè)人個(gè)人信息進(jìn)行訓(xùn)練或收集的人工智能系統(tǒng),但兩者都為消費(fèi)者提供了選擇,即是否允許某些系統(tǒng)使用AI以及個(gè)人信息。

公司將不得不開(kāi)始思考,當(dāng)客戶行使他們的權(quán)利時(shí)(特別是集體行使權(quán)利時(shí)),將意味著什么。

比如一家使用人工智能來(lái)協(xié)助招聘流程的大公司,如果數(shù)百名應(yīng)聘者都拒絕使用AI,那要怎么辦?必須人工審查這些簡(jiǎn)歷嗎?這又有什么不同?人類能夠做的更好嗎?——我們才剛剛開(kāi)始解決這些問(wèn)題。

責(zé)任編輯:張燕妮 來(lái)源: 新智元
相關(guān)推薦

2024-01-22 12:31:18

模型訓(xùn)練

2024-10-30 16:30:17

2024-01-02 13:17:00

模型訓(xùn)練

2024-12-31 14:58:37

2022-12-30 12:11:33

2024-01-23 10:31:49

人工智能深度學(xué)習(xí)

2024-08-22 12:42:31

2023-12-21 16:19:47

人工智能

2023-11-03 15:19:03

人工智能

2023-12-29 00:11:35

AI架構(gòu)OpenAI

2024-09-30 13:30:00

2023-11-29 15:01:40

2009-01-13 17:42:31

2023-12-28 13:44:15

網(wǎng)絡(luò)技術(shù)人工智能

2017-03-01 20:24:54

2010-12-31 09:59:38

2024-08-13 15:11:57

2020-06-02 08:11:48

人工智能AI

2022-08-11 12:07:41

人工智能AI

2021-01-05 23:06:59

人工智能機(jī)器人人臉識(shí)別
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)