偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

斯坦福教授曼寧:AI巨模型訓練成本動輒幾十萬,窮博士和小公司用不起了

新聞
近幾年來,AI 模型性能越發(fā)強大,但規(guī)模也越做越大,訓練成本高居不下,小公司即使想用也往往有心無力。未來的 AI 創(chuàng)新真的只能靠巨頭了嗎?

 Glean 是一家從事搜索業(yè)務的創(chuàng)業(yè)公司,一直很想使用最新的 AI 算法來改進公司的產(chǎn)品。

  Glean 提供 Gmail、Slack 和 Salesforce 等應用程序進行搜索的工具,用于解析語言的新 AI 技術,可以幫助公司的客戶更快地發(fā)掘正確的文件或?qū)υ挕?/p>

[[430851]]

  但是訓練這樣一個尖端的人工智能算法需要花費數(shù)百萬美元。因此 Glean 使用更小、能力更弱的 AI 模型,這些模型無法從文本中提取出盡可能多的含義。

  Glean 對此也是頗為無奈。

  「對于預算較少的小企業(yè)來說,很難獲得與谷歌或亞馬遜等公司相同精度的結(jié)果,對于這些小公司而言,要想搞出最強大的人工智能模型是不可能的?!构颈硎尽?/p>

  過去十年中,AI 產(chǎn)生了一系列令人興奮的突破,目前已經(jīng)可以在復雜的游戲中擊敗人類,可以在特定條件下駕駛汽車穿過城市街道,響應口頭命令,并根據(jù)簡短的提示編寫連貫的文本。

  一方面,這些進步在很大程度上是因為算法有了更多的文本作為訓練數(shù)據(jù)。另一方面,為了消化這些數(shù)據(jù),使用了更多的芯片。

  這是要花錢的。

  以 OpenAI 的語言模型 GPT-3 為例,這是一個大型的、數(shù)學模擬的神經(jīng)網(wǎng)絡,從網(wǎng)絡上抓取大量文本進行訓練后,GPT-3 可以以驚人的連貫性預測哪些詞應該填在其他詞前后,生成流暢的文本,而且是開箱即用的。

  GPT-3 在回答問題、總結(jié)文本和糾正語法錯誤等任務上明顯優(yōu)于以前的 AI 模型。與上一代的 GPT-2 相比,性能實現(xiàn)了 1000 倍的增長。不過,據(jù)估計,訓練 GPT-3 的成本接近 500 萬美元。

  「如果 GPT-3 既方便又便宜,會大大增強我們的搜索引擎,那會非常非常強大。」

  對于希望擁抱 AI 轉(zhuǎn)型傳統(tǒng)企業(yè)來說,訓練高級 AI 的成本不斷上升也同樣是一個問題。

[[430853]]

  Dan McCreary 在健康 IT 公司 Optum 領導一個團隊,該團隊使用語言模型來分析通話記錄,識別哪些患者風險較高,哪些應該及早推薦轉(zhuǎn)診。

  他說,現(xiàn)在即使訓練一個 GPT-3 大小千分之一的語言模型,也會很快耗盡團隊的預算。他們需要的模型針對特定任務進行訓練,成本可能超過 50000 美元,這筆錢要付給云計算公司,作為租用其計算機和程序的租金。

  McCreary 表示,云計算供應商沒有理由降低成本?,F(xiàn)在他正在考慮自己購買加速人工智能訓練的專用芯片。

  現(xiàn)在,許多學術實驗室和創(chuàng)業(yè)公司可以直接下載并使用最新的理念和技術。比如在圖像處理方面取得突破的算法來自學術實驗室,使用現(xiàn)成的硬件和公開共享的數(shù)據(jù)集開發(fā)。

  然而,隨著時間的推移,越來越清楚的一點是,AI 的進步與底層計算機性能的指數(shù)級增長息息相關。

  有了算力,才有創(chuàng)新。沒有錢,就沒有算力。

[[430854]]

  現(xiàn)在,一些大企業(yè)進一步把這個趨勢推得越來越高。近日,微軟表示,它和英偉達合作,構建了一個比 GPT-3 大兩倍的語言模型。

  MLCommons 是一個跟蹤 AI 專有芯片性能變化的機構。該機構的執(zhí)行董事大衛(wèi)·坎特 (David Kanter) 表示:「未來訓練 AI 的成本絕對會繼續(xù)上升?!?/p>

  Mosaic ML 的技術可以幫助大公司將模型提升到一個新的性能水平,也可以幫助沒有深厚 AI 專業(yè)知識、也沒那么有錢的小公司利用 AI 技術。

  利用最新技術的成本不斷上升,可能會將創(chuàng)新留給最大的公司和租賃工具和算力的公司,從而減緩創(chuàng)新的步伐。

[[430855]]

  「我認為這種情況確實會阻礙創(chuàng)新?!箤iT研究人工智能和語言的斯坦福大學教授克里斯·曼寧說。

  「當只有少數(shù)幾個地方才能研究這些大模型的內(nèi)部結(jié)構時,出現(xiàn)創(chuàng)造性新成果的幾率一定會大大降低?!?/p>

  曼寧說,就在十年前,他的實驗室有足夠的計算資源來探索任何項目。「一個努力工作的博士生就可能會做出最先進的工作,而現(xiàn)在,這個窗口已經(jīng)關閉了。」

  與此同時,不斷上漲的算力成本,促使人們尋找更有效的 AI 算法訓練方式。目前已經(jīng)有數(shù)十家公司開發(fā)用于訓練和運行 AI 程序的專用計算機芯片。

[[430856]]

  所以,特斯拉設計自己的車載芯片,也許只是為了訓練自動駕駛的 AI 模型。

  Mosaic ML 是一家源自 MIT 的初創(chuàng)公司,主要開發(fā)提高機器學習訓練效率的軟件和技術。

  一種技術是對神經(jīng)網(wǎng)絡進行「修剪」,消除網(wǎng)絡結(jié)構中的低效率部分,創(chuàng)建一個功能類似、但規(guī)模小得多的網(wǎng)絡。

  早期的結(jié)果表明,這種方法應該可以將訓練 GPT-3 之類的網(wǎng)絡所需的計算機功率減少一半,從而降低開發(fā)成本。

  Mosaic ML 計劃將大部分技術開源,同時也為降低 AI 技術成本的公司提供咨詢服務。Carbin 說,未來可能會有一種這樣的產(chǎn)品,一款能夠在訓練模型的準確性、速度和成本方面實現(xiàn)權衡的工具。

  「不過目前,還沒有人真正知道如何將所有這些方法組合在一起?!顾f。

 

責任編輯:張燕妮 來源: 新智元
相關推薦

2022-05-01 15:42:30

NLP人工智能自然語言處理

2019-12-16 14:33:01

AI人工智能斯坦福

2012-09-28 11:29:35

創(chuàng)業(yè)GooglePageRank

2023-07-18 13:56:23

福坦斯

2018-12-03 09:35:26

互聯(lián)網(wǎng)

2020-10-27 15:04:14

AI 數(shù)據(jù)人工智能

2023-07-21 14:47:24

AI訓練

2017-11-28 14:18:29

2023-02-12 14:00:52

ChatGPTAI人類

2024-05-06 08:00:00

AI模型

2023-11-29 14:53:00

AI數(shù)據(jù)

2025-09-08 08:59:00

2024-09-26 00:11:01

2023-12-08 13:22:00

數(shù)據(jù)模型

2022-02-14 19:20:53

AI算法模型

2014-05-15 16:38:02

職業(yè)創(chuàng)業(yè)

2021-07-06 10:37:37

模型人工智能深度學習

2022-10-11 15:02:58

勒索軟件安全IT

2023-02-20 13:50:39

AI 領域建模大數(shù)據(jù)
點贊
收藏

51CTO技術棧公眾號