偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

機(jī)器學(xué)習(xí)確實(shí)還沒商品化,也不必需博士學(xué)位

企業(yè)動態(tài)
機(jī)器學(xué)習(xí)依然奇貨可居,但不是只有博士才能玩得轉(zhuǎn)。

上周,我收到了兩個前提截然相反的問題:其中一個是興奮地認(rèn)為機(jī)器學(xué)習(xí)目前已經(jīng)自動化了,而另一個則擔(dān)心學(xué)習(xí)機(jī)器學(xué)習(xí)會花掉多年的時間,以下是這兩個問題的原話:

問題 1:我聽說,谷歌云宣稱,企業(yè)家能輕易且快速的基于機(jī)器學(xué)習(xí)/自然語言處理的 API 開發(fā)自己的程序。如果這是真的:「那么,機(jī)器學(xué)習(xí)和數(shù)據(jù)未來已經(jīng)到來,谷歌已經(jīng)找到了解決自然語言處理和語音提升問題的辦法,用他們的 API 就可以輕松享受這一紅利。既然秘訣已經(jīng)被商業(yè)化,你也可以利用這一秘訣。問題是,秘訣到來的時間是否會越來越短呢?

問題 2:為了在機(jī)器學(xué)習(xí)領(lǐng)域工作,你需要一個該領(lǐng)域的 PhD,這事真的嗎?還有就是在學(xué)習(xí)機(jī)器學(xué)習(xí)之前,是不是一定要先修微積分、線性代數(shù)、概率論/統(tǒng)計學(xué)這些乏味的全套大學(xué)數(shù)學(xué)課程,然后再學(xué) C/C++和并行分布式編程(CUDA、MPI、OpenMP 等等)。Hacker News 一個評分最高的評論說,即便你把這些內(nèi)容學(xué)了個遍,還是得從頭開始應(yīng)用機(jī)器學(xué)習(xí)算法,先是 C,接下來是 MPI 或 CUDA,然后是 Numpy,然后你才能學(xué)會在 Theano 或者 TensorFlow 上應(yīng)用它們。

回答:很多人在人工智能熱,以及諸如「人工智能是那些天才們的專屬工具」的警告中昏了頭,完全可以理解啊。對于記者來說,人工智能是個很難報道的領(lǐng)域,而且遺憾的是,被歪曲的事實(shí)隨處可見。比如,最近有一篇文章 Stop saying DeepCoder steals code from StackOverflow 就研究了 DeepCoder 是如何被媒體誤解的。

我對以上兩個問題的回答是:不,兩個問題似乎截然不同,但它們有一個共同的思路:很多在機(jī)器學(xué)習(xí)領(lǐng)域工作的人都對以下兩點(diǎn)之一感興趣:

1. 說服你購買他們的多用途機(jī)器學(xué)習(xí) API。

2. 讓你相信他們做得事情非常復(fù)雜、困難以及門檻很高,一般人很難理解。(這個常見的話題,最近 reddit 上一篇戲謔它的文章被頂?shù)搅藱C(jī)器學(xué)習(xí)頁首。)

的確,機(jī)器學(xué)習(xí)的進(jìn)步非常迅速,但就目前而言,你只需要能通過有效編程,使用到這項技術(shù)。

[[186761]]

為何「機(jī)器學(xué)習(xí)即服務(wù)」(Machine Learning As A Service,MLaaS)在實(shí)踐中令人失望?

擁有一款通用機(jī)器學(xué)習(xí) API 看起來是一個好點(diǎn)子,但是,事實(shí)上我們的技術(shù)目前還達(dá)不到。現(xiàn)有的 API 都太過局限而無法推廣,有些 API 試圖變得非常通用,但其實(shí)際效果非常差。Bradford Cross(他是 Flightcaster 與 Prismatic 的創(chuàng)始人,Data Collective VC 合伙人)寫了篇文章,分析了最近很多人工智能公司嘗試打造用戶需要且愿意付錢使用的產(chǎn)品,但都失敗的原因,他寫道:「有觀點(diǎn)認(rèn)為,現(xiàn)在,那些從事或者圍繞人工智能工作的人要負(fù)責(zé)引導(dǎo)人類進(jìn)步,因?yàn)樗麄冊趶氖轮匾墓ぷ?。這種態(tài)度就是這些失敗的罪魁禍?zhǔn)住_@種自大的觀點(diǎn)讓大家看不到這一事:他們正困在一間回音室里,屋子里所有人都在討論技術(shù)趨勢而不是客戶需要和經(jīng)濟(jì)賬?!?/p>

Cross 繼續(xù)寫道「機(jī)器學(xué)習(xí)即服務(wù)(MLaaS)是一個我們關(guān)注了近 10 年的想法,但是一直以來,它并不被看好。它之所以沒有實(shí)現(xiàn),根本原因在于,懂行的人只使用開源,而那些不懂行的根本無法做任何事情,有了 API 也不行。很多非常聰明的朋友都落入了這個陷阱。

大公司為了壯大自己的機(jī)器學(xué)習(xí)團(tuán)隊,收購了很多公司,其中就有被 IBM 收購的 Alchemy API,被 Intel 收購的 Saffron 以及被 Salesforce 收購的 Metamind。API 功能背后的機(jī)器學(xué)習(xí)模式賺錢輕松又快,這一點(diǎn)繼續(xù)引誘著那些無助的人。亞馬遜、谷歌和微軟都嘗試出售 MLaaS 層,將此作為自己云戰(zhàn)略一部分。我還沒見過在自然場景下(in the wild)使用這些接口的創(chuàng)業(yè)公司或者大公司,倒是看到很多人在這一場景下使用人工智能技術(shù),或許是因?yàn)槲矣^察不足吧。」

谷歌云會是解決問題的答案嗎?

谷歌并非定位幫助實(shí)現(xiàn)深度學(xué)習(xí)的民主化。不是因?yàn)楣疽鈭D叵測,而是因?yàn)樗麄冇刑喾?wù)器、太多錢和太多數(shù)據(jù)了,根本不用擔(dān)心世界上大多數(shù)人和公司面臨的問題——如何充分利用有限的 GPU 、有限的數(shù)據(jù)集和有限的預(yù)算。AWS 可是很貴的!谷歌大腦技術(shù)過于高級,不是普通程序員能染指的。

例如,TensorFlow 是一門低層面的語言,但是,在發(fā)布和推廣它的時候,谷歌似乎沒有注意到這一點(diǎn)。TensorFlow 的設(shè)計者本可以使用一種更加標(biāo)準(zhǔn)的面向?qū)ο蟮姆椒?如 PyTorch 就非常好),但是,他們沒有,而是沿襲了谷歌的優(yōu)良傳統(tǒng):發(fā)明一種僅適合谷歌的新慣例。

所以,如果谷歌甚至不能設(shè)計一個熟練數(shù)據(jù)科學(xué)家容易上手的庫,怎么可能創(chuàng)造出普通人可用來解決真實(shí)問題的東西呢?

Hacker News 的計劃:「普通 C 實(shí)現(xiàn)算法,然后 CUDA,最后用普通的 Numpy/MATLAB?!?/strong>

為什么 Hacker News 通常會給出這么糟糕的機(jī)器學(xué)習(xí)建議?盡管機(jī)器學(xué)習(xí)背后的理論需要大量高等數(shù)學(xué)知識,但是,這和實(shí)踐中使用機(jī)器學(xué)習(xí)所需的實(shí)用知識還是非常不同的。作為一個數(shù)學(xué)博士,我知道,較之打造一個實(shí)際有用的模型,那些數(shù)學(xué)知識沒預(yù)期中的那么有用。

其中暴露出的思路是有害的,原因如下:

  • 完全錯誤。
  • 好的教育會促進(jìn)重要概念的研究。借用 Paul Lockhart 在 Mathematician's Lament 里的一個類比,如果先讓孩子學(xué)習(xí)幾年音樂理論,再讓孩子碰樂器或者唱首歌,孩子會放棄音樂。
  • 好的教育不會過度復(fù)雜化材料。如果你真理解一樣?xùn)|西,就可以用一種通俗易懂的方式來解釋它。數(shù)周的 Practical Deep Learning for Coders 課程學(xué)習(xí),Jermy Howard 僅用 Excel 表格就清楚解釋了不同現(xiàn)代優(yōu)化技術(shù)(這常常被視為一個復(fù)雜的話題)的運(yùn)行原理。

就像我在幾個月前寫道的,挑一位你所在組織里的業(yè)內(nèi)專家,讓他們學(xué)習(xí)深度學(xué)習(xí)技術(shù)要比空降一位深度學(xué)習(xí)專家要好得多。深度學(xué)習(xí)博士畢業(yè)生不太可能具備大量廣泛相關(guān)經(jīng)驗(yàn)(而這些又是那些最高效員工身上最珍貴的東西),他們更有可能對解決有趣的工程問題而不是聚焦于那些商業(yè)上最重要的問題。

「以我們在很多產(chǎn)業(yè)和多年來將機(jī)器學(xué)習(xí)應(yīng)用于一系列問題的經(jīng)驗(yàn)看,一直會有不被看好和有好技術(shù)卻不被投資的公司出現(xiàn)。在大數(shù)據(jù)時代,這意味著公司得把錢花在外面找咨詢顧問。在錯誤的『深度學(xué)習(xí)排他性』這種觀念傳播的日子里,這意味著搜索那些獨(dú)角獸深度學(xué)習(xí)專家意味著不景氣的深度學(xué)習(xí)創(chuàng)業(yè)公司要為此支付過高的成本?!?/p>

破除夸張宣傳(當(dāng)你不是機(jī)器學(xué)習(xí)研究者時)

計算語言學(xué)家 Dan Simonson 受邀寫了一本答疑指南。其中評價了 NLP、機(jī)器學(xué)習(xí)和人工智能并且指明了鑒別虛假信息的辦法(http://blog.thedansimonson.com/?p=461):

  • 是否存在訓(xùn)練數(shù)據(jù)?如果不是,我們怎么計劃來得到它們?
  • 他們是否有一個內(nèi)置于自身應(yīng)用開發(fā)過程中的評價機(jī)制?
  • 他們提出的應(yīng)用是否依賴于在特定人工智能組分上的前所未有的好表現(xiàn)?
  • 提出的解決方案是否是基于證實(shí)的、可靠的現(xiàn)象?
  • 如果使用了預(yù)裝人工智能部件,他們是否有從使用這些部件到獲得有意義的應(yīng)用輸出的明確計劃?

作為一個 NLP 研究者,Simonson 對現(xiàn)在人工智能的發(fā)展非常興奮,但是他指出當(dāng)人們利用從業(yè)者和公眾之間的知識斷層時,整個領(lǐng)域就受到了傷害,

深度學(xué)習(xí)研究者 Stephen Merity(就職于 Salesforce/Metamind)寫了一篇題目貼切的文章《機(jī)器學(xué)習(xí)不是魔法:幫助降低人工智能炒作而應(yīng)該被提出的問題》(https://smerity.com/articles/2016/ml_not_magic.html),其中包括:

  • 需要多少訓(xùn)練數(shù)據(jù)?
  • 這項工作是否是無監(jiān)督式(即不給樣本進(jìn)行標(biāo)記)的?
  • 系統(tǒng)能否根據(jù)詞匯類別進(jìn)行預(yù)測。(例如:想象一下,如果我說「我的朋友 Rudinyard 曾經(jīng)對我很刻薄」,很多人工智能系統(tǒng)根本不能回答「誰對你刻薄」這個問題,因?yàn)?Rudinyard 不是該系統(tǒng)收入的詞匯。)
  • 當(dāng)輸入的故事變得更長時,精確性降低了多少?
  • 在整個時段中模型的表現(xiàn)有多穩(wěn)定?

Merity 也提示道,模型經(jīng)?;诒桓叨忍幚?、規(guī)劃了的或受限的數(shù)據(jù)集被評估,而這些數(shù)據(jù)集不能精確地反應(yīng)你正在處理的真實(shí)數(shù)據(jù)。

原文:http://www.fast.ai/2017/03/17/not-commoditized-no-phd/

【本文是51CTO專欄機(jī)構(gòu)機(jī)器之心的原創(chuàng)譯文,微信公眾號“機(jī)器之心( id: almosthuman2014)”】

戳這里,看該作者更多好文

責(zé)任編輯:趙寧寧 來源: 51CTO專欄
相關(guān)推薦

2009-06-14 08:51:11

蓋茨夫婦劍橋大學(xué)博士學(xué)位

2021-07-06 14:32:54

機(jī)器學(xué)習(xí)人工智能計算機(jī)

2025-06-16 07:50:00

OpenAI大模型ChatGPT

2023-05-04 10:48:35

ChatGPT軟件研發(fā)

2023-11-09 13:23:31

室溫超導(dǎo)LK-99

2021-03-31 13:25:01

機(jī)器學(xué)習(xí)人工智能計算機(jī)

2020-11-02 16:36:03

機(jī)器學(xué)習(xí)人工智能計算機(jī)

2025-01-02 07:05:00

2019-03-25 21:18:41

數(shù)據(jù)科學(xué)家大數(shù)據(jù)技能

2022-01-04 05:51:03

C++Python開發(fā)

2019-03-07 14:06:55

微軟職業(yè)機(jī)器人

2019-12-31 09:39:41

機(jī)器學(xué)習(xí)人工智能計算機(jī)

2020-12-17 15:11:51

數(shù)據(jù)科學(xué)家開發(fā)Python

2020-05-06 13:08:07

GitHub前端工程師

2021-08-13 11:49:44

NVIDIA

2011-06-01 16:24:39

2022-02-16 10:07:26

谷歌計算機(jī)離職

2020-07-21 15:18:34

編程語言C語言Java

2020-07-14 14:03:53

AI 數(shù)據(jù)人工智能

2009-07-22 09:42:33

印度研發(fā)人員微軟Bing
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號