偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

更簡(jiǎn)單、更快捷:探討深度學(xué)習(xí)的未來(lái)發(fā)展步伐

譯文
網(wǎng)絡(luò)
快速推進(jìn)的軟件框架,專用硅,星火集成和更高層次的API的目標(biāo),使深度學(xué)習(xí)觸手可及。

【51CTO.com快譯】機(jī)器學(xué)習(xí)是一門多領(lǐng)域交叉學(xué)科,專門研究計(jì)算機(jī)怎樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,以獲取新的知識(shí)或技能,重新組織已有的知識(shí)結(jié)構(gòu)使之不斷改善自身的性能。它是人工智能的核心,是使計(jì)算機(jī)具有智能的根本途徑。

如果論及哪一個(gè)機(jī)器學(xué)習(xí)的領(lǐng)域最為熱門,非人工智能莫屬,這就是深度學(xué)習(xí)。深度學(xué)習(xí)框架又名深度神經(jīng)網(wǎng)絡(luò),一個(gè)復(fù)雜的模式識(shí)別系統(tǒng),可以實(shí)現(xiàn)從自動(dòng)語(yǔ)言翻譯到圖像識(shí)別的功能。
 

[[193565]]


深度學(xué)習(xí)需要收集大量的數(shù)據(jù),并且擁有處理這些數(shù)據(jù)的能力,做到這些并非易事,但深度學(xué)習(xí)技術(shù)正在蓬勃發(fā)展的道路上,并且已經(jīng)突破了很多障礙。深度學(xué)習(xí)對(duì)于分析非結(jié)構(gòu)化數(shù)據(jù)具有非常大的優(yōu)勢(shì)。

各大軟件巨頭們也在醞釀一場(chǎng)深度學(xué)習(xí)技術(shù)的爭(zhēng)霸戰(zhàn),比如谷歌的TensorFlow項(xiàng)目與百度的paddle。多個(gè)軟件框架之間的競(jìng)爭(zhēng)蓄勢(shì)待發(fā)。軟件和硬件間的戰(zhàn)爭(zhēng)開始了。有預(yù)言稱,專門的硬件設(shè)計(jì)模型和服務(wù)會(huì)是深度學(xué)習(xí)的下一個(gè)大的進(jìn)步,或許有更好、更智能、更高效的算法,無(wú)需硬件的輔助就可以把功能服務(wù)推向更多人。問題也由此產(chǎn)生,我們中的大多數(shù)人都能逐漸理解和接受深度學(xué)習(xí)技術(shù)嗎?還是我們一直需要計(jì)算機(jī)博士們來(lái)把握這項(xiàng)技術(shù)工作?

微軟比谷歌更緊張

一項(xiàng)重要技術(shù)展示給世界的好辦法,就是引起技術(shù)巨頭公司們的興趣。像過去的NoSQL、Hadoop和Spark。在深度學(xué)習(xí)框架領(lǐng)域,谷歌的TensorFlow已經(jīng)發(fā)展得十分可觀,而谷歌云和谷歌專有硬件的研發(fā)也緊隨其后。

作為競(jìng)爭(zhēng)對(duì)手,微軟反擊谷歌的殺手锏是認(rèn)知工具包,也叫CNTK。CNTK2.0版在多個(gè)層面挑戰(zhàn)TensorFlow。CNTK現(xiàn)在提供JavaAPI,可接受Spark處理框架,同時(shí)支持Keras神經(jīng)網(wǎng)絡(luò)圖書館代碼,這實(shí)際上就是TensorFlow的前端。這樣一來(lái),Keras的用戶就可以避開谷歌的解決方案而轉(zhuǎn)向微軟。

對(duì)于谷歌TensorFlow,微軟最直接、最有意義的應(yīng)對(duì)方法是讓CNTK更快速和準(zhǔn)確,并且使PythonAPI提供高級(jí)別和低級(jí)別的功能。這是微軟想出來(lái)的***應(yīng)對(duì)策略。
當(dāng)然,所謂的快速和準(zhǔn)確并不是吹牛,如果微軟的系統(tǒng)比TensorFlow更快,那便意味著人們有更多的選擇而不只是去砸硬件設(shè)備。比如,

Tensorflow通過谷歌的定制TPU處理器進(jìn)行硬件加速,那就意味著第三方項(xiàng)目,TensorFlow和CNTK的接口,就像Spark一樣,都能得到加速。承蒙雅虎的牽線,TensorFlow和Spark已經(jīng)協(xié)同工作,但是如果CNTK和Spark提供更少的工作和更高的報(bào)酬,CNTK就成為了Spark所在領(lǐng)域中最為誘人的選擇。

硬件:Graphcore和波計(jì)算

谷歌TPU的一個(gè)缺點(diǎn)是,他們只在谷歌云中有效。對(duì)于那些已經(jīng)投資了GCP的人來(lái)說(shuō),這可能不是個(gè)問題,但是對(duì)于大多數(shù)人,這是一個(gè)潛在的"阻斷劑"。為深入學(xué)習(xí)專用硅,如NVIDIA的GPU需要的附加條件較少。

幾家公司最近推出了專門的硅優(yōu)于GPU深度學(xué)習(xí)的應(yīng)用。啟動(dòng)Graphcore深度學(xué)習(xí)處理器,專門的硅片設(shè)計(jì)過程中采用神經(jīng)網(wǎng)絡(luò)的圖形數(shù)據(jù)。該公司稱面臨的挑戰(zhàn)是創(chuàng)建硬件優(yōu)化,以運(yùn)行循環(huán)或相互連接的網(wǎng)絡(luò)和其他網(wǎng)絡(luò)。

一種Graphcore加速的方法是保持網(wǎng)絡(luò)模型盡可能接近硅,避免對(duì)外部存儲(chǔ)器的往返訪問。盡可能的避免數(shù)據(jù)運(yùn)動(dòng)是加快機(jī)器學(xué)習(xí)的一種常用方法,但Graphcore以這種方式到達(dá)另一個(gè)層次。

波計(jì)算是深度學(xué)習(xí)專用硬件的另一種啟用方式。像Graphcore一樣,公司認(rèn)為GPU的發(fā)展和它自身固有的局限性有很大關(guān)系,波計(jì)算的計(jì)劃是建立"數(shù)據(jù)流的設(shè)備,"機(jī)架式系統(tǒng)使用定制芯片,可以提供2.9petaops計(jì)算("petaops"是定點(diǎn)運(yùn)算,不是"千萬(wàn)億次的"浮點(diǎn)運(yùn)算)。這樣的運(yùn)算速度超出了谷歌TPU提供的92teraops的訂單。

在需要獨(dú)立基準(zhǔn),也不清楚每Petaop的價(jià)格是否有競(jìng)爭(zhēng)力的情況下,波計(jì)算能保證價(jià)格的穩(wěn)定,也讓它的潛在用戶可以放心。谷歌TensorFlow的支持是***個(gè)產(chǎn)品框架支持,CNTK、亞馬遜的MXNeT和其他公司緊隨其后。

brodmann17:小模型,高速度

鑒于Graphcore和波計(jì)算的硬件要優(yōu)于TPU,其他第三方的目的是展示框架和更好的運(yùn)算法則,可以帶來(lái)更有力的機(jī)械學(xué)習(xí)。有些用于定位缺乏訪問處理區(qū)域,例如智能手機(jī)。
谷歌已經(jīng)針對(duì)TensorFlow在移動(dòng)設(shè)備上的應(yīng)用作出升級(jí),一個(gè)名為Brodmann17的工具試圖在智能手機(jī)級(jí)硬盤上占用5%的資源(包括計(jì)算、存儲(chǔ)和數(shù)據(jù))。

該公司的做法是由***執(zhí)行官和創(chuàng)始人AdiPinhas提出的,用現(xiàn)有的標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)模塊創(chuàng)建一個(gè)更小的模型。Pinhas說(shuō),相比其他流行的深度學(xué)習(xí)架構(gòu),小的模型數(shù)量少于訓(xùn)練數(shù)據(jù)的10%。但在相同的時(shí)間里需要一些培訓(xùn)。最終的目的是對(duì)速度的精確權(quán)衡,更快的預(yù)測(cè)時(shí)間,功耗更低,占用的內(nèi)存少。

現(xiàn)階段別指望看到什么開放源代碼的產(chǎn)品出現(xiàn),brodmann17的商業(yè)模式是提供云計(jì)算的API和本地計(jì)算的SDK。Pinhas說(shuō),"我們希望擴(kuò)大我們未來(lái)的產(chǎn)品,所以商業(yè)化可能只是***步。

擦出新火花

今年早些時(shí)候,InfoWorld撰稿人JamesKobielus預(yù)言深度學(xué)習(xí)框架之間的戰(zhàn)火漸起。雅虎已經(jīng)把TensorFlow引向Spark,但是Spark的主要供應(yīng)商Databricks現(xiàn)在向Spark提供自己的開源軟件包來(lái)整合深度學(xué)習(xí)框架。

正如該項(xiàng)目的名稱--深度學(xué)習(xí)管道,探討深度學(xué)習(xí)整合并且以Spark自己的角度來(lái)看待ML管道技術(shù)。Spark工作流可以像TensorFlow和Keras一樣被稱為圖書館。這些框架模型可以像Spark在其他方面一樣,進(jìn)行規(guī)?;?xùn)練。并且通過Spark自己的方式來(lái)處理數(shù)據(jù)和深度學(xué)習(xí)模型。許多數(shù)據(jù)管理員已經(jīng)熟悉了Spark并且開始使用它。

全民深度學(xué)習(xí)?

Databricks曾經(jīng)在自己的新聞稿里提到"民主化的人工智能和數(shù)據(jù)科學(xué)"。這樣的論調(diào)意味著什么呢?微軟認(rèn)為他們的CNTK2.0可以成為一項(xiàng)有力的舉措,使AI技術(shù)無(wú)處不在的面向所有人。深度學(xué)習(xí)固有的復(fù)雜性并不是唯一要克服的障礙。深度學(xué)習(xí)的整個(gè)工作流程仍然是一個(gè)點(diǎn)對(duì)點(diǎn)的工作流程。這里有需要填補(bǔ)的空白,所有平臺(tái)、框架和云背后的商業(yè)機(jī)構(gòu)都在競(jìng)相填補(bǔ)端到端的解決方案。關(guān)于深度學(xué)習(xí)技術(shù),下一步的關(guān)鍵將不僅僅是找到一個(gè)真正的深層學(xué)習(xí)框架。而是找到一個(gè)統(tǒng)一的工作流程。這樣一來(lái),不管是誰(shuí)在開發(fā)運(yùn)行項(xiàng)目,其深度學(xué)習(xí)框架都可以有據(jù)可循的進(jìn)行開發(fā)和研究。

作者:SerdarYegulalp
原文鏈接:
http://www.infoworld.com/article/3199950/artificial-intelligence/deep-learnings-next-steps-custom-hardware-better-frameworks-easier-on-ramps.html


劉妮娜譯

【51CTO譯稿,合作站點(diǎn)轉(zhuǎn)載請(qǐng)注明原文譯者和出處為51CTO.com】

 

責(zé)任編輯:劉妮娜 來(lái)源: 51CTO
相關(guān)推薦

2018-03-25 21:30:31

深度學(xué)習(xí)發(fā)展之路神經(jīng)進(jìn)化

2021-06-28 10:27:58

MacOSApp公證AppStore

2011-07-19 10:18:00

錢伯斯思科裁員

2020-05-03 13:52:27

深度學(xué)習(xí)開源人工智能

2011-06-15 09:53:05

思杰虛擬化

2023-12-25 09:41:37

點(diǎn)云訓(xùn)練

2021-07-06 17:49:55

人工智能AI通信基礎(chǔ)

2011-05-06 14:12:49

投影機(jī)

2017-02-24 07:23:00

深度學(xué)習(xí)方向預(yù)測(cè)

2009-10-26 18:08:06

2021-08-27 12:13:41

深度學(xué)習(xí)

2020-10-09 09:57:26

深度學(xué)習(xí)技術(shù)人工智能

2024-03-27 00:00:10

勒索軟件攻擊勒索軟件安全

2020-03-04 14:15:29

Python數(shù)據(jù)可視化代碼

2017-03-22 20:36:34

深度學(xué)習(xí)機(jī)器學(xué)習(xí)人工智能

2013-12-20 09:19:18

計(jì)算機(jī)學(xué)習(xí)

2010-01-08 14:19:10

應(yīng)用層交換技術(shù)

2020-02-10 17:55:32

疫情模型靠譜

2009-12-30 10:46:01

Ubuntu目標(biāo)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)