偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

請(qǐng)別再把深度學(xué)習(xí)與機(jī)器學(xué)習(xí)混為一談了!

譯文
人工智能 深度學(xué)習(xí) 機(jī)器學(xué)習(xí)
雖說(shuō)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)都能發(fā)現(xiàn)數(shù)據(jù)中的模式與特征,但是它們所涉及到的技術(shù)和具體的應(yīng)用場(chǎng)景卻截然不同。

[[313942]]

【51CTO.com快譯】眾所周知,雖然同屬于人工智能的范疇,但是深度學(xué)習(xí)是一種特殊的機(jī)器學(xué)習(xí)形式。從流程上說(shuō),機(jī)器學(xué)習(xí)和深度學(xué)習(xí)都是從運(yùn)用測(cè)試數(shù)據(jù)來(lái)訓(xùn)練某個(gè)模型開(kāi)始,通過(guò)一系列的優(yōu)化過(guò)程,進(jìn)而找到最適合模型的數(shù)據(jù)權(quán)重。顯然,這兩種方法都可以處理數(shù)值(回歸)和非數(shù)值(分類(lèi))的問(wèn)題,只是在對(duì)象識(shí)別和語(yǔ)言翻譯等應(yīng)用領(lǐng)域,深度學(xué)習(xí)模型往往比機(jī)器學(xué)習(xí)模型更加適用。

細(xì)說(shuō)機(jī)器學(xué)習(xí)

機(jī)器學(xué)習(xí)算法通常分為:監(jiān)督(用各種答案來(lái)標(biāo)注訓(xùn)練數(shù)據(jù))和非監(jiān)督(任何可能存在的標(biāo)簽都不會(huì)被顯示在訓(xùn)練算法中)兩種。

監(jiān)督式機(jī)器學(xué)習(xí)又可以進(jìn)一步被分為:分類(lèi)(預(yù)測(cè)諸如:抵押貸款支付逾期的概率等非數(shù)字性的答案)和回歸(預(yù)測(cè)諸如:某種網(wǎng)紅商品的銷(xiāo)售量等數(shù)字性的答案)。

無(wú)監(jiān)督學(xué)習(xí)則可以進(jìn)一步分為:聚類(lèi)(查找相似對(duì)象組,如:跑步鞋、步行鞋和禮服鞋)、關(guān)聯(lián)(查找對(duì)象的共同邏輯,如:咖啡和奶油)、以及降維(進(jìn)行投射、特征選擇與提取)。

分類(lèi)算法

分類(lèi)問(wèn)題屬于監(jiān)督式學(xué)習(xí)范疇。它需要在兩個(gè)或多個(gè)類(lèi)之間進(jìn)行選擇,并最終為每一個(gè)類(lèi)分配概率。最常見(jiàn)的算法包括:樸素貝葉斯、決策樹(shù)、邏輯回歸、k近鄰和支持向量機(jī)(SVM)。您還可以使用諸如:隨機(jī)森林等其他集成方法(模型的組合),以及AdaBoost和XGBoost之類(lèi)的增強(qiáng)方法。

回歸算法

回歸問(wèn)題也屬于監(jiān)督式學(xué)習(xí)范疇。它要求模型能夠預(yù)測(cè)出一個(gè)數(shù)字。其中最簡(jiǎn)單且最快的算法是線(xiàn)性(最小二乘)回歸。不過(guò)它通常只能給出一個(gè)不夠準(zhǔn)確的結(jié)果。其他常見(jiàn)的機(jī)器學(xué)習(xí)回歸算法(除了神經(jīng)網(wǎng)絡(luò))還包括:樸素貝葉斯、決策樹(shù)、k近鄰、LVQ(學(xué)習(xí)矢量量化)、LARS(最小角回歸)、Lasso、彈性網(wǎng)絡(luò)、隨機(jī)森林、AdaBoost和XGBoost等。顯然,在回歸和分類(lèi)的機(jī)器學(xué)習(xí)算法之間有一定的重疊度。

聚類(lèi)算法

聚類(lèi)問(wèn)題屬于無(wú)監(jiān)督式學(xué)習(xí)范疇。它要求模型找出相似的數(shù)據(jù)點(diǎn)組。其中最流行的算法是K-Means聚類(lèi)。其他常見(jiàn)的算法還包括:均值漂移聚類(lèi)、DBSCAN(基于密度的帶噪聲應(yīng)用空間聚類(lèi))、GMM(高斯混合模型)和HAC(凝聚層級(jí)聚類(lèi))。

降維算法

降維問(wèn)題也屬于無(wú)監(jiān)督式學(xué)習(xí)范疇。它要求模型刪除或合并那些對(duì)結(jié)果影響很小或沒(méi)有影響的變量。它通常與分類(lèi)或回歸結(jié)合起來(lái)使用。常見(jiàn)降維算法包括:刪除缺失值較多的變量、刪除低方差的變量、決策樹(shù)、隨機(jī)森林、刪除或合并高相關(guān)性的變量、后向特征消除、前向特征選擇、因子分析、PCA(主成分分析)等。

各種優(yōu)化方法

我們需要通過(guò)訓(xùn)練和評(píng)估,優(yōu)化參數(shù)的權(quán)重,來(lái)找到一組最接近真實(shí)情況的數(shù)值,進(jìn)而將監(jiān)督式學(xué)習(xí)算法最終轉(zhuǎn)化為恰當(dāng)?shù)哪P?。在?shí)際應(yīng)用中,這些算法的優(yōu)化常常依賴(lài)于那些陡降的變體,例如:隨機(jī)梯度下降,它本質(zhì)上是在隨機(jī)起點(diǎn)上執(zhí)行多次陡降(steepest descent)。

而對(duì)于隨機(jī)梯度下降法的常見(jiàn)改進(jìn)包括:根據(jù)動(dòng)量修正梯度的方向因素,或調(diào)整從一個(gè)數(shù)據(jù)(或稱(chēng)為epoch或batch)到下一個(gè)數(shù)據(jù)學(xué)習(xí)率的進(jìn)展。

數(shù)據(jù)清理

為了讓雜亂無(wú)章的數(shù)據(jù)能夠?yàn)闄C(jī)器學(xué)習(xí)所用,我們必須對(duì)數(shù)據(jù)進(jìn)行全面的過(guò)濾,其中包括:

1.初次查看數(shù)據(jù),排除那些有大量丟失數(shù)據(jù)的列。

2.再次查看數(shù)據(jù),選擇需要進(jìn)行預(yù)測(cè)的列(即,特征選擇)。這也是您在迭代時(shí)可能希望更改的內(nèi)容。

3.在其余列中排除那些缺少數(shù)據(jù)的行。

4.糾正明顯的拼寫(xiě)錯(cuò)誤,合并相應(yīng)的答案。例如:U.S.、US、USA和America都應(yīng)該被合并為一個(gè)類(lèi)別。

5.排除具有超出范圍數(shù)據(jù)的行。例如:如果您正在分析紐約市內(nèi)出租車(chē)的出行情況,那么您需要過(guò)濾掉那些開(kāi)到該城市區(qū)域邊界之外的地理坐標(biāo)行。

當(dāng)然,您也可以酌情增加其他步驟,這主要取決于您收集到的數(shù)據(jù)類(lèi)型。您甚至可以在機(jī)器學(xué)習(xí)管道(請(qǐng)參見(jiàn)-https://www.infoworld.com/article/3198252/data-in-intelligence-out-machine-learning-pipelines-demystified.html)中設(shè)置一些數(shù)據(jù)清理的步驟,以便按需進(jìn)行修改與復(fù)用。

數(shù)據(jù)編碼和標(biāo)準(zhǔn)化

為了對(duì)數(shù)據(jù)進(jìn)行分類(lèi),您需要將文本標(biāo)簽編碼為另一種形式。常見(jiàn)的有如下兩種:

一種是label編碼,它將每一個(gè)文本標(biāo)簽值都替換為一個(gè)數(shù)字。另一種是one-hot編碼,它將每一個(gè)文本標(biāo)簽值都替換為帶有二進(jìn)制值(1或0)的列。一般來(lái)說(shuō),由于label編碼有時(shí)會(huì)使機(jī)器學(xué)習(xí)算法誤認(rèn)為:被編碼的列已經(jīng)是一個(gè)有序列了,因此我們首選采用one-hot編碼。

為了讓數(shù)值數(shù)據(jù)適用于機(jī)器回歸,我們通常需要對(duì)數(shù)據(jù)進(jìn)行規(guī)范化。否則,更大范圍的數(shù)字可能會(huì)主導(dǎo)特征向量之間的歐氏距離(Euclidian distance,它是在m維空間中兩個(gè)點(diǎn)之間的真實(shí)距離),而該影響可能會(huì)以其他字段為代價(jià)被放大,進(jìn)而導(dǎo)致陡降的優(yōu)化難以收斂。目前,針對(duì)機(jī)器學(xué)習(xí)的數(shù)據(jù)規(guī)范化與標(biāo)準(zhǔn)化有著多種方法,其中包括:最小值標(biāo)準(zhǔn)化、均值標(biāo)準(zhǔn)化、以及按單位長(zhǎng)度擴(kuò)展等。有時(shí)該過(guò)程也被稱(chēng)為特性擴(kuò)展(https://en.wikipedia.org/wiki/Feature_scaling)。

特征工程

特征是指被觀察到的現(xiàn)象的可測(cè)量特性。“特征”的概念通常與解釋變量相關(guān)。此處的解釋變量,經(jīng)常被用于諸如線(xiàn)性回歸之類(lèi)的統(tǒng)計(jì)技術(shù)。而特征向量則會(huì)將單行的所有特征,組合成一個(gè)數(shù)值型的向量。

選擇特征的巧妙之處在于是否能選出解釋問(wèn)題的最小獨(dú)立變量集。如果兩個(gè)變量高度相關(guān),則要么將它們合并成為一個(gè)單獨(dú)的特征,要么去掉其中的一個(gè)。有時(shí)候,我們?cè)谶M(jìn)行主成分分析時(shí),可以把相關(guān)的變量轉(zhuǎn)換成一組線(xiàn)性無(wú)關(guān)的變量。

在實(shí)際應(yīng)用中,我們能夠通過(guò)簡(jiǎn)單的方式,來(lái)構(gòu)造新的特征或減少特征向量的維數(shù)。例如,用死亡年份減去出生年份,就得到了死亡年齡,這是針對(duì)壽命和死亡率分析的主要自變量。當(dāng)然,在其他情況下,特性的構(gòu)建并非如此淺顯。

分割數(shù)據(jù)

監(jiān)督式機(jī)器學(xué)習(xí)的通常做法是:將數(shù)據(jù)集分成各個(gè)子集進(jìn)行訓(xùn)練、驗(yàn)證和測(cè)試。其中的一種工作方式是:將80%的數(shù)據(jù)分配給訓(xùn)練數(shù)據(jù)集,而將其他的10%分配給驗(yàn)證和測(cè)試數(shù)據(jù)集。目前,大部分訓(xùn)練都是針對(duì)數(shù)據(jù)集進(jìn)行的。在每一個(gè)epoch結(jié)束時(shí),我們將針對(duì)驗(yàn)證數(shù)據(jù)集進(jìn)行預(yù)測(cè)。

那些驗(yàn)證數(shù)據(jù)集中的錯(cuò)誤,不但可以被用于識(shí)別停止的條件,并驅(qū)動(dòng)超級(jí)參數(shù)的調(diào)優(yōu),而且可以幫助您確定目標(biāo)模型是否對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行了過(guò)度的擬合。

對(duì)于測(cè)試數(shù)據(jù)集的預(yù)測(cè)通常是在最終模型上完成的。如果某個(gè)測(cè)試數(shù)據(jù)集從未被用于訓(xùn)練,我們有時(shí)則稱(chēng)之為holdout數(shù)據(jù)集。

作為其他常見(jiàn)的分割數(shù)據(jù)方案,交叉驗(yàn)證能夠重復(fù)地將整個(gè)數(shù)據(jù)集分割成一套訓(xùn)練數(shù)據(jù)集,以及一套驗(yàn)證數(shù)據(jù)集。

機(jī)器學(xué)習(xí)庫(kù)

在Python中,Spark MLlib(https://www.infoworld.com/article/3141605/review-spark-lights-up-machine-learning.html)和Scikit-learn(https://www.infoworld.com/article/3158509/review-scikit-learn-shines-for-simpler-machine-learning.html)都是機(jī)器學(xué)習(xí)庫(kù)的最佳選擇。在R語(yǔ)言中,常見(jiàn)的機(jī)器學(xué)習(xí)包有CARAT、randomForest、e1071和KernLab。而在Java中,您可以用到Java-ML、RapidMiner和Weka。

細(xì)說(shuō)深度學(xué)習(xí)

作為機(jī)器學(xué)習(xí)的一種應(yīng)用形式,深度學(xué)習(xí)在被訓(xùn)練模型的輸入和輸出之間存在著不止一個(gè)隱藏層。在大多數(shù)討論場(chǎng)合中,深度學(xué)習(xí)意味著使用深度技術(shù)的神經(jīng)網(wǎng)絡(luò)。當(dāng)然,除了神經(jīng)網(wǎng)絡(luò),深度學(xué)習(xí)還會(huì)使用一些算法來(lái)實(shí)現(xiàn)其他類(lèi)型的隱藏層。

“人工”神經(jīng)網(wǎng)絡(luò)的概念由來(lái)已久,它是由相互連接的閾值開(kāi)關(guān),構(gòu)成了人工神經(jīng)元網(wǎng)絡(luò),可以像動(dòng)物大腦和神經(jīng)系統(tǒng)(如:視網(wǎng)膜)那樣學(xué)習(xí)識(shí)別模式。

Backprop

當(dāng)兩個(gè)神經(jīng)元在訓(xùn)練中同時(shí)活躍(active)時(shí),學(xué)習(xí)基本上是通過(guò)加強(qiáng)兩個(gè)神經(jīng)元之間的連接來(lái)實(shí)現(xiàn)的。在當(dāng)前的神經(jīng)網(wǎng)絡(luò)軟件中,最常見(jiàn)的方法是:使用一種稱(chēng)為誤差反向傳播(或稱(chēng)backprop、BP)的規(guī)則,來(lái)增加神經(jīng)元之間連接的權(quán)值。

人工神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元

每一個(gè)神經(jīng)元都擁有一個(gè)傳播函數(shù)。該函數(shù)可通過(guò)加權(quán)來(lái)轉(zhuǎn)換連接神經(jīng)元的輸出。傳播函數(shù)將輸出傳遞給激活函數(shù),激活函數(shù)在輸入超過(guò)閾值時(shí)就會(huì)被觸發(fā)。

神經(jīng)網(wǎng)絡(luò)中的激活函數(shù)

在上個(gè)世紀(jì)40、50年代,人工神經(jīng)元普遍使用的是被稱(chēng)為感知器(perceptrons)的一步式激活函數(shù)。如今的神經(jīng)網(wǎng)絡(luò)引入了諸如:邏輯函數(shù)、s形函數(shù)(sigmoid function)、雙曲正切函數(shù)、修正線(xiàn)性單元(ReLU)等平滑激活函數(shù)。其中,ReLU雖然存在著“在學(xué)習(xí)率設(shè)置過(guò)高時(shí),神經(jīng)元會(huì)在訓(xùn)練中‘死亡’”的問(wèn)題,但是它仍然是快速收斂的最佳選擇。

激活函數(shù)的輸出可以傳遞給某個(gè)輸出函數(shù),進(jìn)行附加整形。不過(guò),輸出函數(shù)通常是恒等函數(shù),因此激活函數(shù)的輸出會(huì)直接被傳遞給連接在下游的神經(jīng)元中。

神經(jīng)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)

常見(jiàn)的神經(jīng)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)是:

1. 在前饋網(wǎng)絡(luò)中,神經(jīng)元可分為:一個(gè)輸入層、n個(gè)隱藏處理層和一個(gè)輸出層。每一層的輸出都只會(huì)輸入到下一層。

2. 在具有快捷連接的前饋網(wǎng)絡(luò)中,一些連接可以跳過(guò)一到多個(gè)中間層。

3. 在遞歸神經(jīng)網(wǎng)絡(luò)中,神經(jīng)元可以直接或間接地通過(guò)下一層來(lái)影響自己。

訓(xùn)練神經(jīng)網(wǎng)絡(luò)

神經(jīng)網(wǎng)絡(luò)的監(jiān)督學(xué)習(xí)和其他機(jī)器學(xué)習(xí)類(lèi)似:我們用一組訓(xùn)練數(shù)據(jù)來(lái)表示網(wǎng)絡(luò),將網(wǎng)絡(luò)輸出與期望的輸出進(jìn)行比較,以生成錯(cuò)誤向量,接著根據(jù)錯(cuò)誤向量再對(duì)網(wǎng)絡(luò)進(jìn)行修正。在應(yīng)用糾正之前,那些共同運(yùn)行的批量訓(xùn)練數(shù)據(jù)被稱(chēng)為epoch。

在實(shí)現(xiàn)細(xì)節(jié)上,相對(duì)于模型的權(quán)值和偏差方面的梯度,反向傳播使用誤差(或成本)函數(shù),來(lái)發(fā)現(xiàn)正確的方向,從而最小化誤差。因此,應(yīng)用的正確性取決于優(yōu)化算法和學(xué)習(xí)速率的變量。正如前面提到的,該變量通常需要足夠的小,以保證收斂性,并避免造成ReLU神經(jīng)元“死亡”。

神經(jīng)網(wǎng)絡(luò)的優(yōu)化器

通常,神經(jīng)網(wǎng)絡(luò)的優(yōu)化器會(huì)使用某種形式的梯度下降算法,來(lái)驅(qū)動(dòng)反向傳播。同時(shí),它會(huì)用到一種避免陷入局部極小值的機(jī)制,例如:只優(yōu)化那些隨機(jī)選擇的小批量(隨機(jī)梯度下降),以及對(duì)梯度使用動(dòng)量修正的方式。另外,一些優(yōu)化算法(如:AdaGrad、RMSProp和Adam)還會(huì)通過(guò)查看梯度的歷史,來(lái)調(diào)整模型參數(shù)的學(xué)習(xí)率。

與所有的機(jī)器學(xué)習(xí)類(lèi)似,您需要根據(jù)一個(gè)單獨(dú)的驗(yàn)證數(shù)據(jù)集,來(lái)檢查神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)。如果不這樣做的話(huà),您所創(chuàng)建的神經(jīng)網(wǎng)絡(luò)可能只能記住輸入的信息,而無(wú)法學(xué)習(xí)并成為廣義的預(yù)測(cè)器。

深入學(xué)習(xí)的各種算法

一個(gè)針對(duì)真實(shí)問(wèn)題的深度神經(jīng)網(wǎng)絡(luò),可能由十多個(gè)隱藏層所組成,其拓?fù)浣Y(jié)構(gòu)也可能繁簡(jiǎn)不同。一般而言,網(wǎng)絡(luò)中的層級(jí)越多,其優(yōu)勢(shì)是能夠識(shí)別的特征就越多,而劣勢(shì)則為計(jì)算所需的時(shí)間就越長(zhǎng),訓(xùn)練也就越困難。

卷積神經(jīng)網(wǎng)絡(luò)(CNN)常被用于機(jī)器視覺(jué)等應(yīng)用之中。該網(wǎng)絡(luò)通常使用卷積、池化、ReLU、全連接、以及丟失層來(lái)模擬視覺(jué)的皮層。其中,卷積層主要是對(duì)于許多小的重疊區(qū)域進(jìn)行積分。池化層執(zhí)行的是一種非線(xiàn)性的下采樣(down-sampling)形式。ReLU層用到了非飽和激活函數(shù)f(x) = max(0,x)。在一個(gè)完全連接的層級(jí)中,神經(jīng)元與前一層的所有激活都有聯(lián)系。丟失層主要負(fù)責(zé)計(jì)算網(wǎng)絡(luò)訓(xùn)練如何“懲罰”那些預(yù)測(cè)標(biāo)簽和真實(shí)標(biāo)簽之間的偏差,使用Softmax或交叉熵(cross-entropy)損失函數(shù)來(lái)進(jìn)行分類(lèi),或使用歐式(Euclidean)損失函數(shù)進(jìn)行回歸。

遞歸神經(jīng)網(wǎng)絡(luò)常被用于自然語(yǔ)言處理(NLP)、序列處理、長(zhǎng)短時(shí)記憶(LSTM)網(wǎng)絡(luò)、基于注意力的神經(jīng)網(wǎng)絡(luò)。在前饋神經(jīng)網(wǎng)絡(luò)中,信息通過(guò)隱藏層從輸入流向輸出。這有效地限制了該網(wǎng)絡(luò)一次性只能處理一個(gè)狀態(tài)。

在遞歸神經(jīng)網(wǎng)絡(luò)(RNN)中,信息通過(guò)反復(fù)循環(huán),讓網(wǎng)絡(luò)只記住最近的一次輸出,以便對(duì)序列和時(shí)序進(jìn)行分析。當(dāng)然,RNN存在著兩個(gè)常見(jiàn)的問(wèn)題:爆炸性的漸變(我們很容易通過(guò)夾持來(lái)修復(fù))和消失的漸變(不太容易修復(fù))。

在LSTMs中,該網(wǎng)絡(luò)能夠用forgetting和gating來(lái)修改以前信息的權(quán)重,并記住它們。通過(guò)此類(lèi)長(zhǎng)、短期記憶,該網(wǎng)絡(luò)解決了梯度消失的問(wèn)題。同時(shí),LSTMs也可以處理數(shù)百個(gè)過(guò)去輸入的序列。

注意力模塊是一些將權(quán)重應(yīng)用到輸入向量上的通用門(mén)。它的分層神經(jīng)注意編碼器(hierarchical neural attention encoder)使用多層注意模塊,來(lái)處理成千上萬(wàn)的過(guò)去的輸入。

雖然不屬于神經(jīng)網(wǎng)絡(luò),但是隨機(jī)決策森林(RDF)對(duì)于一系列分類(lèi)和回歸問(wèn)題也十分有用。由多個(gè)層級(jí)構(gòu)成的RDF,能夠輸出單個(gè)樹(shù)的預(yù)測(cè)統(tǒng)計(jì)平均值(一般為分類(lèi)模式或回歸平均值)。在隨機(jī)方面,RDF對(duì)單個(gè)樹(shù)使用引導(dǎo)聚合(也稱(chēng)為bagging),并針對(duì)樹(shù)的特性進(jìn)行隨機(jī)取子集。

同樣不屬于深度神經(jīng)網(wǎng)絡(luò)的XGBoost (eXtreme Gradient boost),是一個(gè)可擴(kuò)展的端到端樹(shù)狀增強(qiáng)系統(tǒng)。它在許多機(jī)器學(xué)習(xí)的挑戰(zhàn)中都取得了先進(jìn)的成果。不同于RDF,它的梯度樹(shù)增強(qiáng)是從單個(gè)決策樹(shù)或回歸樹(shù)開(kāi)始的。通過(guò)優(yōu)化,其后續(xù)的樹(shù)是基于前續(xù)樹(shù)的殘留而構(gòu)建的。

目前,業(yè)界公認(rèn)最好的Python深度學(xué)習(xí)框架包括:TensorFlow、Keras、PyTorch和MXNet。Deeplearning4j是最好的Java深度學(xué)習(xí)框架之一。而ONNX和TensorRT則是用于深度學(xué)習(xí)模型的運(yùn)行時(shí)(runtime)。

深度學(xué)習(xí)與機(jī)器學(xué)習(xí)的比較

一般而言,經(jīng)典(非深度)機(jī)器學(xué)習(xí)算法的訓(xùn)練和預(yù)測(cè)速度,要比深度學(xué)習(xí)算法快得多。一到多個(gè)CPU足以訓(xùn)練一個(gè)經(jīng)典的模型。而深度學(xué)習(xí)模型通常需要硬件加速器,如GPU、TPU或FPGA來(lái)進(jìn)行訓(xùn)練,以及大規(guī)模的部署。如果沒(méi)有它們,此類(lèi)模型可能需要幾個(gè)月的訓(xùn)練時(shí)間。

自然語(yǔ)言處理是深度學(xué)習(xí)的一個(gè)分支,它包括語(yǔ)言翻譯、自動(dòng)化摘要、協(xié)同參考解析、語(yǔ)篇分析(discourse analysis)、形態(tài)分割(morphological segmentation)、命名實(shí)體識(shí)別、自然語(yǔ)言生成、自然語(yǔ)言理解、詞性標(biāo)注、情感分析和語(yǔ)音識(shí)別等。

深度學(xué)習(xí)的另一個(gè)主要應(yīng)用領(lǐng)域是圖像分類(lèi)。它包括:帶定位的圖像分類(lèi)、目標(biāo)檢測(cè)、目標(biāo)分割、圖像風(fēng)格轉(zhuǎn)換、圖像著色、圖像重建、圖像超分辨率和圖像合成等。

此外,深度學(xué)習(xí)已經(jīng)被成功地用于預(yù)測(cè)分子之間的相互作用,以幫助制藥公司設(shè)計(jì)新藥,搜索亞原子粒子,并將自動(dòng)解析用于構(gòu)建人腦三維顯微鏡圖像等方面。

原文標(biāo)題:Deep learning vs. machine learning: Understand the differences,作者:Martin Heller

【51CTO譯稿,合作站點(diǎn)轉(zhuǎn)載請(qǐng)注明原文譯者和出處為51CTO.com】

 

責(zé)任編輯:龐桂玉 來(lái)源: 51CTO
相關(guān)推薦

2010-08-26 17:26:18

微軟

2019-04-03 09:00:30

Azure Stack微軟Azure

2016-01-27 09:49:19

Gartner數(shù)據(jù)湖數(shù)據(jù)倉(cāng)庫(kù)

2021-03-30 13:45:00

人工智能

2017-10-24 11:19:16

深度學(xué)習(xí)機(jī)器學(xué)習(xí)數(shù)據(jù)

2024-03-01 19:26:22

2018-07-04 06:18:07

2018-04-09 10:16:27

機(jī)器學(xué)習(xí)深度學(xué)習(xí)AI

2021-02-22 10:59:43

人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2023-10-18 16:02:24

機(jī)器學(xué)習(xí)深度學(xué)習(xí)ChatGPT

2021-07-27 13:30:25

人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2018-05-11 14:34:24

人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2025-05-30 03:15:00

2018-08-08 16:08:45

深度學(xué)習(xí)機(jī)器學(xué)習(xí)NLP

2017-02-15 10:01:49

大數(shù)據(jù)機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2021-04-16 09:53:45

人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2024-11-04 08:14:48

2016-10-17 13:59:10

機(jī)器學(xué)習(xí)人工智能

2017-03-18 16:28:40

人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2017-05-10 09:26:41

機(jī)器學(xué)習(xí)深度學(xué)習(xí)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)