偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

用十張圖解釋機(jī)器學(xué)習(xí)的基本概念

人工智能 機(jī)器學(xué)習(xí)
在解釋機(jī)器學(xué)習(xí)的基本概念的時(shí)候,我發(fā)現(xiàn)自己總是回到有限的幾幅圖中。以下是我認(rèn)為最有啟發(fā)性的條目列表。

在解釋機(jī)器學(xué)習(xí)的基本概念的時(shí)候,我發(fā)現(xiàn)自己總是回到有限的幾幅圖中。以下是我認(rèn)為最有啟發(fā)性的條目列表。   

Test and training error 

Test and training error

為什么低訓(xùn)練誤差并不總是一件好的事情呢:上圖以模型復(fù)雜度為變量的測試及訓(xùn)練錯(cuò)誤函數(shù)。 

Under and overfitting 

Under and overfitting

低度擬合或者過度擬合的例子。上圖多項(xiàng)式曲線有各種各樣的命令M,以紅色曲線表示,由綠色曲線適應(yīng)數(shù)據(jù)集后生成。   

Occam’s razor 

Occam’s razor

上圖為什么貝葉斯推理可以具體化奧卡姆剃刀原理。這張圖給了為什么復(fù)雜模型原來是小概率事件這個(gè)問題一個(gè)基本的直觀的解釋。水平軸代表了可能的數(shù)據(jù)集D空間。貝葉斯定理以他們預(yù)測的數(shù)據(jù)出現(xiàn)的程度成比例地反饋模型。這些預(yù)測被數(shù)據(jù)D上歸一化概率分布量化。數(shù)據(jù)的概率給出了一種模型Hi,P(D|Hi)被稱作支持Hi模型的證據(jù)。一個(gè)簡單的模型H1僅可以做到一種有限預(yù)測,以P(D|H1)展示;一個(gè)更加強(qiáng)大的模型H2,舉例來說,可以比模型H1擁有更加自由的參數(shù),可以預(yù)測更多種類的數(shù)據(jù)集。這也表明,無論如何,H2在C1域中對(duì)數(shù)據(jù)集的預(yù)測做不到像H1那樣強(qiáng)大。假設(shè)相等的先驗(yàn)概率被分配給這兩種模型,之后數(shù)據(jù)集落在C1區(qū)域,不那么強(qiáng)大的模型H1將會(huì)是更加合適的模型。   

Feature combinations 

Feature combinations

(1)為什么集體相關(guān)的特征單獨(dú)來看時(shí)無關(guān)緊要,這也是(2)線性方法可能會(huì)失敗的原因。從Isabelle Guyon特征提取的幻燈片來看。   

Irrelevant features 

Irrelevant features

為什么無關(guān)緊要的特征會(huì)損害KNN,聚類,以及其它以相似點(diǎn)聚集的方法。左右的圖展示了兩類數(shù)據(jù)很好地被分離在縱軸上。右圖添加了一條不切題的橫軸,它破壞了分組,并且使得許多點(diǎn)成為相反類的近鄰。   

Basis functions 

Basis functions

非線性的基礎(chǔ)函數(shù)是如何使一個(gè)低維度的非線性邊界的分類問題,轉(zhuǎn)變?yōu)橐粋€(gè)高維度的線性邊界問題。Andrew Moore的支持向量機(jī)SVM(Support Vector Machine)教程幻燈片中有:一個(gè)單維度的非線性帶有輸入x的分類問題轉(zhuǎn)化為一個(gè)2維的線性可分的z=(x,x^2)問題。   

Discriminative vs. Generative 

Discriminative vs. Generative

為什么判別式學(xué)習(xí)比產(chǎn)生式更加簡單:上圖這兩類方法的分類條件的密度舉例,有一個(gè)單一的輸入變量x(左圖),連同相應(yīng)的后驗(yàn)概率(右圖)。注意到左側(cè)的分類條件密度p(x|C1)的模式,在左圖中以藍(lán)色線條表示,對(duì)后驗(yàn)概率沒有影響。右圖中垂直的綠線展示了x中的決策邊界,它給出了最小的誤判率。   

Loss functions 

Loss functions

學(xué)習(xí)算法可以被視作優(yōu)化不同的損失函數(shù):上圖應(yīng)用于支持向量機(jī)中的“鉸鏈”錯(cuò)誤函數(shù)圖形,以藍(lán)色線條表示,為了邏輯回歸,隨著錯(cuò)誤函數(shù)被因子1/ln(2)重新調(diào)整,它通過點(diǎn)(0,1),以紅色線條表示。黑色線條表示誤分,均方誤差以綠色線條表示。  

Geometry of least squares 

Geometry of least squares

上圖帶有兩個(gè)預(yù)測的最小二乘回歸的N維幾何圖形。結(jié)果向量y正交投影到被輸入向量x1和x2所跨越的超平面。投影y^代表了最小二乘預(yù)測的向量。   

Sparsity 

Sparsity

為什么Lasso算法(L1正規(guī)化或者拉普拉斯先驗(yàn))給出了稀疏的解決方案(比如:帶更多0的加權(quán)向量):上圖lasso算法的估算圖像(左)以及嶺回歸算法的估算圖像(右)。展示了錯(cuò)誤的等值線以及約束函數(shù)。分別的,當(dāng)紅色橢圓是最小二乘誤差函數(shù)的等高線時(shí),實(shí)心的藍(lán)色區(qū)域是約束區(qū)域|β1| + |β2| ≤ t以及β12 + β22 ≤ t2。 

 

責(zé)任編輯:龐桂玉 來源: 馬哥Linux運(yùn)維
相關(guān)推薦

2014-03-25 10:38:30

機(jī)器學(xué)習(xí)非線性

2020-09-03 09:38:06

ElasticsearES Lucene

2020-06-03 17:50:57

機(jī)器學(xué)習(xí)人工智能模型

2011-03-28 11:05:17

ODBC

2009-07-22 14:28:43

學(xué)習(xí)ASP.NET MASP.NET MVC

2017-05-02 14:45:11

深度學(xué)習(xí)機(jī)器學(xué)習(xí)人工神經(jīng)網(wǎng)絡(luò)

2021-05-07 17:11:19

負(fù)載均衡運(yùn)維服務(wù)

2017-10-03 06:37:17

機(jī)器學(xué)習(xí)深度學(xué)習(xí)查表!

2010-06-24 13:26:53

FTP協(xié)議

2010-07-07 15:17:40

LDAP協(xié)議

2010-08-23 16:58:17

DHCP協(xié)議

2022-03-07 17:43:30

注冊(cè)微服務(wù)架構(gòu)

2014-04-16 15:11:19

Spark

2012-09-11 14:39:03

Moosefs

2009-03-20 11:46:10

MGCP協(xié)議網(wǎng)關(guān)

2017-04-24 07:54:29

機(jī)器學(xué)習(xí)算法人工智能

2010-07-21 17:00:58

bada接口

2010-06-08 16:52:38

CANopen總線協(xié)議

2010-06-29 13:00:49

EIGRP協(xié)議

2010-06-12 14:12:22

RSVP協(xié)議
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)