偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

機(jī)器學(xué)習(xí)天降福音!數(shù)據(jù)科學(xué)家、Kaggle大師發(fā)布「ML避坑寶典」

人工智能 新聞
軟件架構(gòu)師、數(shù)據(jù)科學(xué)家、Kaggle大師Agnis Liukis近日撰寫了一篇文章,講述了在機(jī)器學(xué)習(xí)中,初學(xué)者最常見的一些錯(cuò)誤及解決方案。

?數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)正變得越來越流行。

進(jìn)入這個(gè)領(lǐng)域的人數(shù),每天都在增長。

這意味著,很多數(shù)據(jù)科學(xué)家在構(gòu)建第一個(gè)機(jī)器學(xué)習(xí)模型時(shí),并沒有豐富的經(jīng)驗(yàn),所以很容易發(fā)生錯(cuò)誤。

以下就是機(jī)器學(xué)習(xí)解決方案中一些最常見的初學(xué)者錯(cuò)誤。

圖片

在需要的地方?jīng)]有使用數(shù)據(jù)歸一化

對初學(xué)者來說,把特征放入模型,然后等著它給出預(yù)測,這似乎是一件很容易的事。

但是在某些情況下,得到的結(jié)果可能會(huì)令人失望,因?yàn)槟氵z漏了一個(gè)非常重要的步驟。

圖片

某些類型的模型需要讓數(shù)據(jù)歸一化,包括線性回歸、經(jīng)典神經(jīng)網(wǎng)絡(luò)等。這些類型的模型使用特征值乘以訓(xùn)練的權(quán)重。如果特征沒有被歸一化,可能會(huì)發(fā)生一個(gè)特征的可能值范圍與另一個(gè)特征的可能值范圍非常不同的情況。

假設(shè),一個(gè)特征的值在[0, 0.001]范圍內(nèi),另一個(gè)特征的值在[100000, 200000]范圍內(nèi)。對于兩個(gè)特征同等重要的模型,第一個(gè)特征的權(quán)重將是第二個(gè)特征的權(quán)重的100'000'000倍。巨大的權(quán)重可能會(huì)給模型帶來嚴(yán)重的問題。例如,存在一些異常值。

此外,估計(jì)各種特征的重要性會(huì)變得非常困難,因?yàn)榇髾?quán)重可能意味著該特征很重要,或者可能僅僅意味著它具有較小的值。

而在歸一化后,所有特征都在相同的值范圍內(nèi),通常是[0, 1]或[-1, 1]。在這種情況下,權(quán)重將處于相似的范圍內(nèi),并且將與每個(gè)特征的真正重要性密切對應(yīng)。

總體而言,在需要的地方使用數(shù)據(jù)歸一化,將產(chǎn)生更好、更準(zhǔn)確的預(yù)測結(jié)果。

認(rèn)為特征越多越好

有人可能認(rèn)為加入的特征越多越好,這樣模型就會(huì)自動(dòng)選擇和使用最好的特征。

在實(shí)踐中,并不是這樣的。在大多數(shù)情況下,具有精心設(shè)計(jì)和選擇特征的模型將顯著優(yōu)于具有10倍以上特征的類似模型。

模型的特征越多,過擬合的風(fēng)險(xiǎn)就越大。即使在完全隨機(jī)的數(shù)據(jù)中,模型也能夠找到一些信號(hào)——有時(shí)更弱,有時(shí)更強(qiáng)。

圖片

當(dāng)然,隨機(jī)噪聲中沒有真正的信號(hào)。但是,如果我們有足夠多的噪聲列,那么該模型就有可能根據(jù)檢測到的錯(cuò)誤信號(hào)使用其中的一部分。發(fā)生這種情況時(shí),模型預(yù)測質(zhì)量會(huì)降低,因?yàn)樗鼈儗⒉糠只陔S機(jī)噪聲。

的確存在各種用于特征選擇的技術(shù),它們可以在這種情況下提供幫助。但本文不討論它們。

記住,最重要的是——你應(yīng)該能夠解釋你擁有的每一個(gè)特征,明白為什么這個(gè)特性會(huì)幫助你的模型。

在需要外推法時(shí)使用基于樹的模型

樹模型受到歡迎的最主要原因除了它是實(shí)力擔(dān)當(dāng),還有就是因?yàn)樗芎糜谩?/p>

圖片

但是,它并不是百試百靈的。在某些情況下,使用基于樹的模型很可能會(huì)是一個(gè)錯(cuò)誤。

樹模型沒有推斷能力。這些模型永遠(yuǎn)不會(huì)給出大于訓(xùn)練數(shù)據(jù)中看到的最大值的預(yù)測值。他們也永遠(yuǎn)不會(huì)輸出比訓(xùn)練中的最小值更小的預(yù)測。

但在某些任務(wù)中,外推能力或許占據(jù)主要作用。比如,如果利用該模型預(yù)測股票價(jià)格,有可能未來的股票價(jià)格將比以往任何時(shí)候都高。所以在這種情況下,基于樹的模型將不再適用,因?yàn)樗鼈兊念A(yù)測結(jié)果將被限制在接近歷史最高價(jià)格的水平。

圖片

那這個(gè)問題又該怎么解決呢?

其實(shí),條條大路通羅馬!

一種選擇是預(yù)測變化或差異,而不是直接預(yù)測值。

另一種解決方案是對此類任務(wù)使用不同的模型類型,比如能夠外推的線性回歸或神經(jīng)網(wǎng)絡(luò)。

多此一舉的歸一化

大家一定不陌生數(shù)據(jù)歸一化的重要性。但是不同的任務(wù)需要不同的歸一化方式,倘若類型按錯(cuò)了,那便會(huì)得不償失!

圖片

基于樹的模型不需要數(shù)據(jù)歸一化,因?yàn)樘卣髟贾挡粫?huì)用作乘數(shù),并且異常值也不會(huì)影響它們。

神經(jīng)網(wǎng)絡(luò)可能也不需要?dú)w一化——例如,如果網(wǎng)絡(luò)已經(jīng)包含內(nèi)部處理歸一化的層(例如Keras庫的BatchNormalization)。

圖片

在某些情況下,線性回歸可能也不需要數(shù)據(jù)歸一化。這是指所有特征都在相似的值范圍內(nèi),并且具有相同的含義。例如,如果模型應(yīng)用于時(shí)間序列數(shù)據(jù),并且所有特征都是同一參數(shù)的歷史值。

在實(shí)踐中,應(yīng)用不需要的數(shù)據(jù)歸一化不一定會(huì)損害模型。大多數(shù)情況下,這些情況下的結(jié)果將與跳過的歸一化非常相似。但是,進(jìn)行額外的不必要的數(shù)據(jù)轉(zhuǎn)換會(huì)使解決方案復(fù)雜化,并且會(huì)增加引入一些錯(cuò)誤的風(fēng)險(xiǎn)。

所以,具體是用,還是不用,實(shí)踐出真知!

數(shù)據(jù)泄露

數(shù)據(jù)泄露,要比我們想象得更容易。

請看以下代碼段:

圖片

實(shí)際上,「sum_feature」和「diff_feature」這兩個(gè)特征都是不正確的。

它們正在「泄漏」信息,因?yàn)樵诓鸱譃橛?xùn)練/測試集后,具有訓(xùn)練數(shù)據(jù)的部分將包含測試行中的一些信息。這雖然會(huì)得到更好的驗(yàn)證結(jié)果,但當(dāng)應(yīng)用于實(shí)際數(shù)據(jù)模型時(shí),就會(huì)性能暴跌。

正確的做法是首先進(jìn)行訓(xùn)練/測試拆分。然后才應(yīng)用特征生成功能。一般來說,分別處理訓(xùn)練集和測試集是一種很好的特征工程模式。

在某些情況下,必須在兩者之間傳遞一些信息——例如,我們可能希望測試集使用相同的StandardScaler ,該StandardScaler用于訓(xùn)練集并在其上進(jìn)行了訓(xùn)練。但這只是個(gè)別案例,所以,我們還是需要具體問題具體分析!

圖片

從錯(cuò)誤中吸取教訓(xùn)是件好事。但最好從別人的錯(cuò)誤中學(xué)習(xí)——希望本文所提供的錯(cuò)誤示例能幫助到你。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2017-08-04 15:53:10

大數(shù)據(jù)真?zhèn)螖?shù)據(jù)科學(xué)家

2020-12-16 14:55:44

開發(fā)者技能工具

2020-08-10 15:08:25

數(shù)據(jù)科學(xué)Kaggle數(shù)據(jù)集

2018-10-18 09:00:00

機(jī)器學(xué)習(xí)機(jī)器學(xué)習(xí)算法數(shù)據(jù)科學(xué)家

2018-03-27 11:02:55

2020-03-20 14:40:48

數(shù)據(jù)科學(xué)Python學(xué)習(xí)

2012-12-06 15:36:55

CIO

2018-12-24 08:37:44

數(shù)據(jù)科學(xué)家數(shù)據(jù)模型

2012-12-26 10:51:20

數(shù)據(jù)科學(xué)家

2020-07-19 15:17:41

機(jī)器學(xué)習(xí)技術(shù)工程師

2020-03-13 14:13:48

機(jī)器學(xué)習(xí)數(shù)據(jù)科學(xué)編程

2012-06-12 09:33:59

2018-10-16 14:37:34

數(shù)據(jù)科學(xué)家數(shù)據(jù)分析數(shù)據(jù)科學(xué)

2018-02-28 15:03:03

數(shù)據(jù)科學(xué)家數(shù)據(jù)分析職業(yè)

2018-01-25 14:19:32

深度學(xué)習(xí)數(shù)據(jù)科學(xué)遷移學(xué)習(xí)

2020-12-18 07:42:30

機(jī)器學(xué)習(xí)數(shù)據(jù)科學(xué)

2024-04-25 16:01:17

機(jī)器學(xué)習(xí)人工智能

2018-05-11 14:44:30

機(jī)器學(xué)習(xí)數(shù)據(jù)科學(xué)家算法

2015-08-25 13:20:29

數(shù)據(jù)科學(xué)

2020-04-09 15:32:20

數(shù)據(jù)科學(xué)AutoML代智能
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)