偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

什么是機器學習中的正則化?

人工智能 機器學習
一般而言,當數(shù)據(jù)表現(xiàn)出多重共線性(自變量高度相關)時,它被認為是一種采用的方法。盡管多重共線性中的最小二乘估計值 (OLS) 是無偏的,但它們的巨大方差會導致觀測值與實際值相差很大。

1. 引言

在機器學習領域中,相關模型可能會在訓練過程中變得過擬合和欠擬合。為了防止這種情況的發(fā)生,我們在機器學習中使用正則化操作來適當?shù)刈屇P蛿M合在我們的測試集上。一般來說,正則化操作通過降低過擬合和欠擬合的可能性來幫助大家獲得最佳模型。

在本文中,我們將了解什么是正則化,正則化的類型。此外,我們將討論偏差、方差、欠擬合和過擬合等相關概念。

閑話少說,我們直接開始吧!

2. 偏差和方差

Bias和Variance分別從兩個方面來描述我們學習到的模型與真實模型之間的差距。

二者的定義如下:

  • Bias是用所有可能的訓練數(shù)據(jù)集訓練出的所有模型的輸出的平均值與真實模型的輸出值之間的差異。
  • Variance是不同的訓練數(shù)據(jù)集訓練出的模型輸出值之間的差異。

Bias(偏差)降低了模型對單個數(shù)據(jù)點的敏感性,并增加了數(shù)據(jù)的泛化性,模型對孤立數(shù)據(jù)點的敏感度降低;由于所需的功能不那么復雜,因此還可以減少訓練時間。高偏差表示假定目標函數(shù)更可靠。有時,這會導致模型擬合不足。

Variance(方差)是機器學習中由于模型對數(shù)據(jù)集中微小變化的敏感性而發(fā)生的一種錯誤。由于存在顯著變化,算法將對訓練集中的噪聲和異常值進行建模。過擬合是最常用于描述這一點的術語。在新數(shù)據(jù)集上進行評估時,在這種情況下,模型無法提供準確的預測,因為它本質上學習了每個數(shù)據(jù)點。

一個相對平衡的模型將具有低偏差和低方差,而高偏差和高方差將導致欠擬合和過擬合。

3. 欠擬合

當模型由于沒有正確學習訓練數(shù)據(jù)中的模式而無法正確地泛化到新數(shù)據(jù)時,就會發(fā)生欠擬合。在訓練數(shù)據(jù)上,欠擬合模型表現(xiàn)不佳,并做出錯誤的預測。當存在高偏差和低方差時,就會發(fā)生欠擬合。


4. 過擬合

當一個模型在訓練數(shù)據(jù)上表現(xiàn)得非常好,但在測試數(shù)據(jù)上表現(xiàn)不佳時,它被稱為過擬合(新數(shù)據(jù))。在這種情況下,機器學習模型因為擬合到訓練數(shù)據(jù)中的噪聲,這會對模型在測試數(shù)據(jù)上的表現(xiàn)產(chǎn)生負面影響。低偏差和高方差可能導致過擬合。


5. 正則化概念

術語“正則化”描述了校準機器學習模型的方法,以減少調整后的損失函數(shù)并避免過擬合或欠擬合。


我們可以使用正則化將機器學習模型正確地擬合到特定的測試集上,從而降低測試集中的錯誤。

6. L1正則化

相比于嶺回歸,L1正則化主要通過在損失函數(shù)中增加一項懲罰項來實現(xiàn),懲罰項等于所有系數(shù)的絕對值之和。如下所示:


在Lasso回歸模型中,以類似于嶺回歸的方式通過增加回歸系數(shù)的絕對值這一懲罰項來實現(xiàn)。此外,L1正則化在提高線性回歸模型的精度方面有著良好的表現(xiàn)。同時,由于L1正則化對所有參數(shù)的懲罰力度都一樣,可以讓一部分權重變?yōu)榱?,因此產(chǎn)生稀疏模型,能夠去除某些特征(權重為0則等效于去除)。

7. L2正則化

L2正則化也是通過在損失函數(shù)中增加一項懲罰項來實現(xiàn),懲罰項等于所有系數(shù)的平方和。如下所示:

一般而言,當數(shù)據(jù)表現(xiàn)出多重共線性(自變量高度相關)時,它被認為是一種采用的方法。盡管多重共線性中的最小二乘估計值 (OLS) 是無偏的,但它們的巨大方差會導致觀測值與實際值相差很大。L2通過在一定程度上降低了回歸估計值的誤差。它通常使用收縮參數(shù)來解決多重共線性問題。L2正則化減少了權重的固定比例,使權重平滑。

8. 總結

經(jīng)過上述分析,對本文中相關正則化的知識進行總結如下:

L1正則化可以產(chǎn)生稀疏權值矩陣,即產(chǎn)生一個稀疏模型,可以用于特征選擇;

L2正則化可以防止模型過擬合,在一定程度上,L1也可以防止過擬合,提升模型的泛化能力;

L1(拉格朗日)正則假設參數(shù)的先驗分布是Laplace分布,可以保證模型的稀疏性,也就是某些參數(shù)等于0;

L2(嶺回歸)正則假設參數(shù)的先驗分布是Gaussian分布,可以保證模型的穩(wěn)定性,也就是參數(shù)的值不會太大或太小。

在實際使用中,如果特征是高維稀疏的,則使用L1正則;如果特征是低維稠密的,則使用L2正則。

責任編輯:武曉燕 來源: 51CTO博客
相關推薦

2019-10-15 10:01:43

機器學習正則化人工智能

2024-02-20 15:17:35

機器學習模型部署

2021-04-26 13:22:55

人工智能機器學習

2021-03-09 19:42:27

機器學習治理機器學習

2021-05-24 08:00:00

機器學習數(shù)據(jù)云計算

2025-09-05 10:22:35

2022-06-20 07:16:25

機器學習模型Codex

2020-11-06 09:00:00

機器學習集成學習人工智能

2024-08-26 14:23:56

2021-04-25 10:26:34

Python機器學習人工智能

2021-12-15 23:41:09

機器學習人工智能技術

2023-05-11 15:24:12

2017-05-18 13:23:06

機器學習強化學習分類問題

2017-08-17 13:26:34

機器學習監(jiān)督學習強化學習

2020-07-29 08:34:30

機器學習安全工具

2018-03-06 09:33:38

機器學習游戲開發(fā)

2020-11-10 16:18:58

機器學習人工智能AI

2024-02-19 14:23:05

機器學習聯(lián)絡中心

2017-09-01 18:17:40

2016-01-07 12:40:02

機器學習權威定義
點贊
收藏

51CTO技術棧公眾號