偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

人工智能算法-LightGBM模型詳解

發(fā)布于 2025-4-2 00:30
瀏覽
0收藏

 LightGBM是一個快速、高效的梯度提升框架,他由微軟開發(fā),在數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)領(lǐng)域應(yīng)用廣泛。接下來詳細(xì)介紹下他的原理

 1. 梯度提升框架:LightGBM基于梯度提升決策樹(GBDT)算法,通過迭代地訓(xùn)練決策樹來逐步減少預(yù)測誤差。它將弱學(xué)習(xí)器(如決策樹)組合成一個強(qiáng)學(xué)習(xí)器,不斷地根據(jù)之前模型的誤差來調(diào)整新模型的訓(xùn)練,從而提高整體模型的準(zhǔn)確性。

舉例:

假設(shè)有一個預(yù)測房價的任務(wù),我們有一些房屋的特征數(shù)據(jù),如面積、房間數(shù)、房齡等,目標(biāo)是根據(jù)這些特征預(yù)測房屋的價格。LightGBM會先初始化一個簡單的模型,比如預(yù)測所有房屋價格都是一個固定值(可以是房價的平均值),這是初始的弱學(xué)習(xí)器。然后,計算這個初始模型的預(yù)測誤差,即真實房價與預(yù)測房價的差值。接下來,根據(jù)這個誤差來訓(xùn)練一個新的決策樹,這個決策樹的目標(biāo)是盡量糾正之前模型的誤差。將新的決策樹與之前的模型結(jié)合起來,得到一個新的、更準(zhǔn)確的模型。不斷重復(fù)這個過程,每次都根據(jù)上一輪模型的誤差來訓(xùn)練新的決策樹并加入到模型中,使模型的預(yù)測能力不斷提升。 

2.  Leaf - Wise生長策略:與傳統(tǒng)的按層生長的決策樹不同,LightGBM采用了Leaf - Wise的生長方式。它每次選擇增益最大的葉子節(jié)點進(jìn)行分裂,而不是像層生長那樣在每一層上對所有節(jié)點同時進(jìn)行分裂。這種策略可以更快速地找到最優(yōu)的分裂點,減少不必要的計算,提高模型訓(xùn)練速度。

人工智能算法-LightGBM模型詳解-AI.x社區(qū)

舉例:

在構(gòu)建決策樹時,傳統(tǒng)的按層生長方式是每一層都對所有節(jié)點進(jìn)行分裂,不管這個節(jié)點是否真的有必要分裂。而LightGBM的Leaf - Wise生長策略會從根節(jié)點開始,每次選擇一個增益最大的葉子節(jié)點進(jìn)行分裂。例如,在預(yù)測房價的決策樹中,可能某個葉子節(jié)點包含的房屋大多是房齡較新且面積較大的,這些房屋的價格相對較高且比較集中。如果按照層生長,可能會對這個節(jié)點所在層的其他節(jié)點也進(jìn)行分裂,而那些節(jié)點可能已經(jīng)比較純了,分裂意義不大。但Leaf - Wise策略會優(yōu)先選擇這個葉子節(jié)點繼續(xù)分裂,比如根據(jù)房間數(shù)進(jìn)一步細(xì)分,因為這樣可能會帶來更大的信息增益,能更精準(zhǔn)地預(yù)測房價。

3. 直方圖算法:LightGBM使用直方圖算法來優(yōu)化特征的離散化和數(shù)據(jù)的統(tǒng)計。它將連續(xù)的特征值離散化為有限個區(qū)間,然后在這些區(qū)間上構(gòu)建直方圖。通過對直方圖的統(tǒng)計和計算,可以快速找到最優(yōu)的分裂點,大大減少了計算量,同時也能有效地處理大規(guī)模數(shù)據(jù)。

人工智能算法-LightGBM模型詳解-AI.x社區(qū)

舉例:

假設(shè)我們有一個房屋面積的特征,其取值范圍是0到1000平方米。LightGBM會先將這個連續(xù)的特征值離散化為有限個區(qū)間,比如0 - 100平方米、100 - 200平方米等。然后,對于每個訓(xùn)練數(shù)據(jù)點,根據(jù)其房屋面積落入相應(yīng)的區(qū)間,并在該區(qū)間的直方圖中計數(shù)加1。在尋找最優(yōu)分裂點時,LightGBM只需要在這些離散的區(qū)間上進(jìn)行計算,而不用像傳統(tǒng)方法那樣對每個具體的面積值進(jìn)行遍歷計算。例如,要判斷在哪個面積區(qū)間進(jìn)行分裂能使房價的預(yù)測更準(zhǔn)確,只需要比較不同區(qū)間的統(tǒng)計信息,如區(qū)間內(nèi)房屋的平均價格、數(shù)量等,大大減少了計算量。

LightGBM代碼實現(xiàn)

完整代碼示例(房價預(yù)測)

1 數(shù)據(jù)準(zhǔn)備

import lightgbm as lgb

from sklearn.datasets import fetch_california_housing

from sklearn.model_selection import train_test_split

from sklearn.metrics import mean_squared_error

#加載加州房價數(shù)據(jù)集

data = fetch_california_housing()

X, y = data.data, data.target

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

#轉(zhuǎn)換為LightGBM Dataset格式

train_data = lgb.Dataset(X_train, label=y_train)

test_data = lgb.Dataset(X_test, label=y_test, reference=train_data)

2 參數(shù)設(shè)置

params = {

'objective': 'regression',

'metric': 'mse',

'boosting_type': 'gbdt',

'num_leaves': 31,

'learning_rate': 0.05,

'feature_fraction': 0.8,

'lambda_l1': 0.1,

'lambda_l2': 0.1,

'max_depth': 5,

'min_data_in_leaf': 20,

'verbose': -1

}

3 模型訓(xùn)練與早停

evals_result = {} # 記錄評估結(jié)果

model = lgb.train(

params,

train_data,

valid_sets=[train_data, test_data],

valid_names=['train', 'test'],

num_boost_round=1000,

early_stopping_rounds=50,

verbose_eval=50,

evals_result=evals_result

)

4 模型評估與可視化

#預(yù)測并計算RMSE

y_pred = model.predict(X_test)

rmse = mean_squared_error(y_test, y_pred, squared=False)

print(f'Test RMSE: {rmse:.3f}')

#可視化特征重要性

lgb.plot_importance(model, figsize=(10, 6), max_num_features=10)

#繪制訓(xùn)練曲線

lgb.plot_metric(evals_result, metric='mse', figsize=(10, 5))

5 使用SHAP解釋模型

import shap

#創(chuàng)建SHAP解釋器

explainer = shap.TreeExplainer(model)

shap_values = explainer.shap_values(X_test)

#可視化單個樣本的特征貢獻(xiàn)

shap.force_plot(explainer.expected_value, shap_values[0,:], X_test[0,:], feature_names=data.feature_names)

#全局特征重要性

shap.summary_plot(shap_values, X_test, feature_names=data.feature_names)

LightGBM與XGBoost和CatBoost比較

人工智能算法-LightGBM模型詳解-AI.x社區(qū)


LightGBM過擬合該如何處理?

1.數(shù)據(jù)層面:確保樣本量> 10,000,避免小數(shù)據(jù)使用LightGBM。

2.參數(shù)調(diào)優(yōu):

  • 降低num_leaves(如從31減至15)。
  • 增大min_data_in_leaf(如從20增至100)。
  • 提高正則化項(lambda_l1和lambda_l2)。

3.早停法:監(jiān)控驗證集誤差,提前終止訓(xùn)練。

LightGBM優(yōu)點

 ● 訓(xùn)練速度快:采用了Leaf - Wise生長策略和直方圖算法等優(yōu)化技術(shù),能夠在較短的時間內(nèi)處理大規(guī)模數(shù)據(jù)集,提高模型訓(xùn)練效率。

 ● 內(nèi)存占用少:對數(shù)據(jù)的存儲和計算進(jìn)行了優(yōu)化,通過直方圖等數(shù)據(jù)結(jié)構(gòu)來壓縮數(shù)據(jù),減少了內(nèi)存的使用,適合處理內(nèi)存受限的問題。

 ● 可擴(kuò)展性強(qiáng):支持大規(guī)模數(shù)據(jù)集和分布式訓(xùn)練,可以在多臺機(jī)器上并行訓(xùn)練模型,加速模型的訓(xùn)練過程,適用于處理海量數(shù)據(jù)的場景。

 ● 魯棒性好:對數(shù)據(jù)中的噪聲和異常值具有較好的魯棒性,能夠在一定程度上避免過擬合,提高模型的泛化能力。

本文轉(zhuǎn)載自 ??人工智能訓(xùn)練營???,作者: 小A學(xué)習(xí)

收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦