pythonで回帰分析【xgb,lgbm,voting】

XGBoost、LightGBM、アンサンブル学習(Voting regressor)についての情報整理

kaggleはこちら。

www.kaggle.com

XGBoost

Python: XGBoost を使ってみる - CUBE SUGAR CONTAINER

XGBoostハイパーパラメータチューニング

Optunaを使ったxgboostの設定方法 - Qiita

XGBoostをOptunaでチューニング(コード解説付き) - Qiita

XGBトピックス

WARNING対応です。

WARNING: /workspace/src/objective/regression_obj.cu:152: reg:linear is now deprecated in favor of reg:squarederror.
regressor = XGBRegressor(tree_method='gpu_hist', random_state=0, objective='reg:squarederror')

XGBRegressor で WARNING: src/objective/regression_obj.cu:152: reg:linear is now deprecated in favor of reg:squarederror. - Qiita

LightGBM

公式はこちら

lightgbm.LGBMRegressor — LightGBM 3.2.1.99 documentation

LightGBM 徹底入門 – LightGBMの使い方や仕組み、XGBoostとの違いについて

LightGBM ハンズオン - もう一つのGradient Boostingライブラリ - Qiita

Python: LightGBM を使ってみる - CUBE SUGAR CONTAINER

LightGBMのPythonパッケージ触ってみた - お勉強メモ

LightGBMのweightの使い方、weightは一体何を行っているのか - Qiita

ハイパーパラメータチューニング

LightGBMのハイパーパラメーターチューニングの仕方(optuna) | 獣医 x プログラミング

LightGBMをOptunaでパラメータチューニングする - Qiita

Optuna の拡張機能 LightGBM Tuner によるハイパーパラメータ自動最適化 | Preferred Networks Research & Development

LightGBMをOptunaでパラメータチューニングする - Qiita

OptunaでLightGBMのパラメータ調整 - Qiita

Python 3.x - lightgbm のverbose パラメータが機能しない|teratail

LightGBMトピック

パラメータを辞書型で設定するときは、渡し方に注意。

params = {
'num_class':5,
'max_depth':8,
'num_leaves':200,
'learning_rate': 0.05,
'n_estimators':500
}

clf = LGBMClassifier(**params)

python - LightGBM on Numerical+Categorical+Text Features >> TypeError: Unknown type of parameter:boosting_type, got:dict - Stack Overflow

アンサンブル学習(Voting regressor)

その9 ボストンの住宅価格をアンサンブル学習(Voting regressor)で予測してみた - ヒノマルクのデータ分析ブログ

Python: アンサンブル学習の Voting を試す - CUBE SUGAR CONTAINER

最新アンサンブル学習SklearnStackingの性能調査(LBGM, RGF, ET, RF, LR, KNNモデル

scikit-learnでバギングとブースティングをやってみる - Qiita