pythonで回帰分析【xgb,lgbm,voting】
XGBoost、LightGBM、アンサンブル学習(Voting regressor)についての情報整理
kaggleはこちら。
XGBoost
Python: XGBoost を使ってみる - CUBE SUGAR CONTAINER
XGBoostハイパーパラメータチューニング
Optunaを使ったxgboostの設定方法 - Qiita
XGBoostをOptunaでチューニング(コード解説付き) - Qiita
XGBトピックス
WARNING対応です。
WARNING: /workspace/src/objective/regression_obj.cu:152: reg:linear is now deprecated in favor of reg:squarederror.
regressor = XGBRegressor(tree_method='gpu_hist', random_state=0, objective='reg:squarederror')
LightGBM
公式はこちら
lightgbm.LGBMRegressor — LightGBM 3.2.1.99 documentation
LightGBM 徹底入門 – LightGBMの使い方や仕組み、XGBoostとの違いについて
LightGBM ハンズオン - もう一つのGradient Boostingライブラリ - Qiita
Python: LightGBM を使ってみる - CUBE SUGAR CONTAINER
LightGBMのPythonパッケージ触ってみた - お勉強メモ
LightGBMのweightの使い方、weightは一体何を行っているのか - Qiita
ハイパーパラメータチューニング
LightGBMのハイパーパラメーターチューニングの仕方(optuna) | 獣医 x プログラミング
LightGBMをOptunaでパラメータチューニングする - Qiita
Optuna の拡張機能 LightGBM Tuner によるハイパーパラメータ自動最適化 | Preferred Networks Research & Development
LightGBMをOptunaでパラメータチューニングする - Qiita
OptunaでLightGBMのパラメータ調整 - Qiita
Python 3.x - lightgbm のverbose パラメータが機能しない|teratail
LightGBMトピック
パラメータを辞書型で設定するときは、渡し方に注意。
params = { 'num_class':5, 'max_depth':8, 'num_leaves':200, 'learning_rate': 0.05, 'n_estimators':500 } clf = LGBMClassifier(**params)
アンサンブル学習(Voting regressor)
その9 ボストンの住宅価格をアンサンブル学習(Voting regressor)で予測してみた - ヒノマルクのデータ分析ブログ
Python: アンサンブル学習の Voting を試す - CUBE SUGAR CONTAINER
最新アンサンブル学習SklearnStackingの性能調査(LBGM, RGF, ET, RF, LR, KNNモデル