GBDT の実装である XGBoost とかのコードを森田が読みます。感想などはハッシュタグ #misreading か [email protected] にお寄せください。
https://misreading.chat/wp-content/uploads/2019/04/ep60.mp3
[1603.02754] XGBoost: A Scalable Tree Boosting Systemdmlc/xgboost: Scalable, Portable and Distributed Gradient Boosting (GBDT, GBRT or GBM) Library, for Python, R, Java, Scala, C++ and more. Runs on single machine, Hadoop, Spark, Flink and DataFlowSparse matrices (scipy.sparse) — SciPy v1.2.1 Reference Guideu++ on Twitter: “[#misreading episode 58] 自分にとっては新鮮な視点が多かった。GBDTのFrameworkとして終始「XGBoost」に言及があるけど、Kaggleでの現在の主流は「LightGBM」なので2019年の情報としては誤解を招きそう。あとアンサンブルの例としてバギングとランダムフォレストを横並びで列挙するのは微妙かも。”Microsoft/LightGBM: A fast, distributed, high performance gradient boosting (GBDT, GBRT, GBM or MART) framework based on decision tree algorithms, used for ranking, classification and many other machine learning tasks. It is under the umbrella of the DMTK(http://github.com/microsoft/dmtk) project of Microsoft.LightGBM: A Highly Efficient Gradient Boosting Decision Tree – Microsoft ResearchHow to train Boosted Trees models in TensorFlow – TensorFlow – MediumFollow-up
Cloud Run documentation | Cloud Run | Google Cloud今シーズンはこのエピソードでおしまいです。またしばらくお休みします。