勾配ブースティング

勾配ブースティング(こうばいブースティング、Gradient Boosting)は、回帰分類などのタスクのための機械学習手法であり、弱い予測モデル weak prediction model(通常は決定木)のアンサンブルの形で予測モデルを生成する[1][2]。決定木が弱い学習者 weak learner である場合、結果として得られる予測器は勾配ブースト木と呼ばれ、通常はランダムフォレストよりも優れている[3]。他のブースティング手法と同様に段階的にモデルを構築するが、任意の微分可能損失関数の最適化を可能にすることで一般化している。

歴史

[編集]

勾配ブースティングのアイデアは、ブースティングが適切なコスト関数に対する最適化アルゴリズムとして解釈できるというレオ・ブライマンの観察に端を発している[4]。その後、ジェローム・H・フリードマンが回帰勾配ブースティングアルゴリズムを開発し[5][6]、Llew Mason、Jonathan Baxter、Peter Bartlett、MarcusFreanがより一般的な関数型勾配ブースティングの観点から発表した[7] [8]後者の2つの論文では、ブースティング・アルゴリズムを反復的な関数型勾配降下アルゴリズムとして捉えることが紹介された。すなわち、負の勾配方向を向く関数(弱い仮説 weak hypothesis)を繰り返し選択することにより、関数空間上のコスト関数を最適化するアルゴリズムである。このブースティングの関数型勾配としての見方により、回帰や分類にとどまらず、機械学習統計学の多くの分野でブースティング・アルゴリズムが開発されている。

簡単な紹介

[編集]

本節では、Li による勾配ブースティングの説明を紹介する[9]

他のブースティング方法と同様に、勾配ブースティングは、弱い学習器を反復的に結合し1つの強い学習器を構成する。最小二乗回帰の設定で説明するのが簡単で、

  • の予測値
  • の観測値

とする。ここで、 は訓練集合におけるインデックスであり は 訓練集合のの標本数である。目標は、平均二乗誤差 を最小化することにより未知の に対する予測値を によって得るようなモデル を訓練することである。

ここで、 個のステージがからなる勾配ブースティング・アルゴリズムについて考える。勾配ブースティングの )ステージ目において、いくつかの不完全なモデル を想定する。 が小さいうちは、このモデルは単にy の平均値を返すだけかもしれない()。 を改善するために新しい推定量 を追加すると、

または、同等に、

したがって、勾配ブースティングは、h残差 に適合させる。他のブースティング手法と同様、 は前任者のエラーを修正しようとする。二乗誤差以外の損失関数や分類・ランク付け問題に一般化すると、モデルの残差 に関する平均二乗誤差損失関数の負の勾配に比例する。

したがって、勾配ブースティングは勾配降下アルゴリズムに特化したものであり、これを一般化するには、異なる損失とその勾配を「プラグイン」する必要がある。

アルゴリズム

[編集]

多くの教師あり学習問題では、出力変数 y と入力変数のベクトル x があり、相互に何らかの確率分布で関連している。目標は、入力変数の値から出力変数を最もよく近似する関数 を見つけることである。これは、損失関数 の最小化として形式化することができる。

勾配ブースティング法では、実数 y を仮定し、クラス の関数 (基本学習者 base learners ないし弱い学習者 weak learners)の加重和の形で近似 を求める。

通常、既知の標本 x に対応する y の値からなるトレーニングセット が提供される。経験的リスク最小化の原則に基づき、トレーニングセットにおける損失関数の平均値を最小化する(経験的リスクを最小化する)近似 を探索する。これは定数関数 に基づくモデルから開始し、貪欲法で段階的に拡張する。

ここで、 は基本学習関数。

残念ながら、任意損失関数Lに対して各ステップで最適な関数 h を選択することは、一般に計算上実行不可能な最適化問題である。そのため、単純化されたバージョンにアプローチを限定する。

この最小化問題に最急降下法のステップを適用する。

最急降下法の基本的な考え方は、 を反復することによって損失関数の極小値を見つけることである。



ここで 。これは、次のことを意味する。


損失関数が最小値を取る をみつけることで、 を最適化することができる。


連続的な場合、つまり、 上の任意の微分可能な関数の集合と考えるト、次の式に従ってモデルを更新する

ここで、関数 , を微分する。がステップ長である。離散的な場合、すなわち集合 が有限の場合、L の勾配に最も近い h を選択する。この候補関数の係数 γ は、上記の方程式の線型探索を使用して計算できる。このアプローチはヒューリスティックであるため、特定の問題に対する正確な解決策ではなく、近似値が得られることに注意。擬似コードでは、一般的な勾配ブースティング方法は次のとおり[5][2]

Input: training set a differentiable loss function number of iterations M.

Algorithm:

  1. Initialize model with a constant value:
  2. For m = 1 to M:
    1. Compute so-called pseudo-residuals:
    2. Fit a base learner (or weak learner, e.g. tree) to pseudo-residuals, i.e. train it using the training set .
    3. Compute multiplier by solving the following one-dimensional optimization problem:
    4. Update the model:
  3. Output

勾配ツリーブースティング

[編集]

勾配ブースティングは通常、固定サイズの決定木(特にCART木)を基本学習者として使用する。フリードマンは、この特殊なケースに対して、各基本学習者の適合性を向上させる勾配ブースティング法の修正を提案している。

一般的な勾配ブースティングでは、m 番目のステップにおいて、決定木 を疑似残差に適合させる。 をその葉の数とする。ツリーは入力空間を 個の互いに素な領域 に分けて各地域の定数値を予測する。入力 x に対する出力 指示関数を使って記述すると

ここで、は領域 における予測値を表す[10]

次に、係数 (損失関数を最小化するように線型探索で選択する)を乗じ、モデルは次のように更新される。

フリードマンは、木全体に対する ではなく、領域毎に異なる別の最適値 を選択するようにこのアルゴリズムを修正することを提案している。彼は修正されたアルゴリズムを「TreeBoost」と呼んでいる。係数 を破棄して、モデルの更新規則は次のようになる。

木のサイズ

[編集]

は木の末端ノードの数であり、本手法のパラメータで、手元のデータセットに合わせて調整できる。これは、モデル内の変数間の交互作用の最大許容レベルを制御する。 (決定株)では、変数間の交互作用は許可されていない。また、 では、最大2つの変数の間の交互作用の影響をモデルに含めることができる。

Hastie らは、典型的には でブースティングが上手くいき、結果は の選択にあまり影響を受けないが、 では不十分であり、 が必要になることはあまりないと述べている[2]

正則化

[編集]

トレーニングセットをフィットさせすぎると、モデルの汎化能力が低下してしまう。正則化と呼ばれるいくつかの手法は、フィッティング手順を制約することで、このオーバーフィッティングを軽減する。

自然な正則化パラメータの一つに、勾配ブースティングの反復回数 M (すなわち、基本学習者が決定木である場合、モデルに含まれる木の数)がある。 M を増加させると、トレーニングセットのエラーが減少するが、M が大きすぎると、オーバーフィッティングにつながる可能性がある。M の最適な値は、別の検証データセットで予測誤差を監視することによって選択されることが多い。 Mの制御以外にも、いくつかの正則化手法が使用される。

もう1つの正則化パラメータは、木の深さである。この値が大きいほど、モデルがトレーニングデータに過剰適合する可能性が高くなる。

収縮

[編集]

勾配ブースティング方法の重要な部分は、収縮による正則化であり、更新規則を次のように変更することである。

ここでパラメータ は「学習率」と呼ばれる。

経験的には、小さな学習率(例えば など)を用いると、学習率を下げずに勾配ブースティングを行った場合()に比べて、モデルの汎化能力が劇的に向上することが分かっている[2]。 ただし、学習率が低いと反復回数が多くなり、学習時と検索時の計算時間が長くなる。

確率的勾配ブースティング

[編集]

勾配ブースティングが導入後されて間もない頃、フリードマンは、ブレイマンのブートストラップ・アグリゲーション(バギング)法を参考にして、アルゴリズムのマイナーチェンジを提案した[6]。具体的には、アルゴリズムの各反復において、置換なしでランダムに抽出されたトレーニングセットのサブサンプルにベース学習器を適合させることを提案した。[11]。フリードマンは、この変更により、勾配ブースティングの精度が大幅に向上することを確認しました。

サブサンプルはトレーニングセットから一定の割合で選ばれる。 のとき、アルゴリズムは決定論的であり、上記のものと同じになる。 の値が小さいと、アルゴリズムにランダム性を導入し、オーバーフィッティングの防止に役立つ。回帰木は各反復でより小さなデータセットに適合させるため、アルゴリズムも高速になる。フリードマンは小規模および中規模のトレーニングセットのいて で良好な結果が得られることを突き止めた[6]。そのため、 は通常は0.5に設定される。これは、トレーニングセットの半分が各基本学習者の構築に使用されることを意味する。

また、バギングの場合と同様に、サブサンプリングでは、次の基本学習者の構築に使用されなかった観測値の予測を評価することで、予測性能の向上のアウトオブバッグエラーを定義できる。アウトオブバッグの推定値は、独立した検証データセットの必要性を回避するのに役立つが、実際の性能向上や最適な反復回数を過小評価することがよくある[12] [13]

葉の観察数

[編集]

勾配ツリーブースティングの実装では、木の末端ノードでの観測の最小数を制限する正則化もよく使用される。この正則化は、木の構築プロセスにおいて、この数より少ないトレーニングセットインスタンスを含むノードにつながる分割を無視する。

この制限を設けることで、葉での予測のばらつきを抑えることができる。

ツリーの複雑さにペナルティを課す

[編集]

勾配ブーストツリーのもう1つの有用な正則化手法は、学習したモデルのモデルの複雑さにペナルティを課すことである[14]。モデルの複雑さは、学習したツリーの葉の数に比例するものとして定義できる。損失とモデルの複雑さの共同最適化は、損失をしきい値で減らすことができない枝を取り除くポストプルーニング・アルゴリズムに対応する。他の正則化の種類としては、正則化を行うことで、オーバーフィッティングを防ぐことができる。

使用法

[編集]

勾配ブースティングは、ランク付けの学習の分野でも利用されている。商用ウェブ検索エンジンであるYahoo! [15]Yandex [16]は、機械学習型のランキングエンジンに勾配ブースティングの変法を使用している。また、高エネルギー物理学の分野でも、データ解析に勾配ブースティングが利用されている。大型ハドロン衝突型加速器(LHC)では、ヒッグス粒子の発見に使用されたデータセットにおいて、勾配ブースティングを用いたディープニューラルネットワーク(DNN)が、機械学習ではない解析方法の結果を再現することに成功した[17]

名前

[編集]

この方法にはさまざまな名前が付けられている。 フリードマンは、自分の回帰手法を「Gradient Boosting Machine」(GBM)として紹介した[5]。 メイソン、バクスターらは、一般化された抽象的なクラスのアルゴリズムを「関数的勾配ブースティング」と表現している[7] [8]。フリードマンらは、勾配ブーストモデルを発展させたものを Multiple Additive Regression Trees(MART)と表現し[18]、Elithらは、そのアプローチを「Boosting Regression Trees」(BRT)として説明する[19]

R言語のオープンソースの実装では「Generalized Boosting Model」と呼んでいるが[12] 、「BRT」を使用している[20]。また、木ベースの方手法を開発した研究者の1人であるSalford System社のDan Steinbergによる初期の商用実装にちなんで、TreeNet とも呼ばれている[21]。XGBoostは、2次最適化などの拡張機能を備えた最新の実装として人気がある。

短所

[編集]

ブースティングは、決定木や線形回帰などの基本学習者の精度を高めることができるが、分かりやすさ intelligibility や解釈のしやすさ interpretability を犠牲にする[1] [22]。また、計算量が多くなるため、実装が難しくなることもある。

関連項目

[編集]

脚注

[編集]

注釈

[編集]

出典

[編集]
  1. ^ a b Piryonesi, S. Madeh; El-Diraby, Tamer E. (2020-03-01). “Data Analytics in Asset Management: Cost-Effective Prediction of the Pavement Condition Index” (英語). Journal of Infrastructure Systems 26 (1): 04019036. doi:10.1061/(ASCE)IS.1943-555X.0000512. ISSN 1943-555X. https://ascelibrary.org/doi/abs/10.1061/%28ASCE%29IS.1943-555X.0000512. 
  2. ^ a b c d Hastie, T.; Tibshirani, R.; Friedman, J. H. (2009). “10. Boosting and Additive Trees”. The Elements of Statistical Learning (2nd ed.). New York: Springer. pp. 337–384. ISBN 978-0-387-84857-0. オリジナルの2009-11-10時点におけるアーカイブ。. http://www-stat.stanford.edu/~tibs/ElemStatLearn/ 
  3. ^ Piryonesi, S. Madeh; El-Diraby, Tamer E. (2021-02-01). “Using Machine Learning to Examine Impact of Type of Performance Indicator on Flexible Pavement Deterioration Modeling” (英語). Journal of Infrastructure Systems 27 (2): 04021005. doi:10.1061/(ASCE)IS.1943-555X.0000602. ISSN 1076-0342. http://ascelibrary.org/doi/10.1061/%28ASCE%29IS.1943-555X.0000602. 
  4. ^ Breiman, L. (June 1997). “Arcing The Edge”. Technical Report 486 (Statistics Department, University of California, Berkeley). https://statistics.berkeley.edu/sites/default/files/tech-reports/486.pdf. 
  5. ^ a b c Friedman, J. H. (February 1999). Greedy Function Approximation: A Gradient Boosting Machine. https://statweb.stanford.edu/~jhf/ftp/trebst.pdf. 
  6. ^ a b c Friedman, J. H. (March 1999). Stochastic Gradient Boosting. https://statweb.stanford.edu/~jhf/ftp/stobst.pdf. 
  7. ^ a b Mason, L.; Baxter, J.; Bartlett, P. L.; Frean, Marcus (1999). "Boosting Algorithms as Gradient Descent" (PDF). In S.A. Solla and T.K. Leen and K. Müller (ed.). Advances in Neural Information Processing Systems 12. MIT Press. pp. 512–518.
  8. ^ a b Mason, L.; Baxter, J.; Bartlett, P. L.; Frean, Marcus (May 1999). Boosting Algorithms as Gradient Descent in Function Space. https://www.maths.dur.ac.uk/~dma6kp/pdf/face_recognition/Boosting/Mason99AnyboostLong.pdf. 
  9. ^ Cheng Li. “A Gentle Introduction to Gradient Boosting”. 2021年10月6日閲覧。
  10. ^ Note: in case of usual CART trees, the trees are fitted using least-squares loss, and so the coefficient for the region is equal to just the value of output variable, averaged over all training instances in .
  11. ^ Note that this is different from bagging, which samples with replacement because it uses samples of the same size as the training set.
  12. ^ a b Ridgeway, Greg (2007). Generalized Boosted Models: A guide to the gbm package.
  13. ^ Learn Gradient Boosting Algorithm for better predictions (with codes in R)
  14. ^ Tianqi Chen. Introduction to Boosted Trees
  15. ^ Cossock, David and Zhang, Tong (2008). Statistical Analysis of Bayes Optimal Subset Ranking Archived 2010-08-07 at the Wayback Machine., page 14.
  16. ^ Yandex corporate blog entry about new ranking model "Snezhinsk" (in Russian)
  17. ^ Lalchand, Vidhi. "Extracting more from boosted decision trees: A high energy physics case study". arXiv:2001.06033 [stat.ML]。
  18. ^ Friedman, Jerome (2003). “Multiple Additive Regression Trees with Application in Epidemiology”. Statistics in Medicine 22 (9): 1365–1381. doi:10.1002/sim.1501. PMID 12704603. 
  19. ^ Elith, Jane (2008). “A working guide to boosted regression trees”. Journal of Animal Ecology 77 (4): 802–813. doi:10.1111/j.1365-2656.2008.01390.x. PMID 18397250. 
  20. ^ Elith. “Boosted Regression Trees for ecological modeling”. CRAN. CRAN. 31 August 2018閲覧。
  21. ^ https://www.kdnuggets.com/2013/06/exclusive-interview-dan-steinberg-salford-systems-data-mining-solutions-provider.html
  22. ^ Wu, Xindong; Kumar, Vipin; Ross Quinlan, J.; Ghosh, Joydeep; Yang, Qiang; Motoda, Hiroshi; McLachlan, Geoffrey J.; Ng, Angus et al. (2008-01-01). “Top 10 algorithms in data mining” (英語). Knowledge and Information Systems 14 (1): 1–37. doi:10.1007/s10115-007-0114-2. ISSN 0219-3116. 

参考文献

[編集]
  • Boehmke, Bradley; Greenwell, Brandon (2019). “Gradient Boosting”. Hands-On Machine Learning with R. Chapman & Hall. pp. 221–245. ISBN 978-1-138-49568-5 

外部リンク

[編集]