並列タイトル等コウバイ ブースティング ノ コウドカ ト オウヨウ ニ カンスル ケンキュウ
Kōbai būsutingu no kōdoka to ōyō ni kansuru kenkyū
A study on the advancement and application of gradient boosting
一般注記出版タイプ: VoR
type:text
本研究では、勾配ブースティングの予測精度および計算効率の向上を目指して、正則化項を考慮した損失関数、最適化に関する効率的なアルゴリズム(Momentum SGD(Stochastic Gradient Boosting)の考え方の導入)を検討した。正則化は、作成するモデルの自由度に制限を加えることにより過学習を抑える効果がある。正則化項(または罰則項)を作成し、その値をモデルの損失と同時に扱う。正則化項は数値で計算され、予測値と実測値との残差をから得られる損失関数に加えられる。本研究では、決定木の全ての葉のスコアにおけるL1正則化項、L2正則化項を用いた。また、従来のSGDでは、学習データをシャッフルし、その中からランダムに1つを取り出して誤差を計算し、勾配法により損失関数が小さくなるようにパラメータを更新する。SGDの問題点として、収束が遅く、振動や鞍点に陥ることがある。SDGを改良したMomentum SGDでは、1期前の勾配情報を用いることで振動を抑制して従来のSDGの問題を緩和している。勾配ブースティングに対する正則化およびMomentumの効果を検証するために、UCI Machine Learning Repository のいくつのデータセットに対する予測精度と計算効率の指標の測定を行い、従来のSGD、SGD(正則化)、SGD(Momentum)、SGD(正則化+Momentum)の比較検討を行った。その結果、おおむね、予測精度および計算効率の観点から、SDG(正則化+Momentum)が良いことが示された。正則化とMomentumの相乗効果があることが示唆される。
また、推薦システムに対する向スコアマッチングを用いたアプローチを提案し、既存手法となる協調フィルタリングとの比較を行うことで提案手法の優位性を示した。傾向スコアマッチングと勾配ブースティングの融合が今後の課題である。
In this study, aiming to improve the prediction accuracy and calculation efficiency of gradient boosting, we examine the loss function considering the regularization term and the efficient algorithm for optimization (use of the concept of Momentum SGD (Stochastic Gradient Boosting)). Regularization has the effect of suppressing overfitting by constraining the degrees of freedom of the constructed model. The regularization term (or penalty term) is created, and its value is treated as the model loss. The regularization term is calculated numerically and added to the loss function obtained from the residual between the predicted and measured values. In this study, we use the L1 regularization term and the L2 regularization term in the scores of all leaves of the decision tree. In the conventional SGD, the training data is shuffled, one is randomly extracted from it, the error is calculated, and the parameters are updated so as to reduce the loss function by using the gradient method. The problem with SGD is that it converges slowly, causing vibrations and saddle points. The Momentum SGD, which is an improved version of the SGD, suppresses vibration by using the gradient information from the previous period, which enables us to alleviate the problems of the conventional SGD. In order to verify the effect of regularization and Momentum on gradient boosting, we measure the predictive accuracy and calculation efficiency indicators for several datasets of the UCI Machine Learning Repository, and compare those of the conventional SGD, SGD (regularization), SGD (Momentum) and SGD (regularization + Momentum).The result shows that SGD (regularization + Momentum) is generally good in terms of prediction accuracy and calculation efficiency. It suggests that there is a synergistic effect of regularization and Momentum.
In addition, we propose an approach using the propensity score matching to recommender systems, and show the superiority of the proposed method by comparing it with collaborative filtering, which is regarded as an existing method. The examination for combining the propensity score matching with the gradient boosting is a future study.
連携機関・データベース国立情報学研究所 : 学術機関リポジトリデータベース(IRDB)(機関リポジトリ)