Support Vector Regression: Risk Quadrangle Framework

要約

この論文では、最適化、リスク管理、統計的推定を結び付ける基本的なリスク四角形理論の文脈でサポート ベクター回帰 (SVR) を調査します。
SVR の両方の公式 $\varepsilon$-SVR と $\nu$-SVR は、正則化ペナルティを伴う等価誤差測定 (それぞれ Vapnik 誤差と CVaR ノルム) の最小化に対応することが示されています。
これらの誤差の尺度は、対応するリスクの四角形を定義します。
SVR に対応する基本リスク四角形を構築することにより、SVR が 2 つの対称条件付き分位点の平均の漸近的不偏推定量であることを示します。
さらに、一般的な確率設定における $\varepsilon$-SVR と $\nu$-SVR が同等であることを証明します。
さらに、SVR は、正則化ペナルティを伴う正則偏差最小化問題として定式化されます。
最後に、リスク四辺形フレームワークにおける SVR の二重定式化が導出されます。

要約(オリジナル)

This paper investigates Support Vector Regression (SVR) in the context of the fundamental risk quadrangle theory, which links optimization, risk management, and statistical estimation. It is shown that both formulations of SVR, $\varepsilon$-SVR and $\nu$-SVR, correspond to the minimization of equivalent error measures (Vapnik error and CVaR norm, respectively) with a regularization penalty. These error measures, in turn, define the corresponding risk quadrangles. By constructing the fundamental risk quadrangle, which corresponds to SVR, we show that SVR is the asymptotically unbiased estimator of the average of two symmetric conditional quantiles. Further, we prove the equivalence of the $\varepsilon$-SVR and $\nu$-SVR in a general stochastic setting. Additionally, SVR is formulated as a regular deviation minimization problem with a regularization penalty. Finally, the dual formulation of SVR in the risk quadrangle framework is derived.

arxiv情報

著者 Anton Malandii,Stan Uryasev
発行日 2023-06-28 16:22:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH パーマリンク