Localisation of Regularised and Multiview Support Vector Machine Learning

要約

タイトル: 正則化およびマルチビューサポートベクターマシン学習のローカリゼーション

要約:
– H.Q. ~ Min,L. ~ Bazzani,およびV.~Murinoによって導入された正則化およびマルチビューサポートベクターマシン学習問題のローカライズバージョンのいくつかの表現定理を証明します。
– 表示の定理は、演算子値の正定値カーネルとそれらの再生核ヒルベルト空間が関与する場合について、凸または非凸の損失関数および有限または無限次元の入力空間が考慮される場合を含む汎用ケースについて議論しています。
– 一般的なフレームワークが無限次元の入力空間を許可し、特定の場合、特に損失関数がGâteaux微分可能である場合において、非凸損失関数を許可することを示します。
– 部分的に非線形問題を引き起こす指数最小二乗損失関数の詳細な計算を提供します。

要約(オリジナル)

We prove a few representer theorems for a localised version of the regularised and multiview support vector machine learning problem introduced by H.Q.~Minh, L.~Bazzani, and V.~Murino, \textit{Journal of Machine Learning Research}, \textbf{17}(2016) 1–72, that involves operator valued positive semidefinite kernels and their reproducing kernel Hilbert spaces. The results concern general cases when convex or nonconvex loss functions and finite or infinite dimensional input spaces are considered. We show that the general framework allows infinite dimensional input spaces and nonconvex loss functions for some special cases, in particular in case the loss functions are G\^ateaux differentiable. Detailed calculations are provided for the exponential least squares loss functions that leads to partially nonlinear problems.

arxiv情報

著者 Aurelian Gheondea,Cankat Tilki
発行日 2023-04-12 07:19:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: 46E22, 46G05, 68T05, cs.LG, math.FA パーマリンク