Representer Theorems for Metric and Preference Learning: A Geometric Perspective

要約

タイトル – メトリック学習とプリファレンス学習のためのレプリゼンターテオレム:幾何学的視点による

要約 – 本研究では、ヒルベルト空間におけるメトリック学習とプリファレンス学習の問題を探求しています。我々は、メトリック学習とプリファレンス学習の同時タスクのための革新的なレプリゼンターテオレムを得ました。我々の主な観察は、レプリゼンターテオレムが、問題構造に固有の内積によって引き起こされるノルムに関して表現できることです。さらに、我々は、三つ組比較からのメトリック学習のタスクに対して我々のフレームワークが適用できることを示し、簡単で自己完結性のあるレプリゼンターテオレムにつながることを示しました。再生核ヒルベルト空間(RKHS)の場合、学習問題の解を、古典的なレプリゼンターテオレムに似たカーネル項を用いて表現できることを示しています。

– レプリゼンターテオレムを構造に固有の内積に関して表現できる
– 三つ組比較からのメトリック学習のタスクに対して、フレームワークが適用できる
– 再生核ヒルベルト空間(RKHS)の場合、学習問題の解をカーネル項を用いて表現できる。

要約(オリジナル)

We explore the metric and preference learning problem in Hilbert spaces. We obtain a novel representer theorem for the simultaneous task of metric and preference learning. Our key observation is that the representer theorem can be formulated with respect to the norm induced by the inner product inherent in the problem structure. Additionally, we demonstrate how our framework can be applied to the task of metric learning from triplet comparisons and show that it leads to a simple and self-contained representer theorem for this task. In the case of Reproducing Kernel Hilbert Spaces (RKHS), we demonstrate that the solution to the learning problem can be expressed using kernel terms, akin to classical representer theorems.

arxiv情報

著者 Peyman Morteza
発行日 2023-04-07 16:34:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク