Towards a mathematical understanding of learning from few examples with nonlinear feature maps

要約

我々は、学習セットがわずか数個のデータ点からなるデータ分類の問題を考える。我々はこの現象を数学的に探求し、AIモデルの特徴空間の形状、基礎となるデータ分布の構造、そしてモデルの汎化能力との間の重要な関係を明らかにする。我々の分析の主な目的は、元のデータを高次元、場合によっては無限次元の空間にマッピングする非線形特徴変換が、モデルの汎化能力に与える影響を明らかにすることである。

要約(オリジナル)

We consider the problem of data classification where the training set consists of just a few data points. We explore this phenomenon mathematically and reveal key relationships between the geometry of an AI model’s feature space, the structure of the underlying data distributions, and the model’s generalisation capabilities. The main thrust of our analysis is to reveal the influence on the model’s generalisation capabilities of nonlinear feature transformations mapping the original data into high, and possibly infinite, dimensional spaces.

arxiv情報

著者 Oliver J. Sutton,Alexander N. Gorban,Ivan Y. Tyukin
発行日 2022-11-07 14:52:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: 68Q32, 68T05, cs.AI, cs.CV, cs.LG パーマリンク