A representation-learning game for classes of prediction tasks

要約

将来の予測タスクに関する事前知識のみが利用可能な場合に、特徴ベクトルの次元削減表現を学習するためのゲームベースの定式化を提案します。
このゲームでは、最初のプレーヤーが表現を選択し、次に 2 番目のプレーヤーが、事前知識を表す特定のクラスから予測タスクを敵対的に選択します。
最初のプレーヤーは後悔を最小限に抑え、2 番目のプレーヤーは最大化することを目指します。元の特徴を使用した同じ損失と比較した、表現を使用した最小の予測損失です。
表現、予測への応答、および予測子がすべて線形関数であり、平均二乗誤差損失関数の下で、事前知識の有効性を示す純粋な戦略における理論的に最適な表現を導出する正規設定の場合、
混合戦略における最適なリアクション。これは、表現をランダム化することの有用性を示しています。
一般的な表現と損失関数については、ランダム化された表現を最適化するための効率的なアルゴリズムを提案します。
このアルゴリズムは損失関数の勾配のみを必要とし、そのようなルールの混合物に表現ルールを段階的に追加することに基づいています。

要約(オリジナル)

We propose a game-based formulation for learning dimensionality-reducing representations of feature vectors, when only a prior knowledge on future prediction tasks is available. In this game, the first player chooses a representation, and then the second player adversarially chooses a prediction task from a given class, representing the prior knowledge. The first player aims is to minimize, and the second player to maximize, the regret: The minimal prediction loss using the representation, compared to the same loss using the original features. For the canonical setting in which the representation, the response to predict and the predictors are all linear functions, and under the mean squared error loss function, we derive the theoretically optimal representation in pure strategies, which shows the effectiveness of the prior knowledge, and the optimal regret in mixed strategies, which shows the usefulness of randomizing the representation. For general representations and loss functions, we propose an efficient algorithm to optimize a randomized representation. The algorithm only requires the gradients of the loss function, and is based on incrementally adding a representation rule to a mixture of such rules.

arxiv情報

著者 Neria Uzan,Nir Weinberger
発行日 2024-03-11 17:54:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IT, cs.LG, math.IT パーマリンク