要約
マルチタスクの事前トレーニングに基づく表現学習は、多くの分野で強力なアプローチとなっています。
特に、タスク認識表現学習は、ソース タスクのセットからデータをサンプリングすることによって、特定のターゲット タスクに最適な表現を学習することを目的としていますが、タスク非依存表現学習は、タスクのクラスに対する普遍的な表現を学習しようとします。
この論文では、学習者がどのソースタスクからサンプリングするかを最適に選択する、\textit{能動表現学習}のための一般的で汎用性の高いアルゴリズムおよび理論的フレームワークを提案します。
このフレームワークは、扱いやすいメタ アルゴリズムとともに、ほとんどの任意のターゲットおよびソース タスク空間 (離散から連続まで) を許可し、タスク認識設定とタスク非依存設定の両方をカバーし、深層表現学習の実践と互換性があります。
このフレームワークの下で、双線形および特徴ベースの非線形から一般的な非線形のケースまで、いくつかのインスタンス化を提供します。
双線形のケースでは、タスク表現の不均一スペクトルと調整されたソースとターゲットの関連性を活用することで、ターゲット上で $\varepsilon$-過剰リスクを達成するためのサンプルの複雑さが $(k^*)^ でスケールされることを証明します。
2 \|v^*\|_2^2 \varepsilon^{-2}$ ここで、$k^*$ はターゲットの有効寸法、$\|v^*\|_2^2 \in (0,1
]$ はソース空間とターゲット空間の間の接続を表します。パッシブ空間と比較して、これによりサンプルの複雑さを $\frac{1}{d_W}$ まで節約できます ($d_W$ はタスク空間の次元です)。
振り子シミュレーションから現実世界のドローン飛行データセットに至るまで、合成データセットやロボット工学の問題におけるメタ アルゴリズムのさまざまなインスタンス化。平均して、当社のアルゴリズムはベースラインを $20\%-70\%$ 上回っています。
要約(オリジナル)
Representation learning based on multi-task pretraining has become a powerful approach in many domains. In particular, task-aware representation learning aims to learn an optimal representation for a specific target task by sampling data from a set of source tasks, while task-agnostic representation learning seeks to learn a universal representation for a class of tasks. In this paper, we propose a general and versatile algorithmic and theoretic framework for \textit{active representation learning}, where the learner optimally chooses which source tasks to sample from. This framework, along with a tractable meta algorithm, allows most arbitrary target and source task spaces (from discrete to continuous), covers both task-aware and task-agnostic settings, and is compatible with deep representation learning practices. We provide several instantiations under this framework, from bilinear and feature-based nonlinear to general nonlinear cases. In the bilinear case, by leveraging the non-uniform spectrum of the task representation and the calibrated source-target relevance, we prove that the sample complexity to achieve $\varepsilon$-excess risk on target scales with $ (k^*)^2 \|v^*\|_2^2 \varepsilon^{-2}$ where $k^*$ is the effective dimension of the target and $\|v^*\|_2^2 \in (0,1]$ represents the connection between source and target space. Compared to the passive one, this can save up to $\frac{1}{d_W}$ of sample complexity, where $d_W$ is the task space dimension. Finally, we demonstrate different instantiations of our meta algorithm in synthetic datasets and robotics problems, from pendulum simulations to real-world drone flight datasets. On average, our algorithms outperform baselines by $20\%-70\%$.
arxiv情報
著者 | Yifang Chen,Yingbing Huang,Simon S. Du,Kevin Jamieson,Guanya Shi |
発行日 | 2023-06-15 08:27:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google