要約
最近のマルチタスク学習の研究では、ユニタリー スカラー化に反対し、トレーニングによってタスクの損失の合計が単純に最小化されると主張しています。
代わりに、マルチタスク設定を困難にする原因に関するさまざまな仮説に触発されて、いくつかのアドホック マルチタスク最適化アルゴリズムが提案されています。
これらのオプティマイザーの大部分は、タスクごとの勾配を必要とし、かなりのメモリ、ランタイム、および実装のオーバーヘッドを導入します。
単一タスク学習からの標準的な正則化および安定化手法と組み合わせたユニタリ スカラー化は、一般的な教師ありおよび強化学習の設定における複雑なマルチタスク オプティマイザーのパフォーマンスに匹敵するか、それを改善することを示します。
次に、多くの特殊なマルチタスク オプティマイザが部分的に正則化の形式として解釈できることを示唆する分析を提示し、驚くべき結果を説明する可能性があります。
私たちの結果は、この分野における最近の研究を批判的に再評価する必要があると信じています。
要約(オリジナル)
Recent multi-task learning research argues against unitary scalarization, where training simply minimizes the sum of the task losses. Several ad-hoc multi-task optimization algorithms have instead been proposed, inspired by various hypotheses about what makes multi-task settings difficult. The majority of these optimizers require per-task gradients, and introduce significant memory, runtime, and implementation overhead. We show that unitary scalarization, coupled with standard regularization and stabilization techniques from single-task learning, matches or improves upon the performance of complex multi-task optimizers in popular supervised and reinforcement learning settings. We then present an analysis suggesting that many specialized multi-task optimizers can be partly interpreted as forms of regularization, potentially explaining our surprising results. We believe our results call for a critical reevaluation of recent research in the area.
arxiv情報
著者 | Vitaly Kurin,Alessandro De Palma,Ilya Kostrikov,Shimon Whiteson,M. Pawan Kumar |
発行日 | 2022-10-12 15:34:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google