要約
多目的最適化 (MOO) の目標は、矛盾する可能性がある複数の目標の下で学習することです。
MOO に取り組むために広く使用されている手法の 1 つは線形スカラー化です。この方法では、1 つの固定優先ベクトルを使用して目的を単一のスカラー値に結合して最適化します。
しかし、最近の研究 (Hu et al., 2024) では、線形スカラー化ではパレート フロントの非凸領域を捕捉できないことが多く、パレート最適解の完全なセットを回復できないことが示されています。
上記の制限を考慮して、このホワイト ペーパーでは、最悪の場合の目的に合わせて最適化するチェビシェフ スカラー化に焦点を当てます。
特に、我々は OMD-TCH と呼ぶ、チェビシェフ スカラー化のためのオンライン ミラー降下アルゴリズムを提案します。
OMD-TCH が $O(\sqrt{\log m/T})$ の収束率を達成していることを示します。ここで、$m$ は目標の数、$T$ は反復ラウンドの数です。
また、同じ収束保証を維持しながら、OMD-TCH の実際のパフォーマンスを大幅に向上させる、新しい適応型オンラインからバッチへの変換スキームも提案します。
公平性制約の下で合成問題と連合学習タスクの両方に対する OMD-TCH と適応変換スキームの有効性を実証し、最先端のパフォーマンスを示します。
要約(オリジナル)
The goal of multi-objective optimization (MOO) is to learn under multiple, potentially conflicting, objectives. One widely used technique to tackle MOO is through linear scalarization, where one fixed preference vector is used to combine the objectives into a single scalar value for optimization. However, recent work (Hu et al., 2024) has shown linear scalarization often fails to capture the non-convex regions of the Pareto Front, failing to recover the complete set of Pareto optimal solutions. In light of the above limitations, this paper focuses on Tchebycheff scalarization that optimizes for the worst-case objective. In particular, we propose an online mirror descent algorithm for Tchebycheff scalarization, which we call OMD-TCH. We show that OMD-TCH enjoys a convergence rate of $O(\sqrt{\log m/T})$ where $m$ is the number of objectives and $T$ is the number of iteration rounds. We also propose a novel adaptive online-to-batch conversion scheme that significantly improves the practical performance of OMD-TCH while maintaining the same convergence guarantees. We demonstrate the effectiveness of OMD-TCH and the adaptive conversion scheme on both synthetic problems and federated learning tasks under fairness constraints, showing state-of-the-art performance.
arxiv情報
著者 | Meitong Liu,Xiaoyuan Zhang,Chulin Xie,Kate Donahue,Han Zhao |
発行日 | 2024-11-11 16:17:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google