要約
分布的に堅牢な最適化(DRO)は、学習方法の堅牢性と公平性を向上させることができます。
この論文では、グループDRO、亜集団の公平性、リスクのある経験的条件価値(CVAR)の最適化などのDRO問題のクラスについて、確率的アルゴリズムを考案します。
新しいアルゴリズムは、複数のDRO設定の既存のアルゴリズムよりも速い収束率を実現します。
また、グループDROの境界がタイトであることを意味する新しい情報理論的下限も提供します。
経験的にも、私たちのアルゴリズムは既知の方法よりも優れています。
要約(オリジナル)
Distributionally robust optimization (DRO) can improve the robustness and fairness of learning methods. In this paper, we devise stochastic algorithms for a class of DRO problems including group DRO, subpopulation fairness, and empirical conditional value at risk (CVaR) optimization. Our new algorithms achieve faster convergence rates than existing algorithms for multiple DRO settings. We also provide a new information-theoretic lower bound that implies our bounds are tight for group DRO. Empirically, too, our algorithms outperform known methods.
arxiv情報
著者 | Tasuku Soma,Khashayar Gatmiry,Sharut Gupta,Stefanie Jegelka |
発行日 | 2025-01-31 18:54:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google