Rényi Divergence Deep Mutual Learning

要約

このペーパーでは、シンプルかつ効果的なコンピューティング パラダイムである深層相互学習 (DML) を再検討します。
バニラ DML を改善するために、より柔軟で調整可能な KL 発散の代わりに R\'{e}nyi 発散を使用することを提案します。
この変更により、追加の複雑性を制限しながら、通常の DML よりも一貫してパフォーマンスを向上させることができます。
提案されたパラダイムの収束特性が理論的に分析され、一定の学習率による確率的勾配降下法は、非凸最適化タスクの最悪のシナリオで $\mathcal{O}(1)$-bias で収束することが示されています。
つまり、学習は近くの局所最適に到達しますが、制限された範囲内で検索を継続するため、過学習の軽減に役立つ可能性があります。
最後に、私たちの広範な実証結果は、DML と R\'{e}nyi 発散を組み合わせる利点を実証し、モデルの一般化のさらなる向上につながります。

要約(オリジナル)

This paper revisits Deep Mutual Learning (DML), a simple yet effective computing paradigm. We propose using R\'{e}nyi divergence instead of the KL divergence, which is more flexible and tunable, to improve vanilla DML. This modification is able to consistently improve performance over vanilla DML with limited additional complexity. The convergence properties of the proposed paradigm are analyzed theoretically, and Stochastic Gradient Descent with a constant learning rate is shown to converge with $\mathcal{O}(1)$-bias in the worst case scenario for nonconvex optimization tasks. That is, learning will reach nearby local optima but continue searching within a bounded scope, which may help mitigate overfitting. Finally, our extensive empirical results demonstrate the advantage of combining DML and R\'{e}nyi divergence, leading to further improvement in model generalization.

arxiv情報

著者 Weipeng Huang,Junjie Tao,Changbo Deng,Ming Fan,Wenqiang Wan,Qi Xiong,Guangyuan Piao
発行日 2023-07-24 13:15:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク