Improving Training Stability for Multitask Ranking Models in Recommender Systems

要約

レコメンダー システムは、多くのコンテンツ プラットフォームで重要な役割を果たしています。
推奨調査のほとんどは、ユーザー エクスペリエンスを向上させるためのより良いモデルの設計に特化していますが、そのようなモデルのトレーニングを安定させることに関する研究は大幅に検討されていないことがわかりました。
レコメンデーション モデルが大きくなり、より洗練されるにつれて、トレーニングの不安定性の問題、つまり損失の発散の影響を受けやすくなり、モデルが使用できなくなり、大量のリソースが無駄になり、モデルの開発が妨げられる可能性があります。
このペーパーでは、YouTube レコメンデーションのための実世界のマルチタスク ランキング モデルのトレーニングの安定性を向上させるために学んだ調査結果とベスト プラクティスを共有します。
不安定なトレーニングとその原因についての推測につながるモデルのいくつかの特性を示します。
さらに、トレーニングの不安定点付近でのトレーニングダイナミクスの観察に基づいて、既存のソリューションが失敗する理由を仮説化し、既存のソリューションの制限を緩和する新しいアルゴリズムを提案します。
YouTube 制作データセットでの実験では、一般的に使用されているいくつかのベースライン手法と比較して、提案されたアルゴリズムが収束を損なうことなく、トレーニングの安定性を大幅に向上できることがわかりました。

要約(オリジナル)

Recommender systems play an important role in many content platforms. While most recommendation research is dedicated to designing better models to improve user experience, we found that research on stabilizing the training for such models is severely under-explored. As recommendation models become larger and more sophisticated, they are more susceptible to training instability issues, i.e., loss divergence, which can make the model unusable, waste significant resources and block model developments. In this paper, we share our findings and best practices we learned for improving the training stability of a real-world multitask ranking model for YouTube recommendations. We show some properties of the model that lead to unstable training and conjecture on the causes. Furthermore, based on our observations of training dynamics near the point of training instability, we hypothesize why existing solutions would fail, and propose a new algorithm to mitigate the limitations of existing solutions. Our experiments on YouTube production dataset show the proposed algorithm can significantly improve training stability while not compromising convergence, comparing with several commonly used baseline methods.

arxiv情報

著者 Jiaxi Tang,Yoel Drori,Daryl Chang,Maheswaran Sathiamoorthy,Justin Gilmer,Li Wei,Xinyang Yi,Lichan Hong,Ed H. Chi
発行日 2023-06-15 16:28:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク