Addressing Negative Transfer in Diffusion Models

要約

拡散ベースの生成モデルは、さまざまな分野で目覚ましい成功を収めています。
これは、さまざまなノイズ レベルを同時に包含するノイズ除去タスクに関する共有モデルをトレーニングし、マルチタスク学習 (MTL) の形式を表します。
ただし、MTL の観点から拡散モデルを分析および改善することは、まだ研究が進んでいません。
特に、MTL は、タスク間の競合により特定のタスクのパフォーマンスが低下する、よく知られたネガティブ転送現象を引き起こすことがあります。
この論文では、まず MTL の観点から拡散トレーニングを分析することを目的としており、2 つの重要な観察結果を提示します: (O1) ノイズレベル間のギャップが広がるにつれてノイズ除去タスク間のタスク親和性が減少する、および (O2) 拡散でも負の伝達が発生する可能性がある
トレーニング。
これらの観察に基づいて、私たちはネガティブな転移を軽減することで普及トレーニングを強化することを目指しています。
これを達成するために、既存の MTL 手法を活用することを提案しますが、膨大な数のノイズ除去タスクが存在するため、必要なタスクごとの損失や勾配を計算するのに計算コストがかかります。
この課題に対処するために、ノイズ除去タスクを小さなタスク クラスターにクラスタリングし、それらに MTL メソッドを適用することを提案します。
具体的には、(O2) に基づいて、インターバル クラスタリングを使用して、クラスタ内のノイズ除去タスク間の時間的近接性を強制します。
区間クラスタリングは、クラスタリングの目的に信号対雑音比、タイムステップ、およびタスクの親和性を利用する動的計画法を使用して解決できることを示します。
これにより、私たちのアプローチは、MTL 法の効率的な計算を可能にすることで、拡散モデルにおける負の伝達の問題に対処します。
我々は、さまざまな実験を通じて、提案されたクラスタリングとMTL手法との統合の有効性を検証し、1) 生成品質の向上と2) 拡散モデルのトレーニング収束の高速化を実証します。

要約(オリジナル)

Diffusion-based generative models have achieved remarkable success in various domains. It trains a shared model on denoising tasks that encompass different noise levels simultaneously, representing a form of multi-task learning (MTL). However, analyzing and improving diffusion models from an MTL perspective remains under-explored. In particular, MTL can sometimes lead to the well-known phenomenon of negative transfer, which results in the performance degradation of certain tasks due to conflicts between tasks. In this paper, we first aim to analyze diffusion training from an MTL standpoint, presenting two key observations: (O1) the task affinity between denoising tasks diminishes as the gap between noise levels widens, and (O2) negative transfer can arise even in diffusion training. Building upon these observations, we aim to enhance diffusion training by mitigating negative transfer. To achieve this, we propose leveraging existing MTL methods, but the presence of a huge number of denoising tasks makes this computationally expensive to calculate the necessary per-task loss or gradient. To address this challenge, we propose clustering the denoising tasks into small task clusters and applying MTL methods to them. Specifically, based on (O2), we employ interval clustering to enforce temporal proximity among denoising tasks within clusters. We show that interval clustering can be solved using dynamic programming, utilizing signal-to-noise ratio, timestep, and task affinity for clustering objectives. Through this, our approach addresses the issue of negative transfer in diffusion models by allowing for efficient computation of MTL methods. We validate the efficacy of proposed clustering and its integration with MTL methods through various experiments, demonstrating 1) improved generation quality and 2) faster training convergence of diffusion models.

arxiv情報

著者 Hyojun Go,JinYoung Kim,Yunsung Lee,Seunghyun Lee,Shinhyeok Oh,Hyeongdon Moon,Seungtaek Choi
発行日 2023-12-30 13:50:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク