Variantional autoencoder with decremental information bottleneck for disentanglement

要約

変分オートエンコーダによるもつれ解除学習の大きな課題の 1 つは、もつれ解除と再構成の忠実度の間のトレードオフです。
これまでの研究では、トレーニング中に情報のボトルネックが増大し、もつれを解く制約が失われる傾向があり、情報拡散の問題が発生しました。
この論文では、階層的潜在空間を利用して、これらの空間全体にわたる情報ボトルネックを軽減する、もつれ解除表現学習のための新しいフレームワークである DeVAE を紹介します。
私たちのアプローチの主な革新は、解絡不変変換を通じて階層的潜在空間を接続し、許容可能なレベルの再構成パフォーマンスを維持しながら、空間間で解絡特性の共有を可能にすることにあります。
私たちは、dSprite と Shapes3D データセットに関する一連の実験とアブレーション研究を通じて、もつれの解除と再構築の間のバランスを達成する際の DeVAE の有効性を実証します。
コードは https://github.com/erow/disentanglement_lib/tree/pytorch#devae で入手できます。

要約(オリジナル)

One major challenge of disentanglement learning with variational autoencoders is the trade-off between disentanglement and reconstruction fidelity. Previous studies, which increase the information bottleneck during training, tend to lose the constraint of disentanglement, leading to the information diffusion problem. In this paper, we present a novel framework for disentangled representation learning, DeVAE, which utilizes hierarchical latent spaces with decreasing information bottlenecks across these spaces. The key innovation of our approach lies in connecting the hierarchical latent spaces through disentanglement-invariant transformations, allowing the sharing of disentanglement properties among spaces while maintaining an acceptable level of reconstruction performance. We demonstrate the effectiveness of DeVAE in achieving a balance between disentanglement and reconstruction through a series of experiments and ablation studies on dSprites and Shapes3D datasets. Code is available at https://github.com/erow/disentanglement_lib/tree/pytorch#devae.

arxiv情報

著者 Jiantao Wu,Shentong Mo,Xiang Yang,Muhammad Awais,Sara Atito,Xingshen Zhang,Lin Wang,Xiang Yang
発行日 2023-10-04 13:20:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク