Learning to Compose: Improving Object Centric Learning by Injecting Compositionality

要約

構成表現の学習は、柔軟で体系的な一般化を可能にし、複雑な視覚的推論をサポートするため、オブジェクト中心学習の重要な側面です。
ただし、既存のアプローチのほとんどは自動エンコーディングの目的に依存しており、構成性はエンコーダのアーキテクチャまたはアルゴリズムのバイアスによって暗黙的に課せられます。
自動エンコーディングの目的と学習の構成性の間のこの不整合により、意味のあるオブジェクト表現をキャプチャできないことがよくあります。
この研究では、表現の構成性を明示的に促進する新しい目的を提案します。
既存のオブジェクト中心の学習フレームワーク (スロット アテンションなど) に基づいて構築されたこの手法には、合成データの尤度を最大化することで、2 つの画像からのオブジェクト表現の任意の混合が有効である必要があるという追加の制約が組み込まれています。
私たちの目標を既存のフレームワークに組み込むことで、一貫して目標中心の学習が改善され、アーキテクチャの選択に対する堅牢性が強化されることを実証します。

要約(オリジナル)

Learning compositional representation is a key aspect of object-centric learning as it enables flexible systematic generalization and supports complex visual reasoning. However, most of the existing approaches rely on auto-encoding objective, while the compositionality is implicitly imposed by the architectural or algorithmic bias in the encoder. This misalignment between auto-encoding objective and learning compositionality often results in failure of capturing meaningful object representations. In this study, we propose a novel objective that explicitly encourages compositionality of the representations. Built upon the existing object-centric learning framework (e.g., slot attention), our method incorporates additional constraints that an arbitrary mixture of object representations from two images should be valid by maximizing the likelihood of the composite data. We demonstrate that incorporating our objective to the existing framework consistently improves the objective-centric learning and enhances the robustness to the architectural choices.

arxiv情報

著者 Whie Jung,Jaehoon Yoo,Sungjin Ahn,Seunghoon Hong
発行日 2024-05-01 17:21:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク