要約
複雑な自然シーンを意味のあるオブジェクト中心の抽象化に分解する能力は、人間の知覚と推論の核心にあります。
教師なしオブジェクト中心学習の最近の集大成において、Slot-Attention モジュールは、そのシンプルでありながら効果的な設計で重要な役割を果たし、多くの強力なバリアントを育みました。
ただし、これらの方法は、監督なしでトレーニングするのが非常に困難であり、特に複雑な自然のシーンでは、オブジェクトの概念が曖昧です。
このホワイト ペーパーでは、Slot-Attention 学習の初期化としての学習可能なクエリの可能性を調査し、2 レベル最適化による Slot-Attention 学習の改善に関する既存の試みと統合することで、これらの問題に対処することを提案します。
Slot-Attention のコードを簡単に調整するだけで、私たちのモデルである Bi-level Optimized Query Slot Attention は、教師なし画像のセグメンテーションと再構築において、3 つの困難な合成データセットと 7 つの複雑な現実世界のデータセットで最先端の結果を達成し、以前のベースラインよりも優れています。
大差で。
私たちは、デザインの必要性と有効性を検証するために徹底的なアブレーション研究を提供します。
さらに、私たちのモデルは、コンセプトバインディングとゼロショット学習の大きな可能性を示しています。
私たちの仕事はhttps://bo-qsa.github.ioで公開されています
要約(オリジナル)
The ability to decompose complex natural scenes into meaningful object-centric abstractions lies at the core of human perception and reasoning. In the recent culmination of unsupervised object-centric learning, the Slot-Attention module has played an important role with its simple yet effective design and fostered many powerful variants. These methods, however, have been exceedingly difficult to train without supervision and are ambiguous in the notion of object, especially for complex natural scenes. In this paper, we propose to address these issues by investigating the potential of learnable queries as initializations for Slot-Attention learning, uniting it with efforts from existing attempts on improving Slot-Attention learning with bi-level optimization. With simple code adjustments on Slot-Attention, our model, Bi-level Optimized Query Slot Attention, achieves state-of-the-art results on 3 challenging synthetic and 7 complex real-world datasets in unsupervised image segmentation and reconstruction, outperforming previous baselines by a large margin. We provide thorough ablative studies to validate the necessity and effectiveness of our design. Additionally, our model exhibits great potential for concept binding and zero-shot learning. Our work is made publicly available at https://bo-qsa.github.io
arxiv情報
著者 | Baoxiong Jia,Yu Liu,Siyuan Huang |
発行日 | 2023-02-10 10:41:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google