Temporally Consistent Object-Centric Learning by Contrasting Slots

要約

ビデオからの教師なしオブジェクト中心学習は、ラベルのない大規模なビデオのコレクションから構造化表現を抽出するための有望なアプローチです。
自律制御などの下流タスクをサポートするには、これらの表現が構成的および時間的に一貫している必要があります。
反復処理に基づく既存のアプローチは、トレーニング目標が時間的一貫性を強制していないため、フレーム間の長期安定性に欠けることがよくあります。
この研究では、時間的一貫性を明示的に促進するビデオオブジェクト中心モデルのための新しいオブジェクトレベルの時間コントラスト損失を導入します。
私たちの方法は、学習されたオブジェクト中心の表現の時間的一貫性を大幅に改善し、教師なしオブジェクトダイナミクス予測などの困難な下流タスクを容易にする、より信頼性の高いビデオ分解を生成します。
さらに、損失によって追加された誘導バイアスにより、オブジェクトの発見が大幅に向上し、合成データセットと現実世界のデータセットの両方で最先端の結果が得られ、追加の手がかりとしてモーション マスクを活用する弱く教師付きの方法さえも上回ります。

要約(オリジナル)

Unsupervised object-centric learning from videos is a promising approach to extract structured representations from large, unlabeled collections of videos. To support downstream tasks like autonomous control, these representations must be both compositional and temporally consistent. Existing approaches based on recurrent processing often lack long-term stability across frames because their training objective does not enforce temporal consistency. In this work, we introduce a novel object-level temporal contrastive loss for video object-centric models that explicitly promotes temporal consistency. Our method significantly improves the temporal consistency of the learned object-centric representations, yielding more reliable video decompositions that facilitate challenging downstream tasks such as unsupervised object dynamics prediction. Furthermore, the inductive bias added by our loss strongly improves object discovery, leading to state-of-the-art results on both synthetic and real-world datasets, outperforming even weakly-supervised methods that leverage motion masks as additional cues.

arxiv情報

著者 Anna Manasyan,Maximilian Seitzer,Filip Radovic,Georg Martius,Andrii Zadaianchuk
発行日 2024-12-18 19:46:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO パーマリンク