要約
動画からの監視されていないオブジェクト中心の学習は、ビデオの大規模でラベルのないコレクションから構造化された表現を抽出するための有望なアプローチです。
自律制御のような下流のタスクをサポートするには、これらの表現は組成的で一時的に一貫している必要があります。
再発処理に基づいた既存のアプローチは、トレーニングの目標が時間的一貫性を強制しないため、フレーム全体の長期的な安定性を欠くことがよくあります。
この作業では、時間的一貫性を明示的に促進するビデオオブジェクト中心のモデルに、新しいオブジェクトレベルの時間的対照損失を導入します。
私たちの方法は、学習したオブジェクト中心の表現の時間的一貫性を大幅に改善し、監視されていないオブジェクトダイナミクス予測などの挑戦的な下流タスクを促進するより信頼性の高いビデオ分解を生み出します。
さらに、私たちの損失によって追加された帰納的バイアスは、オブジェクトの発見を大幅に改善し、合成データセットと実際のデータセットの両方で最先端の結果をもたらし、モーションマスクを追加のキューとして活用する弱く監視された方法でさえも優れています。
要約(オリジナル)
Unsupervised object-centric learning from videos is a promising approach to extract structured representations from large, unlabeled collections of videos. To support downstream tasks like autonomous control, these representations must be both compositional and temporally consistent. Existing approaches based on recurrent processing often lack long-term stability across frames because their training objective does not enforce temporal consistency. In this work, we introduce a novel object-level temporal contrastive loss for video object-centric models that explicitly promotes temporal consistency. Our method significantly improves the temporal consistency of the learned object-centric representations, yielding more reliable video decompositions that facilitate challenging downstream tasks such as unsupervised object dynamics prediction. Furthermore, the inductive bias added by our loss strongly improves object discovery, leading to state-of-the-art results on both synthetic and real-world datasets, outperforming even weakly-supervised methods that leverage motion masks as additional cues.
arxiv情報
著者 | Anna Manasyan,Maximilian Seitzer,Filip Radovic,Georg Martius,Andrii Zadaianchuk |
発行日 | 2025-03-18 13:01:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google