要約
ビデオのピクセル間の時空間的関係は、低レベルの4D知覚の重要な情報をもたらします。
それについて推論する単一のモデルは、そのようないくつかのタスクをうまく解決できるはずです。
しかし、ほとんどの最先端の方法は、手元のタスクに特化したアーキテクチャに依存しています。
L4P(「ラップ」と発音)を提示します。これは、統一されたフレームワークで低レベルの4D認識タスクを解決するフィードフォワードの汎用アーキテクチャです。
L4Pは、VITベースのバックボーンと軽量であるため、大規模なトレーニングを必要としないタスクあたりのヘッドを組み合わせています。
一般的かつフィードフォワードの定式化にもかかわらず、私たちの方法は、深さや光の流れの推定など、2D/3D追跡などのスパースタスクなど、両方の密なタスクで既存の特殊な方法のパフォーマンスと一致または上回ります。
さらに、個々のシングルタスクメソッドのタスクに匹敵する時間に、これらすべてのタスクを一度に解決します。
要約(オリジナル)
The spatio-temporal relationship between the pixels of a video carries critical information for low-level 4D perception. A single model that reasons about it should be able to solve several such tasks well. Yet, most state-of-the-art methods rely on architectures specialized for the task at hand. We present L4P (pronounced ‘LAP’), a feedforward, general-purpose architecture that solves low-level 4D perception tasks in a unified framework. L4P combines a ViT-based backbone with per-task heads that are lightweight and therefore do not require extensive training. Despite its general and feedforward formulation, our method matches or surpasses the performance of existing specialized methods on both dense tasks, such as depth or optical flow estimation, and sparse tasks, such as 2D/3D tracking. Moreover, it solves all those tasks at once in a time comparable to that of individual single-task methods.
arxiv情報
著者 | Abhishek Badki,Hang Su,Bowen Wen,Orazio Gallo |
発行日 | 2025-02-18 17:31:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google