You Can Ground Earlier than See: An Effective and Efficient Pipeline for Temporal Sentence Grounding in Compressed Videos

要約

トリミングされていないビデオが与えられた場合、テンポラル センテンス グラウンディング (TSG) は、センテンス クエリに従って意味的に対象の瞬間を特定することを目的としています。
以前の立派な作品はまともな成功を収めましたが、連続したデコードされたフレームから抽出された高レベルの視覚的特徴にのみ焦点を当てており、クエリモデリング用の圧縮されたビデオを処理できず、トレーニングとテスト中の不十分な表現能力とかなりの計算の複雑さに苦しんでいます.
このホワイト ペーパーでは、視覚入力として完全に解凍されたフレームではなく、圧縮されたビデオを直接利用する新しい設定、圧縮ドメイン TSG を提示します。
生のビデオ ビットストリーム入力を処理するために、3 種類の低レベルの視覚的特徴 (I フレーム、モーション ベクトル、残差) を抽出して集約する、新しい 3 ブランチ圧縮ドメイン時空間融合 (TCSF) フレームワークを提案します。
機能) 効果的かつ効率的な接地のため。
特に、これまでのようにデコードされたフレーム全体をエンコードするのではなく、I フレームの特徴のみを学習して外観表現をキャプチャし、遅延やレイテンシを削減します。
さらに、動きベクトルの特徴を学習するだけでなく、残差特徴を介して隣接するフレームの関係を探索することによって、動き情報を探索します。
このようにして、アダプティブ モーション-アピアランス融合モジュールを備えた 3 ブランチの時空間アテンション レイヤーは、最終的なグラウンディングのためにアピアランスとモーションの両方の情報を抽出して集約するようにさらに設計されています。
3 つの挑戦的なデータセットでの実験では、TCSF が他の最先端の方法よりも複雑性が低く、優れたパフォーマンスを達成することが示されています。

要約(オリジナル)

Given an untrimmed video, temporal sentence grounding (TSG) aims to locate a target moment semantically according to a sentence query. Although previous respectable works have made decent success, they only focus on high-level visual features extracted from the consecutive decoded frames and fail to handle the compressed videos for query modelling, suffering from insufficient representation capability and significant computational complexity during training and testing. In this paper, we pose a new setting, compressed-domain TSG, which directly utilizes compressed videos rather than fully-decompressed frames as the visual input. To handle the raw video bit-stream input, we propose a novel Three-branch Compressed-domain Spatial-temporal Fusion (TCSF) framework, which extracts and aggregates three kinds of low-level visual features (I-frame, motion vector and residual features) for effective and efficient grounding. Particularly, instead of encoding the whole decoded frames like previous works, we capture the appearance representation by only learning the I-frame feature to reduce delay or latency. Besides, we explore the motion information not only by learning the motion vector feature, but also by exploring the relations of neighboring frames via the residual feature. In this way, a three-branch spatial-temporal attention layer with an adaptive motion-appearance fusion module is further designed to extract and aggregate both appearance and motion information for the final grounding. Experiments on three challenging datasets shows that our TCSF achieves better performance than other state-of-the-art methods with lower complexity.

arxiv情報

著者 Xiang Fang,Daizong Liu,Pan Zhou,Guoshun Nan
発行日 2023-03-14 12:53:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.MM パーマリンク