Learning to Ground Instructional Articles in Videos through Narrations

要約

この論文では、ナレーション付きのハウツー ビデオで手順アクティビティのステップをローカライズするためのアプローチを紹介します。
大規模なラベル付きデータの不足に対処するために、さまざまな手順タスクの説明記事を含む言語ナレッジ ベース (wikiHow) からステップの説明を取得します。
手動による監視を一切行わずに、私たちのモデルは、フレーム、ナレーション、ステップの説明という 3 つのモダリティを照合することで、ハウツー ビデオ内の手順記事のステップを時間的に基礎付けることを学習します。
具体的には、私たちの方法は、2 つの異なる経路からの情報を融合することによって、ステップをビデオに合わせます。i) ステップの説明をフレームに{\em 直接}位置合わせする、ii) ステップからナレーションへのナレーションを合成することで得られる{\em 間接的な}位置合わせ
-ビデオ対応。
特に、私たちのアプローチは、順序情報を利用することで記事内のすべてのステップのグローバルな時間的グラウンディングを一度に実行し、反復的に洗練され、積極的にフィルタリングされるステップ擬似ラベルでトレーニングされます。
モデルを検証するために、新しい評価ベンチマークである HT ステップを導入します。これは、HowTo100M の 124 時間のサブセットに手動で注釈を付けることで取得されます\footnote{テスト サーバーは \url{https://eval.ai/ でアクセスできます。
web/challenges/challenge-page/2082}.} の手順は wikiHow の記事から引用しています。
このベンチマークでの実験と CrossTask でのゼロショット評価では、マルチモダリティの調整により、いくつかのベースラインや以前の研究に比べて劇的な向上が得られることが実証されています。
最後に、ナレーションとビデオをマッチングするための内部モジュールが、HTM-Align ナレーションとビデオの位置合わせベンチマークで最先端のパフォーマンスを大幅に上回っていることを示します。

要約(オリジナル)

In this paper we present an approach for localizing steps of procedural activities in narrated how-to videos. To deal with the scarcity of labeled data at scale, we source the step descriptions from a language knowledge base (wikiHow) containing instructional articles for a large variety of procedural tasks. Without any form of manual supervision, our model learns to temporally ground the steps of procedural articles in how-to videos by matching three modalities: frames, narrations, and step descriptions. Specifically, our method aligns steps to video by fusing information from two distinct pathways: i) {\em direct} alignment of step descriptions to frames, ii) {\em indirect} alignment obtained by composing steps-to-narrations with narrations-to-video correspondences. Notably, our approach performs global temporal grounding of all steps in an article at once by exploiting order information, and is trained with step pseudo-labels which are iteratively refined and aggressively filtered. In order to validate our model we introduce a new evaluation benchmark — HT-Step — obtained by manually annotating a 124-hour subset of HowTo100M\footnote{A test server is accessible at \url{https://eval.ai/web/challenges/challenge-page/2082}.} with steps sourced from wikiHow articles. Experiments on this benchmark as well as zero-shot evaluations on CrossTask demonstrate that our multi-modality alignment yields dramatic gains over several baselines and prior works. Finally, we show that our inner module for matching narration-to-video outperforms by a large margin the state of the art on the HTM-Align narration-video alignment benchmark.

arxiv情報

著者 Effrosyni Mavroudi,Triantafyllos Afouras,Lorenzo Torresani
発行日 2023-06-06 15:45:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク