要約
タイムスタンプの監視による一時的な活動のセグメンテーションのための新しいアプローチを紹介します。
私たちの主な貢献はグラフ畳み込みネットワークです。これは、フレームの特徴と隣接するフレーム間の接続の両方を活用して、疎なタイムスタンプ ラベルから密なフレーム単位のラベルを生成するためにエンド ツー エンドの方法で学習されます。
生成された密なフレーム単位のラベルは、セグメンテーション モデルのトレーニングに使用できます。
さらに、セグメンテーション モデルとグラフ畳み込みモデルの両方の学習を交互に行うためのフレームワークを提案します。これは、学習したモデルを最初に初期化し、次に反復的に改良します。
50 サラダ、GTEA、朝食、デスクトップ アセンブリを含む 4 つの公開データセットでの詳細な実験では、私たちの方法が多層パーセプトロンのベースラインよりも優れていることを示しています。
タイムスタンプ監視付き。
要約(オリジナル)
We introduce a novel approach for temporal activity segmentation with timestamp supervision. Our main contribution is a graph convolutional network, which is learned in an end-to-end manner to exploit both frame features and connections between neighboring frames to generate dense framewise labels from sparse timestamp labels. The generated dense framewise labels can then be used to train the segmentation model. In addition, we propose a framework for alternating learning of both the segmentation model and the graph convolutional model, which first initializes and then iteratively refines the learned models. Detailed experiments on four public datasets, including 50 Salads, GTEA, Breakfast, and Desktop Assembly, show that our method is superior to the multi-layer perceptron baseline, while performing on par with or better than the state of the art in temporal activity segmentation with timestamp supervision.
arxiv情報
著者 | Hamza Khan,Sanjay Haresh,Awais Ahmed,Shakeeb Siddiqui,Andrey Konin,M. Zeeshan Zia,Quoc-Huy Tran |
発行日 | 2022-08-02 13:49:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google