要約
タイトル:トリプレットロスを利用した非監視型アクションセグメンテーションの活用
要約:
– 本論文では、トレーニングデータを必要とせず、単一の入力ビデオからアクションセグメンテーションタスクに適したアクション表現を学習する革新的な完全非監視型フレームワークを提案しています。
– 当社の方法は、類似性分布に対して動作するトリプレット損失を使用する浅いネットワークに根ざした深いメトリック学習アプローチであり、新しい表現空間で一連のアクションを発見するために効果的に時間的および意味的な優先事項をモデリングする新しいトリプレット選択戦略に基づいています。
– このような状況下で、当社は、既存の非監視型アプローチと比較して、学習したアクション表現でより高品質な時間的境界を復元することに成功しました。提案された手法は、アクションセグメンテーションタスクの2つの一般的に使用されるベンチマークデータセットで評価され、学習した表現に一般的なクラスタリングアルゴリズムを適用することで競争力のある性能を発揮します。
要約(オリジナル)
In this paper, we propose a novel fully unsupervised framework that learns action representations suitable for the action segmentation task from the single input video itself, without requiring any training data. Our method is a deep metric learning approach rooted in a shallow network with a triplet loss operating on similarity distributions and a novel triplet selection strategy that effectively models temporal and semantic priors to discover actions in the new representational space. Under these circumstances, we successfully recover temporal boundaries in the learned action representations with higher quality compared with existing unsupervised approaches. The proposed method is evaluated on two widely used benchmark datasets for the action segmentation task and it achieves competitive performance by applying a generic clustering algorithm on the learned representations.
arxiv情報
著者 | E. Bueno-Benito,B. Tura,M. Dimiccoli |
発行日 | 2023-04-13 11:10:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI