OTAS: Unsupervised Boundary Detection for Object-Centric Temporal Action Segmentation

要約

時間的なアクションのセグメンテーションは通常、グローバルな視覚記述子の劇的な差異を発見することによって実現されます。
この論文では、オブジェクト中心の時間アクション セグメンテーション (OTAS) の教師なしフレームワークを提案することにより、局所的な特徴のメリットを探ります。
大まかに言うと、OTAS は、自己監視型のグローバルおよびローカルの特徴抽出モジュールと、特徴を融合してアクション セグメンテーションのための顕著な境界を検出する境界選択モジュールで構成されます。
2 番目の貢献として、既存のフレームレベルおよび境界レベルの評価指標の長所と短所について説明します。
広範な実験を通じて、推奨される F1 スコアの点で、OTAS が以前の最先端の方法よりも平均 $41\%$ 優れていることがわかりました。
驚くべきことに、ユーザー調査では、OTAS はグラウンドトゥルースの人間によるアノテーションをも上回っています。
さらに、OTAS はリアルタイム推論を可能にするのに十分な効率を備えています。

要約(オリジナル)

Temporal action segmentation is typically achieved by discovering the dramatic variances in global visual descriptors. In this paper, we explore the merits of local features by proposing the unsupervised framework of Object-centric Temporal Action Segmentation (OTAS). Broadly speaking, OTAS consists of self-supervised global and local feature extraction modules as well as a boundary selection module that fuses the features and detects salient boundaries for action segmentation. As a second contribution, we discuss the pros and cons of existing frame-level and boundary-level evaluation metrics. Through extensive experiments, we find OTAS is superior to the previous state-of-the-art method by $41\%$ on average in terms of our recommended F1 score. Surprisingly, OTAS even outperforms the ground-truth human annotations in the user study. Moreover, OTAS is efficient enough to allow real-time inference.

arxiv情報

著者 Yuerong Li,Zhengrong Xue,Huazhe Xu
発行日 2023-09-12 14:37:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク