要約
スケルトンベースのアクション認識では、重要な課題は、骨格表現に画像レベルの詳細がないため、ジョイントの同様の軌跡を持つアクションを区別することです。
同様のアクションの区別は、特定の身体部分の微妙な動きの詳細に依存していることを認識して、ローカルスケルトンコンポーネントのきめ細かい動きに焦点を合わせるようにアプローチを指示します。
この目的のために、スケルトンシーケンス全体のダイナミクスを破壊し、アクションユニットのコアモーションパターンを表す学習可能なプロトタイプの組み合わせに分解するグラフ畳み込みネットワーク(GCN)ベースのモデルであるProtoGCNを導入します。
プロトタイプの再構築とは対照的に、ProtoGCNは同様のアクションの識別表現を効果的に特定し、強化することができます。
ベルとホイッスルがなければ、ProtoGCNは、提案された方法の有効性を示すNTU RGB+D、NTU RGB+D 120、Kinetics-Skeleton、FineGymなど、複数のベンチマークデータセットで最先端のパフォーマンスを達成します。
このコードは、https://github.com/firework8/protogcnで入手できます。
要約(オリジナル)
In skeleton-based action recognition, a key challenge is distinguishing between actions with similar trajectories of joints due to the lack of image-level details in skeletal representations. Recognizing that the differentiation of similar actions relies on subtle motion details in specific body parts, we direct our approach to focus on the fine-grained motion of local skeleton components. To this end, we introduce ProtoGCN, a Graph Convolutional Network (GCN)-based model that breaks down the dynamics of entire skeleton sequences into a combination of learnable prototypes representing core motion patterns of action units. By contrasting the reconstruction of prototypes, ProtoGCN can effectively identify and enhance the discriminative representation of similar actions. Without bells and whistles, ProtoGCN achieves state-of-the-art performance on multiple benchmark datasets, including NTU RGB+D, NTU RGB+D 120, Kinetics-Skeleton, and FineGYM, which demonstrates the effectiveness of the proposed method. The code is available at https://github.com/firework8/ProtoGCN.
arxiv情報
著者 | Hongda Liu,Yunfan Liu,Min Ren,Hao Wang,Yunlong Wang,Zhenan Sun |
発行日 | 2025-03-20 15:57:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google