Learning to Estimate Critical Gait Parameters from Single-View RGB Videos with Transformer-Based Attention Network

要約

筋骨格系疾患や患者の認知障害は、動作の困難だけでなく、心理的健康にも悪影響を及ぼす。早期診断と早期治療に不可欠なツールである臨床歩行分析は、従来、高価な光学式モーションキャプチャシステムに依存していた。近年のコンピュータビジョンとディープラーニングの進歩により、より利用しやすく費用対効果の高い代替手段への扉が開かれた。本論文では、シングルビューカメラで撮影されたRGB動画から重要な歩行パラメータを推定する、新しい時空間Transformerネットワークを紹介する。脳性麻痺患者の公開データセットを用いた実証評価により、提案フレームワークが現在の最先端アプローチを凌駕し、一般的な歩行パラメータ(歩行速度、歩行偏差指数-GDI、最大伸展時の膝屈曲角度を含む)の予測において有意な改善を示し、同時に、より少ないパラメータを利用し、手作業による特徴抽出の必要性を軽減することが示される。

要約(オリジナル)

Musculoskeletal diseases and cognitive impairments in patients lead to difficulties in movement as well as negative effects on their psychological health. Clinical gait analysis, a vital tool for early diagnosis and treatment, traditionally relies on expensive optical motion capture systems. Recent advances in computer vision and deep learning have opened the door to more accessible and cost-effective alternatives. This paper introduces a novel spatio-temporal Transformer network to estimate critical gait parameters from RGB videos captured by a single-view camera. Empirical evaluations on a public dataset of cerebral palsy patients indicate that the proposed framework surpasses current state-of-the-art approaches and show significant improvements in predicting general gait parameters (including Walking Speed, Gait Deviation Index – GDI, and Knee Flexion Angle at Maximum Extension), while utilizing fewer parameters and alleviating the need for manual feature extraction.

arxiv情報

著者 Quoc Hung T. Le,Hieu H. Pham
発行日 2024-03-01 06:33:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク