Your Turn: Real-World Turning Angle Estimation for Parkinson’s Disease Severity Assessment

要約

パーキンソン病 (PD) 患者は、病気が進行するにつれて、振り向き方が変化するなど、歩行が徐々に悪化することを経験することがよくあります。
既存の臨床評価ツールは、診療環境内での簡単な評価に限定されているため、PD 症状の時間ごとの変動を把握することはできません。
現実世界の歩行回転角度を継続的かつ受動的に測定することは、PD における疾患進行の高感度指標として歩行特性を使用するための構成要素です。
この論文では、ビデオから 3D スケルトンを抽出し、股関節と膝関節の回転を計算することで、回転角度を自動的に定量化するディープラーニング ベースのアプローチを紹介します。
私たちは、台本なしの無料の PD データセットからトリミングされた 24 人の被験者 (12 人の PD と 12 人の健康対照ボランティア) からの合計 1386 個の回転ビデオ クリップで、最先端の人間の姿勢推定モデルである Fastpose と Strided Transformer を利用します。
– 自宅のような環境でのライブビデオ (Turn-REMAP)。
また、手法をさらに検証するために、公開されている Human3.6M 人間のポーズ ベンチマークと 3D グランド トゥルースから回転ビデオ データセット Turn-H3.6M を厳選しました。
これまでの歩行研究は主に診療所や研究所でスクリプト化された歩行結果を評価するために行われてきましたが、この研究は、だぶだぶの服や不十分な照明など、複雑さが存在する現実世界の設定に焦点を当てています。
自由生活環境では正確なグラウンドトゥルースデータを取得するのが難しいため、専門の臨床医による手動のラベル付けに基づいて角度を最も近いビン $45^\circ$ に量子化します。
私たちの方法では、Turn-REMAP の旋削計算精度 41.6%、平均絶対誤差 (MAE) 34.7{\deg}、重み付け精度 WPrec 68.3% を達成しています。
これは、家庭環境における PD 患者の回転を定量化するために単一の単眼カメラ データの使用を検討した最初の研究です。

要約(オリジナル)

People with Parkinson’s Disease (PD) often experience progressively worsening gait, including changes in how they turn around, as the disease progresses. Existing clinical rating tools are not capable of capturing hour-by-hour variations of PD symptoms, as they are confined to brief assessments within clinic settings. Measuring real-world gait turning angles continuously and passively is a component step towards using gait characteristics as sensitive indicators of disease progression in PD. This paper presents a deep learning-based approach to automatically quantify turning angles by extracting 3D skeletons from videos and calculating the rotation of hip and knee joints. We utilise state-of-the-art human pose estimation models, Fastpose and Strided Transformer, on a total of 1386 turning video clips from 24 subjects (12 people with PD and 12 healthy control volunteers), trimmed from a PD dataset of unscripted free-living videos in a home-like setting (Turn-REMAP). We also curate a turning video dataset, Turn-H3.6M, from the public Human3.6M human pose benchmark with 3D ground truth, to further validate our method. Previous gait research has primarily taken place in clinics or laboratories evaluating scripted gait outcomes, but this work focuses on real-world settings where complexities exist, such as baggy clothing and poor lighting. Due to difficulties in obtaining accurate ground truth data in a free-living setting, we quantise the angle into the nearest bin $45^\circ$ based on the manual labelling of expert clinicians. Our method achieves a turning calculation accuracy of 41.6%, a Mean Absolute Error (MAE) of 34.7{\deg}, and a weighted precision WPrec of 68.3% for Turn-REMAP. This is the first work to explore the use of single monocular camera data to quantify turns by PD patients in a home setting.

arxiv情報

著者 Qiushuo Cheng,Catherine Morgan,Arindam Sikdar,Alessandro Masullo,Alan Whone,Majid Mirmehdi
発行日 2024-08-15 14:36:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク