mnmDTW: An extension to Dynamic Time Warping for Camera-based Movement Error Localization

要約

この概念実証では、コンピューター ビジョン (CV) 手法を使用して、エクササイズ ビデオからポーズ情報を抽出します。
次に、Dynamic Time Warping (DTW) の修正バージョンを使用して、演習のゴールドスタンダード実行からの偏差を計算します。
具体的には、体の各部分間の距離を個別に計算して、運動の精度をより正確に測定します。
この指標を通じて、演習の間違いが明確に表示され、特定可能で、位置特定可能であることを示すことができます。

要約(オリジナル)

In this proof of concept, we use Computer Vision (CV) methods to extract pose information out of exercise videos. We then employ a modified version of Dynamic Time Warping (DTW) to calculate the deviation from a gold standard execution of the exercise. Specifically, we calculate the distance between each body part individually to get a more precise measure for exercise accuracy. We can show that exercise mistakes are clearly visible, identifiable and localizable through this metric.

arxiv情報

著者 Sebastian Dill,Maurice Rohr
発行日 2023-10-13 15:03:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク