要約
この概念実証では、コンピューター ビジョン (CV) 手法を使用して、エクササイズ ビデオからポーズ情報を抽出します。
次に、Dynamic Time Warping (DTW) の修正バージョンを使用して、演習のゴールドスタンダード実行からの偏差を計算します。
具体的には、体の各部分間の距離を個別に計算して、運動の精度をより正確に測定します。
この指標を通じて、演習の間違いが明確に表示され、特定可能で、位置特定可能であることを示すことができます。
要約(オリジナル)
In this proof of concept, we use Computer Vision (CV) methods to extract pose information out of exercise videos. We then employ a modified version of Dynamic Time Warping (DTW) to calculate the deviation from a gold standard execution of the exercise. Specifically, we calculate the distance between each body part individually to get a more precise measure for exercise accuracy. We can show that exercise mistakes are clearly visible, identifiable and localizable through this metric.
arxiv情報
著者 | Sebastian Dill,Maurice Rohr |
発行日 | 2023-10-13 15:03:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google