Video-based Automatic Lameness Detection of Dairy Cows using Pose Estimation and Multiple Locomotion Traits

要約

この研究では、深層学習画像処理技術を使用して跛行に関連する複数の運動特性を抽出する自動跛行検出システムを紹介します。
T-LEAP 姿勢推定モデルを使用して、歩く牛のビデオから 9 つのキーポイントの動きが抽出されました。
ビデオは屋外でさまざまな照明条件で録画され、T-LEAP は正しいキーポイントの 99.6% を抽出しました。
次に、キーポイントの軌道を使用して、背中の姿勢の測定、頭の振り、追跡距離、歩幅、立脚時間、およびスイング時間の 6 つの移動特性を計算しました。
3 つの最も重要な特性は、背中の姿勢の測定、頭の揺れ、および追跡距離でした。
グラウンドトゥルースとして、観察者のスコアを慎重に結合することで観察者内の信頼性と一致性が向上する可能性があることを示しました。
複数の運動特性を含めると、分類精度が 1 つの特性のみの場合の 76.6% から 3 つの最も重要な特性の場合の 79.9%、そして 6 つの運動特性すべての場合の 80.1% に向上することがわかりました。

要約(オリジナル)

This study presents an automated lameness detection system that uses deep-learning image processing techniques to extract multiple locomotion traits associated with lameness. Using the T-LEAP pose estimation model, the motion of nine keypoints was extracted from videos of walking cows. The videos were recorded outdoors, with varying illumination conditions, and T-LEAP extracted 99.6% of correct keypoints. The trajectories of the keypoints were then used to compute six locomotion traits: back posture measurement, head bobbing, tracking distance, stride length, stance duration, and swing duration. The three most important traits were back posture measurement, head bobbing, and tracking distance. For the ground truth, we showed that a thoughtful merging of the scores of the observers could improve intra-observer reliability and agreement. We showed that including multiple locomotion traits improves the classification accuracy from 76.6% with only one trait to 79.9% with the three most important traits and to 80.1% with all six locomotion traits.

arxiv情報

著者 Helena Russello,Rik van der Tol,Menno Holzhauer,Eldert J. van Henten,Gert Kootstra
発行日 2024-01-10 14:56:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク