要約
最近開発されたビデオ分析の方法、特にポーズ推定と行動分類のモデルは、神経科学や動物行動学などの分野で、行動の定量化をより正確でスケーラブルで再現可能なものに変換しています。
これらのツールは、ビデオ フレームの手動スコアリングと従来の「重心」追跡アルゴリズムの長年にわたる制限を克服し、大規模なビデオ分析を可能にします。
ビデオの取得と分析のためのオープンソース ツールの拡大により、動作を理解するための新しい実験的アプローチが生まれました。
ここでは、現在利用可能なビデオ分析用のオープン ソース ツールを確認し、ビデオ録画に慣れていないラボ向けにこれらの方法を設定する方法について説明します。
また、ビデオ分析方法の開発と使用に関するベスト プラクティスについても説明します。これには、コミュニティ全体の標準と、データセットとコードのオープンな共有に対する重要なニーズ、ビデオ分析方法のより広範な比較、特に新規ユーザー向けのこれらの方法に関するより優れたドキュメントが含まれます。
私たちは、これらのツールの幅広い採用と継続的な開発を奨励しています。これらのツールは、脳と行動の理解における科学的進歩を加速させる大きな可能性を秘めています。
要約(オリジナル)
Recently developed methods for video analysis, especially models for pose estimation and behavior classification, are transforming behavioral quantification to be more precise, scalable, and reproducible in fields such as neuroscience and ethology. These tools overcome long-standing limitations of manual scoring of video frames and traditional ‘center of mass’ tracking algorithms to enable video analysis at scale. The expansion of open-source tools for video acquisition and analysis has led to new experimental approaches to understand behavior. Here, we review currently available open-source tools for video analysis and discuss how to set up these methods for labs new to video recording. We also discuss best practices for developing and using video analysis methods, including community-wide standards and critical needs for the open sharing of datasets and code, more widespread comparisons of video analysis methods, and better documentation for these methods especially for new users. We encourage broader adoption and continued development of these tools, which have tremendous potential for accelerating scientific progress in understanding the brain and behavior.
arxiv情報
著者 | Kevin Luxem,Jennifer J. Sun,Sean P. Bradley,Keerthi Krishnan,Eric A. Yttri,Jan Zimmermann,Talmo D. Pereira,Mark Laubach |
発行日 | 2022-12-22 20:42:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google