要約
【タイトル】VISEM-Tracking、ヒトの精子追跡データセット
【要約】
– 精子の運動能力を手動で評価することは、視野内を高速に動く精子たちがいるために困難であり、正確な評価を行うためには幅広いトレーニングが必要とされる。
– このため、コンピュータ支援精子解析(CASA)が医療現場で導入されるようになってきているが、人工知能を用いた機械学習のアプローチを改善するためには、より多くのデータが必要である。
– この目的のために、手動注釈された境界ボックス座標と、ドメインの専門家によって分析された精子の特徴を含む、20個の30秒のビデオ記録からなるVISEM-Trackingというデータセットを提供している。
– 注釈付きデータに加え、自己学習や非監視学習などの方法を用いてデータの簡単なアクセスや分析を行うための未注釈のビデオクリップも提供している。
– 本論文の一環として、VISEM-TrackingデータセットでトレーニングされたYOLOv5深層学習(DL)モデルを使用した基準となる精子検出のパフォーマンスを示しており、データセットを使用して複雑なDLモデルに精子を解析させることができることを示している。
要約(オリジナル)
A manual assessment of sperm motility requires microscopy observation, which is challenging due to the fast-moving spermatozoa in the field of view. To obtain correct results, manual evaluation requires extensive training. Therefore, computer-assisted sperm analysis (CASA) has become increasingly used in clinics. Despite this, more data is needed to train supervised machine learning approaches in order to improve accuracy and reliability in the assessment of sperm motility and kinematics. In this regard, we provide a dataset called VISEM-Tracking with 20 video recordings of 30 seconds (comprising 29,196 frames) of wet sperm preparations with manually annotated bounding-box coordinates and a set of sperm characteristics analyzed by experts in the domain. In addition to the annotated data, we provide unlabeled video clips for easy-to-use access and analysis of the data via methods such as self- or unsupervised learning. As part of this paper, we present baseline sperm detection performances using the YOLOv5 deep learning (DL) model trained on the VISEM-Tracking dataset. As a result, we show that the dataset can be used to train complex DL models to analyze spermatozoa.
arxiv情報
著者 | Vajira Thambawita,Steven A. Hicks,Andrea M. Storås,Thu Nguyen,Jorunn M. Andersen,Oliwia Witczak,Trine B. Haugen,Hugo L. Hammer,Pål Halvorsen,Michael A. Riegler |
発行日 | 2023-04-26 06:03:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI