要約
目的: 医学研究では、深層学習モデルは高品質の注釈付きデータに依存しており、このプロセスは多くの場合、手間と時間がかかります。
これは、境界ボックスの注釈が必要な検出タスクに特に当てはまります。
2 つのコーナーを調整する必要があるため、プロセスは本質的にフレームごとになります。
専門家の時間は限られているため、臨床医に適した効率的なアノテーション方法が必要です。
方法: 注釈の効率を高めるために、ライブビデオ注釈のオンザフライ方法を提案します。
このアプローチでは、ライブ ビデオ内のオブジェクト上にカーソルを維持することによって連続的な単一点の注釈が維持され、従来の注釈方法に固有の退屈な一時停止や反復的なナビゲーションの必要性が軽減されます。
この新しい注釈パラダイムは、ポイントツーボックス教師モデルを使用して疑似ラベルを生成するポイント注釈の機能を継承しています。
データセットを開発し、オンザフライのアノテーション時間を従来のアノテーション方法と比較することで、このアプローチを経験的に評価します。
結果: 私たちの方法を使用すると、注釈速度は従来の注釈技術よりも 3.2 倍速くなりました。
開発したデータセットで同等のアノテーション バジェットで、従来の方法と比較して 6.51 +- 0.98 AP@50 の平均改善を達成しました。
結論: 余分な機能がなければ、私たちのアプローチは注釈付けタスクの大幅な高速化を実現します。
あらゆる注釈プラットフォームに簡単に実装でき、ビデオベースの医学研究におけるディープラーニングの統合を加速します。
要約(オリジナル)
Purpose: In medical research, deep learning models rely on high-quality annotated data, a process often laborious and timeconsuming. This is particularly true for detection tasks where bounding box annotations are required. The need to adjust two corners makes the process inherently frame-by-frame. Given the scarcity of experts’ time, efficient annotation methods suitable for clinicians are needed. Methods: We propose an on-the-fly method for live video annotation to enhance the annotation efficiency. In this approach, a continuous single-point annotation is maintained by keeping the cursor on the object in a live video, mitigating the need for tedious pausing and repetitive navigation inherent in traditional annotation methods. This novel annotation paradigm inherits the point annotation’s ability to generate pseudo-labels using a point-to-box teacher model. We empirically evaluate this approach by developing a dataset and comparing on-the-fly annotation time against traditional annotation method. Results: Using our method, annotation speed was 3.2x faster than the traditional annotation technique. We achieved a mean improvement of 6.51 +- 0.98 AP@50 over conventional method at equivalent annotation budgets on the developed dataset. Conclusion: Without bells and whistles, our approach offers a significant speed-up in annotation tasks. It can be easily implemented on any annotation platform to accelerate the integration of deep learning in video-based medical research.
arxiv情報
著者 | Meyer Adrien,Mazellier Jean-Paul,Jeremy Dana,Nicolas Padoy |
発行日 | 2024-04-22 16:59:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google