要約
ビデオ顕微鏡記録を用いた生きた細胞の正確なトラッキングは、一般的な最先端の画像処理に基づくオブジェクトトラッキング手法にとって、依然として困難なタスクである。近年、いくつかの既存のアプリケーションや新しいアプリケーションが、このタスクのためにディープラーニングベースのフレームワークを統合することを試みているが、それらのほとんどは、アーキテクチャに組み込まれた連続フレームベースのトラッキングや、一般化された学習の妨げとなる他の前提に大きく依存している。この問題に対処するために、我々は、連続フレームに制限することなく、セルがその時空間近傍に基づいて追跡できるという仮定のみに依存する、新しい深層学習ベースの追跡方法を開発することを目的とした。提案手法は、セルの動きパターンを、事前の仮定なしに予測器によって完全に学習できるという追加的な利点を有し、アーチファクトの激しい多数のビデオフレームを扱える可能性を持つ。提案手法の有効性を、生物学的に動機づけられた検証戦略によって示し、複数の最新の細胞追跡手法と比較する。
要約(オリジナル)
The accurate tracking of live cells using video microscopy recordings remains a challenging task for popular state-of-the-art image processing based object tracking methods. In recent years, several existing and new applications have attempted to integrate deep-learning based frameworks for this task, but most of them still heavily rely on consecutive frame based tracking embedded in their architecture or other premises that hinder generalized learning. To address this issue, we aimed to develop a new deep-learning based tracking method that relies solely on the assumption that cells can be tracked based on their spatio-temporal neighborhood, without restricting it to consecutive frames. The proposed method has the additional benefit that the motion patterns of the cells can be learned completely by the predictor without any prior assumptions, and it has the potential to handle a large number of video frames with heavy artifacts. The efficacy of the proposed method is demonstrated through biologically motivated validation strategies and compared against multiple state-of-the-art cell tracking methods.
arxiv情報
著者 | Gergely Szabó,Paolo Bonaiuti,Andrea Ciliberto,András Horváth |
発行日 | 2024-09-03 08:53:32+00:00 |
arxivサイト | arxiv_id(pdf) |