要約
深層学習ベースのオプティカル フロー (DLOF) は、深層畳み込みニューラル ネットワークを使用して、隣接するビデオ フレームの特徴を抽出します。
これらの特徴を使用して、オブジェクトのフレーム間の動きをピクセル レベルで推定します。
この記事では、さまざまな標識条件下で MT ベースのアクティブ ネマチックの自発的フローを定量化するオプティカル フローの能力を評価します。
DLOF を一般的に使用される技術である粒子画像流速測定法 (PIV) と比較します。
まばらに標識されたフィラメントを含むサンプルに対して半自動粒子追跡を実行することによって、またはパッシブトレーサービーズから、流速のグランドトゥルースを取得します。
DLOF は、高密度にラベルされたサンプルに対して PIV よりも大幅に正確な速度場を生成することがわかりました。
PIV の破綻は、アルゴリズムが高密度でのコントラストの変化、特にネマチック ディレクターに平行な方向でのコントラストの変化を確実に区別できないために発生することを示します。
DLOF はこの制限を克服します。
まばらにラベル付けされたサンプルの場合、DLOF と PIV は同様の精度で結果を生成しますが、DLOF の方が高解像度のフィールドが得られます。
私たちの研究により、DLOF は、広範な種類のアクティブ、ソフト、および生物物理システムにおける流体の流れを測定するための多用途ツールとして確立されています。
要約(オリジナル)
Deep learning-based optical flow (DLOF) extracts features in adjacent video frames with deep convolutional neural networks. It uses those features to estimate the inter-frame motions of objects at the pixel level. In this article, we evaluate the ability of optical flow to quantify the spontaneous flows of MT-based active nematics under different labeling conditions. We compare DLOF against the commonly used technique, particle imaging velocimetry (PIV). We obtain flow velocity ground truths either by performing semi-automated particle tracking on samples with sparsely labeled filaments, or from passive tracer beads. We find that DLOF produces significantly more accurate velocity fields than PIV for densely labeled samples. We show that the breakdown of PIV arises because the algorithm cannot reliably distinguish contrast variations at high densities, particularly in directions parallel to the nematic director. DLOF overcomes this limitation. For sparsely labeled samples, DLOF and PIV produce results with similar accuracy, but DLOF gives higher-resolution fields. Our work establishes DLOF as a versatile tool for measuring fluid flows in a broad class of active, soft, and biophysical systems.
arxiv情報
著者 | Phu N. Tran,Sattvic Ray,Linnea Lemma,Yunrui Li,Reef Sweeney,Aparna Baskaran,Zvonimir Dogic,Pengyu Hong,Michael F. Hagan |
発行日 | 2024-04-23 20:20:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google