DeepVoxNet2: Yet another CNN framework

要約

CNN マッピング関数とサンプリング スキームの両方が、CNN ベースの画像解析にとって最も重要であることはわかっています。
画像軸 $\mathcal{I}$ と特徴軸 $\mathcal{F}$ を使用して、両方の関数が同じ空間で動作することは明らかです。
驚くべきことに、この 2 つを統合し、データの空間的な起源を自動的に追跡するフレームワークが存在しないことがわかりました。
私たち自身の実際の経験に基づいて、後者は交換が困難な複雑なコーディングとパイプラインになることが多いことがわかりました.
この記事では、1 次元、2 次元、または 3 次元の画像分類またはセグメンテーションのフレームワークである DeepVoxNet2 (DVN2) を紹介します。
この記事はインタラクティブなチュートリアルとして機能し、コード ブロックの出力を含むコンパイル済みのバージョンは、パブリック DVN2 リポジトリでオンラインで見つけることができます。
このチュートリアルでは、2018 年のマルチモーダル脳腫瘍画像セグメンテーション ベンチマーク (BRATS) のデータを使用して、3D セグメンテーション パイプラインの例を示します。

要約(オリジナル)

We know that both the CNN mapping function and the sampling scheme are of paramount importance for CNN-based image analysis. It is clear that both functions operate in the same space, with an image axis $\mathcal{I}$ and a feature axis $\mathcal{F}$. Remarkably, we found that no frameworks existed that unified the two and kept track of the spatial origin of the data automatically. Based on our own practical experience, we found the latter to often result in complex coding and pipelines that are difficult to exchange. This article introduces our framework for 1, 2 or 3D image classification or segmentation: DeepVoxNet2 (DVN2). This article serves as an interactive tutorial, and a pre-compiled version, including the outputs of the code blocks, can be found online in the public DVN2 repository. This tutorial uses data from the multimodal Brain Tumor Image Segmentation Benchmark (BRATS) of 2018 to show an example of a 3D segmentation pipeline.

arxiv情報

著者 Jeroen Bertels,David Robben,Robin Lemmens,Dirk Vandermeulen
発行日 2022-11-17 14:54:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク