Differentiable VQ-VAE’s for Robust White Matter Streamline Encodings

要約

白質流線の複雑な幾何学形状を考慮して、オートエンコーダは、低次元の潜在空間における解析流線を簡素化する次元削減ツールとして提案されています。
ただし、これらの最近の成功にもかかわらず、エンコーダ アーキテクチャの大部分は、ストリームラインの完全なバンドルではなく、単一のストリームラインに対してのみ次元削減を実行します。
これはエンコーダ アーキテクチャの厳しい制限であり、個々のファイバを犠牲にして流線の全体的な幾何学的構造を完全に無視します。
さらに、潜在空間は適切に構造化されていない可能性があり、その解釈可能性に疑問が生じます。
この論文では、新しい微分可能ベクトル量子化変分オートエンコーダを提案します。これは、流線のバンドル全体を単一のデータポイントとして取り込むように設計されており、後で潜在空間内の流線を分析するために使用できる信頼性の高いエンコーディングを提供します。
いくつかの最先端のオートエンコーダーとの比較では、エンコードと合成の両方で優れたパフォーマンスを示しています。

要約(オリジナル)

Given the complex geometry of white matter streamlines, Autoencoders have been proposed as a dimension-reduction tool to simplify the analysis streamlines in a low-dimensional latent spaces. However, despite these recent successes, the majority of encoder architectures only perform dimension reduction on single streamlines as opposed to a full bundle of streamlines. This is a severe limitation of the encoder architecture that completely disregards the global geometric structure of streamlines at the expense of individual fibers. Moreover, the latent space may not be well structured which leads to doubt into their interpretability. In this paper we propose a novel Differentiable Vector Quantized Variational Autoencoder, which are engineered to ingest entire bundles of streamlines as single data-point and provides reliable trustworthy encodings that can then be later used to analyze streamlines in the latent space. Comparisons with several state of the art Autoencoders demonstrate superior performance in both encoding and synthesis.

arxiv情報

著者 Andrew Lizarraga,Brandon Taraku,Edouardo Honig,Ying Nian Wu,Shantanu H. Joshi
発行日 2023-11-10 17:59:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.AP, stat.ML パーマリンク