The Deep Generative Decoder: MAP estimation of representations improves modeling of single-cell RNA data

要約

単一細胞トランスクリプトミクスの低次元表現を学習することは、その下流解析に役立ちます。
現在、最先端技術は、推論に尤度の変分近似を使用する変分オートエンコーダ (VAE) などのニューラル ネットワーク モデルによって代表されています。
ここでは、最大事後 (MAP) 推定を介してモデル パラメーターと表現を直接計算する単純な生成モデルであるディープ ジェネレーティブ デコーダー (DGD) を紹介します。
DGD は、他のタイプの追加が複雑であるため、通常固定ガウス分布を使用する VAE とは異なり、複雑なパラメーター化された潜在分布を自然に処理します。
まず、一般的に使用されるベンチマーク セットである Fashion-MNIST でその一般的な機能を示します。
次に、モデルを複数の単一細胞データセットに適用します。
ここで、DGD は、提供されたラベルを超えたサブクラスタリングを使用して、低次元で意味があり、適切に構造化された潜在表現を学習します。
このアプローチの利点は、その単純さと、同等の VAE よりもはるかに小さい次元の表現を提供できることです。

要約(オリジナル)

Learning low-dimensional representations of single-cell transcriptomics has become instrumental to its downstream analysis. The state of the art is currently represented by neural network models such as variational autoencoders (VAEs) which use a variational approximation of the likelihood for inference. We here present the Deep Generative Decoder (DGD), a simple generative model that computes model parameters and representations directly via maximum a posteriori (MAP) estimation. The DGD handles complex parameterized latent distributions naturally unlike VAEs which typically use a fixed Gaussian distribution, because of the complexity of adding other types. We first show its general functionality on a commonly used benchmark set, Fashion-MNIST. Secondly, we apply the model to multiple single-cell data sets. Here the DGD learns low-dimensional, meaningful and well-structured latent representations with sub-clustering beyond the provided labels. The advantages of this approach are its simplicity and its capability to provide representations of much smaller dimensionality than a comparable VAE.

arxiv情報

著者 Viktoria Schuster,Anders Krogh
発行日 2023-07-12 14:13:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク