Can sparse autoencoders make sense of latent representations?

要約

スパースオートエンコーダ(SAE)は最近、大規模な言語モデルにおいて解釈可能な潜在的特徴を発見するために用いられている。ここでは、複雑で高次元の生物学的データにおいて、潜在的表現を分解するためのSAEの可能性を探る。シミュレーションデータを用いて、潜在表現が、観測可能で上流に直接接続された隠れ変数を重ね合わせて符号化できることを発見した。学習される度合いは変数の種類とモデル・アーキテクチャに依存し、浅く広いネットワークが好まれる。しかし、生成変数が未知の場合、重ね合わせは識別できない。SAEはこれらの変数と、観測値に関するその構造を復元することができる。シングルセル・マルチオミクスデータに適用し、SAEが主要な生物学的プロセスを明らかにできることを示す。さらに、単一細胞発現モデルの大規模解析を可能にするために、SAE特徴を生物学的概念に結びつける自動化手法を紹介する。

要約(オリジナル)

Sparse autoencoders (SAEs) have lately been used to uncover interpretable latent features in large language models. Here, we explore their potential for decomposing latent representations in complex and high-dimensional biological data, where the underlying variables are often unknown. Using simulated data, we find that latent representations can encode observable and directly connected upstream hidden variables in superposition. The degree to which they are learned depends on the type of variable and the model architecture, favoring shallow and wide networks. Superpositions, however, are not identifiable if the generative variables are unknown. SAEs can recover these variables and their structure with respect to the observables. Applied to single-cell multi-omics data, we show that SAEs can uncover key biological processes. We further present an automated method for linking SAE features to biological concepts to enable large-scale analysis of single-cell expression models.

arxiv情報

著者 Viktoria Schuster
発行日 2025-02-03 18:20:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク