Torsion in Persistent Homology and Neural Networks

要約

トポロジカルデータ解析を組み込んだハイブリッド深層学習モデルにおけるねじれの役割を、オートエンコーダに焦点を当てて探る。ほとんどのTDAツールはフィールド係数を使用するが、これは整数ホモロジーに存在するねじれの特徴を隠してしまう。我々は、ねじれは符号化中に失われ、潜在空間で変化し、多くの場合、標準的な復号器では再構成されないことを示す。合成データと高次元データの両方を用いて、摂動に対するねじれの感度を評価し、いくつかのオートエンコーダーアーキテクチャにおけるねじれの回復可能性を評価する。我々の発見は、フィールドベースのアプローチの主要な限界を明らかにし、ロバストなデータ表現のために、ねじれ情報を保持するアーキテクチャや損失項の必要性を強調する。

要約(オリジナル)

We explore the role of torsion in hybrid deep learning models that incorporate topological data analysis, focusing on autoencoders. While most TDA tools use field coefficients, this conceals torsional features present in integer homology. We show that torsion can be lost during encoding, altered in the latent space, and in many cases, not reconstructed by standard decoders. Using both synthetic and high-dimensional data, we evaluate torsion sensitivity to perturbations and assess its recoverability across several autoencoder architectures. Our findings reveal key limitations of field-based approaches and underline the need for architectures or loss terms that preserve torsional information for robust data representation.

arxiv情報

著者 Maria Walch
発行日 2025-06-03 16:29:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, math.AT パーマリンク