Geometric Autoencoders — What You See is What You Decode

要約

視覚化は、探索的データ分析における重要なステップです。
考えられるアプローチの 1 つは、低次元の潜在空間を使用してオートエンコーダーをトレーニングすることです。
ネットワークの深さと幅が大きいと、データを展開するのに役立ちます。
ただし、このような表現ネットワークは、潜在表現が歪んでいる場合でも、低い再構成エラーを達成できます。
このような誤解を招く視覚化を避けるために、私たちはまず、埋め込みの歪みに対する洞察力に富んだ診断につながるデコーダに関する微分幾何学的観点を提案し、次にそのような歪みを軽減する新しい正則化子を提案します。
当社の「幾何学的オートエンコーダー」は、埋め込みを不必要に引き伸ばすことを回避し、視覚化によりデータ構造をより忠実にキャプチャします。
また、わずかな歪みが達成できなかった領域にフラグを立てて、誤解を防ぐことができます。

要約(オリジナル)

Visualization is a crucial step in exploratory data analysis. One possible approach is to train an autoencoder with low-dimensional latent space. Large network depth and width can help unfolding the data. However, such expressive networks can achieve low reconstruction error even when the latent representation is distorted. To avoid such misleading visualizations, we propose first a differential geometric perspective on the decoder, leading to insightful diagnostics for an embedding’s distortion, and second a new regularizer mitigating such distortion. Our “Geometric Autoencoder” avoids stretching the embedding spuriously, so that the visualization captures the data structure more faithfully. It also flags areas where little distortion could not be achieved, thus guarding against misinterpretation.

arxiv情報

著者 Philipp Nazari,Sebastian Damrich,Fred A. Hamprecht
発行日 2023-06-30 13:24:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク