Equivariant Representation Learning for Symmetry-Aware Inference with Guarantees

要約

回帰、条件付き確率推定、および不確実性の定量化の多くの現実世界の応用では、物理学またはジオメトリに根ざした対称性を悪用すると、一般化とサンプル効率が劇的に改善される可能性があります。
幾何学的な深い学習は、グループ理論構造を組み込むことにより大きな経験的進歩をもたらしましたが、統計学習保証にはあまり注意が払われていません。
このホワイトペーパーでは、回帰、条件付き確率推定、および不確実性の定量化に対処しながら、類似の非症状の統計学習保証を提供する同時に、同時に表現学習フレームワークを紹介します。
オペレーターとグループの表現理論に基づいて、我々のフレームワークは、条件付き期待演算子のスペクトル分解に近似し、独立した対称サブグループに沿って同等で解き放たれた構築表現を構築します。
合成データセットと実際のロボット工学アプリケーションに関する経験的評価は、当社のアプローチの可能性を確認し、既存の等縁事項ベースラインを回帰に一致またはアウトパフォームしながら、さらに適切に調整されたパラメトリックの不確実性推定値を提供します。

要約(オリジナル)

In many real-world applications of regression, conditional probability estimation, and uncertainty quantification, exploiting symmetries rooted in physics or geometry can dramatically improve generalization and sample efficiency. While geometric deep learning has made significant empirical advances by incorporating group-theoretic structure, less attention has been given to statistical learning guarantees. In this paper, we introduce an equivariant representation learning framework that simultaneously addresses regression, conditional probability estimation, and uncertainty quantification while providing first-of-its-kind non-asymptotic statistical learning guarantees. Grounded in operator and group representation theory, our framework approximates the spectral decomposition of the conditional expectation operator, building representations that are both equivariant and disentangled along independent symmetry subgroups. Empirical evaluations on synthetic datasets and real-world robotics applications confirm the potential of our approach, matching or outperforming existing equivariant baselines in regression while additionally providing well-calibrated parametric uncertainty estimates.

arxiv情報

著者 Daniel Ordoñez-Apraez,Vladimir Kostić,Alek Fröhlich,Vivien Brandt,Karim Lounici,Massimiliano Pontil
発行日 2025-05-27 13:36:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 43-06, cs.AI, cs.LG, cs.RO, I.2.6 パーマリンク