Deep Optimal Transport for Domain Adaptation on SPD Manifolds

要約

幾何学的なディープラーニングの最近の進歩により、特にセッション全体で分布シフトに苦しむニューロイメージングデータの対称陽性定義(SPD)マニホールドのドメイン適応に対する機械学習コミュニティからの注目が高まっています。
これらのデータは、通常、脳信号の共分散行列として表され、その対称性と正の明確さのために本質的にSPDマニホールドにあります。
ただし、従来のドメイン適応方法は、共分散マトリックスに直接適用すると、この幾何学的構造を見落としてしばしば見落としているため、最適ではないパフォーマンスが発生する可能性があります。
この問題に対処するために、最適な輸送理論とSPDマニホールドのジオメトリを組み合わせた新しい幾何学的ディープラーニングフレームワークを紹介します。
私たちのアプローチは、マニホールド構造を尊重しながらデータ分布を調整し、限界と条件付きの矛盾の両方を効果的に削減します。
3つのクロスセッション脳のコンピューターインターフェイスデータセット、KU、BNCI2014001、およびBNCI2015001でメソッドを検証し、データの固有のジオメトリを維持しながらベースラインアプローチを常に上回ります。
また、学習した埋め込みの挙動をよりよく説明するために、定量的な結果と視覚化を提供します。

要約(オリジナル)

Recent progress in geometric deep learning has drawn increasing attention from the machine learning community toward domain adaptation on symmetric positive definite (SPD) manifolds, especially for neuroimaging data that often suffer from distribution shifts across sessions. These data, typically represented as covariance matrices of brain signals, inherently lie on SPD manifolds due to their symmetry and positive definiteness. However, conventional domain adaptation methods often overlook this geometric structure when applied directly to covariance matrices, which can result in suboptimal performance. To address this issue, we introduce a new geometric deep learning framework that combines optimal transport theory with the geometry of SPD manifolds. Our approach aligns data distributions while respecting the manifold structure, effectively reducing both marginal and conditional discrepancies. We validate our method on three cross-session brain computer interface datasets, KU, BNCI2014001, and BNCI2015001, where it consistently outperforms baseline approaches while maintaining the intrinsic geometry of the data. We also provide quantitative results and visualizations to better illustrate the behavior of the learned embeddings.

arxiv情報

著者 Ce Ju,Cuntai Guan
発行日 2025-05-08 14:50:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, eess.SP, I.2.0 パーマリンク