Hypergraph $p$-Laplacian equations for data interpolation and semi-supervised learning

要約

$p$-ラプラシアン正則化によるハイパーグラフ学習は、データ内の高次の関係を柔軟にモデル化できるため、多くの注目を集めています。
この論文では、目的関数の非微分可能性と最小化関数の非一意性のために困難な、高速数値実装に焦点を当てます。
$p$-ラプラシアン正則化の微分からハイパーグラフ $p$-ラプラシアン方程式を導出します。
数学的に適切に設定され、計算効率が高い単純化された方程式が代替案として提案されています。
数値実験により、単純化された $p$-ラプラシアン方程式がデータ補間におけるスパイク解を抑制し、半教師あり学習における分類精度を向上させることが検証されました。
計算コストが著しく低いため、さらなるアプリケーションが可能になります。

要約(オリジナル)

Hypergraph learning with $p$-Laplacian regularization has attracted a lot of attention due to its flexibility in modeling higher-order relationships in data. This paper focuses on its fast numerical implementation, which is challenging due to the non-differentiability of the objective function and the non-uniqueness of the minimizer. We derive a hypergraph $p$-Laplacian equation from the subdifferential of the $p$-Laplacian regularization. A simplified equation that is mathematically well-posed and computationally efficient is proposed as an alternative. Numerical experiments verify that the simplified $p$-Laplacian equation suppresses spiky solutions in data interpolation and improves classification accuracy in semi-supervised learning. The remarkably low computational cost enables further applications.

arxiv情報

著者 Kehan Shi,Martin Burger
発行日 2024-11-19 16:05:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 35R02, 65D05, cs.LG, cs.NA, math.NA パーマリンク