Ising on the Graph: Task-specific Graph Subsampling via the Ising Model

要約

全体的な構造を維持しながらグラフを縮小することは、多くのアプリケーションにとって重要な問題です。
通常、リダクションアプローチでは、特定の下流タスクを念頭に置かずに、教師なしの方法でエッジを削除する (スパース化) か、ノードをマージする (粗大化) かのいずれかが行われます。
この論文では、ノードまたはエッジのいずれかで定義されたイジング モデルを使用してグラフ構造をサブサンプリングし、グラフ ニューラル ネットワークを使用してイジング モデルの外部磁場を学習するアプローチを紹介します。
私たちのアプローチは、特定の下流タスクのグラフをエンドツーエンド方式で削減する方法を学習できるため、タスク固有です。
タスクで利用される損失関数は微分可能である必要さえありません。
画像セグメンテーション、3D 形状のスパース化、スパース近似行列逆行列の決定という 3 つの異なるアプリケーションに対するアプローチの多用途性を紹介します。

要約(オリジナル)

Reducing a graph while preserving its overall structure is an important problem with many applications. Typically, the reduction approaches either remove edges (sparsification) or merge nodes (coarsening) in an unsupervised way with no specific downstream task in mind. In this paper, we present an approach for subsampling graph structures using an Ising model defined on either the nodes or edges and learning the external magnetic field of the Ising model using a graph neural network. Our approach is task-specific as it can learn how to reduce a graph for a specific downstream task in an end-to-end fashion. The utilized loss function of the task does not even have to be differentiable. We showcase the versatility of our approach on three distinct applications: image segmentation, 3D shape sparsification, and sparse approximate matrix inverse determination.

arxiv情報

著者 Maria Bånkestad,Jennifer Andersson,Sebastian Mair,Jens Sjölund
発行日 2024-02-15 18:58:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク