要約
教師ありグラフ予測 (SGP) のための新しいエンドツーエンドの深層学習ベースのアプローチを紹介します。
独自の最適トランスポート (OT) ベースの損失である部分マスク融合グロモフ ワッサーシュタイン損失 (PM-FGW) を導入します。これにより、隣接関係や特徴行列などのグラフ表現を直接活用できるようになります。
PM-FGW は、SGP に望ましい特性をすべて備えています。つまり、ノード順列不変で、部分微分可能であり、パディングされた表現とマスキング ベクトルを比較することにより、異なるサイズのグラフを処理します。
さらに、さまざまな種類の入力データに簡単に適応できる、柔軟なトランスフォーマーベースのアーキテクチャを紹介します。
実験セクションでは、新規で挑戦的な合成データセット (image2graph) と 2 つの現実世界のタスク、image2map とfingerprint2molecule という 3 つの異なるタスクが、競合他社と比較したアプローチの効率性と多用途性を示しています。
要約(オリジナル)
We present a novel end-to-end deep learning-based approach for Supervised Graph Prediction (SGP). We introduce an original Optimal Transport (OT)-based loss, the Partially-Masked Fused Gromov-Wasserstein loss (PM-FGW), that allows to directly leverage graph representations such as adjacency and feature matrices. PM-FGW exhibits all the desirable properties for SGP: it is node permutation invariant, sub-differentiable and handles graphs of different sizes by comparing their padded representations as well as their masking vectors. Moreover, we present a flexible transformer-based architecture that easily adapts to different types of input data. In the experimental section, three different tasks, a novel and challenging synthetic dataset (image2graph) and two real-world tasks, image2map and fingerprint2molecule – showcase the efficiency and versatility of the approach compared to competitors.
arxiv情報
著者 | Paul Krzakala,Junjie Yang,Rémi Flamary,Florence d’Alché Buc,Charlotte Laclau,Matthieu Labeau |
発行日 | 2024-02-19 16:30:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google