Gradient Derivation for Learnable Parameters in Graph Attention Networks

要約

タイトル:グラフ注意ネットワークの学習可能なパラメーターの勾配派生

要約:

– GATv2のパラメータ勾配の包括的な派生を提供する。
– GATはグラフ構造データの処理に有用なフレームワークであり、多数のアプリケーションで使用されている。
– これらのアプリケーションにおける達成された性能は、異なるデータセットで不均一であることが判明しており、その理由は未解決の研究課題である。
– 勾配流は、統計的学習モデルのトレーニングダイナミクスに対する貴重な洞察を提供するため、この研究はGATv2の学習可能なモデルパラメーターの勾配を取得する。
– 勾配の派生は、GATv2の潜在的な落とし穴を調査した[2]の努力を補完する。

要約(オリジナル)

This work provides a comprehensive derivation of the parameter gradients for GATv2 [4], a widely used implementation of Graph Attention Networks (GATs). GATs have proven to be powerful frameworks for processing graph-structured data and, hence, have been used in a range of applications. However, the achieved performance by these attempts has been found to be inconsistent across different datasets and the reasons for this remains an open research question. As the gradient flow provides valuable insights into the training dynamics of statistically learning models, this work obtains the gradients for the trainable model parameters of GATv2. The gradient derivations supplement the efforts of [2], where potential pitfalls of GATv2 are investigated.

arxiv情報

著者 Marion Neumeier,Andreas Tollkühn,Sebastian Dorn,Michael Botsch,Wolfgang Utschick
発行日 2023-04-21 13:23:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG パーマリンク