Search to Fine-tune Pre-trained Graph Neural Networks for Graph-level Tasks

要約

近年、グラフ・ニューラル・ネットワーク(GNN)は、多くのグラフ関連タスクにおいて前例のない成功を収めている。しかし、GNNは他のニューラルネットワークと同様にラベルの希少性の問題に直面している。そのため、最近の取り組みでは、大規模なラベルなしグラフでGNNを事前学習させ、ラベルなしグラフからの知識をターゲットとする下流タスクに適応させることが試みられている。この適応は一般に、限られた数のラベル付きデータで事前訓練されたGNNを微調整することで達成される。ファインチューニングの重要性にもかかわらず、現在のGNNの事前学習研究は、転送された知識をより良く活用し、下流タスクのパフォーマンスを向上させるための優れたファインチューニング戦略の設計を無視していることが多い。事前訓練されたGNNのためのより良い微調整戦略を調査し始めた研究はわずかである。しかし、それらの研究は、強い仮定を持つか、様々な下流データセットに対するデータ認識の問題を見落とすかのどちらかである。そこで本稿では、事前学習済みGNNのモデル性能を向上させるために、より良い微調整戦略を設計することを目的とする。事前に訓練されたGNNが与えられた場合、我々は事前に訓練されたグラフレベルタスクのためのグラフニューラルネットワーク(S2PGNN)の微調整を探索することを提案する。S2PGNNは、下流タスクの与えられたラベル付きデータに対して、適応的に適切なファインチューニングフレームワークを設計する。実証研究の結果、S2PGNNは10個の有名な事前学習済みGNNの上位に実装することができ、その性能を一貫して向上させることができる。また、S2PGNN は GNN 分野内外の既存の微調整戦略よりも優れた性能を達成しています。S2PGNNは、GNN分野の内外を問わず、既存の微調整戦略よりも優れた性能を達成しています。私たちのコードは \url{https://anonymous.4open.science/r/code_icde2024-A9CB/} で公開されています。

要約(オリジナル)

Recently, graph neural networks (GNNs) have shown its unprecedented success in many graph-related tasks. However, GNNs face the label scarcity issue as other neural networks do. Thus, recent efforts try to pre-train GNNs on a large-scale unlabeled graph and adapt the knowledge from the unlabeled graph to the target downstream task. The adaptation is generally achieved by fine-tuning the pre-trained GNNs with a limited number of labeled data. Despite the importance of fine-tuning, current GNNs pre-training works often ignore designing a good fine-tuning strategy to better leverage transferred knowledge and improve the performance on downstream tasks. Only few works start to investigate a better fine-tuning strategy for pre-trained GNNs. But their designs either have strong assumptions or overlook the data-aware issue for various downstream datasets. Therefore, we aim to design a better fine-tuning strategy for pre-trained GNNs to improve the model performance in this paper. Given a pre-trained GNN, we propose to search to fine-tune pre-trained graph neural networks for graph-level tasks (S2PGNN), which adaptively design a suitable fine-tuning framework for the given labeled data on the downstream task. To ensure the improvement brought by searching fine-tuning strategy, we carefully summarize a proper search space of fine-tuning framework that is suitable for GNNs. The empirical studies show that S2PGNN can be implemented on the top of 10 famous pre-trained GNNs and consistently improve their performance. Besides, S2PGNN achieves better performance than existing fine-tuning strategies within and outside the GNN area. Our code is publicly available at \url{https://anonymous.4open.science/r/code_icde2024-A9CB/}.

arxiv情報

著者 Zhili Wang,Shimin Di,Lei Chen,Xiaofang Zhou
発行日 2024-03-01 11:52:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク