要約
基盤モデルはディープ ラーニング (DL) の状況に革命をもたらし、幅広い下流タスクに適応できる多用途のプラットフォームとして機能します。
適応性にもかかわらず、基礎モデルの下流のグラフベースのタスクへの適用は制限されており、グラフ構造の設定で大規模な非グラフ事前学習モデルを活用する便利な方法はまだありません。
この研究では、事前トレーニングされた基礎モデルの重みからメッセージ パッシング演算子を構築するという単純な概念を通じて基礎モデルと GNN の分野を橋渡しする、Foundation-Informed Message Passing (FIMP) と呼ぶ新しいフレームワークを紹介します。
このアプローチにより、多くのデータ ドメインにおけるグラフベースのタスクのパフォーマンスが向上し、グラフ ニューラル ネットワークが基礎モデルの知識を活用できるようになることを示します。
要約(オリジナル)
Foundation models have revolutionized the landscape of Deep Learning (DL), serving as a versatile platform which can be adapted to a wide range of downstream tasks. Despite their adaptability, applications of foundation models to downstream graph-based tasks have been limited, and there remains no convenient way to leverage large-scale non-graph pretrained models in graph-structured settings. In this work, we present a new framework which we term Foundation-Informed Message Passing (FIMP) to bridge the fields of foundational models and GNNs through a simple concept: constructing message-passing operators from pretrained foundation model weights. We show that this approach results in improved performance for graph-based tasks in a number of data domains, allowing graph neural networks to leverage the knowledge of foundation models.
arxiv情報
著者 | Syed Asad Rizvi,Nhi Nguyen,Haoran Lyu,Benjamin Christensen,Josue Ortega Caro,Antonio H. O. Fonseca,Emanuele Zappala,Maryam Bagherian,Christopher Averill,Chadi G. Abdallah,Amin Karbasi,Rex Ying,Maria Brbic,Rahul Madhav Dhodapkar,David van Dijk |
発行日 | 2024-03-06 18:25:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google