要約
大規模言語モデル (LLM) は、いくつかの分野で目覚ましい成功を収めていますが、複雑なグラフの問題を理解し、解決する能力についてはあまり研究されていません。
このギャップを埋めるために、明示的な推論パスを使用して広範囲のグラフ問題に取り組む機能を言語モデルに装備するように設計された、新規で包括的な命令チューニング データセットである GraphInstruct を紹介します。
GraphInstruct を利用して、明確な推論プロセスを生成しながら、さまざまなタイプのグラフ問題を解決できるオープンソース言語モデルである GraphWiz を構築します。
モデルの機能と信頼性を強化するために、直接優先最適化 (DPO) フレームワークをグラフの問題解決コンテキストに組み込みます。
強化されたモデル GraphWiz-DPO は、複雑さレベルが異なる 9 つのタスクにわたって平均 65% の精度を達成し、平均精度 43.8% の GPT-4 を上回ります。
さらに、私たちの研究では、トレーニング データ量とモデルのパフォーマンスの間の微妙なバランスを詳しく調査し、データの増加に伴う過剰適合の可能性を浮き彫りにしています。
また、さまざまなグラフ タスク間でのモデルの推論能力の移転可能性も調査し、モデルの適応性と実用的な応用の可能性を示します。
私たちの調査は、グラフ推論と問題解決に特化した LLM を開発するための新しい青写真と貴重な洞察を提供します。
要約(オリジナル)
Large language models (LLMs) have achieved impressive success across several fields, but their proficiency in understanding and resolving complex graph problems is less explored. To bridge this gap, we introduce GraphInstruct, a novel and comprehensive instruction-tuning dataset designed to equip language models with the ability to tackle a broad spectrum of graph problems using explicit reasoning paths. Utilizing GraphInstruct, we build GraphWiz, an open-source language model capable of resolving various graph problem types while generating clear reasoning processes. To enhance the model’s capability and reliability, we incorporate the Direct Preference Optimization (DPO) framework into the graph problem-solving context. The enhanced model, GraphWiz-DPO, achieves an average accuracy of 65% across nine tasks with different complexity levels, surpassing GPT-4 which has an average accuracy of 43.8%. Moreover, our research delves into the delicate balance between training data volume and model performance, highlighting the potential for overfitting with increased data. We also explore the transferability of the model’s reasoning ability across different graph tasks, indicating the model’s adaptability and practical application potential. Our investigation offers a new blueprint and valuable insights for developing LLMs specialized in graph reasoning and problem-solving.
arxiv情報
著者 | Nuo Chen,Yuhan Li,Jianheng Tang,Jia Li |
発行日 | 2024-03-06 13:52:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google