要約
論理的推論タスクは、提案されて以来、大きな関心を集めています。
このような課題に直面すると、現在の競合モデル、さらには大規模な言語モデル (ChatGPT や PaLM 2 など) でさえも依然としてパフォーマンスが悪くなります。
これまでの有望な LM は、論理的一貫性モデリングと論理構造認識に苦戦していました。
この目的を達成するために、各論理サンプルを推論パスに変換することで論理推論タスクをモデル化し、アーキテクチャ \textbf{PathReasoner} を提案します。
データとモデルの両方の観点からタスクに対処します。
論理サンプルの多様性を拡張するために、同等の論理式によってサポートされるアトム拡張戦略を提案し、新しい推論パスを形成します。
モデルの観点から、変圧器スタイルのブロックのスタックを設計します。
特に、原子内および原子間の関係を高次の拡散戦略と結合してモデル化するためのパス注意モジュールを提案します。
実験の結果、PathReasoner は 2 つの論理的推論ベンチマークと優れた一般化能力において、競争力のあるパフォーマンスを達成していることが示されています。
要約(オリジナル)
Logical reasoning task has attracted great interest since it was proposed. Faced with such a task, current competitive models, even large language models (e.g., ChatGPT and PaLM 2), still perform badly. Previous promising LMs struggle in logical consistency modeling and logical structure perception. To this end, we model the logical reasoning task by transforming each logical sample into reasoning paths and propose an architecture \textbf{PathReasoner}. It addresses the task from the views of both data and model. To expand the diversity of the logical samples, we propose an atom extension strategy supported by equivalent logical formulas, to form new reasoning paths. From the model perspective, we design a stack of transformer-style blocks. In particular, we propose a path-attention module to joint model in-atom and cross-atom relations with the high-order diffusion strategy. Experiments show that PathReasoner achieves competitive performances on two logical reasoning benchmarks and great generalization abilities.
arxiv情報
著者 | Fangzhi Xu,Qika Lin,Tianzhe Zhao,Jiawei Han,Jun Liu |
発行日 | 2024-05-29 14:14:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google