要約
この論文では、不確実な推論ルールを含む不確実なテキストに対して推論を行う際のトランスフォーマーベースの言語モデルの機能を評価します。
事前トレーニング言語モデル (PLM) と生成大規模言語モデル (LLM) の両方をカバーします。
私たちの評価結果は、どちらの世代の言語モデルも、不確実なテキストに対する推論に苦労していることを示しています。
我々は、推論段階でこれらのルールに依存せずに、微調整段階で確率的論理ルールを制約として利用する、新しいエンドツーエンドの微調整アプローチである確率的制約トレーニング(PCT)を提案します。
PCT の有効性を評価するために、関連するコーパスを利用し、さらに、以前のベンチマークとは異なり、インスタンス固有のルールを使用する、より困難な新しいベンチマークを作成します。
私たちの研究は、PCT がトランスフォーマーベースの言語モデルの固有推論を改善し、確率的論理推論プロセスをより明示的かつ説明可能にすることを示しています。
さらに、PCT は、より深い推論の深さ、新しい領域、複雑な確率構造などの新しい状況を効果的に処理できるようにこれらのモデルを装備しています。
要約(オリジナル)
In this paper, we evaluate the capability of transformer-based language models in making inferences over uncertain text that includes uncertain rules of reasoning. We cover both Pre-trained Language Models (PLMs) and generative Large Language Models (LLMs). Our evaluation results show that both generations of language models struggle with reasoning over uncertain text. We propose a novel end-to-end fine-tuning approach, Probabilistic Constraint Training (PCT), that utilizes probabilistic logical rules as constraints in the fine-tuning phase without relying on these rules in the inference stage. To assess the effectiveness of PCT, we utilize the related corpora and, additionally, create a new and more challenging benchmark that, unlike the previous ones, uses instance-specific rules. Our study demonstrates that PCT improves the transformer-based language model’s intrinsic reasoning and makes their probabilistic logical reasoning process more explicit and explainable. Furthermore, PCT equips these models to effectively handle novel situations, including higher reasoning depth, new domains, and complex probabilistic structures.
arxiv情報
著者 | Aliakbar Nafar,Kristen Brent Venable,Parisa Kordjamshidi |
発行日 | 2024-02-09 17:29:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google