要約
人間の認知は、感覚入力を超越し、世界の理解を構成する潜在的な表現を形成することに優れています。
大規模な言語モデル(LLM)は、考え方のチェーンの推論を生み出すことができますが、特に構成的推論タスクにおいて、潜在的な構造とモデルの不確実性をキャプチャする原則的なフレームワークがありません。
自然言語の確率的グラフィックモデル(PGM)の重要な原理をシミュレートするためにLLMSをガイドするベイジアンプロンプトフレームワークである、言葉による確率化グラフィカルモデリング(VPGM)を提案します。
実質的なドメインの専門知識や専門的なトレーニングを必要とする多くの従来の確率的方法とは異なり、VPGMは専門家主導のモデル設計をバイパスし、限られた仮定または希少なデータを持つシナリオに適しています。
私たちは、クローズエンドとオープンエンドの両方のいくつかの構成的推論タスクに関するモデルを評価しました。
私たちの結果は、このモデルが信頼のキャリブレーションとテキスト生成の品質を効果的に強化することを示しています。
要約(オリジナル)
Human cognition excels at transcending sensory input and forming latent representations that structure our understanding of the world. Although Large Language Models (LLMs) can produce chain-of-thought reasoning, they lack a principled framework to capture latent structures and model uncertainty, especially in compositional reasoning tasks. We propose Verbalized Probabilistic Graphical Modeling (vPGM), a Bayesian prompting framework that guides LLMs to simulate key principles of Probabilistic Graphical Models (PGMs) in natural language. Unlike many traditional probabilistic methods requiring substantial domain expertise or specialized training, vPGM bypasses expert-driven model design, making it well-suited for scenarios with limited assumptions or scarce data. We evaluated our model on several compositional reasoning tasks, both close-ended and open-ended. Our results indicate that the model effectively enhances confidence calibration and text generation quality.
arxiv情報
著者 | Hengguan Huang,Xing Shen,Songtao Wang,Lingfa Meng,Dianbo Liu,Hao Wang,Samir Bhatt |
発行日 | 2025-03-04 18:07:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google