Controlling Equational Reasoning in Large Language Models with Prompt Interventions

要約

この論文では、大規模言語モデル (LLM) における幻覚率が記号データ生成フレームワークを介してどのように制御されるかを調査し、特定の数学的エラーの率と入力介入の種類との間の基本的な関係を調査します。
具体的には、シンボリック エンジンを使用して導出生成タスク用のデータを系統的に生成し、プロンプトに的を絞った介入を適用して、シンボルの表面形式、等式ツリー構造、数学的コンテキストなどの数学的導出の特徴を混乱させます。
次に、微調整された T5 モデル、GPT、LLaMa ベースのモデルを含む、さまざまな LLM にわたる迅速な介入の効果を評価します。
私たちの実験では、T5-Large がフレームワーク経由で生成されたさまざまな評価セットで GPT-4 の数ショットのパフォーマンスを上回ることができることを示唆しています。
ただし、人間による分析、テンプレートベースのエラー検出、およびテキスト生成メトリクスに基づいた広範な評価により、参照ベースのメトリクスだけで説明できるものを超えたモデルの弱点が明らかになります。
私たちはこれらの結果を使用して、介入の特徴的な分布フットプリントを LLM 導出品質の人による評価に結び付け、特定のタイプのエラーに関する言語モデルのきめの細かい数学的機能の大幅な制御につながる可能性があります。

要約(オリジナル)

This paper investigates how hallucination rates in Large Language Models (LLMs) may be controlled via a symbolic data generation framework, exploring a fundamental relationship between the rate of certain mathematical errors and types of input intervention. Specifically, we systematically generate data for a derivation generation task using a symbolic engine, applying targeted interventions to prompts to perturb features of mathematical derivations such as the surface forms of symbols, equational tree structures, and mathematical context. We then evaluate the effect of prompt interventions across a range of LLMs including fine-tuned T5 models, GPT, and LLaMa-based models. Our experiments suggest that T5-Large can outperform the few-shot performance of GPT-4 on various evaluation sets generated via the framework. However, an extensive evaluation based on human analysis, template-based error detection, and text generation metrics reveals model weaknesses beyond what the reference-based metrics singularly describe. We use these results to tie characteristic distributional footprints of interventions to the human evaluation of LLM derivation quality, potentially leading to significant control over fine-grained mathematical capabilities of language models with respect to specific types of errors.

arxiv情報

著者 Jordan Meadows,Marco Valentino,Andre Freitas
発行日 2025-01-13 17:01:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, math.HO パーマリンク