JsonTuning: Towards Generalizable, Robust, and Controllable Instruction Tuning

要約

命令チューニングは大規模言語モデル (LLM) のパフォーマンスを向上させるために不可欠ですが、TextTuning と呼ばれる既存のテキスト間メソッドは、明示的なタスク構造が欠如しているため、一般化、堅牢性、制御性などの問題に苦労しています。
JSON 構造を使用してタスクを表現する構造間のアプローチである JsonTuning を紹介します。
この方法では、タスク要素とその関係を明確にすることで一般化が向上し、あいまいさを最小限に抑えることで堅牢性が向上し、出力の正確な制御が可能になることで制御性が向上します。
さまざまな言語モデルとベンチマークを使用して、JsonTuning と TextTuning の間で広範な比較分析を実行します。
私たちの調査結果では、さまざまなシナリオにわたるパフォーマンス、堅牢性、制御性の点で、JsonTuning が TextTuning を常に上回っていることが明らかになりました。
TextTuning の制限を克服することで、JsonTuning は、多様なシナリオを処理できる、より効果的で信頼性の高い LLM を開発するための大きな可能性を示します。

要約(オリジナル)

Instruction tuning is vital for enhancing the performance of large language models (LLMs), but existing text-to-text methods, referred to as TextTuning, struggle with issues such as generalization, robustness, and controllability due to their lack of explicit task structures. We introduce JsonTuning, a structure-to-structure approach that uses JSON structures to represent tasks. This method improves generalization by clarifying task elements and their relations, boosts robustness by minimizing ambiguity, and enhances controllability by allowing precise control over outputs. We conduct an extensive comparative analysis between JsonTuning and TextTuning using various language models and benchmarks. Our findings reveal that JsonTuning consistently surpasses TextTuning in terms of performance, robustness, and controllability across different scenarios. By overcoming the limitations of TextTuning, JsonTuning demonstrates significant potential for developing more effective and reliable LLMs capable of handling diverse scenarios.

arxiv情報

著者 Chang Gao,Wenxuan Zhang,Guizhen Chen,Wai Lam
発行日 2025-01-14 12:55:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク