JsonTuning: Towards Generalizable, Robust, and Controllable Instruction Tuning

要約

命令チューニングは、大規模言語モデル (LLM) のパフォーマンスを最適化するために不可欠なプロセスになっています。
ただし、TextTuning と呼ばれる現在のテキストからテキストへの命令チューニング方法には、主に明示的なタスク構造がないため、一般化、堅牢性、および制御性の点で重大な制限があります。
このペーパーでは、命令チューニングのための新しい構造間アプローチである JsonTuning を紹介します。
JsonTuning は、JSON の多用途で構造化された形式を利用してタスクを表現することにより、モデルが重要なタスク要素とその相互関係を理解できるようにすることで一般化を強化し、あいまいさを減らすことで堅牢性を向上させ、出力に対する明示的な制御を提供することで制御性を高めます。
さまざまな言語モデルと評価ベンチマークを使用して、JsonTuning と TextTuning の間の包括的な比較分析を実行します。
私たちの実験結果は、JsonTuning がさまざまなアプリケーションにわたって一貫して TextTuning を上回り、パフォーマンス、堅牢性、制御性が大幅に向上していることを示しています。
TextTuning の固有の制限に対処することで、JsonTuning は、多様なシナリオを管理できる、より効果的で信頼性の高い LLM を開発するための大きな可能性を明らかにします。

要約(オリジナル)

Instruction tuning has become an essential process for optimizing the performance of large language models (LLMs). However, current text-to-text instruction tuning methods, referred to as TextTuning, exhibit significant limitations in terms of generalization, robustness, and controllability, primarily due to the absence of explicit task structures. In this paper, we introduce JsonTuning, a novel structure-to-structure approach for instruction tuning. By utilizing the versatile and structured format of JSON to represent tasks, JsonTuning enhances generalization by enabling the model to comprehend essential task elements and their interrelations, improves robustness by reducing ambiguity, and increases controllability by providing explicit control over the output. We conduct a comprehensive comparative analysis between JsonTuning and TextTuning using various language models and evaluation benchmarks. Our experimental results demonstrate that JsonTuning consistently outperforms TextTuning across a range of applications, showing marked improvements in performance, robustness, and controllability. By addressing the inherent limitations of TextTuning, JsonTuning reveals significant potential for developing more effective and reliable LLMs capable of managing diverse scenarios.

arxiv情報

著者 Chang Gao,Wenxuan Zhang,Guizhen Chen,Wai Lam
発行日 2024-05-24 13:44:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク