Self-Explanation Prompting Improves Dialogue Understanding in Large Language Models

要約

タスク指向対話 (TOD) システムは、ユーザーが複数回の対話を通じてさまざまなアクティビティを実行するのを容易にしますが、大規模言語モデル (LLM) は、これらの複雑なコンテキストを理解するのに苦労することがよくあります。
この研究では、マルチターン対話におけるLLMの理解力を高めるための新しい「自己説明」促進戦略を提案します。
このタスクに依存しないアプローチでは、モデルがタスクの実行前に各対話の発話を分析する必要があるため、さまざまな対話中心のタスク全体のパフォーマンスが向上します。
6 つのベンチマーク データセットからの実験結果は、私たちの方法が他のゼロショット プロンプトよりも一貫して優れており、少数ショット プロンプトの有効性と同等またはそれを上回ることを確認し、複雑な対話タスクにおける LLM の理解を強化する強力なツールとしての可能性を示しています。

要約(オリジナル)

Task-oriented dialogue (TOD) systems facilitate users in executing various activities via multi-turn dialogues, but Large Language Models (LLMs) often struggle to comprehend these intricate contexts. In this study, we propose a novel ‘Self-Explanation’ prompting strategy to enhance the comprehension abilities of LLMs in multi-turn dialogues. This task-agnostic approach requires the model to analyze each dialogue utterance before task execution, thereby improving performance across various dialogue-centric tasks. Experimental results from six benchmark datasets confirm that our method consistently outperforms other zero-shot prompts and matches or exceeds the efficacy of few-shot prompts, demonstrating its potential as a powerful tool in enhancing LLMs’ comprehension in complex dialogue tasks.

arxiv情報

著者 Haoyu Gao,Ting-En Lin,Hangyu Li,Min Yang,Yuchuan Wu,Wentao Ma,Yongbin Li
発行日 2023-09-22 15:41:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク