Synergizing In-context Learning with Hints for End-to-end Task-oriented Dialog Systems

要約

少数ショット (コンテキスト内) 学習を使用して構築された大規模言語モデル (LLM) ベースのエンドツーエンドのタスク指向ダイアログ (TOD) システムは、トレーニング データが限られている場合にのみ、教師ありモデルよりも優れたパフォーマンスを発揮します。
これは、ほんの数回のデモン​​ストレーションであらゆるタスクを学習できる LLM の固有の能力によるものです。
トレーニング ダイアログの数が増加するにつれて、教師あり SoTA モデルは、LLM が模倣するのが難しいトレーニング データ内のシステム応答のスタイルとよりよく一致することを学習するため、インコンテキスト学習 LLM を上回ります。
これに応えて、私たちは SyncTOD を提案します。これは、調整を改善するためのタスクに関する有用なヒントを LLM と相乗作用させます。
大まかに言うと、SyncTOD は補助モデルをトレーニングして、これらのヒントを提供し、コンテキスト内プロンプトのサンプルを選択します。
ChatGPT を使用すると、SyncTOD は、低データ設定で LLM ベースのベースラインや SoTA モデルと比較して優れたパフォーマンスを実現しながら、フルデータ設定でも競争力のあるパフォーマンスを維持します

要約(オリジナル)

Large language models (LLM) based end-to-end task-oriented dialog (TOD) systems built using few-shot (in-context) learning perform better than supervised models only when the train data is limited. This is due to the inherent ability of LLMs to learn any task with just a few demonstrations. As the number of train dialogs increases, supervised SoTA models surpass in-context learning LLMs as they learn to better align with the style of the system responses in the training data, which LLMs struggle to mimic. In response, we propose SyncTOD, which synergizes LLMs with useful hints about the task for improved alignment. At a high level, SyncTOD trains auxiliary models to provide these hints and select exemplars for the in-context prompts. With ChatGPT, SyncTOD achieves superior performance compared to LLM-based baselines and SoTA models in low-data settings, while retaining competitive performance in full-data settings

arxiv情報

著者 Vishal Vivek Saley,Rocktim Jyoti Das,Dinesh Raghu,Mausam
発行日 2024-05-24 14:13:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク