Beyond Single-Turn: A Survey on Multi-Turn Interactions with Large Language Models

要約

大規模な言語モデル(LLMS)の最近の進歩は、単一ターンタスクを処理する能力に革命をもたらしましたが、実際のアプリケーションでは洗練されたマルチターン相互作用が必要です。
この調査では、LLMでのマルチターン相互作用の評価と強化における最近の進歩の包括的なレビューを提供します。
数学やコーディングなどの多様なドメインでの指導から、ロールプレイ、ヘルスケア、教育、さらには敵対的な脱獄の設定における複雑な会話エンゲージメントまで、タスク固有のシナリオに焦点を当てて、長期にわたる対話上のコンテキスト、一貫性、公平性、および応答性を維持するという課題を体系的に調べます。
このペーパーは、現在のベンチマークとデータセットを、マルチターンダイアログ評価の進化する状況を反映する一貫したカテゴリに整理しています。
さらに、モデル中心の戦略(コンテキスト学習、監視された微調整、強化学習、および新しいアーキテクチャ)、外部統合アプローチ(メモリ能力、検索ベースの方法、知識グラフ)、および共同相互作用のエージェントベースの技術など、多ターン設定に基づくさまざまな強化方法論をレビューします。
最後に、LLMSにおけるマルチターン相互作用の堅牢性と有効性をさらに進めるために、研究のための将来の課題について議論し、将来の方向性を提案します。
関連リソースと論文は、https://github.com/yubol-cmu/awesome-multi-turn-llmsで入手できます。

要約(オリジナル)

Recent advancements in large language models (LLMs) have revolutionized their ability to handle single-turn tasks, yet real-world applications demand sophisticated multi-turn interactions. This survey provides a comprehensive review of recent advancements in evaluating and enhancing multi-turn interactions in LLMs. Focusing on task-specific scenarios, from instruction following in diverse domains such as math and coding to complex conversational engagements in roleplay, healthcare, education, and even adversarial jailbreak settings, we systematically examine the challenges of maintaining context, coherence, fairness, and responsiveness over prolonged dialogues. The paper organizes current benchmarks and datasets into coherent categories that reflect the evolving landscape of multi-turn dialogue evaluation. In addition, we review a range of enhancement methodologies under multi-turn settings, including model-centric strategies (contextual learning, supervised fine-tuning, reinforcement learning, and new architectures), external integration approaches (memory-augmented, retrieval-based methods, and knowledge graph), and agent-based techniques for collaborative interactions. Finally, we discuss open challenges and propose future directions for research to further advance the robustness and effectiveness of multi-turn interactions in LLMs. Related resources and papers are available at https://github.com/yubol-cmu/Awesome-Multi-Turn-LLMs.

arxiv情報

著者 Yubo Li,Xiaobin Shen,Xinyu Yao,Xueying Ding,Yidi Miao,Ramayya Krishnan,Rema Padman
発行日 2025-05-14 01:48:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク