要約
ChatGPT などの大規模言語モデル (LLM) は、さまざまな分野、特に自然言語の理解と生成タスクにおいて優れたパフォーマンスを実証しています。
複雑なアプリケーション シナリオでは、ユーザーはコンテキスト情報を保持し、包括的な応答を得るために、ChatGPT を使用して複数回の会話を行う傾向があります。
ただし、人間の忘却とモデルのコンテキストの忘却は、マルチターン会話シナリオにおいて依然として顕著な問題であり、ChatGPT のユーザーの会話理解とコンテキストの継続性に課題をもたらします。
これらの課題に対処するために、C5 と呼ばれる対話型会話視覚化システムを提案します。これには、グローバル ビュー、トピック ビュー、コンテキスト関連の Q&A ビューが含まれます。
グローバル ビューは、GitLog 図のメタファーを使用して会話構造を表現し、会話の進化の傾向を示し、局所的に顕著な機能の探索をサポートします。
トピック ビューは、ナレッジ グラフの構造を使用して、トピック内のすべての質問と回答のノードとその関係を表示し、それによって会話の関連性と展開を表示するように設計されています。
コンテキスト関連の Q&A ビューは 3 つのリンクされたビューで構成されており、ユーザーは質問をするときに特定のコンテキスト情報を提供しながら、個々の会話を深く調査できます。
C5の有用性と有効性をケーススタディとユーザースタディを通じて評価しました。
要約(オリジナル)
Large language models (LLMs), such as ChatGPT, have demonstrated outstanding performance in various fields, particularly in natural language understanding and generation tasks. In complex application scenarios, users tend to engage in multi-turn conversations with ChatGPT to keep contextual information and obtain comprehensive responses. However, human forgetting and model contextual forgetting remain prominent issues in multi-turn conversation scenarios, which challenge the users’ conversation comprehension and contextual continuity for ChatGPT. To address these challenges, we propose an interactive conversation visualization system called C5, which includes Global View, Topic View, and Context-associated Q\&A View. The Global View uses the GitLog diagram metaphor to represent the conversation structure, presenting the trend of conversation evolution and supporting the exploration of locally salient features. The Topic View is designed to display all the question and answer nodes and their relationships within a topic using the structure of a knowledge graph, thereby display the relevance and evolution of conversations. The Context-associated Q\&A View consists of three linked views, which allow users to explore individual conversations deeply while providing specific contextual information when posing questions. The usefulness and effectiveness of C5 were evaluated through a case study and a user study.
arxiv情報
著者 | Pan Liang,Danwei Ye,Zihao Zhu,Yunchao Wang,Wang Xia,Ronghua Liang,Guodao Sun |
発行日 | 2023-08-10 13:29:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google