Rehearsing Answers to Probable Questions with Perspective-Taking

要約

質問応答 (QA) は NLP 分野で長年注目されており、主に読解力と常識 QA に対処します。
しかし、専門的な口頭プレゼンテーション中に予想される質問に対する回答を準備するシナリオについては、まだ調査が進んでいません。
このホワイトペーパーでは、企業マネージャーとプロのアナリストの間で行われた実際の QA 会話の記録を利用することにより、この重要でありながら見落とされているトピックについて先駆的に検討します。
3 つの因果知識グラフ (KG) と 3 つの大規模言語モデル (LLM) を使用して、提案されたタスクを探索します。
この研究は、専門的な QA シナリオにおける LLM の適用に関する基礎的な洞察を提供し、効果的な応答を生成する際の因果関係のある KG と視点の取得の重要性を強調しています。

要約(オリジナル)

Question answering (QA) has been a long-standing focus in the NLP field, predominantly addressing reading comprehension and common sense QA. However, scenarios involving the preparation of answers to probable questions during professional oral presentations remain underexplored. In this paper, we pioneer the examination of this crucial yet overlooked topic by utilizing real-world QA conversation transcripts between company managers and professional analysts. We explore the proposed task using three causal knowledge graphs (KGs) and three large language models (LLMs). This work provides foundational insights into the application of LLMs in professional QA scenarios, highlighting the importance of causal KGs and perspective-taking in generating effective responses.

arxiv情報

著者 Yung-Yu Shih,Ziwei Xu,Hiroya Takamura,Yun-Nung Chen,Chung-Chi Chen
発行日 2024-09-27 12:05:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク