Co-Trained Retriever-Generator Framework for Question Generation in Earnings Calls

要約

学会から企業の決算発表まで、多様な専門的環境では、聴衆の質問を予測する能力が最も重要です。
聴衆の背景、興味、主題の知識を手動で評価することに依存する従来の方法では、特に大規模なグループや異質なグループを相手にした場合には不十分なことが多く、不正確さと非効率につながります。
NLP はテキストベースの質問生成において進歩を遂げてきましたが、その主な焦点は依然として学術的な場にあり、専門分野、特に決算発表カンファレンスの複雑な課題には十分なサービスが提供されていません。
このギャップに対処するために、私たちの論文は、決算報告のコンテキスト向けに特別に設計されたマルチ質問生成 (MQG) タスクの先駆者です。
私たちの方法論には、決算報告のトランスクリプトの徹底的な収集と、潜在的な質問を分類するための新しい注釈技術が含まれています。
さらに、関連情報を抽出するためにレトリーバーを強化した戦略を導入します。
アナリストが提起する可能性のあるさまざまな潜在的な質問を生成することを主な目的として、当社は決算報告のコンテンツから直接これらの質問を導き出します。
経験的評価は私たちのアプローチの優位性を強調し、生成された質問の正確さ、一貫性、および複雑さにおいて顕著な卓越性を明らかにしています。

要約(オリジナル)

In diverse professional environments, ranging from academic conferences to corporate earnings calls, the ability to anticipate audience questions stands paramount. Traditional methods, which rely on manual assessment of an audience’s background, interests, and subject knowledge, often fall short – particularly when facing large or heterogeneous groups, leading to imprecision and inefficiency. While NLP has made strides in text-based question generation, its primary focus remains on academic settings, leaving the intricate challenges of professional domains, especially earnings call conferences, underserved. Addressing this gap, our paper pioneers the multi-question generation (MQG) task specifically designed for earnings call contexts. Our methodology involves an exhaustive collection of earnings call transcripts and a novel annotation technique to classify potential questions. Furthermore, we introduce a retriever-enhanced strategy to extract relevant information. With a core aim of generating a spectrum of potential questions that analysts might pose, we derive these directly from earnings call content. Empirical evaluations underscore our approach’s edge, revealing notable excellence in the accuracy, consistency, and perplexity of the questions generated.

arxiv情報

著者 Yining Juan,Chung-Chi Chen,Hen-Hsen Huang,Hsin-Hsi Chen
発行日 2024-09-27 12:04:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク