Answering Subjective Induction Questions on Products by Summarizing Multi-sources Multi-viewpoints Knowledge

要約

この論文は、製品に関する主観的誘導質問に答える(SUBJPQA)分野における新しいタスクを提案します。
この種の質問に対する答えは一意ではありませんが、さまざまな観点から解釈できます。
たとえば、「携帯電話は重いかどうか」という答えにはさまざまな視点があります。
満足のいく回答とは、複数の情報源から得た主観的な意見を要約し、携帯電話の重量などの客観的な知識を提供できるものでなければなりません。
これは、ファクトイドの質問に対する回答が一意であり、単一のデータ ソースから見つけることができる従来の QA タスクとはまったく異なります。
この新しいタスクに対処するために、私たちは 3 つのステップからなる方法を提案します。
まず、事実や意見に関する複数の知識源から、回答に関連するすべての手がかりを取得します。
必要だが不足しているコンテキストを補うために、暗黙の常識的な事実も収集されます。
次に、インタラクティブな注意によって質問と質問の関連性を把握します。
次に、これらすべての知識のある手がかりを集約する強化ベースのサマライザーを設計します。
テンプレート制御のデコーダーに基づいて、包括的で複数の視点からの回答を出力できます。
新しいタスクに関連する評価済みベンチマーク セットが不足しているため、15 の製品ドメインにわたる 48,352 個のサンプルで構成される SupQA という名前の大規模なデータセットを構築します。
評価結果は、私たちのアプローチの有効性を示しています。

要約(オリジナル)

This paper proposes a new task in the field of Answering Subjective Induction Question on Products (SUBJPQA). The answer to this kind of question is non-unique, but can be interpreted from many perspectives. For example, the answer to ‘whether the phone is heavy’ has a variety of different viewpoints. A satisfied answer should be able to summarize these subjective opinions from multiple sources and provide objective knowledge, such as the weight of a phone. That is quite different from the traditional QA task, in which the answer to a factoid question is unique and can be found from a single data source. To address this new task, we propose a three-steps method. We first retrieve all answer-related clues from multiple knowledge sources on facts and opinions. The implicit commonsense facts are also collected to supplement the necessary but missing contexts. We then capture their relevance with the questions by interactive attention. Next, we design a reinforcement-based summarizer to aggregate all these knowledgeable clues. Based on a template-controlled decoder, we can output a comprehensive and multi-perspective answer. Due to the lack of a relevant evaluated benchmark set for the new task, we construct a large-scale dataset, named SupQA, consisting of 48,352 samples across 15 product domains. Evaluation results show the effectiveness of our approach.

arxiv情報

著者 Yufeng Zhang,Meng-xiang Wang,Jianxing Yu
発行日 2023-10-06 12:35:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク