要約
マルチホップ質問応答 (MHQA) は質問応答の重要な分野であり、文書の検索、文予測のサポート、応答範囲の抽出などの複数の推論コンポーネントが必要です。
この研究では、マルチホップ推論のパフォーマンスを制限する主な要因を分析し、MHQA タスクにラベル スムージングを導入します。
これは、MHQA システムの一般化機能を強化し、トレーニング セット内の回答範囲と推論パスの過剰適合を軽減することを目的としています。
我々は、学習プロセスに不確実性を組み込んでおり、特に機械読解 (MRC) タスク向けに調整された、新しいラベル平滑化手法である F1 スムージングを提案します。
カリキュラム学習の原則に触発され、トレーニング プロセス全体を通じて不確実性を段階的に低減する線形減衰ラベル スムージング アルゴリズム (LDLA) を導入しました。
HotpotQA データセットの実験では、マルチホップ推論のパフォーマンスと一般化性を向上させ、リーダーボードで新しい最先端の結果を達成する際の私たちの手法の有効性を実証しています。
要約(オリジナル)
Multi-Hop Question Answering (MHQA) is a significant area in question answering, requiring multiple reasoning components, including document retrieval, supporting sentence prediction, and answer span extraction. In this work, we analyze the primary factors limiting the performance of multi-hop reasoning and introduce label smoothing into the MHQA task. This is aimed at enhancing the generalization capabilities of MHQA systems and mitigating overfitting of answer spans and reasoning paths in training set. We propose a novel label smoothing technique, F1 Smoothing, which incorporates uncertainty into the learning process and is specifically tailored for Machine Reading Comprehension (MRC) tasks. Inspired by the principles of curriculum learning, we introduce the Linear Decay Label Smoothing Algorithm (LDLA), which progressively reduces uncertainty throughout the training process. Experiment on the HotpotQA dataset demonstrates the effectiveness of our methods in enhancing performance and generalizability in multi-hop reasoning, achieving new state-of-the-art results on the leaderboard.
arxiv情報
著者 | Zhangyue Yin,Yuxin Wang,Xiannian Hu,Yiguang Wu,Hang Yan,Xinyu Zhang,Zhao Cao,Xuanjing Huang,Xipeng Qiu |
発行日 | 2023-12-13 16:27:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google