Continual Learning for Temporal-Sensitive Question Answering

要約

この研究では、時間的敏感な質問応答のための継続学習 (CLTSQA) という新しい研究領域を調査します。
これまでの研究は主に時間に敏感な質問応答 (TSQA) に焦点を当てており、将来の出来事の予測不可能な性質が見落とされていることがよくありました。
実際のアプリケーションでは、モデルが静的な完全なデータセットに依存するのではなく、時間の経過とともに継続的に知識を取得することが重要です。
私たちの論文では、モデルが進化し続ける情報環境に適応できるようにする戦略を調査し、それによって CLTSQA に固有の課題に対処します。
私たちの研究をサポートするために、私たちはまず、継続学習のさまざまな段階向けに特別に設計された、5 つのサブセットに分割された新しいデータセットを作成します。
次に、時間的記憶再生と時間的対比学習を統合する CLTSQA のトレーニング フレームワークを提案します。
私たちの実験結果は 2 つの重要な洞察を浮き彫りにします。まず、CLTSQA タスクは既存のモデルに特有の課題をもたらします。
第 2 に、私たちが提案するフレームワークはこれらの課題を効果的に解決し、パフォーマンスを向上させます。

要約(オリジナル)

In this study, we explore an emerging research area of Continual Learning for Temporal Sensitive Question Answering (CLTSQA). Previous research has primarily focused on Temporal Sensitive Question Answering (TSQA), often overlooking the unpredictable nature of future events. In real-world applications, it’s crucial for models to continually acquire knowledge over time, rather than relying on a static, complete dataset. Our paper investigates strategies that enable models to adapt to the ever-evolving information landscape, thereby addressing the challenges inherent in CLTSQA. To support our research, we first create a novel dataset, divided into five subsets, designed specifically for various stages of continual learning. We then propose a training framework for CLTSQA that integrates temporal memory replay and temporal contrastive learning. Our experimental results highlight two significant insights: First, the CLTSQA task introduces unique challenges for existing models. Second, our proposed framework effectively navigates these challenges, resulting in improved performance.

arxiv情報

著者 Wanqi Yang,Yunqiu Xu,Yanda Li,Kunze Wang,Binbin Huang,Ling Chen
発行日 2024-07-17 10:47:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク