要約
異種データに対する質問応答には、多様なデータソースに対する推論が必要ですが、大規模な情報と異種データの有機的な結合により、これは困難です。
これらの課題に対処するために、さまざまなアプローチが提案されています。
1 つのアプローチには、関連する情報を選択するように専門の検索者をトレーニングして、入力長を短縮することが含まれます。
もう 1 つのアプローチは、データの多様なモダリティを単一のモダリティに変換して、タスクの難しさを簡素化し、より単純な処理を可能にすることです。
この論文では、ハイブリッド質問応答タスク用の新しいプログラムベースのプロンプトフレームワークである HProPro を提案します。
HProPro は、コード生成および実行パラダイムに従います。
さらに、HProPro は、ハイブリッド推論シナリオに取り組むためにさまざまな機能を統合します。
具体的には、HProPro には、さまざまなソースやモダリティからのデータに対してハイブリッド情報探索を実行するための関数宣言と関数実装が含まれており、これにより、特殊な取得者のトレーニングやモーダル変換の実行を行わずに、そのようなデータに対する推論が可能になります。
2 つの典型的なハイブリッド質問応答ベンチマーク HybridQA と MultiModalQA の実験結果は、HProPro の有効性を実証しています。HProPro はすべてのベースライン システムを上回り、両方のデータセットの少数ショット設定で最高のパフォーマンスを達成します。
要約(オリジナル)
Question answering over heterogeneous data requires reasoning over diverse sources of data, which is challenging due to the large scale of information and organic coupling of heterogeneous data. Various approaches have been proposed to address these challenges. One approach involves training specialized retrievers to select relevant information, thereby reducing the input length. Another approach is to transform diverse modalities of data into a single modality, simplifying the task difficulty and enabling more straightforward processing. In this paper, we propose HProPro, a novel program-based prompting framework for the hybrid question answering task. HProPro follows the code generation and execution paradigm. In addition, HProPro integrates various functions to tackle the hybrid reasoning scenario. Specifically, HProPro contains function declaration and function implementation to perform hybrid information-seeking over data from various sources and modalities, which enables reasoning over such data without training specialized retrievers or performing modal transformations. Experimental results on two typical hybrid question answering benchmarks HybridQA and MultiModalQA demonstrate the effectiveness of HProPro: it surpasses all baseline systems and achieves the best performances in the few-shot settings on both datasets.
arxiv情報
著者 | Qi Shi,Han Cui,Haofeng Wang,Qingfu Zhu,Wanxiang Che,Ting Liu |
発行日 | 2024-02-16 16:35:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google