HRoT: Hybrid prompt strategy and Retrieval of Thought for Table-Text Hybrid Question Answering

要約

与えられた表とテキスト (TextTableQA) のハイブリッド コンテンツに対する数値的な質問に答えるのは、困難な作業です。
最近、Large Language Model (LLM) が NLP コミュニティで大きな注目を集めています。
大規模な言語モデルの出現により、コンテキスト内学習と思考連鎖プロンプトが、この分野で特に人気のある 2 つの研究トピックになりました。
このペーパーでは、ハイブリッド プロンプト戦略と TextTableQA の思考の検索と呼ばれる新しいプロンプト戦略を紹介します。
インコンテキスト学習を通じて、ハイブリッド データを扱う際の検索思考の能力をモデルに開発させます。
私たちの方法は、数ショット設定の MultiHiertt データセット上で完全に監視された SOTA と比較して優れたパフォーマンスを達成します。

要約(オリジナル)

Answering numerical questions over hybrid contents from the given tables and text(TextTableQA) is a challenging task. Recently, Large Language Models (LLMs) have gained significant attention in the NLP community. With the emergence of large language models, In-Context Learning and Chain-of-Thought prompting have become two particularly popular research topics in this field. In this paper, we introduce a new prompting strategy called Hybrid prompt strategy and Retrieval of Thought for TextTableQA. Through In-Context Learning, we prompt the model to develop the ability of retrieval thinking when dealing with hybrid data. Our method achieves superior performance compared to the fully-supervised SOTA on the MultiHiertt dataset in the few-shot setting.

arxiv情報

著者 Tongxu Luo,Fangyu Lei,Jiahe Lei,Weihao Liu,Shihu He,Jun Zhao,Kang Liu
発行日 2023-09-22 07:26:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク