A Survey of Table Reasoning with Large Language Models

要約

表推論は、提供された表およびオプションで表のテキスト説明に従って、ユーザーの要件に従って質問に対応する回答を生成することを目的としており、情報取得の効率を効果的に向上させます。
最近では、Large Language Model (LLM) を使用することがテーブル推論の主流の方法となっています。これは、アノテーションのコストが大幅に削減されるだけでなく、以前の方法のパフォーマンスを上回るためです。
ただし、既存の研究には、LLM ベースのテーブル推論の概要がまだ不足しています。
研究が不足しているため、LLM の時代にどのテクニックが表推論のパフォーマンスを向上させることができるのか、LLM が表推論に優れている理由、および将来的に表推論の能力を強化する方法については、ほとんど解明されていないままです。
このギャップは研究の進歩を大きく制限します。
上記の質問に答え、LLM による表推論の研究を進めるために、私たちはこの調査を提示して既存の研究を分析し、将来の研究にインスピレーションを与えます。
この論文では、LLM 時代に表推論のパフォーマンスを向上させるために使用される主流の手法と、表推論を解決するための LLM 以前と比較した LLM の利点を分析します。
私たちは、既存の手法の改善と実用化の拡大の両方から研究の方向性を提供し、将来の研究に刺激を与えます。

要約(オリジナル)

Table reasoning, which aims to generate the corresponding answer to the question following the user requirement according to the provided table, and optionally a text description of the table, effectively improving the efficiency of obtaining information. Recently, using Large Language Models (LLMs) has become the mainstream method for table reasoning, because it not only significantly reduces the annotation cost but also exceeds the performance of previous methods. However, existing research still lacks a summary of LLM-based table reasoning works. Due to the existing lack of research, questions about which techniques can improve table reasoning performance in the era of LLMs, why LLMs excel at table reasoning, and how to enhance table reasoning abilities in the future, remain largely unexplored. This gap significantly limits progress in research. To answer the above questions and advance table reasoning research with LLMs, we present this survey to analyze existing research, inspiring future work. In this paper, we analyze the mainstream techniques used to improve table reasoning performance in the LLM era, and the advantages of LLMs compared to pre-LLMs for solving table reasoning. We provide research directions from both the improvement of existing methods and the expansion of practical applications to inspire future research.

arxiv情報

著者 Xuanliang Zhang,Dingzirui Wang,Longxu Dou,Qingfu Zhu,Wanxiang Che
発行日 2024-02-13 07:17:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク