ALTER: Augmentation for Large-Table-Based Reasoning

要約

大規模言語モデル(LLM)をテーブルベースの推論に使用することは、広範な研究により検討されているが、ほとんどのアプローチは、大規模なテーブルに適用した場合のスケーラビリティに苦戦している。このようなシナリオでLLMの優れた理解能力を維持するために、我々はALTER(Augmentation for Large-Table-Based Reasoning)を導入する。ALTERは、クエリーオーグメントを介した自由形式の自然言語(NL)質問と、テーブルオーグメントを介した半構造化表データの両方に潜在するオーグメントの可能性を利用するように設計されたフレームワークである。ALTERは、テーブルから関連するデータの小さなサブセットのみを利用し、事前にオーグメントされたスキーマ、意味、リテラル情報でそれを補うことで、テーブルベースの推論ベンチマークで卓越した性能を達成する。また、異なる手法と様々な分割原理を比較しながら、大規模テーブルシナリオの詳細な分析を行う。これらのシナリオにおいて、我々の手法は他の全てのアプローチを凌駕し、摂動に対する頑健性と効率性を示す。

要約(オリジナル)

While extensive research has explored the use of large language models (LLMs) for table-based reasoning, most approaches struggle with scalability when applied to large tables. To maintain the superior comprehension abilities of LLMs in these scenarios, we introduce ALTER(Augmentation for Large-Table-Based Reasoning)-a framework designed to harness the latent augmentation potential in both free-form natural language (NL) questions, via the query augmentor, and semi-structured tabular data, through the table augmentor. By utilizing only a small subset of relevant data from the table and supplementing it with pre-augmented schema, semantic, and literal information, ALTER achieves outstanding performance on table-based reasoning benchmarks. We also provide a detailed analysis of large-table scenarios, comparing different methods and various partitioning principles. In these scenarios, our method outperforms all other approaches and exhibits robustness and efficiency against perturbations.

arxiv情報

著者 Han Zhang,Yuheng Ma,Hanfang Yang
発行日 2024-07-03 12:34:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク