要約
大規模言語モデル(LLM)をテーブルベースの推論に使用することは、広範な研究により検討されているが、ほとんどのアプローチは、大規模なテーブルに適用した場合のスケーラビリティに苦戦している。このようなシナリオでLLMの優れた理解能力を維持するために、我々はALTER(Augmentation for Large-Table-Based Reasoning)を導入する。ALTERは、クエリーオーグメントを介した自由形式の自然言語(NL)質問と、テーブルオーグメントを介した半構造化表データの両方に潜在するオーグメントの可能性を利用するように設計されたフレームワークである。ALTERは、テーブルから関連するデータの小さなサブセットのみを利用し、事前にオーグメントされたスキーマ、意味、リテラル情報でそれを補うことで、テーブルベースの推論ベンチマークで卓越した性能を達成する。また、異なる手法と様々な分割原理を比較しながら、大規模テーブルシナリオの詳細な分析を行う。これらのシナリオにおいて、我々の手法は他の全てのアプローチを凌駕し、摂動に対する頑健性と効率性を示す。
要約(オリジナル)
While extensive research has explored the use of large language models (LLMs) for table-based reasoning, most approaches struggle with scalability when applied to large tables. To maintain the superior comprehension abilities of LLMs in these scenarios, we introduce ALTER(Augmentation for Large-Table-Based Reasoning)-a framework designed to harness the latent augmentation potential in both free-form natural language (NL) questions, via the query augmentor, and semi-structured tabular data, through the table augmentor. By utilizing only a small subset of relevant data from the table and supplementing it with pre-augmented schema, semantic, and literal information, ALTER achieves outstanding performance on table-based reasoning benchmarks. We also provide a detailed analysis of large-table scenarios, comparing different methods and various partitioning principles. In these scenarios, our method outperforms all other approaches and exhibits robustness and efficiency against perturbations.
arxiv情報
著者 | Han Zhang,Yuheng Ma,Hanfang Yang |
発行日 | 2024-07-03 12:34:45+00:00 |
arxivサイト | arxiv_id(pdf) |