Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding — A Survey

要約

大規模言語モデリングにおける最近のブレークスルーは、予測、表データ合成、質問応答、表理解など、表データモデリングに関連する多様なタスクへの適用を厳密に探求することを容易にしている。それぞれのタスクは、ユニークな課題と機会を提示している。しかしながら、この研究領域における主要なテクニック、メトリクス、データセット、モデル、最適化アプローチを要約し、比較した包括的なレビューは、現在のところ存在しない。本調査は、これらの分野における最近の進歩を集約し、利用されているデータセット、メトリクス、方法論の徹底的な調査と分類法を提供することで、このギャップに対処することを目的としている。既存の文献の長所、限界、未開拓の領域、ギャップを明らかにし、この重要で急速に発展している分野における今後の研究の方向性についての洞察を提供する。また、関連するコードとデータセットの参考文献も提供する。この包括的なレビューを通じて、適切な参考文献と洞察に満ちた視点を読者に提供し、この分野で優勢な課題を効果的にナビゲートし、対処するために必要なツールと知識を読者に提供することを期待している。

要約(オリジナル)

Recent breakthroughs in large language modeling have facilitated rigorous exploration of their application in diverse tasks related to tabular data modeling, such as prediction, tabular data synthesis, question answering, and table understanding. Each task presents unique challenges and opportunities. However, there is currently a lack of comprehensive review that summarizes and compares the key techniques, metrics, datasets, models, and optimization approaches in this research domain. This survey aims to address this gap by consolidating recent progress in these areas, offering a thorough survey and taxonomy of the datasets, metrics, and methodologies utilized. It identifies strengths, limitations, unexplored territories, and gaps in the existing literature, while providing some insights for future research directions in this vital and rapidly evolving field. It also provides relevant code and datasets references. Through this comprehensive review, we hope to provide interested readers with pertinent references and insightful perspectives, empowering them with the necessary tools and knowledge to effectively navigate and address the prevailing challenges in the field.

arxiv情報

著者 Xi Fang,Weijie Xu,Fiona Anting Tan,Jiani Zhang,Ziqing Hu,Yanjun Qi,Scott Nickleach,Diego Socolinsky,Srinivasan Sengamedu,Christos Faloutsos
発行日 2024-03-01 00:14:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: 68T50, cs.CL, I.2.7 パーマリンク