Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding — A Survey

要約

大規模言語モデリングにおける最近の進歩により、予測、表形式データ合成、質問応答、表理解など、表形式データ モデリングに関連するさまざまなタスクにおけるアプリケーションの厳密な探索が容易になりました。
それぞれのタスクには、独自の課題と機会が存在します。
しかし、現時点では、この研究領域における主要な手法、指標、データセット、モデル、最適化アプローチを要約して比較する包括的なレビューが不足しています。
この調査は、これらの分野における最近の進歩を統合し、利用されたデータセット、指標、手法の徹底的な調査と分類を提供することで、このギャップに対処することを目的としています。
既存の文献の強み、限界、未踏の領域、ギャップを特定するとともに、この重要かつ急速に進化する分野における将来の研究の方向性についての洞察を提供します。
関連するコードとデータセットのリファレンスも提供します。
この包括的なレビューを通じて、興味のある読者に適切な参考文献と洞察力に富んだ視点を提供し、この分野で蔓延している課題を効果的にナビゲートして対処するために必要なツールと知識を提供したいと考えています。

要約(オリジナル)

Recent breakthroughs in large language modeling have facilitated rigorous exploration of their application in diverse tasks related to tabular data modeling, such as prediction, tabular data synthesis, question answering, and table understanding. Each task presents unique challenges and opportunities. However, there is currently a lack of comprehensive review that summarizes and compares the key techniques, metrics, datasets, models, and optimization approaches in this research domain. This survey aims to address this gap by consolidating recent progress in these areas, offering a thorough survey and taxonomy of the datasets, metrics, and methodologies utilized. It identifies strengths, limitations, unexplored territories, and gaps in the existing literature, while providing some insights for future research directions in this vital and rapidly evolving field. It also provides relevant code and datasets references. Through this comprehensive review, we hope to provide interested readers with pertinent references and insightful perspectives, empowering them with the necessary tools and knowledge to effectively navigate and address the prevailing challenges in the field.

arxiv情報

著者 Xi Fang,Weijie Xu,Fiona Anting Tan,Jiani Zhang,Ziqing Hu,Yanjun Qi,Scott Nickleach,Diego Socolinsky,Srinivasan Sengamedu,Christos Faloutsos
発行日 2024-06-10 17:41:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T50, cs.CL, I.2.7 パーマリンク