要約
GPT、Claude、LLaMA、Qwen などのモデルの出現により、AI アプリケーションが再構築され、業界全体に大きな新たな機会がもたらされました。
しかし、表形式データの統合は、現実世界の多くの領域において基礎的な役割を果たしているにもかかわらず、依然として著しく未開発のままです。
このギャップは 3 つの主な理由から重大です。
まず、高度なアプリケーションにはデータベースまたはデータ ウェアハウスのデータ統合が不可欠です。
第二に、表形式データの膨大でほとんど未開発のリソースは、分析に計り知れない可能性をもたらします。
3 番目に、ビジネス インテリジェンス ドメインでは、現在の多くの LLM が提供するのが難しい可能性がある、適応性のある正確なソリューションが特に求められます。
これに応えて、TableGPT2 を導入します。このモデルは、593.8K を超えるテーブルと 236 万の高品質のクエリ – テーブル – 出力タプルで厳密に事前トレーニングおよび微調整されたモデルであり、これまでの研究では前例のない規模のテーブル関連データです。
この広範なトレーニングにより、TableGPT2 は強力な一般言語とコーディング能力を維持しながら、テーブル中心のタスクで優れた性能を発揮できるようになります。
TableGPT2 の主要な革新の 1 つは、スキーマ レベルおよびセル レベルの情報をキャプチャするために特別に設計された新しいテーブル エンコーダです。
このエンコーダーは、実際のアプリケーションで一般的に発生するあいまいなクエリ、欠落している列名、不規則なテーブルを処理するモデルの機能を強化します。
視覚言語モデルと同様に、この先駆的なアプローチはデコーダーと統合され、堅牢な大規模なマルチモーダル モデルを形成します。
私たちは、その結果が説得力があると信じています。TableGPT2 は、堅牢な汎用機能をそのままに、23 のベンチマーク メトリクスにわたって、以前のベンチマーク中立 LLM と比較して、7B モデルで 35.20%、72B モデルで 49.32% の平均パフォーマンス向上を達成しました。
要約(オリジナル)
The emergence of models like GPTs, Claude, LLaMA, and Qwen has reshaped AI applications, presenting vast new opportunities across industries. Yet, the integration of tabular data remains notably underdeveloped, despite its foundational role in numerous real-world domains. This gap is critical for three main reasons. First, database or data warehouse data integration is essential for advanced applications; second, the vast and largely untapped resource of tabular data offers immense potential for analysis; and third, the business intelligence domain specifically demands adaptable, precise solutions that many current LLMs may struggle to provide. In response, we introduce TableGPT2, a model rigorously pre-trained and fine-tuned with over 593.8K tables and 2.36M high-quality query-table-output tuples, a scale of table-related data unprecedented in prior research. This extensive training enables TableGPT2 to excel in table-centric tasks while maintaining strong general language and coding abilities. One of TableGPT2’s key innovations is its novel table encoder, specifically designed to capture schema-level and cell-level information. This encoder strengthens the model’s ability to handle ambiguous queries, missing column names, and irregular tables commonly encountered in real-world applications. Similar to visual language models, this pioneering approach integrates with the decoder to form a robust large multimodal model. We believe the results are compelling: over 23 benchmarking metrics, TableGPT2 achieves an average performance improvement of 35.20% in the 7B model and 49.32% in the 72B model over prior benchmark-neutral LLMs, with robust general-purpose capabilities intact.
arxiv情報
著者 | Aofeng Su,Aowen Wang,Chao Ye,Chen Zhou,Ga Zhang,Gang Chen,Guangcheng Zhu,Haobo Wang,Haokai Xu,Hao Chen,Haoze Li,Haoxuan Lan,Jiaming Tian,Jing Yuan,Junbo Zhao,Junlin Zhou,Kaizhe Shou,Liangyu Zha,Lin Long,Liyao Li,Pengzuo Wu,Qi Zhang,Qingyi Huang,Saisai Yang,Tao Zhang,Wentao Ye,Wufang Zhu,Xiaomeng Hu,Xijun Gu,Xinjie Sun,Xiang Li,Yuhang Yang,Zhiqing Xiao |
発行日 | 2024-11-07 03:32:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google