Towards Better Serialization of Tabular Data for Few-shot Classification with Large Language Models

要約

効率的なフレームワークを強調しながら、表形式のデータ分類における大規模言語モデル (LLM) の統合に関する研究を紹介します。
TabLLM (arXiv:2210.10723) で行われた既存の作業を基にして、傑出した LaTeX シリアル化メソッドを含む 3 つの新しいシリアル化手法を紹介します。
この方法は、ドメイン固有のデータセットを処理する際の LLM のパフォーマンスを大幅に向上させます。私たちの方法は、メモリ効率と複雑なデータ構造を完全に利用する能力で際立っています。
機能の組み合わせや重要性などのさまざまなシリアル化アプローチを含む広範な実験を通じて、私たちは精度と効率において従来のモデルよりも優れていることを実証しました。

要約(オリジナル)

We present a study on the integration of Large Language Models (LLMs) in tabular data classification, emphasizing an efficient framework. Building upon existing work done in TabLLM (arXiv:2210.10723), we introduce three novel serialization techniques, including the standout LaTeX serialization method. This method significantly boosts the performance of LLMs in processing domain-specific datasets, Our method stands out for its memory efficiency and ability to fully utilize complex data structures. Through extensive experimentation, including various serialization approaches like feature combination and importance, we demonstrate our work’s superiority in accuracy and efficiency over traditional models.

arxiv情報

著者 Sukriti Jaitly,Tanay Shah,Ashish Shugani,Razik Singh Grewal
発行日 2023-12-21 02:43:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク