要約
自然言語から視覚化への変換 (NL2VIS) は、視覚的なデータ分析に大きな可能性を示していますが、自然言語処理や視覚化設計など、複数の下位レベルの実装を必要とする困難な作業のままです。
事前トレーニングされた大規模言語モデル (LLM) の最近の進歩により、自然言語から視覚化を生成するための新しい道が開かれています。
ただし、包括的で信頼できるベンチマークが存在しないため、視覚化生成における LLM の機能を理解するのが妨げられています。
このペーパーでは、VisEval と呼ばれる新しい NL2VIS ベンチマークを提案することで、このギャップに対処します。
まず、高品質で大規模なデータセットを紹介します。
このデータセットには、146 のデータベースをカバーする 2,524 の代表的なクエリが含まれており、正確にラベル付けされたグラウンド トゥルースと組み合わせられています。
次に、有効性、合法性、可読性などの複数の側面をカバーする包括的な自動評価手法を提唱します。
VisEval は、多数の異種チェッカーを使用して潜在的な問題を体系的にスキャンすることで、信頼性の高い評価結果を提供します。
私たちは、一連の最先端の LLM 上で VisEval を実行します。
私たちの評価により、蔓延する課題が明らかになり、将来の進歩に不可欠な洞察が得られます。
要約(オリジナル)
Translating natural language to visualization (NL2VIS) has shown great promise for visual data analysis, but it remains a challenging task that requires multiple low-level implementations, such as natural language processing and visualization design. Recent advancements in pre-trained large language models (LLMs) are opening new avenues for generating visualizations from natural language. However, the lack of a comprehensive and reliable benchmark hinders our understanding of LLMs’ capabilities in visualization generation. In this paper, we address this gap by proposing a new NL2VIS benchmark called VisEval. Firstly, we introduce a high-quality and large-scale dataset. This dataset includes 2,524 representative queries covering 146 databases, paired with accurately labeled ground truths. Secondly, we advocate for a comprehensive automated evaluation methodology covering multiple dimensions, including validity, legality, and readability. By systematically scanning for potential issues with a number of heterogeneous checkers, VisEval provides reliable and trustworthy evaluation outcomes. We run VisEval on a series of state-of-the-art LLMs. Our evaluation reveals prevalent challenges and delivers essential insights for future advancements.
arxiv情報
| 著者 | Nan Chen,Yuge Zhang,Jiahang Xu,Kan Ren,Yuqing Yang |
| 発行日 | 2024-08-07 09:52:44+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google