LLM4Vis: Explainable Visualization Recommendation using ChatGPT

要約

データの視覚化は、さまざまなドメインの洞察を調査し、伝達するための強力なツールです。
データセットの視覚化の選択を自動化するために、視覚化の推奨として知られるタスクが提案されています。
この目的のために、さまざまな機械学習ベースのアプローチが開発されていますが、多くの場合、トレーニングにはデータセットと視覚化のペアの大規模なコーパスが必要であり、その結果に対する自然な説明が不足しています。
この研究ギャップに対処するために、私たちは、非常に少ないデモンストレーション例を使用して視覚化の推奨を実行し、人間のような説明を返す新しい ChatGPT ベースのプロンプト アプローチである LLM4Vis を提案します。
私たちのアプローチには、機能の説明、デモンストレーション例の選択、説明の生成、デモンストレーション例の構築、および推論のステップが含まれます。
高品質の説明を含むデモンストレーション例を取得するために、前の世代とテンプレートベースのヒントを考慮して、生成された説明を繰り返し改良する新しい説明生成ブートストラップを提案します。
VizML データセットの評価では、LLM4Vis が、少数ショット設定とゼロショット設定の両方で、ランダム フォレスト、デシジョン ツリー、MLP などの教師あり学習モデルよりも優れたパフォーマンスまたは同様のパフォーマンスを発揮することが示されています。
定性的評価では、LLM4Vis によって生成された説明の有効性も示します。
コードは \href{https://github.com/demoleiwang/LLM4Vis}{https://github.com/demoleiwang/LLM4Vis} で公開しています。

要約(オリジナル)

Data visualization is a powerful tool for exploring and communicating insights in various domains. To automate visualization choice for datasets, a task known as visualization recommendation has been proposed. Various machine-learning-based approaches have been developed for this purpose, but they often require a large corpus of dataset-visualization pairs for training and lack natural explanations for their results. To address this research gap, we propose LLM4Vis, a novel ChatGPT-based prompting approach to perform visualization recommendation and return human-like explanations using very few demonstration examples. Our approach involves feature description, demonstration example selection, explanation generation, demonstration example construction, and inference steps. To obtain demonstration examples with high-quality explanations, we propose a new explanation generation bootstrapping to iteratively refine generated explanations by considering the previous generation and template-based hint. Evaluations on the VizML dataset show that LLM4Vis outperforms or performs similarly to supervised learning models like Random Forest, Decision Tree, and MLP in both few-shot and zero-shot settings. The qualitative evaluation also shows the effectiveness of explanations generated by LLM4Vis. We make our code publicly available at \href{https://github.com/demoleiwang/LLM4Vis}{https://github.com/demoleiwang/LLM4Vis}.

arxiv情報

著者 Lei Wang,Songheng Zhang,Yun Wang,Ee-Peng Lim,Yong Wang
発行日 2023-10-11 16:51:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.HC パーマリンク