ReSpark: Leveraging Previous Data Reports as References to Generate New Reports with LLMs

要約

データレポートの作成は、データの探索と理解を繰り返し、その後に洞察を要約する必要があるため、時間がかかる。大規模言語モデル(LLM)はデータ処理とテキスト生成のための強力なツールですが、ユーザーの期待に完全に応える完全なデータレポートを作成するのに苦労することがよくあります。重要な課題の1つは、分析ロジック全体をLLMに効果的に伝えることである。さらに、包括的な分析ロジックを決定することは、ユーザーにとって精神的な負担となりうる。このような課題に対処するため、我々は、既存のデータレポートを新しいレポートを作成するための参照として活用する、LLMベースの手法であるReSparkを提案する。ReSparkは、データテーブルが与えられると、類似トピックのレポートを検索し、分析目的に対応する相互依存セグメントに解析し、新しいデータでそれらを実行する。不整合を特定し、目的、データ変換、テキスト記述をカスタマイズします。ReSparkにより、ユーザーはリアルタイムの出力を確認し、新しい目的を挿入し、レポート内容を修正することができる。ReSparkの有効性は、比較調査およびユーザー調査によって評価されました。

要約(オリジナル)

Creating data reports is time-consuming, as it requires iterative exploration and understanding of data, followed by summarizing the insights. While large language models (LLMs) are powerful tools for data processing and text generation, they often struggle to produce complete data reports that fully meet user expectations. One significant challenge is effectively communicating the entire analysis logic to LLMs. Moreover, determining a comprehensive analysis logic can be mentally taxing for users. To address these challenges, we propose ReSpark, an LLM-based method that leverages existing data reports as references for creating new ones. Given a data table, ReSpark searches for similar-topic reports, parses them into interdependent segments corresponding to analytical objectives, and executes them with new data. It identifies inconsistencies and customizes the objectives, data transformations, and textual descriptions. ReSpark allows users to review real-time outputs, insert new objectives, and modify report content. Its effectiveness was evaluated through comparative and user studies.

arxiv情報

著者 Yuan Tian,Chuhan Zhang,Xiaotong Wang,Sitong Pan,Weiwei Cui,Haidong Zhang,Dazhen Deng,Yingcai Wu
発行日 2025-02-04 14:00:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.HC パーマリンク