Data-Copilot: Bridging Billions of Data and Humans with Autonomous Workflow

要約

金融、気象、エネルギーなど、さまざまな産業が日々膨大な量の異種データを生み出している。データを効率的に管理し、処理し、表示することは、人間にとって当然の要求である。しかし、これらのデータ関連作業には、労働集約的な努力と高度な専門知識が必要である。大規模言語モデル(LLMs)が意味理解と推論において有望な能力を示すことを考慮し、我々はLLMsの配備により、大量のデータを自律的に管理・処理しつつ、人間に優しい方法で対話・表示できることを提唱する。これに基づき、我々は、一方では多数のデータソースを接続し、他方では人間の多様な要求に応えるLLMベースのシステムであるData-Copilotを提案する。Data-Copilotは、経験豊富な専門家として、生データを自律的にユーザーの意図に最も適したマルチフォーム出力に変換する。具体的には、まず、クエリ、分析、予測、視覚化など、データに関連する多様な要求を満たす複数のユニバーサル・インターフェースを設計する。リアルタイム応答では、対応するインターフェースを呼び出すことにより、簡潔なワークフローを自動的に展開する。全プロセスはData-Copilotによって完全に制御され、人間の支援は必要ありません。Data-Copilot-1.0は、中国の膨大な金融データ(株式、ファンド、ニュースなど)を用いてリリースされた。実験によると、少ないトークン消費で信頼性の高いパフォーマンスを達成し、有望なアプリケーションの可能性を示しています。

要約(オリジナル)

Various industries such as finance, meteorology, and energy produce vast amounts of heterogeneous data every day. There is a natural demand for humans to manage, process, and display data efficiently. However, it necessitates labor-intensive efforts and a high level of expertise for these data-related tasks. Considering large language models (LLMs) showcase promising capabilities in semantic understanding and reasoning, we advocate that the deployment of LLMs could autonomously manage and process massive amounts of data while interacting and displaying in a human-friendly manner. Based on this, we propose Data-Copilot, an LLM-based system that connects numerous data sources on one end and caters to diverse human demands on the other end. Acting as an experienced expert, Data-Copilot autonomously transforms raw data into multi-form output that best matches the user’s intent. Specifically, it first designs multiple universal interfaces to satisfy diverse data-related requests, like querying, analysis, prediction, and visualization. In real-time response, it automatically deploys a concise workflow by invoking corresponding interfaces. The whole process is fully controlled by Data-Copilot, without human assistance. We release Data-Copilot-1.0 using massive Chinese financial data, e.g., stocks, funds, and news. Experiments indicate it achieves reliable performance with lower token consumption, showing promising application prospects.

arxiv情報

著者 Wenqi Zhang,Yongliang Shen,Weiming Lu,Yueting Zhuang
発行日 2024-05-06 15:36:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CE, cs.CL パーマリンク