要約
金融、気象学、エネルギーなどのさまざまな業界では、毎日膨大な量の異種データが生成されています。
人間には、データを効率的に管理、処理、表示するという当然の要求があります。
ただし、これらのデータ関連タスクには多大な労力と高度な専門知識が必要です。
大規模言語モデル (LLM) が意味の理解と推論において有望な機能を示していることを考慮すると、LLM の導入により、人間に優しい方法で対話および表示しながら、大量のデータを自律的に管理および処理できると主張します。
これに基づいて、一方の端で多数のデータ ソースを接続し、もう一方の端で人間の多様な要求に応える LLM ベースのシステムである Data-Copilot を提案します。
Data-Copilot は、経験豊富な専門家として機能し、生データをユーザーの意図に最も適合するマルチフォーム出力に自律的に変換します。
具体的には、まず、クエリ、分析、予測、視覚化など、さまざまなデータ関連の要求を満たす複数のユニバーサル インターフェイスを設計します。
リアルタイム応答では、対応するインターフェイスを呼び出して簡潔なワークフローを自動的に展開します。
プロセス全体は人間の支援なしで Data-Copilot によって完全に制御されます。
株式、ファンド、ニュースなどの中国の膨大な金融データを使用した Data-Copilot-1.0 をリリースします。
実験では、より少ないトークン消費量で信頼性の高いパフォーマンスを実現し、有望なアプリケーションの見通しを示していることが示されています。
要約(オリジナル)
Various industries such as finance, meteorology, and energy produce vast amounts of heterogeneous data every day. There is a natural demand for humans to manage, process, and display data efficiently. However, it necessitates labor-intensive efforts and a high level of expertise for these data-related tasks. Considering large language models (LLMs) showcase promising capabilities in semantic understanding and reasoning, we advocate that the deployment of LLMs could autonomously manage and process massive amounts of data while interacting and displaying in a human-friendly manner. Based on this, we propose Data-Copilot, an LLM-based system that connects numerous data sources on one end and caters to diverse human demands on the other end. Acting as an experienced expert, Data-Copilot autonomously transforms raw data into multi-form output that best matches the user’s intent. Specifically, it first designs multiple universal interfaces to satisfy diverse data-related requests, like querying, analysis, prediction, and visualization. In real-time response, it automatically deploys a concise workflow by invoking corresponding interfaces. The whole process is fully controlled by Data-Copilot, without human assistance. We release Data-Copilot-1.0 using massive Chinese financial data, e.g., stocks, funds, and news. Experiments indicate it achieves reliable performance with lower token consumption, showing promising application prospects.
arxiv情報
著者 | Wenqi Zhang,Yongliang Shen,Weiming Lu,Yueting Zhuang |
発行日 | 2024-05-07 02:53:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google