要約
マルチエージェントベースのニュース主導の時系列予測は、大規模な言語モデル(LLM)の時代の潜在的なパラダイムシフトと見なされます。
このタスクの課題は、時系列の変動に対するさまざまなニュースイベントの影響を測定することにあります。
これには、エージェントが革新的な思考のより強力な能力と誤解を招く論理を特定する必要があります。
ただし、既存のマルチエージェントディスカッションフレームワークは、これら2つの機能を最適化するという点で、時系列予測の強化が限られています。
イノベーションの育成における競争の役割に触発されたこの研究は、革新的な思考を生み出すエージェントの能力を高めるために、マルチエージェントディスカッションに競争メカニズムを組み込みました。
さらに、誤解を招く情報の特定にモデルの習熟度を強化するために、反射段階に微調整された小型LLMモデルを組み込み、補助的な意思決定サポートを提供します。
実験結果は、競争が革新的な思考のためのエージェントの能力を高めることができることを確認し、それが時系列予測のパフォーマンスを大幅に改善できる可能性があります。
社会科学の発見と同様に、このフレームワーク内の競争の強さは、エージェントのパフォーマンスに影響を与え、LLMSベースのマルチエージェントシステムを研究するための新しい視点を提供します。
要約(オリジナル)
Multi-agents-based news-driven time series forecasting is considered as a potential paradigm shift in the era of large language models (LLMs). The challenge of this task lies in measuring the influences of different news events towards the fluctuations of time series. This requires agents to possess stronger abilities of innovative thinking and the identifying misleading logic. However, the existing multi-agent discussion framework has limited enhancement on time series prediction in terms of optimizing these two capabilities. Inspired by the role of competition in fostering innovation, this study embeds a competition mechanism within the multi-agent discussion to enhance agents’ capability of generating innovative thoughts. Furthermore, to bolster the model’s proficiency in identifying misleading information, we incorporate a fine-tuned small-scale LLM model within the reflective stage, offering auxiliary decision-making support. Experimental results confirm that the competition can boost agents’ capacity for innovative thinking, which can significantly improve the performances of time series prediction. Similar to the findings of social science, the intensity of competition within this framework can influence the performances of agents, providing a new perspective for studying LLMs-based multi-agent systems.
arxiv情報
著者 | Yuxuan Zhang,Yangyang Feng,Daifeng Li,Kexin Zhang,Junlan Chen,Bowen Deng |
発行日 | 2025-04-14 13:25:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google