Agentic Large Language Models, a survey

要約

エージェント型LLM(エージェントとして動作する大規模な言語モデル)に大きな関心が集まっている。本稿では、この分野における研究の進展を概観し、研究課題を提示する。エージェント型LLMとは、(1)推論し、(2)行動し、(3)相互作用するLLMのことである。この3つのカテゴリーに従って文献を整理する。第一のカテゴリーは推論、内省、検索に焦点を当てた研究で、意思決定の改善を目指す。第二のカテゴリーは行動モデル、ロボット、ツールに焦点を当てた研究で、有用なアシスタントとして機能するエージェントを目指す。第三のカテゴリーはマルチエージェントシステムに焦点を当てた研究で、協調的なタスク解決や、創発的な社会的行動を研究するための相互作用のシミュレーションを目指す。我々は、検索がツールの使用を可能にし、内省がマルチエージェントコラボレーションを向上させ、推論が全てのカテゴリーに利益をもたらすなど、他のカテゴリーの成果から作品が相互に恩恵を受けることを発見した。我々は、エージェント型LLMの応用について議論し、さらなる研究のためのアジェンダを提供する。重要なアプリケーションは、医療診断、物流、金融市場分析である。一方、自己反映的なエージェントが役割を果たし、互いに相互作用することで、科学研究のプロセスそのものが強化される。さらに、エージェント型LLMは、LLMが学習データを使い果たしてしまうという問題に対する解決策を提供する可能性がある。推論時の振る舞いが新たな学習状態を生成するため、LLMはこれまで以上に大きなデータセットを必要とすることなく学習を続けることができる。LLMのアシスタントが実世界で行動を起こすことにはリスクが伴うが、エージェント型LLMは社会に利益をもたらす可能性も高い。

要約(オリジナル)

There is great interest in agentic LLMs, large language models that act as agents. We review the growing body of work in this area and provide a research agenda. Agentic LLMs are LLMs that (1) reason, (2) act, and (3) interact. We organize the literature according to these three categories. The research in the first category focuses on reasoning, reflection, and retrieval, aiming to improve decision making; the second category focuses on action models, robots, and tools, aiming for agents that act as useful assistants; the third category focuses on multi-agent systems, aiming for collaborative task solving and simulating interaction to study emergent social behavior. We find that works mutually benefit from results in other categories: retrieval enables tool use, reflection improves multi-agent collaboration, and reasoning benefits all categories. We discuss applications of agentic LLMs and provide an agenda for further research. Important applications are in medical diagnosis, logistics and financial market analysis. Meanwhile, self-reflective agents playing roles and interacting with one another augment the process of scientific research itself. Further, agentic LLMs may provide a solution for the problem of LLMs running out of training data: inference-time behavior generates new training states, such that LLMs can keep learning without needing ever larger datasets. We note that there is risk associated with LLM assistants taking action in the real world, while agentic LLMs are also likely to benefit society.

arxiv情報

著者 Aske Plaat,Max van Duijn,Niki van Stein,Mike Preuss,Peter van der Putten,Kees Joost Batenburg
発行日 2025-04-03 14:32:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク