要約
現実世界の複雑なタスクを解決するには、行動と観察のサイクルが必要です。
これは、タスクが分析、ツールの使用、実験の多くのサイクルを必要とする科学の場合に特に当てはまります。
言語エージェントは、自然言語またはコードを介してツールと対話できるため、科学における知的タスクの自動化に有望です。
しかし、エージェントは内部推論、計画、ツールの使用法、および温度サンプリング言語モデルの固有の確率性などの非標準コンポーネントで構成されている可能性があるため、エージェントの柔軟性はソフトウェア実装に概念的および実践的な課題を生み出します。
ここでは、言語エージェントのための拡張可能な体育館である Aviary を紹介します。
私たちはエージェントを、言語に基づいた部分的に観察可能なマルコフ決定プロセス (言語決定プロセスと呼ぶ) を解決するポリシーとして形式化します。
次に、3 つの挑戦的な科学環境を含む 5 つの環境を実装します。(1) 分子クローニングのための DNA 構築物の操作、(2) 科学文献にアクセスして研究上の疑問に答える、(3) タンパク質の安定性を設計する。
これらの環境は、多段階の推論と現代の生物学研究との関連性に焦点を当てて選択されました。
最後に、オンライン トレーニングと推論時間コンピューティングのスケーリングにより、オープンソースの非フロンティア LLM に支えられた言語エージェントが、最大 100 倍低い推論コストで、複数のタスクに関してフロンティア LLM エージェントと人間の専門家の両方に匹敵し、それを超えることができることを示します。
要約(オリジナル)
Solving complex real-world tasks requires cycles of actions and observations. This is particularly true in science, where tasks require many cycles of analysis, tool use, and experimentation. Language agents are promising for automating intellectual tasks in science because they can interact with tools via natural language or code. Yet their flexibility creates conceptual and practical challenges for software implementations, since agents may comprise non-standard components such as internal reasoning, planning, tool usage, as well as the inherent stochasticity of temperature-sampled language models. Here, we introduce Aviary, an extensible gymnasium for language agents. We formalize agents as policies solving language-grounded partially observable Markov decision processes, which we term language decision processes. We then implement five environments, including three challenging scientific environments: (1) manipulating DNA constructs for molecular cloning, (2) answering research questions by accessing scientific literature, and (3) engineering protein stability. These environments were selected for their focus on multi-step reasoning and their relevance to contemporary biology research. Finally, with online training and scaling inference-time compute, we show that language agents backed by open-source, non-frontier LLMs can match and exceed both frontier LLM agents and human experts on multiple tasks at up to 100x lower inference cost.
arxiv情報
著者 | Siddharth Narayanan,James D. Braza,Ryan-Rhys Griffiths,Manu Ponnapati,Albert Bou,Jon Laurent,Ori Kabeli,Geemi Wellawatte,Sam Cox,Samuel G. Rodriques,Andrew D. White |
発行日 | 2024-12-30 18:33:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google