OpenAGI: When LLM Meets Domain Experts

要約

タイトル:OpenAGI:LLMがドメイン専門家と出会ったとき

要約:

– 人間の知能は、基本的なスキルを組み合わせて複雑なタスクを解決する驚異的な能力を持っています。
– 人工知能(AI)にも同様の能力が必要であり、大規模かつ包括的なインテリジェントモデルの開発に加えて、様々なドメイン専門家モデルを利用できるようにすることが同様に重要であると考えられます。
– 大規模言語モデル(LLM)の最近の発展は、学習と推論能力に優れているため、複雑なタスクを解決するための外部モデルを選択、統合、実行するためのコントローラーとして有望です。
– このプロジェクトでは、OpenAGIというオープンソースのAGI研究プラットフォームを開発しました。OpenAGIは、自然言語クエリとして複雑なタスクを定式化し、LLMに入力します。LLMは、提供されたモデルを選択、統合、実行してタスクを解決します。
– さらに、私たちは課題フィードバックからの強化学習(RLTF)メカニズムを提案しています。これにより、タスク解決結果をフィードバックとして使用し、LLMのタスク解決能力を改善することができます。
– つまり、LLMは複雑なタスクを解決するための様々な外部モデルを統合し、RLTFはそのタスク解決能力を改善するためのフィードバックループを提供します。
– 私たちは、LLMがドメイン専門家モデルを操作して複雑なタスクを解決するというパラダイムがAGIへの有望なアプローチであると信じています。
– AGIの能力を長期的に改善し、評価するために、OpenAGIプロジェクトのコード、ベンチマーク、評価方法をhttps://github.com/agiresearch/OpenAGIでオープンソース化しました。

要約(オリジナル)

Human intelligence has the remarkable ability to assemble basic skills into complex ones so as to solve complex tasks. This ability is equally important for Artificial Intelligence (AI), and thus, we assert that in addition to the development of large, comprehensive intelligent models, it is equally crucial to equip such models with the capability to harness various domain-specific expert models for complex task-solving in the pursuit of Artificial General Intelligence (AGI). Recent developments in Large Language Models (LLMs) have demonstrated remarkable learning and reasoning abilities, making them promising as a controller to select, synthesize, and execute external models to solve complex tasks. In this project, we develop OpenAGI, an open-source AGI research platform, specifically designed to offer complex, multi-step tasks and accompanied by task-specific datasets, evaluation metrics, and a diverse range of extensible models. OpenAGI formulates complex tasks as natural language queries, serving as input to the LLM. The LLM subsequently selects, synthesizes, and executes models provided by OpenAGI to address the task. Furthermore, we propose a Reinforcement Learning from Task Feedback (RLTF) mechanism, which uses the task-solving result as feedback to improve the LLM’s task-solving ability. Thus, the LLM is responsible for synthesizing various external models for solving complex tasks, while RLTF provides feedback to improve its task-solving ability, enabling a feedback loop for self-improving AI. We believe that the paradigm of LLMs operating various expert models for complex task-solving is a promising approach towards AGI. To facilitate the community’s long-term improvement and evaluation of AGI’s ability, we open-source the code, benchmark, and evaluation methods of the OpenAGI project at https://github.com/agiresearch/OpenAGI.

arxiv情報

著者 Yingqiang Ge,Wenyue Hua,Jianchao Ji,Juntao Tan,Shuyuan Xu,Yongfeng Zhang
発行日 2023-04-12 23:37:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク