要約
【タイトル】OpenAGI:LLMがドメイン専門家と出会ったとき 【要約】
– 人間の知能は基本的なスキルを複雑なタスクを解決するための複合的なスキルに組み合わせる力がある。これはAIにとっても同様であり、大規模で包括的な知能モデルの開発に加えて、複雑な課題解決のために様々なドメインに特化した専門家モデルを結合する機能を提供することが同様に重要であると主張する。
– 大規模言語モデル(LLM)の最近の発展は、学習と推論能力において顕著な結果をもたらしており、複雑なタスク解決において外部モデルを選択、合成、実行するコントローラーとして有望であることを示唆している。
– 本プロジェクトでは、複雑な多段階タスクを提供し、タスク専用のデータセット、評価指標、拡張可能な多様なモデルを伴う、オープンソースのAGI研究プラットフォームであるOpenAGIを開発する。
– OpenAGIは自然言語クエリとして複雑なタスクを形式化し、LLMが提供されたモデルを選択、合成、実行してタスクに対処する。さらに、タスクフィードバックからの強化学習機構(RLTF)を提案し、タスク解決結果をフィードバックとして使用して、LLMのタスク解決能力を改善する。
– この方法論はLLLが複数の外部モデルを操作して複雑なタスクを解決するパラダイムであり、AGIに向けた有望なアプローチであると考えている。本プロジェクトは、AGIの能力の改善と評価のためにOpenAGIプロジェクトのコード、ベンチマーク、評価方法をオープンソース化している。
要約(オリジナル)
Human intelligence has the remarkable ability to assemble basic skills into complex ones so as to solve complex tasks. This ability is equally important for Artificial Intelligence (AI), and thus, we assert that in addition to the development of large, comprehensive intelligent models, it is equally crucial to equip such models with the capability to harness various domain-specific expert models for complex task-solving in the pursuit of Artificial General Intelligence (AGI). Recent developments in Large Language Models (LLMs) have demonstrated remarkable learning and reasoning abilities, making them promising as a controller to select, synthesize, and execute external models to solve complex tasks. In this project, we develop OpenAGI, an open-source AGI research platform, specifically designed to offer complex, multi-step tasks and accompanied by task-specific datasets, evaluation metrics, and a diverse range of extensible models. OpenAGI formulates complex tasks as natural language queries, serving as input to the LLM. The LLM subsequently selects, synthesizes, and executes models provided by OpenAGI to address the task. Furthermore, we propose a Reinforcement Learning from Task Feedback (RLTF) mechanism, which uses the task-solving result as feedback to improve the LLM’s task-solving ability. Thus, the LLM is responsible for synthesizing various external models for solving complex tasks, while RLTF provides feedback to improve its task-solving ability, enabling a feedback loop for self-improving AI. We believe that the paradigm of LLMs operating various expert models for complex task-solving is a promising approach towards AGI. To facilitate the community’s long-term improvement and evaluation of AGI’s ability, we open-source the code, benchmark, and evaluation methods of the OpenAGI project at https://github.com/agiresearch/OpenAGI.
arxiv情報
著者 | Yingqiang Ge,Wenyue Hua,Jianchao Ji,Juntao Tan,Shuyuan Xu,Yongfeng Zhang |
発行日 | 2023-04-10 03:55:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI