ProAgent: Building Proactive Cooperative AI with Large Language Models

要約

人間と AI の協力において適応行動を備えた AI を構築することは、AGI 研究において極めて重要な焦点となっています。
協力的なエージェントを開発するための現在の方法は、主に学習ベースの方法に依存しており、ポリシーの一般化は特定のチームメイトとの過去のやり取りに大きく依存します。
これらのアプローチは、新しいチームメイトに直面したときにエージェントが戦略を再調整する能力を制限します。
私たちは \textbf{ProAgent} を提案します。これは、大規模言語モデル (LLM) を活用して、チームメイトの今後の決定を予測し、自身で強化された計画を策定する能力を備えた \textit{プロ}アクティブな \textit{agent} を構築する新しいフレームワークです。
ProAgent は、チームメイトとの共同作業を強化するために動作を動的に適応させる能力を備えた協調的な推論に優れています。
さらに、ProAgent フレームワークは高度なモジュール性と解釈可能性を示し、シームレスな統合を促進して、幅広い調整シナリオに対応します。
\textit{Overcook-AI} のフレームワーク内で実施された実験評価により、ProAgent のパフォーマンスの顕著な優位性が明らかになり、AI エージェントと連携したセルフプレイおよび母集団ベースのトレーニングに基づく 5 つの方法を上回りました。
さらに、人間のプロキシ モデルと連携すると、そのパフォーマンスは現在の最先端の COLE と比較して平均 10% を超える向上を示します。
この進歩は、さまざまな特性の AI エージェントと人間の対応者の両方との相互作用を含むさまざまなシナリオにわたって一貫して観察されました。
これらの発見は、人間とロボットのコラボレーションに関する将来の研究にインスピレーションを与えます。
実践的なデモンストレーションについては、\url{https://pku-proagent.github.io} にアクセスしてください。

要約(オリジナル)

Building AIs with adaptive behaviors in human-AI cooperation stands as a pivotal focus in AGI research. Current methods for developing cooperative agents predominantly rely on learning-based methods, where policy generalization heavily hinges on past interactions with specific teammates. These approaches constrain the agent’s capacity to recalibrate its strategy when confronted with novel teammates. We propose \textbf{ProAgent}, a novel framework that harnesses large language models (LLMs) to fashion a \textit{pro}active \textit{agent} empowered with the ability to anticipate teammates’ forthcoming decisions and formulate enhanced plans for itself. ProAgent excels at cooperative reasoning with the capacity to dynamically adapt its behavior to enhance collaborative efforts with teammates. Moreover, the ProAgent framework exhibits a high degree of modularity and interpretability, facilitating seamless integration to address a wide array of coordination scenarios. Experimental evaluations conducted within the framework of \textit{Overcook-AI} unveil the remarkable performance superiority of ProAgent, outperforming five methods based on self-play and population-based training in cooperation with AI agents. Further, when cooperating with human proxy models, its performance exhibits an average improvement exceeding 10\% compared to the current state-of-the-art, COLE. The advancement was consistently observed across diverse scenarios involving interactions with both AI agents of varying characteristics and human counterparts. These findings inspire future research for human-robot collaborations. For a hands-on demonstration, please visit \url{https://pku-proagent.github.io}.

arxiv情報

著者 Ceyao Zhang,Kaijie Yang,Siyi Hu,Zihao Wang,Guanghe Li,Yihang Sun,Cheng Zhang,Zhaowei Zhang,Anji Liu,Song-Chun Zhu,Xiaojun Chang,Junge Zhang,Feng Yin,Yitao Liang,Yaodong Yang
発行日 2023-08-22 10:36:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.MA パーマリンク