要約
マルチヒューマン マルチロボット チームは、人間とロボットの相補的な強みを組み合わせて、さまざまなアプリケーションにわたる複雑なタスクに取り組みます。
ただし、これらのチームには固有の異質性があるため、タスクの実行前に各チーム メンバーに個々の能力に基づいて最適なタスクを割り当てる初期タスク割り当て (ITA) において大きな課題が生じます。
現在の学習ベースの手法は有望な結果を示していますが、多くの場合、トレーニングに計算コストがかかり、多目的最適化にユーザーの好みを組み込んで現実世界の動的な環境での直前の変更に適応する柔軟性に欠けています。
これらの問題に対処するために、ルールベースの学習と経験強化型の学習を統合する LLM ベースの ITA フレームワークである REBEL を提案します。
REBEL は、検索拡張生成を活用することで、関連するルールや過去の経験を動的に取得し、推論の効率を高めます。
さらに、REBEL は事前トレーニングされた RL ベースの ITA ポリシーを補完し、状況認識とチーム全体のパフォーマンスを向上させることができます。
広範な実験により、さまざまな設定におけるアプローチの有効性が検証されています。
詳細については、https://sites.google.com/view/ita-rebel をご覧ください。
要約(オリジナル)
Multi-human multi-robot teams combine the complementary strengths of humans and robots to tackle complex tasks across diverse applications. However, the inherent heterogeneity of these teams presents significant challenges in initial task allocation (ITA), which involves assigning the most suitable tasks to each team member based on their individual capabilities before task execution. While current learning-based methods have shown promising results, they are often computationally expensive to train, and lack the flexibility to incorporate user preferences in multi-objective optimization and adapt to last-minute changes in real-world dynamic environments. To address these issues, we propose REBEL, an LLM-based ITA framework that integrates rule-based and experience-enhanced learning. By leveraging Retrieval-Augmented Generation, REBEL dynamically retrieves relevant rules and past experiences, enhancing reasoning efficiency. Additionally, REBEL can complement pre-trained RL-based ITA policies, improving situational awareness and overall team performance. Extensive experiments validate the effectiveness of our approach across various settings. More details are available at https://sites.google.com/view/ita-rebel .
arxiv情報
著者 | Arjun Gupte,Ruiqi Wang,Vishnunandan L. N. Venkatesh,Taehyeon Kim,Dezhong Zhao,Byung-Cheol Min |
発行日 | 2024-09-24 17:37:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google