要約
安定性と安全性を優先したロボット操作のための革新的な決定フレームワークであるRobotGPTを紹介する。ChatGPTが生成する実行コードは、システムの安定性と安全性を保証することはできません。ChatGPTは同じタスクに対して異なる答えを出す可能性があり、予測不可能性につながります。この不安定性により、ChatGPTをロボット操作ループに直接組み込むことができません。温度を0に設定することで、より一貫性のある出力を生成することができますが、ChatGPTの多様性と創造性を失わせる可能性があります。我々の目的は、ChatGPTの問題解決能力をロボット操作に活用し、信頼性の高いエージェントを育成することです。このフレームワークには、効果的なプロンプト構造とロバストな学習モデルが含まれています。さらに、ロボット操作におけるChatGPTの性能を評価するために、タスクの難易度を測定する指標を導入する。さらに、シミュレーションと実環境の両方でRobotGPTを評価する。ChatGPTを直接使ってコードを生成するのに比べ、我々のフレームワークはタスクの成功率を大幅に向上させ、平均38.5%から91.5%に増加した。したがって、ChatGPTをエキスパートとして利用するRobotGPTの学習は、ChatGPTをタスクプランナとして直接利用するよりも安定したアプローチである。
要約(オリジナル)
We present RobotGPT, an innovative decision framework for robotic manipulation that prioritizes stability and safety. The execution code generated by ChatGPT cannot guarantee the stability and safety of the system. ChatGPT may provide different answers for the same task, leading to unpredictability. This instability prevents the direct integration of ChatGPT into the robot manipulation loop. Although setting the temperature to 0 can generate more consistent outputs, it may cause ChatGPT to lose diversity and creativity. Our objective is to leverage ChatGPT’s problem-solving capabilities in robot manipulation and train a reliable agent. The framework includes an effective prompt structure and a robust learning model. Additionally, we introduce a metric for measuring task difficulty to evaluate ChatGPT’s performance in robot manipulation. Furthermore, we evaluate RobotGPT in both simulation and real-world environments. Compared to directly using ChatGPT to generate code, our framework significantly improves task success rates, with an average increase from 38.5% to 91.5%. Therefore, training a RobotGPT by utilizing ChatGPT as an expert is a more stable approach compared to directly using ChatGPT as a task planner.
arxiv情報
著者 | Yixiang Jin,Dingzhe Li,Yong A,Jun Shi,Peng Hao,Fuchun Sun,Jianwei Zhang,Bin Fang |
発行日 | 2023-12-03 14:59:28+00:00 |
arxivサイト | arxiv_id(pdf) |