要約
急速に進化するデジタル環境では、自律型ツールやロボットが一般的になりつつあります。
この開発の重要性を認識し、この論文では、人間とロボットの言葉によるコミュニケーション手段を通じて変数の自律性を促進するために、生成事前学習トランスフォーマー (GPT) のような大規模言語モデル (LLM) を人間とロボットのチーミング環境に統合することを検討します。
このペーパーでは、Unity Virtual Reality (VR) 設定に基づいた、GPT を利用したマルチロボット テストベッド環境のための新しいフレームワークを紹介します。
このシステムにより、ユーザーは自然言語を通じてロボット エージェントと対話することができ、それぞれが個別の GPT コアを搭載しています。
OpenAI の関数呼び出しによって、非構造化自然言語入力と構造化ロボット動作の間のギャップを埋めます。
12 人の参加者によるユーザー調査では、GPT-4 の有効性と、より重要なことに、マルチロボット環境内で自然言語で会話する機会が与えられたときのユーザー戦略を調査しています。
私たちの調査結果は、ユーザーはロボットとどのように会話するかについて先入観を持っており、ロボットの協力者の実際の言語や認知能力を探ろうとすることはほとんどない可能性があることを示唆しています。
それでも、探索を行ったユーザーは、より自然なコミュニケーションの流れと人間らしいやりとりから恩恵を受けることができます。
私たちは、将来の研究や同様のシステムの技術的実装のために学んだ一連の教訓を提供します。
要約(オリジナル)
In a rapidly evolving digital landscape autonomous tools and robots are becoming commonplace. Recognizing the significance of this development, this paper explores the integration of Large Language Models (LLMs) like Generative pre-trained transformer (GPT) into human-robot teaming environments to facilitate variable autonomy through the means of verbal human-robot communication. In this paper, we introduce a novel framework for such a GPT-powered multi-robot testbed environment, based on a Unity Virtual Reality (VR) setting. This system allows users to interact with robot agents through natural language, each powered by individual GPT cores. By means of OpenAI’s function calling, we bridge the gap between unstructured natural language input and structure robot actions. A user study with 12 participants explores the effectiveness of GPT-4 and, more importantly, user strategies when being given the opportunity to converse in natural language within a multi-robot environment. Our findings suggest that users may have preconceived expectations on how to converse with robots and seldom try to explore the actual language and cognitive capabilities of their robot collaborators. Still, those users who did explore where able to benefit from a much more natural flow of communication and human-like back-and-forth. We provide a set of lessons learned for future research and technical implementations of similar systems.
arxiv情報
著者 | Younes Lakhnati,Max Pascher,Jens Gerken |
発行日 | 2024-03-21 11:12:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google