要約
人間は、オブジェクト間の空間関係などの意味概念を使用してシーンを記述し、「お茶をカップの右側に置く」または「皿をフォークとスプーンの間に移動する」などのタスクを伝達します。
子どもと同じように、支援ロボットも人間のデモンストレーションや指示からそのような概念の部分的な意味を学習できなければなりません。
私たちは、人間との対話中にオンラインで収集された少数のデモンストレーションから空間関係の幾何学モデルを段階的に学習するという問題に取り組みます。
このようなモデルにより、ロボットは口頭指示で指定された望ましい空間関係を満たすためにオブジェクトを操作できるようになります。
初めに、ロボットには空間関係の幾何学モデルがないと仮定します。
上記のようなタスクが与えられると、ロボットは、空間関係の生成表現として円筒確率分布を利用して、1 回のデモンストレーションからモデルを作成するために、ユーザーにタスクを 1 回デモンストレーションするように要求します。
過去の例にアクセスせずに、増分最尤推定を使用したサンプル効率的な方法で、新しいデモンストレーションが行われるたびにこのモデルを段階的に更新できる方法を示し、実際のヒューマノイド ロボットでのアプローチを実証します。
要約(オリジナル)
Humans use semantic concepts such as spatial relations between objects to describe scenes and communicate tasks such as ‘Put the tea to the right of the cup’ or ‘Move the plate between the fork and the spoon.’ Just as children, assistive robots must be able to learn the sub-symbolic meaning of such concepts from human demonstrations and instructions. We address the problem of incrementally learning geometric models of spatial relations from few demonstrations collected online during interaction with a human. Such models enable a robot to manipulate objects in order to fulfill desired spatial relations specified by verbal instructions. At the start, we assume the robot has no geometric model of spatial relations. Given a task as above, the robot requests the user to demonstrate the task once in order to create a model from a single demonstration, leveraging cylindrical probability distribution as generative representation of spatial relations. We show how this model can be updated incrementally with each new demonstration without access to past examples in a sample-efficient way using incremental maximum likelihood estimation, and demonstrate the approach on a real humanoid robot.
arxiv情報
著者 | Rainer Kartmann,Tamim Asfour |
発行日 | 2023-05-16 15:51:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google