要約
世界で行動するために、ロボットは顕著なタスクの側面の表現に依存します。たとえば、コーヒーマグを運ぶために、ロボットは動作の中で移動効率やマグカップの向きを考慮することがあります。
しかし、ロボットが人間のために、また人間とともに行動することを望むのであれば、ロボットの表現は単に機能的であるだけでなく、人間が関心を持っていることを反映している必要があります。つまり、ロボットは調整されている必要があります。
現在の学習アプローチには表現の不整合があり、ロボットの学習された表現が人間の表現を捉えていないことが観察されています。
人間はロボットのパフォーマンスの最終的な評価者であるため、下流のタスクの学習に加えて、学習した表現を人間と一致させることに明示的に焦点を当てる必要があると提案します。
私たちは、ロボット工学における現在の表現学習アプローチは、表現の調整という目的をどの程度うまく達成できるかという観点から研究されるべきであると主張します。
私たちは問題を数学的に定義し、その主要な要望を特定し、現在の手法をこの形式主義の中に位置づけます。
最後に、未解決の課題を探求するための将来の方向性を提案します。
要約(オリジナル)
To act in the world, robots rely on a representation of salient task aspects: for example, to carry a coffee mug, a robot may consider movement efficiency or mug orientation in its behavior. However, if we want robots to act for and with people, their representations must not be just functional but also reflective of what humans care about, i.e. they must be aligned. We observe that current learning approaches suffer from representation misalignment, where the robot’s learned representation does not capture the human’s representation. We suggest that because humans are the ultimate evaluator of robot performance, we must explicitly focus our efforts on aligning learned representations with humans, in addition to learning the downstream task. We advocate that current representation learning approaches in robotics should be studied from the perspective of how well they accomplish the objective of representation alignment. We mathematically define the problem, identify its key desiderata, and situate current methods within this formalism. We conclude by suggesting future directions for exploring open challenges.
arxiv情報
著者 | Andreea Bobu,Andi Peng,Pulkit Agrawal,Julie Shah,Anca D. Dragan |
発行日 | 2024-01-28 15:33:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google