Hierarchical Deep Learning for Intention Estimation of Teleoperation Manipulation in Assembly Tasks

要約

人間とロボットのコラボレーションでは、共有制御により、ロボット操作を遠隔操作して製造および組立プロセスの効率を向上させる機会が得られます。
ロボットはユーザーの意図を実行するのを支援することが期待されています。
この目的を達成するには、行動観察に基づいた、堅牢かつ迅速な意図推定が必要です。
このフレームワークは、ニューラル ネットワークにマルチスケールの階層情報を組み込むことにより、階層レベル、つまり低レベルのアクションと高レベルのタスクでの意図推定手法を提示します。
技術的には、全体的な精度を高めるために階層的な依存関係の損失を採用しています。
さらに、入力データに対して適切な階層予測ウィンドウを割り当てるマルチウィンドウ手法を提案します。
さまざまな入力を使用した予測力の分析により、予測精度と早期の意図の特定という意味で深い階層モデルの優位性が実証されています。
このアルゴリズムを仮想現実 (VR) セットアップに実装し、さまざまな組み立てタスクのシミュレーションでロボット ハンドを遠隔操作して、オンライン推定の有効性を示します。

要約(オリジナル)

In human-robot collaboration, shared control presents an opportunity to teleoperate robotic manipulation to improve the efficiency of manufacturing and assembly processes. Robots are expected to assist in executing the user’s intentions. To this end, robust and prompt intention estimation is needed, relying on behavioral observations. The framework presents an intention estimation technique at hierarchical levels i.e., low-level actions and high-level tasks, by incorporating multi-scale hierarchical information in neural networks. Technically, we employ hierarchical dependency loss to boost overall accuracy. Furthermore, we propose a multi-window method that assigns proper hierarchical prediction windows of input data. An analysis of the predictive power with various inputs demonstrates the predominance of the deep hierarchical model in the sense of prediction accuracy and early intention identification. We implement the algorithm on a virtual reality (VR) setup to teleoperate robotic hands in a simulation with various assembly tasks to show the effectiveness of online estimation.

arxiv情報

著者 Mingyu Cai,Karankumar Patel,Soshi Iba,Songpo Li
発行日 2024-03-28 18:45:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク