要約
物理的な人間とロボットの相互作用では、フォースフィードバックは、人間の意図をロボットに伝えるための最も一般的なセンシングモダリティでした。
人間がロボットを指示できるようにするために、アドミタンス制御で広く使用されています。
ただし、操作されたオブジェクトには必ずしも力センサーが装備されていないため、直接力フィードバックが利用できないシナリオでは使用できません。
この作業では、そのようなシナリオの1つを研究します。摩擦面での重い物体のプッシュと引っ張り、産業環境で一般的なタスクです。
人間がそれをするとき、彼らは口頭および非言語的な手がかりを通してコミュニケーションを取り、そこで体がポーズをとり、動きはしばしば言葉以上のものを伝えます。
指示されたグラフニューラルネットワークを使用して、非言語的協力的な物理的操作の人間の動きの意図を予測するために、時空間の人間の姿勢データを分析するための新しいコンテキスト対応アプローチを提案します。
私たちの実験は、ロボットの支援が人間の努力を大幅に減らし、タスクの効率を向上させることを示しています。
結果は、強制センシングの代わりに、またはロボットの意思決定と制御効率を向上させる、またはそれと一緒に、または代替として姿勢ベースのコンテキスト認識を組み込むことを示しています。
要約(オリジナル)
In physical human-robot interaction, force feedback has been the most common sensing modality to convey the human intention to the robot. It is widely used in admittance control to allow the human to direct the robot. However, it cannot be used in scenarios where direct force feedback is not available since manipulated objects are not always equipped with a force sensor. In this work, we study one such scenario: the collaborative pushing and pulling of heavy objects on frictional surfaces, a prevalent task in industrial settings. When humans do it, they communicate through verbal and non-verbal cues, where body poses, and movements often convey more than words. We propose a novel context-aware approach using Directed Graph Neural Networks to analyze spatio-temporal human posture data to predict human motion intention for non-verbal collaborative physical manipulation. Our experiments demonstrate that robot assistance significantly reduces human effort and improves task efficiency. The results indicate that incorporating posture-based context recognition, either together with or as an alternative to force sensing, enhances robot decision-making and control efficiency.
arxiv情報
著者 | Gokhan Solak,Gustavo J. G. Lahr,Idil Ozdamar,Arash Ajoudani |
発行日 | 2025-05-15 12:53:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google