要約
今日、ロボットは人間と緊密に連携する分野でますます多く見られます。
軽量素材と安全センサーによって実現されたこれらの協働ロボットは、身体に障害のある人々の日常生活をサポートする家庭内介護での人気が高まっています。
しかし、協働ロボットが自律的に動作を実行する場合、人間の協力者が協働ロボットの動作を理解して予測することは依然として困難であり、これは信頼とユーザーの受け入れを実現するために重要です。
協働ロボットの動作を予測する重要な側面の 1 つは、協働ロボットの動作の意図を理解し、協働ロボットがその動作についてどのように「考えている」かを理解することです。
さらに、他の情報源が人間の視覚および聴覚のモダリティを占有することが多く、そのような情報の伝達には不向きになることがよくあります。
私たちは、この課題に取り組むために、触覚フィードバックを介して協働ロボットの意図を伝えるソリューションに取り組んでいます。
私たちのコンセプトでは、協働ロボットの計画された動きをさまざまな触覚パターンにマッピングして、視覚的意図のフィードバックを拡張します。
要約(オリジナル)
Nowadays, robots are found in a growing number of areas where they collaborate closely with humans. Enabled by lightweight materials and safety sensors, these cobots are gaining increasing popularity in domestic care, supporting people with physical impairments in their everyday lives. However, when cobots perform actions autonomously, it remains challenging for human collaborators to understand and predict their behavior, which is crucial for achieving trust and user acceptance. One significant aspect of predicting cobot behavior is understanding their motion intention and comprehending how they ‘think’ about their actions. Moreover, other information sources often occupy human visual and audio modalities, rendering them frequently unsuitable for transmitting such information. We work on a solution that communicates cobot intention via haptic feedback to tackle this challenge. In our concept, we map planned motions of the cobot to different haptic patterns to extend the visual intention feedback.
arxiv情報
著者 | Max Pascher,Til Franzen,Kirill Kronhardt,Jens Gerken |
発行日 | 2023-06-23 13:44:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google