要約
今日、ロボットは人間と密接に連携する分野でますます多く見られます。
軽量素材と安全センサーによって可能になったこれらのコボットは、日常生活で身体障害を持つ人々をサポートし、家事介護で人気を集めています。
しかし、コボットが自律的に行動を行う場合、人間の協力者が彼らの行動を理解して予測することは依然として困難であり、これは信頼とユーザーの受け入れを達成するために重要です。
コボットの行動を予測する重要な側面の 1 つは、コボットの動作の意図を理解し、コボットが自分の行動についてどのように「考える」かを理解することです。
さらに、他の情報源はしばしば人間の視覚的および聴覚的モダリティを占有し、そのような情報を送信するのに適していないことがよくあります.
この課題に取り組むために、触覚フィードバックを介してコボットの意図を伝えるソリューションに取り組んでいます。
私たちのコンセプトでは、コボットの計画された動きをさまざまな触覚パターンにマッピングして、視覚的意図のフィードバックを拡張します。
要約(オリジナル)
Nowadays, robots are found in a growing number of areas where they collaborate closely with humans. Enabled by lightweight materials and safety sensors, these cobots are gaining increasing popularity in domestic care, supporting people with physical impairments in their everyday lives. However, when cobots perform actions autonomously, it remains challenging for human collaborators to understand and predict their behavior, which is crucial for achieving trust and user acceptance. One significant aspect of predicting cobot behavior is understanding their motion intention and comprehending how they ‘think’ about their actions. Moreover, other information sources often occupy human visual and audio modalities, rendering them frequently unsuitable for transmitting such information. We work on a solution that communicates cobot intention via haptic feedback to tackle this challenge. In our concept, we map planned motions of the cobot to different haptic patterns to extend the visual intention feedback.
arxiv情報
著者 | Max Pascher,Til Franzen,Kirill Kronhardt,Jens Gerken |
発行日 | 2023-03-09 11:17:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google