要約
この論文では、モバイルマニピュレーターを使用して、視覚障害者が不慣れな環境をナビゲートするためのフレームワークを紹介します。
ヒューマン ロボット システムは、モバイル ベース、ロボット アーム、および手を協働ロボットのエンドエフェクタに物理的に結合することでロボット アームによって誘導される人間の被験者という 3 つの主要なコンポーネントで構成されます。
これらのコンポーネントは、ユーザーから目標を受け取り、障害物回避ユニットと新しい人間誘導プランナーを通じて静的および動的障害物を回避しながら、衝突のない一連のウェイポイントを協調して移動します。
この目的で、モバイルベースに統合された 2D LiDAR センサーを利用して人間の姿勢を監視する脚追跡アルゴリズムも紹介します。
さらに、個人がコースから外れた場合に、意図したパスに戻すよう誘導する責任を負う適応型牽引プランナーを導入します。
これは、ターゲット アーム エンドエフェクタの位置を確立し、インピーダンス調整ユニットを介してリアルタイムでインピーダンス パラメータを動的に調整することによって実現されます。
このフレームワークを検証するために、12 人の健康な目隠し被験者による実験室環境での一連の実験と、現実世界のシナリオでの概念実証のデモンストレーションを提示します。
要約(オリジナル)
This paper presents a framework to navigate visually impaired people through unfamiliar environments by means of a mobile manipulator. The Human-Robot system consists of three key components: a mobile base, a robotic arm, and the human subject who gets guided by the robotic arm via physically coupling their hand with the cobot’s end-effector. These components, receiving a goal from the user, traverse a collision-free set of waypoints in a coordinated manner, while avoiding static and dynamic obstacles through an obstacle avoidance unit and a novel human guidance planner. With this aim, we also present a legs tracking algorithm that utilizes 2D LiDAR sensors integrated into the mobile base to monitor the human pose. Additionally, we introduce an adaptive pulling planner responsible for guiding the individual back to the intended path if they veer off course. This is achieved by establishing a target arm end-effector position and dynamically adjusting the impedance parameters in real-time through a impedance tuning unit. To validate the framework we present a set of experiments both in laboratory settings with 12 healthy blindfolded subjects and a proof-of-concept demonstration in a real-world scenario.
arxiv情報
著者 | Pietro Balatti,Idil Ozdamar,Doganay Sirintuna,Luca Fortini,Mattia Leonori,Juan M. Gandarias,Arash Ajoudani |
発行日 | 2023-10-23 08:46:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google