Force-Constrained Visual Policy: Safe Robot-Assisted Dressing via Multi-Modal Sensing

要約

ロボット支援による着替えは、身体障害のある成人の生活の質を大幅に向上させる可能性があります。
これを達成するために、ロボットは視覚と力の両方のセンシングから恩恵を受けることができます。
前者はロボットが人体の姿勢や衣服の変形を把握することを可能にし、後者は着衣プロセス中の安全性と快適性を維持するのに役立ちます。
この論文では、この支援作業に視覚と力の両方のモダリティを活用する新しいテクニックを紹介します。
私たちのアプローチでは、まず、さまざまな身体サイズ、ポーズ、衣服の種類を使用したシミュレーションで強化学習を使用して、ビジョンベースの服装ポリシーをトレーニングします。
次に、安全を確保するための行動計画のための力力学モデルを学習します。
変形可能な衣服が人体と相互作用する場合、正確な力のデータをシミュレートすることには限界があるため、私たちは実世界のデータから直接力のダイナミクス モデルを学習します。
私たちが提案する手法は、制約付き最適化問題を解くことで、シミュレーションで訓練されたビジョンベースのポリシーと、現実世界で学習した力力学モデルを組み合わせて、人に過剰な力を加えずに着付けプロセスを促進するアクションを推測します。
私たちはシミュレーションと、240 回のドレッシング試験にわたる 10 人の参加者による実際の人体研究でシステムを評価し、以前のベースラインを大幅に上回るパフォーマンスを示しました。
ビデオ デモンストレーションは、プロジェクトのウェブサイト\脚注{\url{https://sites.google.com/view/dressing-fcvp}}でご覧いただけます。

要約(オリジナル)

Robot-assisted dressing could profoundly enhance the quality of life of adults with physical disabilities. To achieve this, a robot can benefit from both visual and force sensing. The former enables the robot to ascertain human body pose and garment deformations, while the latter helps maintain safety and comfort during the dressing process. In this paper, we introduce a new technique that leverages both vision and force modalities for this assistive task. Our approach first trains a vision-based dressing policy using reinforcement learning in simulation with varying body sizes, poses, and types of garments. We then learn a force dynamics model for action planning to ensure safety. Due to limitations of simulating accurate force data when deformable garments interact with the human body, we learn a force dynamics model directly from real-world data. Our proposed method combines the vision-based policy, trained in simulation, with the force dynamics model, learned in the real world, by solving a constrained optimization problem to infer actions that facilitate the dressing process without applying excessive force on the person. We evaluate our system in simulation and in a real-world human study with 10 participants across 240 dressing trials, showing it greatly outperforms prior baselines. Video demonstrations are available on our project website\footnote{\url{https://sites.google.com/view/dressing-fcvp}}.

arxiv情報

著者 Zhanyi Sun,Yufei Wang,David Held,Zackory Erickson
発行日 2023-11-07 23:39:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク