要約
非平坦な表面は、構造化されていない環境でロボットを動作させるのに困難をもたらします。
不均一な表面の再構築は、準拠していないエンドエフェクタや、透明度、反射、遮蔽などの視覚システムの制限により、部分的にのみ可能である可能性があります。
この研究では、ロボットマニピュレーターの運動学的データと、慣性センサー、磁気センサー、および圧力センサーを組み込んだ準拠した触感センシングモジュールを利用することにより、ブラインド表面の再構築を実現しました。
このモジュールの柔軟性により、未知の物体との相互作用中の変形を分析することにより、接触位置と表面法線を推定することができます。
これまでの研究では位置情報のみが収集されていましたが、本発明では、隣接する接触点間の曲率を推定するための幾何学的なアプローチにローカル法線を含めました。
これらのパラメータは、スプライン ベースのパッチ生成をガイドします。これにより、サーフェスをプローブする時間のかかるステップを削減しながら、複雑さを増すことなく、より大きなサーフェスを再作成できるようになります。
実験による検証では、このアプローチが推定精度において既製のビジョン システムよりも優れていることが実証されています。
さらに、この準拠した触覚手法は、マニピュレータのアプローチ角度が表面法線と一致していない場合でも効果的に機能するため、未知の非平坦な表面に最適です。
要約(オリジナル)
Non-flat surfaces pose difficulties for robots operating in unstructured environments. Reconstructions of uneven surfaces may only be partially possible due to non-compliant end-effectors and limitations on vision systems such as transparency, reflections, and occlusions. This study achieves blind surface reconstruction by harnessing the robotic manipulator’s kinematic data and a compliant tactile sensing module, which incorporates inertial, magnetic, and pressure sensors. The module’s flexibility enables us to estimate contact positions and surface normals by analyzing its deformation during interactions with unknown objects. While previous works collect only positional information, we include the local normals in a geometrical approach to estimate curvatures between adjacent contact points. These parameters then guide a spline-based patch generation, which allows us to recreate larger surfaces without an increase in complexity while reducing the time-consuming step of probing the surface. Experimental validation demonstrates that this approach outperforms an off-the-shelf vision system in estimation accuracy. Moreover, this compliant haptic method works effectively even when the manipulator’s approach angle is not aligned with the surface normals, which is ideal for unknown non-flat surfaces.
arxiv情報
著者 | Laurent Yves Emile Ramos Cheret,Vinicius Prado da Fonseca,Thiago Eustaquio Alves de Oliveira |
発行日 | 2024-02-28 17:40:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google