Visual-tactile manipulation to collect household waste in outdoor

要約

この研究では、屋外環境でのナビゲーション、家庭廃棄物の分類、収集を支援できる、ロボット操作に適用された認識システムを紹介します。
このシステムは、光学式触覚センサー、RGBD カメラ、LiDAR で構成されています。
これらのセンサーは、ロボット マニピュレーターとロボット グリッパーを備えたモバイル プラットフォームに統合されています。
私たちのシステムは 3 つのソフトウェア モジュールに分かれており、そのうちの 2 つは視覚ベースで、最後の 1 つは触覚ベースです。
ビジョンベースのモジュールは、CNN を使用して家庭用固形廃棄物の位置を特定して認識し、把握ポイントの推定も行います。
CNN と画像処理も使用する触覚ベースのモジュールは、グリッパーの開きを調整して、タッチ データから掴みを制御します。
私たちの提案は、約 6 % の位置特定エラー、98 % の認識精度を達成し、試行の 91 % で把握の安定性を保証します。
3 つのモジュールの実行時間の合計は 750 ミリ秒未満です。

要約(オリジナル)

This work presents a perception system applied to robotic manipulation, that is able to assist in navigation, household waste classification and collection in outdoor environments. This system is made up of optical tactile sensors, RGBD cameras and a LiDAR. These sensors are integrated on a mobile platform with a robot manipulator and a robotic gripper. Our system is divided in three software modules, two of them are vision-based and the last one is tactile-based. The vision-based modules use CNNs to localize and recognize solid household waste, together with the grasping points estimation. The tactile-based module, which also uses CNNs and image processing, adjusts the gripper opening to control the grasping from touch data. Our proposal achieves localization errors around 6 %, a recognition accuracy of 98% and ensures the grasping stability the 91% of the attempts. The sum of runtimes of the three modules is less than 750 ms.

arxiv情報

著者 Julio Castaño-Amorós,Ignacio de Loyola Páez-Ubieta,Pablo Gil,Santiago Timoteo Puente
発行日 2024-07-15 10:31:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク