要約
このペーパーでは、北東大学のヘビロボットであるコブラ向けの視覚誘導局所操作パイプラインの開発と統合を紹介します。
システムは、Yolov8ベースのオブジェクト検出モデルとオンボードステレオカメラからの深さデータを活用して、ターゲットオブジェクトの6-DOFポーズをリアルタイムで推定します。
自律的な検出と制御のためのフレームワークを紹介し、指定された目標位置にオブジェクトを輸送するための閉ループの操作を可能にします。
さらに、COBRAがリアルタイムオブジェクトの検出および局所操作タスクを正常に実行するオープンループ実験を示します。
要約(オリジナル)
This paper presents the development and integration of a vision-guided loco-manipulation pipeline for Northeastern University’s snake robot, COBRA. The system leverages a YOLOv8-based object detection model and depth data from an onboard stereo camera to estimate the 6-DOF pose of target objects in real time. We introduce a framework for autonomous detection and control, enabling closed-loop loco-manipulation for transporting objects to specified goal locations. Additionally, we demonstrate open-loop experiments in which COBRA successfully performs real-time object detection and loco-manipulation tasks.
arxiv情報
著者 | Adarsh Salagame,Sasank Potluri,Keshav Bharadwaj Vaidyanathan,Kruthika Gangaraju,Eric Sihite,Milad Ramezani,Alireza Ramezani |
発行日 | 2025-03-24 03:19:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google