Decentralized Navigation of a Cable-Towed Load using Quadrupedal Robot Team via MARL

要約

この作業は、障害物を避けながら、散らかった構造化されていない環境を介してケーブル接続された負荷を協力して協調することが四角形ロボットのチームが協力することを可能にするという課題に対処します。
ケーブルを活用することで、マルチロボットシステムは、必要に応じてスラックを維持することにより、狭いスペースをナビゲートできます。
ただし、これにより、交互の緊張状態とスラック状態が交互に行われるため、ハイブリッドの物理的相互作用が導入され、エージェントの数が増加するにつれて指数関数的にスケーリングする計算の複雑さが導入されます。
これらの課題に取り組むために、負荷牽引タスクに固有のハイブリッド物理的相互作用を管理しながら、さまざまな数の四角形ロボットを動的に調整できるスケーラブルで分散型システムを開発しました。
このシステムの中核には、分散型調整のために設計された新しいマルチエージェント補強学習(MARL)ベースのプランナーがあります。
MARLベースのプランナーは、分散型実行(CTDE)フレームワークを備えた集中トレーニングを使用してトレーニングされ、各ロボットがローカル(エゴ)の観察のみを使用して自律的に意思決定を行うことができます。
学習を加速し、さまざまなチームサイズにわたって効果的なコラボレーションを確保するために、MARL向けにテーラードトレーニングカリキュラムを紹介します。
実験結果は、フレームワークの柔軟性とスケーラビリティを強調し、実際のシナリオで1〜4つのロボットを使用して展開が成功し、シミュレーションで最大12のロボットを実証します。
分散型プランナーは、チームのサイズに関係なく、一貫した推論時間を維持します。
さらに、提案されたシステムは、環境の摂動に対する堅牢性と、さまざまな負荷重みへの適応性を示しています。
この作業は、複雑で現実世界の環境で柔軟で効率的な多面的なロボットコラボレーションを達成するための一歩を踏み出すことを表しています。

要約(オリジナル)

This work addresses the challenge of enabling a team of quadrupedal robots to collaboratively tow a cable-connected load through cluttered and unstructured environments while avoiding obstacles. Leveraging cables allows the multi-robot system to navigate narrow spaces by maintaining slack when necessary. However, this introduces hybrid physical interactions due to alternating taut and slack states, with computational complexity that scales exponentially as the number of agents increases. To tackle these challenges, we developed a scalable and decentralized system capable of dynamically coordinating a variable number of quadrupedal robots while managing the hybrid physical interactions inherent in the load-towing task. At the core of this system is a novel multi-agent reinforcement learning (MARL)-based planner, designed for decentralized coordination. The MARL-based planner is trained using a centralized training with decentralized execution (CTDE) framework, enabling each robot to make decisions autonomously using only local (ego) observations. To accelerate learning and ensure effective collaboration across varying team sizes, we introduce a tailored training curriculum for MARL. Experimental results highlight the flexibility and scalability of the framework, demonstrating successful deployment with one to four robots in real-world scenarios and up to twelve robots in simulation. The decentralized planner maintains consistent inference times, regardless of the team size. Additionally, the proposed system demonstrates robustness to environment perturbations and adaptability to varying load weights. This work represents a step forward in achieving flexible and efficient multi-legged robotic collaboration in complex and real-world environments.

arxiv情報

著者 Wen-Tse Chen,Minh Nguyen,Zhongyu Li,Guo Ning Sue,Koushil Sreenath
発行日 2025-03-23 21:48:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Decentralized Navigation of a Cable-Towed Load using Quadrupedal Robot Team via MARL はコメントを受け付けていません

A Robot-Led Intervention for Emotion Regulation: From Expression to Reappraisal

要約

感情規制は、日常生活で感情を管理するための重要なスキルですが、これらのプロセスをサポートするための建設的でアクセス可能な方法を見つけることは、認知的要求のために依然として困難です。
この研究では、大学のホールや部門内の構造化された馴染みのある環境で実施された社会ロボットとの定期的な相互作用が、認知的再評価を通じて感情調節を効果的にサポートする方法を探ります。
21人の学生が大学のホールまたは部門で5セッションの研究に参加しました。そこでは、ロボットが構造化された会話を促進し、学生がロボットと共有した感情的に充電された状況を再解釈するよう奨励しました。
定量的および定性的な結果は、感情の自己規制の大幅な改善を示しており、参加者は感情の理解と制御をよりよく報告しています。
この介入は、建設的な感情調節の傾向の大幅な変化と、各セッション後の気分と感情に対するプラスの影響をもたらしました。
調査結果はまた、ロボットとの繰り返しの相互作用が、より長い音声開示、感情的な言語の使用の増加、顔の覚醒の高まりなど、より大きな感情的な表現力を促進することを示しています。
特に、表現力は、特に参加者がネガティブな経験を再解釈するように促された場合、再評価プロセスと再評価プロセスに合わせた構造化されたパターンに従いました。
定性的なフィードバックは、ロボットがどのように内省を促進し、感情を議論するための支持スペースを提供し、参加者が長年にわたる感情的課題に立ち向かうことを可能にすることを強調しました。
これらの発見は、身近な環境での感情調節を効果的に支援するロボットの可能性を示しており、感情的なサポートと認知ガイダンスの両方を提供します。

要約(オリジナル)

Emotion regulation is a crucial skill for managing emotions in everyday life, yet finding a constructive and accessible method to support these processes remains challenging due to their cognitive demands. In this study, we explore how regular interactions with a social robot, conducted in a structured yet familiar environment within university halls and departments, can provide effective support for emotion regulation through cognitive reappraisal. Twenty-one students participated in a five-session study at a university hall or department, where the robot facilitated structured conversations, encouraging the students to reinterpret emotionally charged situations that they shared with the robot. Quantitative and qualitative results indicate significant improvements in emotion self-regulation, with participants reporting better understanding and control of their emotions. The intervention led to significant changes in constructive emotion regulation tendencies and positive effects on mood and sentiment after each session. The findings also demonstrate that repeated interactions with the robot encouraged greater emotional expressiveness, including longer speech disclosures, increased use of affective language, and heightened facial arousal. Notably, expressiveness followed structured patterns aligned with the reappraisal process, with expression peaking during key reappraisal moments, particularly when participants were prompted to reinterpret negative experiences. The qualitative feedback further highlighted how the robot fostered introspection and provided a supportive space for discussing emotions, enabling participants to confront long-avoided emotional challenges. These findings demonstrate the potential of robots to effectively assist in emotion regulation in familiar environments, offering both emotional support and cognitive guidance.

arxiv情報

著者 Guy Laban,Julie Wang,Hatice Gunes
発行日 2025-03-23 23:47:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | A Robot-Led Intervention for Emotion Regulation: From Expression to Reappraisal はコメントを受け付けていません

3D-MVP: 3D Multiview Pretraining for Robotic Manipulation

要約

最近の作品は、マスクされた自動エンコーダー(MAE)を使用したエゴセントリックデータセットの視覚的な前脱出が、下流のロボットタスクの一般化を改善できることを示しています。
ただし、これらのアプローチは2D画像でのみ前提となりますが、多くのロボットアプリケーションでは3Dシーンの理解が必要です。
この作業では、3D-MVPを提案します。これは、マスクされた自動エンコーダーを使用した3Dマルチビュートレイニングの新しいアプローチです。
マルチビュートランスを使用して3Dシーンを理解し、グリッパーポーズアクションを予測するロボットビュートランス(RVT)を活用します。
RVTのマルチビュートランスを視覚エンコーダーとアクションデコーダーに分割し、OBJAVerseなどの大規模な3Dデータセットでマスクされた自動エンコードを使用して視覚エンコーダを前処理します。
一連の仮想ロボット操作タスクで3D-MVPを評価し、ベースライン上のパフォーマンスの向上を示します。
我々の結果は、3Dを認識している前orainingが、ビジョンベースのロボット操作ポリシーの一般化を改善するための有望なアプローチであることを示唆しています。
プロジェクトサイト:https://jasonqsy.github.io/3dmvp

要約(オリジナル)

Recent works have shown that visual pretraining on egocentric datasets using masked autoencoders (MAE) can improve generalization for downstream robotics tasks. However, these approaches pretrain only on 2D images, while many robotics applications require 3D scene understanding. In this work, we propose 3D-MVP, a novel approach for 3D Multi-View Pretraining using masked autoencoders. We leverage Robotic View Transformer (RVT), which uses a multi-view transformer to understand the 3D scene and predict gripper pose actions. We split RVT’s multi-view transformer into visual encoder and action decoder, and pretrain its visual encoder using masked autoencoding on large-scale 3D datasets such as Objaverse. We evaluate 3D-MVP on a suite of virtual robot manipulation tasks and demonstrate improved performance over baselines. Our results suggest that 3D-aware pretraining is a promising approach to improve generalization of vision-based robotic manipulation policies. Project site: https://jasonqsy.github.io/3DMVP

arxiv情報

著者 Shengyi Qian,Kaichun Mo,Valts Blukis,David F. Fouhey,Dieter Fox,Ankit Goyal
発行日 2025-03-24 00:39:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | 3D-MVP: 3D Multiview Pretraining for Robotic Manipulation はコメントを受け付けていません

GI-SLAM: Gaussian-Inertial SLAM

要約

3Dガウススプラッティング(3DG)は、最近、密集した同時局在とマッピング(SLAM)の幾何学と外観の強力な表現として浮上しました。
3Dガウスの迅速で微分可能なラスター化により、多くの3DGSスラムメソッドは、リアルタイムのレンダリングと加速トレーニングを達成します。
ただし、これらの方法は主に慣性データを見落としているため、魔女は慣性測定ユニット(IMU)から収集された重要な情報です。
この論文では、IMUが強化したカメラ追跡モジュールと、マッピングのための現実的な3Dガウスベースのシーン表現で構成される新しいガウス系型スラムシステムであるGi-Slamを紹介します。
私たちの方法では、3Dガウスのスプラットスラムを支える深い学習フレームワークにシームレスに統合するIMUの損失を導入し、カメラ追跡の精度、堅牢性、効率を効果的に向上させます。
さらに、当社のSLAMシステムは、IMU統合の有無にかかわらず、単眼、ステレオ、RGBDカメラなどの幅広いセンサー構成をサポートしています。
私たちの方法は、EurocおよびTUM-RGBDデータセットの既存の最先端のリアルタイム方法と比較して、競争力のあるパフォーマンスを実現します。

要約(オリジナル)

3D Gaussian Splatting (3DGS) has recently emerged as a powerful representation of geometry and appearance for dense Simultaneous Localization and Mapping (SLAM). Through rapid, differentiable rasterization of 3D Gaussians, many 3DGS SLAM methods achieve near real-time rendering and accelerated training. However, these methods largely overlook inertial data, witch is a critical piece of information collected from the inertial measurement unit (IMU). In this paper, we present GI-SLAM, a novel gaussian-inertial SLAM system which consists of an IMU-enhanced camera tracking module and a realistic 3D Gaussian-based scene representation for mapping. Our method introduces an IMU loss that seamlessly integrates into the deep learning framework underpinning 3D Gaussian Splatting SLAM, effectively enhancing the accuracy, robustness and efficiency of camera tracking. Moreover, our SLAM system supports a wide range of sensor configurations, including monocular, stereo, and RGBD cameras, both with and without IMU integration. Our method achieves competitive performance compared with existing state-of-the-art real-time methods on the EuRoC and TUM-RGBD datasets.

arxiv情報

著者 Xulang Liu,Ning Tan
発行日 2025-03-24 01:45:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | GI-SLAM: Gaussian-Inertial SLAM はコメントを受け付けていません

Learning Orientation Field for OSM-Guided Autonomous Navigation

要約

OpenStreetMap(OSM)は、公共のアクセシビリティ、メンテナンスコストの削減、より広範な地理的カバレッジにより、自律的なナビゲーションで最近人気を博しました。
ただし、既存の方法は、騒々しいOSMデータと不完全なセンサーの観察に苦労していることが多く、軌道計画の不正確さにつながります。
これらの課題は、交差点や閉塞に直面するなど、複雑な運転シナリオで特に顕著です。
これらの課題に対処するために、LIDARスキャンとOSMルートを統合してロボットナビゲーションの方向フィールド(ORFIELD)を学習するための堅牢で説明可能な2段階のフレームワークを提案します。
最初の段階では、騒々しいライダースキャンとOSMルートから共同で推論する地図上の各グリッドの方向を提供できる新しい表現であるOrfieldを紹介します。
堅牢なオーフィールドを生成するために、多用途の初期オーフィールドをエンコードして最適化されたオーフィールドを出力することにより、深いニューラルネットワークをトレーニングします。
Orfieldに基づいて、OSM誘導ロボットナビゲーションの2つの軌道プランナーを、それぞれField-RRT*とField-Bezierと呼ばれる2つの軌跡プランナーを、ランダムツリー(RRT)アルゴリズムとbezier曲線を迅速に調査するために改善することにより、軌道を推定することを提案します。
グローバル情報とローカル情報の両方をキャプチャするOrfieldの堅牢性のおかげで、Field-RRT*とField-Bezierは、挑戦的な状況でも正確で信頼できる軌跡を生成できます。
Semantickittiデータセットと独自のキャンパスデータセットでの実験を通じて、アプローチを検証します。
結果は、私たちの方法の有効性を示しており、複雑で騒々しい状態で優れたパフォーマンスを達成しています。
ネットワークトレーニングと現実世界の展開のコードは、https://github.com/imrl/orifieldで入手できます。

要約(オリジナル)

OpenStreetMap (OSM) has gained popularity recently in autonomous navigation due to its public accessibility, lower maintenance costs, and broader geographical coverage. However, existing methods often struggle with noisy OSM data and incomplete sensor observations, leading to inaccuracies in trajectory planning. These challenges are particularly evident in complex driving scenarios, such as at intersections or facing occlusions. To address these challenges, we propose a robust and explainable two-stage framework to learn an Orientation Field (OrField) for robot navigation by integrating LiDAR scans and OSM routes. In the first stage, we introduce the novel representation, OrField, which can provide orientations for each grid on the map, reasoning jointly from noisy LiDAR scans and OSM routes. To generate a robust OrField, we train a deep neural network by encoding a versatile initial OrField and output an optimized OrField. Based on OrField, we propose two trajectory planners for OSM-guided robot navigation, called Field-RRT* and Field-Bezier, respectively, in the second stage by improving the Rapidly Exploring Random Tree (RRT) algorithm and Bezier curve to estimate the trajectories. Thanks to the robustness of OrField which captures both global and local information, Field-RRT* and Field-Bezier can generate accurate and reliable trajectories even in challenging conditions. We validate our approach through experiments on the SemanticKITTI dataset and our own campus dataset. The results demonstrate the effectiveness of our method, achieving superior performance in complex and noisy conditions. Our code for network training and real-world deployment is available at https://github.com/IMRL/OriField.

arxiv情報

著者 Yuming Huang,Wei Gao,Zhiyuan Zhang,Maani Ghaffari,Dezhen Song,Cheng-Zhong Xu,Hui Kong
発行日 2025-03-24 01:46:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Learning Orientation Field for OSM-Guided Autonomous Navigation はコメントを受け付けていません

AVR: Active Vision-Driven Robotic Precision Manipulation with Viewpoint and Focal Length Optimization

要約

動的環境内のロボット操作は、正確な制御と適応性への課題を提示します。
従来の固定ビューカメラシステムは、視点とスケールの変動を変えるために適応する課題に直面し、知覚と操作の精度を制限します。
これらの問題に取り組むために、アクティブなビジョン駆動型のロボット(AVR)フレームワークを提案します。これは、動的な視点と動的な焦点距離の調整をサポートし、継続的に中心ターゲットを維持し、さまざまな運用タスクの成功率を効果的に強化する対応するアルゴリズムを伴う最適なスケールを維持するための動的な焦点距離調整をサポートします。
RobotWinプラットフォームをリアルタイム画像処理プラグインを使用して、AVRフレームワークは5つの操作タスクでタスクの成功率を5%〜16%改善します。
デュアルアームシステムでの物理的な展開は、共同作業で、ドライバー挿入の36%の精度で25%を超えるベースラインを上回ることを示しています。
実験結果は、AVRフレームワークが環境認識、操作の再現性(40%$ \ le $ 1 cmエラー)、および複雑なシナリオでの堅牢性を高め、人間レベルのロボットの器用さと精度を追求する将来のロボット精度操作方法への道を開くことを確認します。

要約(オリジナル)

Robotic manipulation within dynamic environments presents challenges to precise control and adaptability. Traditional fixed-view camera systems face challenges adapting to change viewpoints and scale variations, limiting perception and manipulation precision. To tackle these issues, we propose the Active Vision-driven Robotic (AVR) framework, a teleoperation hardware solution that supports dynamic viewpoint and dynamic focal length adjustments to continuously center targets and maintain optimal scale, accompanied by a corresponding algorithm that effectively enhances the success rates of various operational tasks. Using the RoboTwin platform with a real-time image processing plugin, AVR framework improves task success rates by 5%-16% on five manipulation tasks. Physical deployment on a dual-arm system demonstrates in collaborative tasks and 36% precision in screwdriver insertion, outperforming baselines by over 25%. Experimental results confirm that AVR framework enhances environmental perception, manipulation repeatability (40% $\le $1 cm error), and robustness in complex scenarios, paving the way for future robotic precision manipulation methods in the pursuit of human-level robot dexterity and precision.

arxiv情報

著者 Yushan Liu,Shilong Mu,Xintao Chao,Zizhen Li,Yao Mu,Tianxing Chen,Shoujie Li,Chuqiao Lyu,Xiao-ping Zhang,Wenbo Ding
発行日 2025-03-24 02:28:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | AVR: Active Vision-Driven Robotic Precision Manipulation with Viewpoint and Focal Length Optimization はコメントを受け付けていません

Applications of Spiking Neural Networks in Visual Place Recognition

要約

ロボット工学では、スパイクニューラルネットワーク(SNN)は、特に神経型ハードウェアに実装された場合、主に現実化されていないポテンシャルエネルギー効率と低遅延についてますます認識されています。
私たちの論文は、視覚的な場所認識(VPR)におけるSNNの3つの進歩を強調しています。
第一に、各SNNが地理的に異なる非重複する一連の場所を表し、大きな環境に合わせてスケーラブルなネットワークを可能にするモジュラーSNNを提案します。
第二に、複数のネットワークが同じ場所を表すモジュラーSNNのアンサンブルを提示し、単一ネットワークモデルと比較して精度を大幅に向上させます。
各モジュラーSNNモジュールはコンパクトで、1500個のニューロンと474Kシナプスのみを含むため、サイズが小さいためアンサンミングに理想的に適しています。
最後に、SNNベースのVPRでのシーケンスマッチングの役割を調査します。これは、場所の認識を改良するために連続した画像を使用する技術です。
従来のVPRテクニックと比較してアンサンミングに対するより高い応答性や、同等のベースラインパフォーマンスを備えたVPRテクニックよりもシーケンスマッチングを伴うR@1の改善を含む、さまざまなデータセットでのメソッドの競合パフォーマンスを実証します。
私たちの貢献は、VPRのSNNの実行可能性を強調し、スケーラブルで堅牢なソリューションを提供し、さまざまなエネルギーに敏感なロボットタスクへのアプリケーションへの道を開いています。

要約(オリジナル)

In robotics, Spiking Neural Networks (SNNs) are increasingly recognized for their largely-unrealized potential energy efficiency and low latency particularly when implemented on neuromorphic hardware. Our paper highlights three advancements for SNNs in Visual Place Recognition (VPR). Firstly, we propose Modular SNNs, where each SNN represents a set of non-overlapping geographically distinct places, enabling scalable networks for large environments. Secondly, we present Ensembles of Modular SNNs, where multiple networks represent the same place, significantly enhancing accuracy compared to single-network models. Each of our Modular SNN modules is compact, comprising only 1500 neurons and 474k synapses, making them ideally suited for ensembling due to their small size. Lastly, we investigate the role of sequence matching in SNN-based VPR, a technique where consecutive images are used to refine place recognition. We demonstrate competitive performance of our method on a range of datasets, including higher responsiveness to ensembling compared to conventional VPR techniques and higher R@1 improvements with sequence matching than VPR techniques with comparable baseline performance. Our contributions highlight the viability of SNNs for VPR, offering scalable and robust solutions, and paving the way for their application in various energy-sensitive robotic tasks.

arxiv情報

著者 Somayeh Hussaini,Michael Milford,Tobias Fischer
発行日 2025-03-24 02:51:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Applications of Spiking Neural Networks in Visual Place Recognition はコメントを受け付けていません

DiffusionDrive: Truncated Diffusion Model for End-to-End Autonomous Driving

要約

最近、拡散モデルは、マルチモードアクション分布をモデル化できるロボットポリシー学習の強力な生成手法として浮上しています。
エンドツーエンドの自律運転の能力を活用することは、有望な方向です。
ただし、ロボット拡散ポリシーの多くの除去ステップと、トラフィックシーンのより動的でオープンワールドの性質は、リアルタイムの速度で多様な運転アクションを生成するための大きな課題をもたらします。
これらの課題に対処するために、以前のマルチモードアンカーを組み込み、拡散スケジュールを切り捨てる新しい切り捨てられた拡散ポリシーを提案し、モデルがアンカーのガウス分布からマルチモードの駆動アクション分布への除去を学習できるようにします。
さらに、条件付きシーンコンテキストとの相互作用を強化するために、効率的なカスケード拡散デコーダーを設計します。
提案されたモデルであるDiffusionDriveは、バニラ拡散ポリシーと比較して10ドルの時間$削減ステップの削減を示し、わずか2ステップで優れた多様性と品質を提供します。
Aligned ResNet-34バックボーンを備えた計画指向のNAVSIMデータセットでは、DiffusionDriveはベルやホイッスルなしで88.1 PDMSを達成し、NVIDIA 4090で45 fpsのリアルタイム速度で実行されます。
コードとモデルはhttps://github.com/hustvl/diffusiondriveで入手できます。

要約(オリジナル)

Recently, the diffusion model has emerged as a powerful generative technique for robotic policy learning, capable of modeling multi-mode action distributions. Leveraging its capability for end-to-end autonomous driving is a promising direction. However, the numerous denoising steps in the robotic diffusion policy and the more dynamic, open-world nature of traffic scenes pose substantial challenges for generating diverse driving actions at a real-time speed. To address these challenges, we propose a novel truncated diffusion policy that incorporates prior multi-mode anchors and truncates the diffusion schedule, enabling the model to learn denoising from anchored Gaussian distribution to the multi-mode driving action distribution. Additionally, we design an efficient cascade diffusion decoder for enhanced interaction with conditional scene context. The proposed model, DiffusionDrive, demonstrates 10$\times$ reduction in denoising steps compared to vanilla diffusion policy, delivering superior diversity and quality in just 2 steps. On the planning-oriented NAVSIM dataset, with the aligned ResNet-34 backbone, DiffusionDrive achieves 88.1 PDMS without bells and whistles, setting a new record, while running at a real-time speed of 45 FPS on an NVIDIA 4090. Qualitative results on challenging scenarios further confirm that DiffusionDrive can robustly generate diverse plausible driving actions. Code and model will be available at https://github.com/hustvl/DiffusionDrive.

arxiv情報

著者 Bencheng Liao,Shaoyu Chen,Haoran Yin,Bo Jiang,Cheng Wang,Sixu Yan,Xinbang Zhang,Xiangyu Li,Ying Zhang,Qian Zhang,Xinggang Wang
発行日 2025-03-24 03:02:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | DiffusionDrive: Truncated Diffusion Model for End-to-End Autonomous Driving はコメントを受け付けていません

Ground Penetrating Radar-Assisted Multimodal Robot Odometry Using Subsurface Feature Matrix

要約

地下侵入レーダー(GPR)によって観察される地下特徴を使用したロボットのローカリゼーションは、地下の特徴が天候、季節、表面の変化の影響を受けにくいため、一般的なセンサーのモダリティに堅牢性を高め、追加します。
GPR、慣性測定ユニット(IMU)、およびホイールエンコーダーからの入力を使用して、革新的なマルチモーダル臭気アプローチを導入します。
GPR信号ノイズに効率的に対処するために、Subsurface Feature Matrix(SFM)と呼ばれる高度な特徴表現を導入します。
SFMは周波数ドメインデータを活用し、レーダースキャン内のピークを識別します。
さらに、SFMSを調整することによりGPR変位を推定する新しい機能マッチング方法を提案します。
これら3つの入力ソースからの統合は、マルチモーダルロボット臭気を実現するために、因子グラフアプローチを使用して統合されます。
私たちの方法は、CMU-GPRパブリックデータセットで開発および評価されており、ロボット臭トメトリータスクのリアルタイムパフォーマンスにより、精度と堅牢性の改善を示しています。

要約(オリジナル)

Localization of robots using subsurface features observed by ground-penetrating radar (GPR) enhances and adds robustness to common sensor modalities, as subsurface features are less affected by weather, seasons, and surface changes. We introduce an innovative multimodal odometry approach using inputs from GPR, an inertial measurement unit (IMU), and a wheel encoder. To efficiently address GPR signal noise, we introduce an advanced feature representation called the subsurface feature matrix (SFM). The SFM leverages frequency domain data and identifies peaks within radar scans. Additionally, we propose a novel feature matching method that estimates GPR displacement by aligning SFMs. The integrations from these three input sources are consolidated using a factor graph approach to achieve multimodal robot odometry. Our method has been developed and evaluated with the CMU-GPR public dataset, demonstrating improvements in accuracy and robustness with real-time performance in robotic odometry tasks.

arxiv情報

著者 Haifeng Li,Jiajun Guo,Xuanxin Fan,Dezhen Song
発行日 2025-03-24 03:07:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Ground Penetrating Radar-Assisted Multimodal Robot Odometry Using Subsurface Feature Matrix はコメントを受け付けていません

Control Strategies for Pursuit-Evasion Under Occlusion Using Visibility and Safety Barrier Functions

要約

この論文は、閉塞を伴う環境における追跡と出口の問題のための制御戦略を開発します。
私たちは、見通しの妨害にもかかわらず、モバイル追跡者がモバイルエヴァーダーをその視野内(FOV)内に保つという課題に対処します。
FOVの署名された距離関数(SDF)は、追跡者の制御入力に対する制御バリア関数(CBF)制約として可視性を策定するために使用されます。
同様に、障害物回避は、障害物セットのSDFに基づいたCBF制約として定式化されます。
可視性と安全性のCBFはリプシッツ連続的ですが、それらはどこにでも微分可能ではなく、一般化された勾配の使用が必要です。
非微妙な追求を達成するために、サンプリングベースの運動力学プランナーを使用してEvaderの可視性につながる参照制御軌道を生成します。
追跡者は、CBF制約の下での凸最適化を介してこの参照を追跡します。
Carlaシミュレーションと現実世界のロボット実験でのアプローチを検証し、重度の閉塞や動的なエヴァーダーの動きでさえ、オンボードセンシングのみを使用した視認性メンテナンスの成功を実証します。

要約(オリジナル)

This paper develops a control strategy for pursuit-evasion problems in environments with occlusions. We address the challenge of a mobile pursuer keeping a mobile evader within its field of view (FoV) despite line-of-sight obstructions. The signed distance function (SDF) of the FoV is used to formulate visibility as a control barrier function (CBF) constraint on the pursuer’s control inputs. Similarly, obstacle avoidance is formulated as a CBF constraint based on the SDF of the obstacle set. While the visibility and safety CBFs are Lipschitz continuous, they are not differentiable everywhere, necessitating the use of generalized gradients. To achieve non-myopic pursuit, we generate reference control trajectories leading to evader visibility using a sampling-based kinodynamic planner. The pursuer then tracks this reference via convex optimization under the CBF constraints. We validate our approach in CARLA simulations and real-world robot experiments, demonstrating successful visibility maintenance using only onboard sensing, even under severe occlusions and dynamic evader movements.

arxiv情報

著者 Minnan Zhou,Mustafa Shaikh,Vatsalya Chaubey,Patrick Haggerty,Shumon Koga,Dimitra Panagou,Nikolay Atanasov
発行日 2025-03-24 03:10:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Control Strategies for Pursuit-Evasion Under Occlusion Using Visibility and Safety Barrier Functions はコメントを受け付けていません