BayesCPF: Enabling Collective Perception in Robot Swarms with Degrading Sensors

要約

ロボットのグループが周囲を認識し、環境状態でコンセンサスを起こすという集合的な認識問題は、群れロボット工学の根本的な問題です。
集団的認識を研究する過去の作品は、完璧なセンシングでロボットの群れ全体を使用するか、誤動作しているメンバーのほんの一握りの群れのいずれかを使用しています。
関連する研究では、信頼できないロボットの群れ全体を説明するが、センサーの障害が既知であり、時間の経過とともに一定のままであると仮定するアルゴリズムを提案しました。
そのため、その研究に基づいて、ベイズ集団認識フィルター(BayESCPF)を提案することにより、環境機能が発生するレートである充填比を正確に推定できるように、継続的に分解センサーを備えたロボットを可能にします。
私たちの主な貢献は、BayESCPF内の拡張されたKalmanフィルターです。これは、時間変化のセンサーの分解のために群れのロボットが校正するのに役立ちます。
シミュレートされた実験および物理実験におけるさまざまな劣化モデル、初期条件、および環境での方法を検証します。
我々の調査結果は、分解モデルの仮定に関係なく、特にモデルと初期センサーの精度レベルに関する仮定が保存されている場合、真のセンサーの精度がわかっている場合、BayESCPFを使用した充填比率の推定がケースと競合することを示しています。

要約(オリジナル)

The collective perception problem — where a group of robots perceives its surroundings and comes to a consensus on an environmental state — is a fundamental problem in swarm robotics. Past works studying collective perception use either an entire robot swarm with perfect sensing or a swarm with only a handful of malfunctioning members. A related study proposed an algorithm that does account for an entire swarm of unreliable robots but assumes that the sensor faults are known and remain constant over time. To that end, we build on that study by proposing the Bayes Collective Perception Filter (BayesCPF) that enables robots with continuously degrading sensors to accurately estimate the fill ratio — the rate at which an environmental feature occurs. Our main contribution is the Extended Kalman Filter within the BayesCPF, which helps swarm robots calibrate for their time-varying sensor degradation. We validate our method across different degradation models, initial conditions, and environments in simulated and physical experiments. Our findings show that, regardless of degradation model assumptions, fill ratio estimation using the BayesCPF is competitive to the case if the true sensor accuracy is known, especially when assumptions regarding the model and initial sensor accuracy levels are preserved.

arxiv情報

著者 Khai Yi Chin,Carlo Pinciroli
発行日 2025-04-07 07:06:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | BayesCPF: Enabling Collective Perception in Robot Swarms with Degrading Sensors はコメントを受け付けていません

Towards Map-Agnostic Policies for Adaptive Informative Path Planning

要約

ロボットは、未知の地形で関連するセンサーデータを収集するように頻繁に任されています。
自律情報収集に使用される古典的なパス計画アルゴリズムの重要な課題は、限られたオンボード計算リソースを考慮して地形が調査されるため、オンラインでパスを適応的に再採取することです。
最近、学習ベースのアプローチが登場し、列車計画ポリシーがオフラインであり、コンピューター効率の高いオンラインを繰り返しパフォーマンスポリシー推論を可能にしました。
これらのアプローチは、単一の特定のマップ表現を仮定して、地形監視ミッション向けに設計および訓練されており、異なる地形への適用性を制限します。
これらの問題に対処するために、さまざまなマップ表現にわたって統一された適応的な有益なパス計画問題の新しい定式化を提案し、より多様な監視ミッションでトレーニングを可能にし、計画ポリシーを展開します。
実験結果は、私たちの新しい定式化が、パフォーマンスを維持しながら、古典的な非学習ベースの計画アプローチと簡単に統合することを検証します。
訓練された計画ポリシーは、最先端のマップ特異的に訓練されたポリシーと同様に機能します。
目に見えない実際の地形データセットに関する学習ポリシーを検証します。

要約(オリジナル)

Robots are frequently tasked to gather relevant sensor data in unknown terrains. A key challenge for classical path planning algorithms used for autonomous information gathering is adaptively replanning paths online as the terrain is explored given limited onboard compute resources. Recently, learning-based approaches emerged that train planning policies offline and enable computationally efficient online replanning performing policy inference. These approaches are designed and trained for terrain monitoring missions assuming a single specific map representation, which limits their applicability to different terrains. To address these issues, we propose a novel formulation of the adaptive informative path planning problem unified across different map representations, enabling training and deploying planning policies in a larger variety of monitoring missions. Experimental results validate that our novel formulation easily integrates with classical non-learning-based planning approaches while maintaining their performance. Our trained planning policy performs similarly to state-of-the-art map-specifically trained policies. We validate our learned policy on unseen real-world terrain datasets.

arxiv情報

著者 Julius Rückin,David Morilla-Cabello,Cyrill Stachniss,Eduardo Montijano,Marija Popović
発行日 2025-04-07 07:35:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Towards Map-Agnostic Policies for Adaptive Informative Path Planning はコメントを受け付けていません

Embodied Perception for Test-time Grasping Detection Adaptation with Knowledge Infusion

要約

ロボットを未知のシナリオに簡単に展開し、人間の介入なしでロボットグラッシングタスクを達成できることが常に期待されてきました。
それにもかかわらず、既存の把握検出アプローチは通常、体外技術であり、広範な注釈付きデータサポートを備えたさまざまな深いニューラルネットワークをトレーニングすることで実現されます。
{このホワイトペーパーでは、ロボットの探索機能を活用する把握検出のための具体化されたテスト時間適応フレームワークを提案します。}このフレームワークは、予期せぬ環境でのロボットの把握スキルの一般化パフォーマンスを改善することを目的としています。
具体的には、把握検出の品質を評価し、適切なサンプルを維持するために、ロボットの操作能力に基づいて具体化された評価基準を導入します。
このプロセスにより、ロボットは環境を積極的に探求し、把握スキルを継続的に学習し、人間の介入を排除することができます。
また、ロボット探査の効率を向上させるために、柔軟な知識ベースを構築して、初期の最適な視点のコンテキストを提供します。
維持されたサンプルに条件付けられたグラス検出ネットワークは、テスト時間シーンに適合させることができます。
ロボットが新しいオブジェクトに立ち向かうと、継続的な学習を実現するために、上記の同じ適応手順を受けます。
実際のロボットで実施された広範な実験は、提案されたフレームワークの有効性と一般化を実証しています。

要約(オリジナル)

It has always been expected that a robot can be easily deployed to unknown scenarios, accomplishing robotic grasping tasks without human intervention. Nevertheless, existing grasp detection approaches are typically off-body techniques and are realized by training various deep neural networks with extensive annotated data support. {In this paper, we propose an embodied test-time adaptation framework for grasp detection that exploits the robot’s exploratory capabilities.} The framework aims to improve the generalization performance of grasping skills for robots in an unforeseen environment. Specifically, we introduce embodied assessment criteria based on the robot’s manipulation capability to evaluate the quality of the grasp detection and maintain suitable samples. This process empowers the robots to actively explore the environment and continuously learn grasping skills, eliminating human intervention. Besides, to improve the efficiency of robot exploration, we construct a flexible knowledge base to provide context of initial optimal viewpoints. Conditioned on the maintained samples, the grasp detection networks can be adapted in the test-time scene. When the robot confronts new objects, it will undergo the same adaptation procedure mentioned above to realize continuous learning. Extensive experiments conducted on a real-world robot demonstrate the effectiveness and generalization of our proposed framework.

arxiv情報

著者 Jin Liu,Jialong Xie,Leibing Xiao,Chaoqun Wang,Fengyu Zhou
発行日 2025-04-07 07:39:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Embodied Perception for Test-time Grasping Detection Adaptation with Knowledge Infusion はコメントを受け付けていません

Towards Benchmarking and Assessing the Safety and Robustness of Autonomous Driving on Safety-critical Scenarios

要約

自律運転は、認識タスクのパフォーマンス改善やエンドツーエンドの自律駆動システムの開発など、学界と産業の両方で大きな進歩を遂げています。
ただし、自律運転の安全性と堅牢性評価は十分な注目を集めていません。
自律運転の現在の評価は、通常、自然駆動シナリオで行われます。
ただし、多くの事故は、安全性が批判的なシナリオとしても知られているエッジの場合にしばしば発生します。
これらの安全性が批判的なシナリオを収集することは困難であり、現在、安全性が批判的なシナリオを構成するものの明確な定義はありません。
この作業では、安全性の高いシナリオでの自律運転の安全性と堅牢性を探ります。
まず、敵対的な攻撃シナリオや自然分布の変化などの静的なトラフィックシナリオ、および事故シナリオなどの動的なトラフィックシナリオなど、安全性の高いシナリオの定義を提供します。
次に、自律的な運転安全試験プラットフォームを開発して、自律運転システムを包括的に評価し、知覚モジュールの評価だけでなく、システムレベルの評価も網羅しています。
当社の作業は、自律運転のための安全検証プロセスを体系的に構築し、業界が標準化されたテストフレームワークを確立し、実際の道路展開のリスクを削減するための技術サポートを提供します。

要約(オリジナル)

Autonomous driving has made significant progress in both academia and industry, including performance improvements in perception task and the development of end-to-end autonomous driving systems. However, the safety and robustness assessment of autonomous driving has not received sufficient attention. Current evaluations of autonomous driving are typically conducted in natural driving scenarios. However, many accidents often occur in edge cases, also known as safety-critical scenarios. These safety-critical scenarios are difficult to collect, and there is currently no clear definition of what constitutes a safety-critical scenario. In this work, we explore the safety and robustness of autonomous driving in safety-critical scenarios. First, we provide a definition of safety-critical scenarios, including static traffic scenarios such as adversarial attack scenarios and natural distribution shifts, as well as dynamic traffic scenarios such as accident scenarios. Then, we develop an autonomous driving safety testing platform to comprehensively evaluate autonomous driving systems, encompassing not only the assessment of perception modules but also system-level evaluations. Our work systematically constructs a safety verification process for autonomous driving, providing technical support for the industry to establish standardized test framework and reduce risks in real-world road deployment.

arxiv情報

著者 Jingzheng Li,Xianglong Liu,Shikui Wei,Zhijun Chen,Bing Li,Qing Guo,Xianqi Yang,Yanjun Pu,Jiakai Wang
発行日 2025-04-07 08:26:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Towards Benchmarking and Assessing the Safety and Robustness of Autonomous Driving on Safety-critical Scenarios はコメントを受け付けていません

Embracing Dynamics: Dynamics-aware 4D Gaussian Splatting SLAM

要約

同時ローカリゼーションとマッピング(SLAM)テクノロジーには、3Dガウススプラッティング(3DG)のリアルタイムの高忠実度レンダリング機能のおかげで、光エアリスティックマッピング機能があります。
ただし、シーンの静的な表現により、現在の3DGSベースのSLAMは、ポーズドリフトと動的環境で正確なマップの再構築に失敗した問題に遭遇します。
この問題に対処するために、動的環境の4DGSマップ表現に基づいた最初のSLAMメソッドであるD4DGS-SLAMを提示します。
一時的な次元をシーン表現に組み込むことにより、D4DGS-SLAMは動的シーンの高品質の再構築を可能にします。
ダイナミクスを意識したインフモジュールを利用して、シーンポイントのダイナミクス、可視性、および信頼性を取得し、それに応じて追跡するための安定した静的ポイントをフィルターすることができます。
ガウスポイントを最適化するとき、さまざまな動的特性を持つガウスに異なる等方性正規化項を適用します。
実際の動的シーンデータセットでの実験結果は、カメラが追跡とマップの品質の両方で最先端のアプローチを上回る方法を示していることを示しています。

要約(オリジナル)

Simultaneous localization and mapping (SLAM) technology now has photorealistic mapping capabilities thanks to the real-time high-fidelity rendering capability of 3D Gaussian splatting (3DGS). However, due to the static representation of scenes, current 3DGS-based SLAM encounters issues with pose drift and failure to reconstruct accurate maps in dynamic environments. To address this problem, we present D4DGS-SLAM, the first SLAM method based on 4DGS map representation for dynamic environments. By incorporating the temporal dimension into scene representation, D4DGS-SLAM enables high-quality reconstruction of dynamic scenes. Utilizing the dynamics-aware InfoModule, we can obtain the dynamics, visibility, and reliability of scene points, and filter stable static points for tracking accordingly. When optimizing Gaussian points, we apply different isotropic regularization terms to Gaussians with varying dynamic characteristics. Experimental results on real-world dynamic scene datasets demonstrate that our method outperforms state-of-the-art approaches in both camera pose tracking and map quality.

arxiv情報

著者 Zhicong Sun,Jacqueline Lo,Jinxing Hu
発行日 2025-04-07 08:56:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Embracing Dynamics: Dynamics-aware 4D Gaussian Splatting SLAM はコメントを受け付けていません

Distributed Motion Control of Multiple Mobile Manipulators for Reducing Interaction Wrench in Object Manipulation

要約

オブジェクトの実際の協同組合操作では、複数のモバイルマニピュレーターシステムが障害や非同期に悩まされ、過度の相互作用レンチにつながり、オブジェクトの損傷や緊急停止を引き起こす可能性があります。
多くの場合、既存の方法はトルク制御と動的モデルに依存していますが、これは多くの産業ロボットや設定では珍しいものです。
さらに、動的モデルはしばしば関節摩擦力を無視し、正確ではありません。
これらの方法は、物理システムで実装および検証するのが難しいです。
問題に対処するために、このペーパーでは、これらの不必要な相互作用レンチを減らすことを目的とした新しい分散モーション制御アプローチを提示します。
制御法は、実用的な適用性を高めるために、ローカル情報と共同速度制御に基づいています。
分散アーキテクチャ内の通信遅延が考慮されます。
制御法の安定性は、リアプノフ定理によって厳密に証明されています。
シミュレーションでは、有効性が示されており、通信グラフの接続と通信の遅延の影響が研究されています。
他の方法との比較は、収束速度と堅牢性の観点から提案された管理法の利点を示しています。
最後に、制御法は物理実験で検証されています。
動的モデリングやトルク制御は必要ありません。したがって、物理ロボットの方がユーザーフレンドリーです。

要約(オリジナル)

In real-world cooperative manipulation of objects, multiple mobile manipulator systems may suffer from disturbances and asynchrony, leading to excessive interaction wrenches and potentially causing object damage or emergency stops. Existing methods often rely on torque control and dynamic models, which are uncommon in many industrial robots and settings. Additionally, dynamic models often neglect joint friction forces and are not accurate. These methods are challenging to implement and validate in physical systems. To address the problems, this paper presents a novel distributed motion control approach aimed at reducing these unnecessary interaction wrenches. The control law is only based on local information and joint velocity control to enhance practical applicability. The communication delays within the distributed architecture are considered. The stability of the control law is rigorously proven by the Lyapunov theorem. In the simulations, the effectiveness is shown, and the impact of communication graph connectivity and communication delays has been studied. A comparison with other methods shows the advantages of the proposed control law in terms of convergence speed and robustness. Finally, the control law has been validated in physical experiments. It does not require dynamic modeling or torque control, and thus is more user-friendly for physical robots.

arxiv情報

著者 Wenhang Liu,Meng Ren,Kun Song,Gaoming Chen,Michael Yu Wang,Zhenhua Xiong
発行日 2025-04-07 09:12:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Distributed Motion Control of Multiple Mobile Manipulators for Reducing Interaction Wrench in Object Manipulation はコメントを受け付けていません

GAMDTP: Dynamic Trajectory Prediction with Graph Attention Mamba Network

要約

トラフィックエージェントの正確なモーション予測は、自律運転システムの安全性と安定性に不可欠です。
この論文では、動的軌道予測に合わせた新しいグラフ注意ベースのネットワークであるGAMDTPを紹介します。
具体的には、各グラフの畳み込み層で、両方の強度をより効率的かつ正確に抽出するために両方の強度を活用して、ゲートメカニズムを介して自己注意とMamba-SSMの結果を融合します。
GAMDTPは、高解像度マップ(HDマップ)データとエージェントの履歴軌跡座標をエンコードし、ネットワークの出力をデコードして最終的な予測結果を生成します。
さらに、最近のアプローチは、主に歴史的予測結果を動的に融合し、提案や改良などの2段階のフレームワークに依存することに焦点を当てています。
2段階のフレームワークのパフォーマンスをさらに向上させるために、提案および改良プロセス中に予測の品質を評価するためのスコアリングメカニズムも設計します。
Argoverse Datasetの実験は、GamdTPが最先端のパフォーマンスを達成し、動的軌道予測で優れた精度を達成することを示しています。

要約(オリジナル)

Accurate motion prediction of traffic agents is crucial for the safety and stability of autonomous driving systems. In this paper, we introduce GAMDTP, a novel graph attention-based network tailored for dynamic trajectory prediction. Specifically, we fuse the result of self attention and mamba-ssm through a gate mechanism, leveraging the strengths of both to extract features more efficiently and accurately, in each graph convolution layer. GAMDTP encodes the high-definition map(HD map) data and the agents’ historical trajectory coordinates and decodes the network’s output to generate the final prediction results. Additionally, recent approaches predominantly focus on dynamically fusing historical forecast results and rely on two-stage frameworks including proposal and refinement. To further enhance the performance of the two-stage frameworks we also design a scoring mechanism to evaluate the prediction quality during the proposal and refinement processes. Experiments on the Argoverse dataset demonstrates that GAMDTP achieves state-of-the-art performance, achieving superior accuracy in dynamic trajectory prediction.

arxiv情報

著者 Yunxiang Liu,Hongkuo Niu,Jianlin Zhu
発行日 2025-04-07 09:19:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | GAMDTP: Dynamic Trajectory Prediction with Graph Attention Mamba Network はコメントを受け付けていません

On Scenario Formalisms for Automated Driving

要約

シナリオの概念とその多くの資格、特に論理的および抽象的なシナリオは、自動化された運転システムの保護における基本的な要素として浮上しています。
ただし、さまざまなシナリオの資格の元の言語定義は、しばしば曖昧に適用され、実際に提案または標準化されたシナリオの説明言語とその用語の基礎との間の相違をもたらしました。
これにより、ユニークな機能と、論理的および抽象的なシナリオの長所と短所に関する混乱が生じました。
これを軽減するために、シナリオの資格の具体的、論理的、抽象的なシナリオの明確な言語定義を提供し、それぞれ曲線、曲線のセットへのマッピング、および時間論的論理を使用して、一般的な統一形式主義を提案します。
これらの形式主義により、表現力、仕様の複雑さ、サンプリング、および論理的および抽象的なシナリオの監視を比較することにより、正確に強みと短所を特定できることが実証されています。
したがって、私たちの仕事により、開業医はさまざまなシナリオの資格を理解し、適切な形式主義を特定することができます。

要約(オリジナル)

The concept of scenario and its many qualifications — specifically logical and abstract scenarios — have emerged as a foundational element in safeguarding automated driving systems. However, the original linguistic definitions of the different scenario qualifications were often applied ambiguously, leading to a divergence between scenario description languages proposed or standardized in practice and their terminological foundation. This resulted in confusion about the unique features as well as strengths and weaknesses of logical and abstract scenarios. To alleviate this, we give clear linguistic definitions for the scenario qualifications concrete, logical, and abstract scenario and propose generic, unifying formalisms using curves, mappings to sets of curves, and temporal logics, respectively. We demonstrate that these formalisms allow pinpointing strengths and weaknesses precisely by comparing expressiveness, specification complexity, sampling, and monitoring of logical and abstract scenarios. Our work hence enables the practitioner to comprehend the different scenario qualifications and identify a suitable formalism.

arxiv情報

著者 Christian Neurohr,Lukas Westhofen,Tjark Koopmann,Eike Möhlmann,Eckard Böde,Axel Hahn
発行日 2025-04-07 09:23:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | On Scenario Formalisms for Automated Driving はコメントを受け付けていません

Open-Vocabulary Action Localization with Iterative Visual Prompting

要約

ビデオアクションローカリゼーションは、長いビデオから特定のアクションのタイミングを見つけることを目的としています。
既存の学習ベースのアプローチは成功していますが、かなりの人件費が伴うビデオに注釈を付ける必要があります。
このペーパーでは、新たな既製の視覚言語モデル(VLM)に基づいた、トレーニングフリーのオープンボキャブラリーアプローチを提案します。
この課題は、VLMが長いビデオを処理するように設計されていないか、アクションを見つけるために調整されているという事実に起因しています。
反復的な視覚プロンプト技術を拡張することにより、これらの問題を克服します。
具体的には、ビデオフレームをサンプリングし、フレームインデックスラベルを使用して連結した画像を作成し、VLMがアクションの開始と終了に対応する可能性が最も高いフレームを識別できるようにします。
選択したフレームの周りのサンプリングウィンドウを繰り返し絞ることにより、推定は徐々により正確な時間的境界に収束します。
この手法が合理的なパフォーマンスをもたらし、最先端のゼロショットアクションローカリゼーションに匹敵する結果を達成することを実証します。
これらの結果は、ビデオを理解するための実用的なツールとしてのVLMの使用をサポートしています。
サンプルコードはhttps://microsoft.github.io/vlm-video-アクションロカリゼーション/で入手できます。

要約(オリジナル)

Video action localization aims to find the timings of specific actions from a long video. Although existing learning-based approaches have been successful, they require annotating videos, which comes with a considerable labor cost. This paper proposes a training-free, open-vocabulary approach based on emerging off-the-shelf vision-language models (VLMs). The challenge stems from the fact that VLMs are neither designed to process long videos nor tailored for finding actions. We overcome these problems by extending an iterative visual prompting technique. Specifically, we sample video frames and create a concatenated image with frame index labels, allowing a VLM to identify the frames that most likely correspond to the start and end of the action. By iteratively narrowing the sampling window around the selected frames, the estimation gradually converges to more precise temporal boundaries. We demonstrate that this technique yields reasonable performance, achieving results comparable to state-of-the-art zero-shot action localization. These results support the use of VLMs as a practical tool for understanding videos. Sample code is available at https://microsoft.github.io/VLM-Video-Action-Localization/

arxiv情報

著者 Naoki Wake,Atsushi Kanehira,Kazuhiro Sasabuchi,Jun Takamatsu,Katsushi Ikeuchi
発行日 2025-04-07 10:55:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | Open-Vocabulary Action Localization with Iterative Visual Prompting はコメントを受け付けていません

Learning to Adapt through Bio-Inspired Gait Strategies for Versatile Quadruped Locomotion

要約

Deep Rehnection Learning(DRL)は、四足込んだロボットの移動に革命をもたらしましたが、既存の制御フレームワークは、トレーニング誘発性の観察範囲を超えて一般化するのに苦労しており、その結果、適応性と歩行能力が限られています。
対照的に、動物は歩行遷移戦略、多様な歩行利用、および即時の環境需要に対するシームレスな調整を通じて、並外れた適応性を達成します。
これらの機能に触発されて、動物の移動の重要な属性を組み込んだ新しいDRLフレームワークを提示します:歩行遷移戦略、擬似歩行手続き型メモリ、適応運動調整。
このアプローチにより、私たちのフレームワークは、複雑な地形での盲目的なゼロショット展開と、重大な不安定な状態からの回復を通じて実証されています。
私たちの調査結果は、動物の移動の生体力学に関する貴重な洞察を提供し、堅牢で適応可能なロボットシステムへの道を開いています。

要約(オリジナル)

Deep reinforcement learning (DRL) has revolutionised quadruped robot locomotion, but existing control frameworks struggle to generalise beyond their training-induced observational scope, resulting in limited adaptability and gait proficiency. In contrast, animals achieve exceptional adaptability through gait transition strategies, diverse gait utilisation, and seamless adjustment to immediate environmental demands. Inspired by these capabilities, we present a novel DRL framework that incorporates key attributes of animal locomotion: gait transition strategies, pseudo gait procedural memory, and adaptive motion adjustments. This approach enables our framework to achieve unparalleled adaptability, demonstrated through blind zero-shot deployment on complex terrains and recovery from critically unstable states. Our findings offer valuable insights into the biomechanics of animal locomotion, paving the way for robust, adaptable robotic systems.

arxiv情報

著者 Joseph Humphreys,Chengxu Zhou
発行日 2025-04-07 11:03:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Learning to Adapt through Bio-Inspired Gait Strategies for Versatile Quadruped Locomotion はコメントを受け付けていません