GeoFlow-SLAM: A Robust Tightly-Coupled RGBD-Inertial Fusion SLAM for Dynamic Legged Robotics

要約

このペーパーでは、幾何学的な一貫性、脚のゆがみの制約、デュアルストリーム光学フロー(Geoflow)、私たちの方法での視覚的課題における視覚的初期障害の視覚化の初期障害の特徴の特徴の格差の初期障害の特徴の機能を統合することにより、非常に動的な環境で動作する脚の高い環境で動作する脚の堅牢で効果的に結合されたRGBD介入スラムであるGeoflow-Slamが紹介されています。
特に、迅速なモーションシナリオでは、機能マッチングは、以前のマップポイントとポーズを組み合わせたデュアルストリーム光フローを活用することにより、特に強化されます。
さらに、脚のロボットにおける高速移動とIMUエラーのための堅牢なポーズ初期化方法を提案し、IMU/脚の臭気、インターフレームのパースペクティブ-Nポイント(PNP)、および一般化反復的な近くのポイント(GICP)を統合します。
さらに、深さからマップとGICPの幾何学的制約をしっかりと結合する新しい最適化フレームワークが、長期間の視覚的にテクスチャーのない環境での堅牢性と精度を改善するために最初に導入されます。
提案されたアルゴリズムは、収集された脚のロボットとオープンソースデータセットで最先端(SOTA)を実現します。
研究開発をさらに促進するために、オープンソースのデータセットとコードがhttps://github.com/nsn-hello/geoflow-slamで公開されます

要約(オリジナル)

This paper presents GeoFlow-SLAM, a robust and effective Tightly-Coupled RGBD-inertial SLAM for legged robots operating in highly dynamic environments.By integrating geometric consistency, legged odometry constraints, and dual-stream optical flow (GeoFlow), our method addresses three critical challenges:feature matching and pose initialization failures during fast locomotion and visual feature scarcity in texture-less scenes.Specifically, in rapid motion scenarios, feature matching is notably enhanced by leveraging dual-stream optical flow, which combines prior map points and poses. Additionally, we propose a robust pose initialization method for fast locomotion and IMU error in legged robots, integrating IMU/Legged odometry, inter-frame Perspective-n-Point (PnP), and Generalized Iterative Closest Point (GICP). Furthermore, a novel optimization framework that tightly couples depth-to-map and GICP geometric constraints is first introduced to improve the robustness and accuracy in long-duration, visually texture-less environments. The proposed algorithms achieve state-of-the-art (SOTA) on collected legged robots and open-source datasets. To further promote research and development, the open-source datasets and code will be made publicly available at https://github.com/NSN-Hello/GeoFlow-SLAM

arxiv情報

著者 Tingyang Xiao,Xiaolin Zhou,Liu Liu,Wei Sui,Wei Feng,Jiaxiong Qiu,Xinjie Wang,Zhizhong Su
発行日 2025-03-18 13:35:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | GeoFlow-SLAM: A Robust Tightly-Coupled RGBD-Inertial Fusion SLAM for Dynamic Legged Robotics はコメントを受け付けていません

IGDrivSim: A Benchmark for the Imitation Gap in Autonomous Driving

要約

人間レベルの安全性と効率性を備えた複雑な環境をナビゲートできる自律車両の開発は、自動運転研究の中心的な目標です。
これを達成するための一般的なアプローチは、模倣学習です。エージェントは、現実世界の運転シナリオから収集された人間の専門家のデモを模倣するように訓練されています。
ただし、人間の知覚と自動運転車のセンサーとの矛盾は、$ \ textit {imitation} $ギャップを導入し、模倣学習の障害につながる可能性があります。
この作業では、人間の専門家の専門家デモンストレーションから自律運転政策を学習する際の模倣ギャップの影響を調査するために設計されたWayMaxシミュレーターの上に構築されたベンチマークである$ \ textBf {igdrivsim} $を紹介します。
私たちの実験は、人間の専門家と自動運転エージェントの間のこの認識のギャップが、安全で効果的な運転行動の学習を妨げる可能性があることを示しています。
さらに、模倣と補強学習を組み合わせることで、禁止された行動に対する単純なペナルティ報酬を使用して、これらの障害を効果的に軽減することを示しています。
私たちのコードは、https://github.com/clemgris/igdrivsim.gitでオープンソースをかけています。

要約(オリジナル)

Developing autonomous vehicles that can navigate complex environments with human-level safety and efficiency is a central goal in self-driving research. A common approach to achieving this is imitation learning, where agents are trained to mimic human expert demonstrations collected from real-world driving scenarios. However, discrepancies between human perception and the self-driving car’s sensors can introduce an $\textit{imitation}$ gap, leading to imitation learning failures. In this work, we introduce $\textbf{IGDrivSim}$, a benchmark built on top of the Waymax simulator, designed to investigate the effects of the imitation gap in learning autonomous driving policy from human expert demonstrations. Our experiments show that this perception gap between human experts and self-driving agents can hinder the learning of safe and effective driving behaviors. We further show that combining imitation with reinforcement learning, using a simple penalty reward for prohibited behaviors, effectively mitigates these failures. Our code is open-sourced at: https://github.com/clemgris/IGDrivSim.git.

arxiv情報

著者 Clémence Grislain,Risto Vuorio,Cong Lu,Shimon Whiteson
発行日 2025-03-18 13:39:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | IGDrivSim: A Benchmark for the Imitation Gap in Autonomous Driving はコメントを受け付けていません

CTSAC: Curriculum-Based Transformer Soft Actor-Critic for Goal-Oriented Robot Exploration

要約

効率的かつ柔軟なロボット探査ソリューションの需要が高まっているため、Renforce Learning(RL)は、自律的なロボット探査の分野で有望なアプローチになりつつあります。
ただし、現在のRLベースの探査アルゴリズムは、環境推論の能力が限られていること、収束率が遅い、SIMからリアル(S2R)転送における実質的な課題に直面していることがよくあります。
これらの問題に対処するために、探査効率と転送パフォーマンスの両方を改善することを目的としたカリキュラム学習ベースのトランス補強学習アルゴリズム(CTSAC)を提案します。
ロボットの推論能力を強化するために、変圧器はソフトアクタークリティック(SAC)フレームワークの知覚ネットワークに統合され、履歴情報を活用して戦略の遠視を改善します。
定期的なレビューベースのカリキュラム学習が提案されています。これにより、カリキュラムの移行中の壊滅的な忘却を緩和しながら、トレーニング効率が向上します。
S2Rギャップをさらに削減するために、LIDARクラスタリングの最適化により、Ros-Gazebo Continuous Robotic Simulation Platformでトレーニングが行われます。
実験結果は、CTSACアルゴリズムが成功率と成功率加重探索時間の観点から、最先端の非学習および学習ベースのアルゴリズムを上回ることを示しています。
さらに、実際の実験は、CTSACの強力なS2R転送機能を検証します。

要約(オリジナル)

With the increasing demand for efficient and flexible robotic exploration solutions, Reinforcement Learning (RL) is becoming a promising approach in the field of autonomous robotic exploration. However, current RL-based exploration algorithms often face limited environmental reasoning capabilities, slow convergence rates, and substantial challenges in Sim-To-Real (S2R) transfer. To address these issues, we propose a Curriculum Learning-based Transformer Reinforcement Learning Algorithm (CTSAC) aimed at improving both exploration efficiency and transfer performance. To enhance the robot’s reasoning ability, a Transformer is integrated into the perception network of the Soft Actor-Critic (SAC) framework, leveraging historical information to improve the farsightedness of the strategy. A periodic review-based curriculum learning is proposed, which enhances training efficiency while mitigating catastrophic forgetting during curriculum transitions. Training is conducted on the ROS-Gazebo continuous robotic simulation platform, with LiDAR clustering optimization to further reduce the S2R gap. Experimental results demonstrate the CTSAC algorithm outperforms the state-of-the-art non-learning and learning-based algorithms in terms of success rate and success rate-weighted exploration time. Moreover, real-world experiments validate the strong S2R transfer capabilities of CTSAC.

arxiv情報

著者 Chunyu Yang,Shengben Bi,Yihui Xu,Xin Zhang
発行日 2025-03-18 13:44:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | CTSAC: Curriculum-Based Transformer Soft Actor-Critic for Goal-Oriented Robot Exploration はコメントを受け付けていません

A Chain-Driven, Sandwich-Legged Quadruped Robot: Design and Experimental Analysis

要約

このペーパーでは、アクセス可能な研究プラットフォームとして設計された、チェーン駆動型のサンドイッチレッグの中規模の四足動物ロボットを紹介します。
この設計は、強化された移動能力、作動システムの信頼性と安全性の向上、および単純化された費用対効果の高い製造プロセスを優先します。
移動性能は、サンドイックされた脚の設計とデュアルモーター構成によって最適化され、アジャイルの動きのための脚の慣性を減らします。
信頼性と安全性は、堅牢なケーブルひずみ緩和、運動熱管理のための効率的なヒートシンク、および脚の動きを制限する機械的制限を統合することにより達成されます。
簡素化された設計上の考慮事項には、準ダイレクトドライブ(QDD)アクチュエータと、レーザー切断や3D印刷などの低コストの製造技術の採用が含まれ、コストを最小限に抑え、迅速なプロトタイピングを確保します。
ロボットの重量は約25 kgで、\ $ 8000未満のコストで開発されているため、ロボット研究のためのスケーラブルで手頃な価格のソリューションとなっています。
実験的検証は、フラットな地形と斜面でトロットとクロールの歩行を実行するプラットフォームの能力を示しており、多用途で信頼できる四足研究プラットフォームとしての可能性を強調しています。

要約(オリジナル)

This paper introduces a chain-driven, sandwich-legged, mid-size quadruped robot designed as an accessible research platform. The design prioritizes enhanced locomotion capabilities, improved reliability and safety of the actuation system, and simplified, cost-effective manufacturing processes. Locomotion performance is optimized through a sandwiched leg design and a dual-motor configuration, reducing leg inertia for agile movements. Reliability and safety are achieved by integrating robust cable strain reliefs, efficient heat sinks for motor thermal management, and mechanical limits to restrict leg motion. Simplified design considerations include a quasi-direct drive (QDD) actuator and the adoption of low-cost fabrication techniques, such as laser cutting and 3D printing, to minimize cost and ensure rapid prototyping. The robot weighs approximately 25 kg and is developed at a cost under \$8000, making it a scalable and affordable solution for robotics research. Experimental validations demonstrate the platform’s capability to execute trot and crawl gaits on flat terrain and slopes, highlighting its potential as a versatile and reliable quadruped research platform.

arxiv情報

著者 Aman Singh,Bhavya Giri Goswami,Ketan Nehete,Shishir N. Y. Kolathaya
発行日 2025-03-18 13:44:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | A Chain-Driven, Sandwich-Legged Quadruped Robot: Design and Experimental Analysis はコメントを受け付けていません

Quantization-Free Autoregressive Action Transformer

要約

現在の変圧器ベースの模倣学習アプローチは、個別のアクション表現を導入し、結果として生じる潜在コードで自己回帰トランスデコーダーを訓練します。
ただし、初期の量子化により、アクション空間の連続構造が破損し、生成モデルの機能が制限されます。
代わりに、発生的な無限のボキャブラリー変圧器(GIVT)を、自己回帰変圧器の直接的な継続的な政策パラメーター化として活用する量子化のない方法を提案します。
これにより、模倣学習パイプラインが簡素化され、さまざまな人気のあるシミュレートされたロボットタスクで最先端のパフォーマンスを実現します。
サンプリングアルゴリズムを慎重に研究し、結果をさらに改善することにより、ポリシーの展開を強化します。

要約(オリジナル)

Current transformer-based imitation learning approaches introduce discrete action representations and train an autoregressive transformer decoder on the resulting latent code. However, the initial quantization breaks the continuous structure of the action space thereby limiting the capabilities of the generative model. We propose a quantization-free method instead that leverages Generative Infinite-Vocabulary Transformers (GIVT) as a direct, continuous policy parametrization for autoregressive transformers. This simplifies the imitation learning pipeline while achieving state-of-the-art performance on a variety of popular simulated robotics tasks. We enhance our policy roll-outs by carefully studying sampling algorithms, further improving the results.

arxiv情報

著者 Ziyad Sheebaelhamd,Michael Tschannen,Michael Muehlebach,Claire Vernade
発行日 2025-03-18 13:50:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Quantization-Free Autoregressive Action Transformer はコメントを受け付けていません

Pushing Everything Everywhere All At Once: Probabilistic Prehensile Pushing

要約

私たちは、環境に押し付けて把持したオブジェクトを操作するという問題である事前ヘンシルプッシュに対処します。
私たちのソリューションは、正確な混合整数の非線形軌道最適化定式化から緩和された効率的な非線形軌道最適化問題です。
重要な洞察は、バイナリ変数の代わりに離散確率分布として外部プッシャー(環境)をリキャストし、分布のエントロピーを最小化することです。
確率論的な再定式化により、すべてのプッシャーを同時に使用することができますが、最適な場合、確率はエントロピーの最小化により1つに集中します。
私たちは、先天性プッシュタスクに関する最先端のサンプリングベースのベースラインと方法を数値的に比較します。
結果は、私たちの方法がベースラインの8倍の速さを8倍高速に、20倍低いことを示しています。
最後に、シミュレートされた本物のフランカパンダロボットが、方法で提案された軌跡に従って異なるオブジェクトを正常に操作できることを実証します。
補足資料は、https://probabilistic-prehensile-pushing.github.io/で入手できます。

要約(オリジナル)

We address prehensile pushing, the problem of manipulating a grasped object by pushing against the environment. Our solution is an efficient nonlinear trajectory optimization problem relaxed from an exact mixed integer non-linear trajectory optimization formulation. The critical insight is recasting the external pushers (environment) as a discrete probability distribution instead of binary variables and minimizing the entropy of the distribution. The probabilistic reformulation allows all pushers to be used simultaneously, but at the optimum, the probability mass concentrates onto one due to the entropy minimization. We numerically compare our method against a state-of-the-art sampling-based baseline on a prehensile pushing task. The results demonstrate that our method finds trajectories 8 times faster and at a 20 times lower cost than the baseline. Finally, we demonstrate that a simulated and real Franka Panda robot can successfully manipulate different objects following the trajectories proposed by our method. Supplementary materials are available at https://probabilistic-prehensile-pushing.github.io/.

arxiv情報

著者 Patrizio Perugini,Jens Lundell,Katharina Friedl,Danica Kragic
発行日 2025-03-18 14:02:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Pushing Everything Everywhere All At Once: Probabilistic Prehensile Pushing はコメントを受け付けていません

Extraction of Road Users’ Behavior From Realistic Data According to Assumptions in Safety-Related Models for Automated Driving Systems

要約

この作業では、IEEE標準2846-2022に概説されている方法論を利用して、「自動運転システムの安全関連モデルの仮定」を利用して、運転シナリオにおける他の道路ユーザーの動作に関する情報を抽出しました。
この方法には、高レベルのシナリオの定義、運動学の特性の決定、安全性の関連性の評価、合理的に予測可能な動作に関する仮定の作成が含まれます。
仮定は運動学の境界として表されました。
これらの境界の数値は、Pythonスクリプトを使用して抽出され、UNIDデータセットから現実的なデータを処理しました。
結果として得られる情報により、自動化された運転システム設計者は、特定のシナリオで道路ユーザーの状態のパラメーターと制限を指定できます。
この情報は、シミュレーションまたは実際の道路で自動化された運転システムを装備した車両をテストするための開始条件を確立するために利用できます。

要約(オリジナル)

In this work, we utilized the methodology outlined in the IEEE Standard 2846-2022 for ‘Assumptions in Safety-Related Models for Automated Driving Systems’ to extract information on the behavior of other road users in driving scenarios. This method includes defining high-level scenarios, determining kinematic characteristics, evaluating safety relevance, and making assumptions on reasonably predictable behaviors. The assumptions were expressed as kinematic bounds. The numerical values for these bounds were extracted using Python scripts to process realistic data from the UniD dataset. The resulting information enables Automated Driving Systems designers to specify the parameters and limits of a road user’s state in a specific scenario. This information can be utilized to establish starting conditions for testing a vehicle that is equipped with an Automated Driving System in simulations or on actual roads.

arxiv情報

著者 Novel Certad,Sebastian Tschernuth,Cristina Olaverri-Monreal
発行日 2025-03-18 14:55:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Extraction of Road Users’ Behavior From Realistic Data According to Assumptions in Safety-Related Models for Automated Driving Systems はコメントを受け付けていません

Road Markings Segmentation from LIDAR Point Clouds using Reflectivity Information

要約

車線検出アルゴリズムは、自律車両技術の開発に不可欠です。
より拡張されたアプローチは、カメラをセンサーとして使用することです。
ただし、LIDARセンサーは、カメラにはできない天候や軽い状態に対処できます。
この論文では、64層のライダーセンサーの反射率データから道路マーキングを抽出する方法を紹介します。
第一に、地域の成長クラスタリングとともに、道路面を抽出するために平面セグメンテーション方法を使用しました。
次に、OTSUの方法に基づいて適応しきい値を適用し、最後に、残りの外れ値を除外するためにラインモデルを装着しました。
アルゴリズムは、60km/hのテストトラックと100km/hの高速道路でテストされました。
結果は、アルゴリズムが信頼性が高く正確であることを示しました。
Lidarセンサーによって提供された生の強度データの使用と比較して、反射率データを使用する場合、明確な改善がありました。

要約(オリジナル)

Lane detection algorithms are crucial for the development of autonomous vehicles technologies. The more extended approach is to use cameras as sensors. However, LIDAR sensors can cope with weather and light conditions that cameras can not. In this paper, we introduce a method to extract road markings from the reflectivity data of a 64-layers LIDAR sensor. First, a plane segmentation method along with region grow clustering was used to extract the road plane. Then we applied an adaptive thresholding based on Otsu s method and finally, we fitted line models to filter out the remaining outliers. The algorithm was tested on a test track at 60km/h and a highway at 100km/h. Results showed the algorithm was reliable and precise. There was a clear improvement when using reflectivity data in comparison to the use of the raw intensity data both of them provided by the LIDAR sensor.

arxiv情報

著者 Novel Certad,Walter Morales-Alvarez,Cristina Olaverri-Monreal
発行日 2025-03-18 15:03:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Road Markings Segmentation from LIDAR Point Clouds using Reflectivity Information はコメントを受け付けていません

InteLiPlan: An Interactive Lightweight LLM-Based Planner for Domestic Robot Autonomy

要約

具体化された知性をターゲットにして、国内のロボットの自律性と堅牢性を高めるように設計されたインタラクティブLLMベースのフレームワークを導入します。
私たちのアプローチは、大規模なデータへの依存を減らし、LLMを具体化するロボットに依存しないパイプラインを組み込んでいます。
私たちのフレームワークであるInteliplanは、LLMの意思決定機能がロボット機能と効果的に整合し、運用上の堅牢性と適応性を高めることを保証しますが、人間のループメカニズムにより、ユーザーの指示が必要なときにリアルタイムの人間の介入が可能になります。
シミュレーションと実際のトヨタヒューマンサポートロボット(HSR)の両方での方法を評価します。
私たちの方法は、障害回復を伴う「フェッチME」タスクの完了で93%の成功率を達成し、障害の推論とタスク計画の両方でその能力を強調します。
Inteliplanは、リアルタイムのオンボードコンピューティングのみを使用しながら、最先端の大規模なLLMベースのロボットプランナーに匹敵するパフォーマンスを達成します。

要約(オリジナル)

We introduce an interactive LLM-based framework designed to enhance the autonomy and robustness of domestic robots, targeting embodied intelligence. Our approach reduces reliance on large-scale data and incorporates a robot-agnostic pipeline that embodies an LLM. Our framework, InteLiPlan, ensures that the LLM’s decision-making capabilities are effectively aligned with robotic functions, enhancing operational robustness and adaptability, while our human-in-the-loop mechanism allows for real-time human intervention when user instruction is required. We evaluate our method in both simulation and on the real Toyota Human Support Robot (HSR). Our method achieves a 93% success rate in the ‘fetch me’ task completion with failure recovery, highlighting its capability in both failure reasoning and task planning. InteLiPlan achieves comparable performance to state-of-the-art large-scale LLM-based robotics planners, while using only real-time onboard computing.

arxiv情報

著者 Kim Tien Ly,Kai Lu,Ioannis Havoutis
発行日 2025-03-18 15:03:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | InteLiPlan: An Interactive Lightweight LLM-Based Planner for Domestic Robot Autonomy はコメントを受け付けていません

Physically-Consistent Parameter Identification of Robots in Contact

要約

正確な慣性パラメーターの識別は、環境との断続的な接触に遭遇するロボットのシミュレーションと制御に不可欠です。
古典的には、ロボットの慣性パラメーターは、正確ではない(時には利用できない、たとえばボストンダイナミクスのスポット)から取得されるため、識別が必要です。
そのためには、既存の方法では、近代的な四足動画ロボットに存在しないモダリティである接触力測定へのアクセスが必要です。
このペーパーでは、直接接触力測定を必要とせずに慣性パラメーターを特定するために、共同電流/トルク測定(現代のロボットの標準センシングモダリティ)を利用する代替手法を紹介します。
全身のダイナミクスを接触制約のヌル空間に投影することにより、接触力への依存性を排除し、身体的および幾何学的制約を処理できる線形行列の不平等として識別問題を再定式化します。
深いニューラルネットワークを使用して、共通のブラックボックス識別法と提案された方法を比較し、物理的な一貫性を組み込むことでサンプルの効率とモデルの一般化が大幅に向上することを示します。
最後に、さまざまな移動タスクにわたって四足動物のロボットでの方法を検証し、さまざまな歩行にわたる実際のシナリオでの精度と一般化可能性を示します。

要約(オリジナル)

Accurate inertial parameter identification is crucial for the simulation and control of robots encountering intermittent contact with the environment. Classically, robots’ inertial parameters are obtained from CAD models that are not precise (and sometimes not available, e.g., Spot from Boston Dynamics), hence requiring identification. To do that, existing methods require access to contact force measurement, a modality not present in modern quadruped and humanoid robots. This paper presents an alternative technique that utilizes joint current/torque measurements — a standard sensing modality in modern robots — to identify inertial parameters without requiring direct contact force measurements. By projecting the whole-body dynamics into the null space of contact constraints, we eliminate the dependency on contact forces and reformulate the identification problem as a linear matrix inequality that can handle physical and geometrical constraints. We compare our proposed method against a common black-box identification method using a deep neural network and show that incorporating physical consistency significantly improves the sample efficiency and generalizability of the model. Finally, we validate our method on the Spot quadruped robot across various locomotion tasks, showcasing its accuracy and generalizability in real-world scenarios over different gaits.

arxiv情報

著者 Shahram Khorshidi,Murad Dawood,Benno Nederkorn,Maren Bennewitz,Majid Khadiv
発行日 2025-03-18 15:20:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Physically-Consistent Parameter Identification of Robots in Contact はコメントを受け付けていません