GRoQ-Loco: Generalist and Robot-agnostic Quadruped Locomotion Control using Offline Datasets

要約

大規模なオフライントレーニングの最近の進歩は、複雑なロボットタスクのジェネラリスト政策学習の可能性を実証しています。
ただし、これらの原則を脚のある移動に適用することは、継続的なダイナミクスと、多様な地形とロボットの形態にわたるリアルタイムの適応の必要性により、課題のままです。
この作業では、オフラインデータセットのみに依存して、複数の4倍のロボットと地形で単一のジェネラリストの移動ポリシーを学習するスケーラブルで注意ベースのフレームワークであるGroq-Locoを提案します。
私たちのアプローチは、2つの異なる移動行動からの専門家のデモンストレーションを活用しています – 階段横断(非周期的歩行)とフラット地形トラバーサル(周期的な歩行) – 複数の四分流ロボットで収集され、両方の行動の行動融合を可能にする一般主義モデルを訓練します。
重要なことに、私たちのフレームワークは、ロボット固有のエンコーディングを組み込むことなく、すべてのロボットからの固有受容データで直接動作します。
このポリシーは、Intel I7 NUCに直接展開でき、テスト時間の最適化なしに低遅延制御出力を生成します。
当社の広範な実験は、市販の12kgのロボットであるUnitree Go1でのハードウェアの展開を含む、非常に多様な4倍のロボットと地形にわたる強力なゼロショット転送を示しています。
特に、ロボット全体に異なる移動スキルが不均一に分布する挑戦的なクロスロボットトレーニングセットアップを評価しますが、テスト時にすべてのロボットへのフラットウォーキングと階段横断挙動の両方の転送の成功を観察します。
また、微調整を必要とせずに、70kgの四足動画であるStoch 5で、平らな屋外の地形での予備的なウォーキングを示します。
これらの結果は、多様なロボットや地形にわたる堅牢なジェネラリストの移動の可能性を強調しています。

要約(オリジナル)

Recent advancements in large-scale offline training have demonstrated the potential of generalist policy learning for complex robotic tasks. However, applying these principles to legged locomotion remains a challenge due to continuous dynamics and the need for real-time adaptation across diverse terrains and robot morphologies. In this work, we propose GRoQ-Loco, a scalable, attention-based framework that learns a single generalist locomotion policy across multiple quadruped robots and terrains, relying solely on offline datasets. Our approach leverages expert demonstrations from two distinct locomotion behaviors – stair traversal (non-periodic gaits) and flat terrain traversal (periodic gaits) – collected across multiple quadruped robots, to train a generalist model that enables behavior fusion for both behaviors. Crucially, our framework operates directly on proprioceptive data from all robots without incorporating any robot-specific encodings. The policy is directly deployable on an Intel i7 nuc, producing low-latency control outputs without any test-time optimization. Our extensive experiments demonstrate strong zero-shot transfer across highly diverse quadruped robots and terrains, including hardware deployment on the Unitree Go1, a commercially available 12kg robot. Notably, we evaluate challenging cross-robot training setups where different locomotion skills are unevenly distributed across robots, yet observe successful transfer of both flat walking and stair traversal behaviors to all robots at test time. We also show preliminary walking on Stoch 5, a 70kg quadruped, on flat and outdoor terrains without requiring any fine tuning. These results highlight the potential for robust generalist locomotion across diverse robots and terrains.

arxiv情報

著者 Narayanan PP,Sarvesh Prasanth Venkatesan,Srinivas Kantha Reddy,Shishir Kolathaya
発行日 2025-05-20 09:59:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO, I.2.9 | GRoQ-Loco: Generalist and Robot-agnostic Quadruped Locomotion Control using Offline Datasets はコメントを受け付けていません

M3Depth: Wavelet-Enhanced Depth Estimation on Mars via Mutual Boosting of Dual-Modal Data

要約

深さの推定は、さらに火星探査ミッションの障害回避とナビゲーションに大きな潜在的な役割を果たします。
従来のステレオマッチングと比較して、学習ベースのステレオ深度推定は、ステレオ画像ペアから密度と正確な深度マップを推測するためのデータ駆動型アプローチを提供します。
ただし、これらの方法は、火星の構造化されていない地形など、まばらなテクスチャや幾何学的制約がない環境で常にパフォーマンスの劣化を受けます。
これらの課題に対処するために、火星のローバーに合わせた深度推定モデルであるM3Depthを提案します。
主に低周波機能で構成される火星の地形のまばらで滑らかなテクスチャーを考慮すると、我々のモデルには、低頻度の応答を効果的にキャプチャし、受容フィールドを拡大するウェーブレット変換に基づく畳み込みカーネルが組み込まれています。
さらに、深度マップと表面法線マップの相補的な関係を明示的にモデル化する一貫性の損失を導入し、幾何学的制約として表面を使用して、深さ推定の精度を高めます。
また、相互ブーストメカニズムを備えたピクセルごとの改良モジュールは、深さと表面の両方の通常の予測を繰り返し改善するように設計されています。
深さ注釈を備えた合成火星データセットの実験結果は、M3Depthが他の最先端の深さ推定法と比較して、深さ推定精度が大幅に改善されることを示しています。
さらに、このモデルは、実際の火星のシナリオに強い適用可能性を示し、将来の火星探査ミッションに有望なソリューションを提供します。

要約(オリジナル)

Depth estimation plays a great potential role in obstacle avoidance and navigation for further Mars exploration missions. Compared to traditional stereo matching, learning-based stereo depth estimation provides a data-driven approach to infer dense and precise depth maps from stereo image pairs. However, these methods always suffer performance degradation in environments with sparse textures and lacking geometric constraints, such as the unstructured terrain of Mars. To address these challenges, we propose M3Depth, a depth estimation model tailored for Mars rovers. Considering the sparse and smooth texture of Martian terrain, which is primarily composed of low-frequency features, our model incorporates a convolutional kernel based on wavelet transform that effectively captures low-frequency response and expands the receptive field. Additionally, we introduce a consistency loss that explicitly models the complementary relationship between depth map and surface normal map, utilizing the surface normal as a geometric constraint to enhance the accuracy of depth estimation. Besides, a pixel-wise refinement module with mutual boosting mechanism is designed to iteratively refine both depth and surface normal predictions. Experimental results on synthetic Mars datasets with depth annotations show that M3Depth achieves a significant 16% improvement in depth estimation accuracy compared to other state-of-the-art methods in depth estimation. Furthermore, the model demonstrates strong applicability in real-world Martian scenarios, offering a promising solution for future Mars exploration missions.

arxiv情報

著者 Junjie Li,Jiawei Wang,Miyu Li,Yu Liu,Yumei Wang,Haitao Xu
発行日 2025-05-20 10:13:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | M3Depth: Wavelet-Enhanced Depth Estimation on Mars via Mutual Boosting of Dual-Modal Data はコメントを受け付けていません

Safe Distributed Control of Multi-Robot Systems with Communication Delays

要約

マルチロボットシステムの安全な動作は、特に海底マッピング用の水中、ナビゲーション用の地下洞窟、アセンブリおよび建設のための地球外のミッションなどの通信統合環境で重要です。
ロボット間で交換された情報が通信遅延を発生させるネットワーク化された自律システムの安全性に対処します。
マルチロボットシステムの分散制御バリア関数の概念を正式に形式化します。マルチロボットシステムは、分散実装に適した安全証明書であり、グラフニューラルネットワークを使用して安全な分散コントローラーを学習するための正式な根拠を提供します。
さらに、遅延を無視する分散コントローラーを学習すると、安全性が深刻に低下する可能性があることがわかります。
最終的に、近くのロボットの現在の状態が受信したデータと情報の年齢から予測される通信の遅延の下で、安全な分散コントローラーをトレーニングするための予測因子ベースのフレームワークを提案します。
マルチロボット衝突回避に関する数値実験は、予測因子ベースのアプローチが通信の遅延下で学習された分散コントローラーの安全性を大幅に改善できることを示しています。
ビデオ要約は、https://youtu.be/hcu1ri32spkで入手できます。

要約(オリジナル)

Safe operation of multi-robot systems is critical, especially in communication-degraded environments such as underwater for seabed mapping, underground caves for navigation, and in extraterrestrial missions for assembly and construction. We address safety of networked autonomous systems where the information exchanged between robots incurs communication delays. We formalize a notion of distributed control barrier function for multi-robot systems, a safety certificate amenable to a distributed implementation, which provides formal ground to using graph neural networks to learn safe distributed controllers. Further, we observe that learning a distributed controller ignoring delays can severely degrade safety. We finally propose a predictor-based framework to train a safe distributed controller under communication delays, where the current state of nearby robots is predicted from received data and age-of-information. Numerical experiments on multi-robot collision avoidance show that our predictor-based approach can significantly improve the safety of a learned distributed controller under communication delays. A video abstract is available at https://youtu.be/Hcu1Ri32Spk.

arxiv情報

著者 Luca Ballotta,Rajat Talak
発行日 2025-05-20 11:51:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: (Primary), 68M14, 68T07, 68W15, C.2.4, cs.RO | Safe Distributed Control of Multi-Robot Systems with Communication Delays はコメントを受け付けていません

Sampling-Based System Identification with Active Exploration for Legged Robot Sim2Real Learning

要約

SIMと復活の矛盾は、現実の世界で高精度のタスクを達成することを学習に基づいたポリシーを妨げます。
ドメインランダム化(DR)は一般的にこのギャップを埋めるために使用されますが、多くの場合、ヒューリスティックに依存しており、適切に調整されていない場合、パフォーマンスを低下させる過度に保守的な政策につながる可能性があります。
システム識別(SYS-ID)はターゲットを絞ったアプローチを提供しますが、標準的な手法は、微分可能なダイナミクスおよび/または直接トルク測定に依存しています。これは、接触リッチレッグシステムにはめったに当てはまらない仮定です。
この目的のために、sim-to-Realギャップを最小限に抑えるために脚のロボットの物理パラメーターを推定する2段階のフレームワークであるSpi-active(アクティブ探査によるサンプリングベースのパラメーター識別)を示します。
Spi-activeは、大規模な並列サンプリングを介して重要な物理パラメーターを堅牢に識別し、シミュレートされた軌跡と実際の軌跡の間の状態予測エラーを最小限に抑えます。
収集されたデータの情報性をさらに向上させるために、調査ポリシーの入力コマンドを最適化することにより、収集された実世界の軌跡のフィッシャー情報を最大化するアクティブな探索戦略を導入します。
このターゲットを絞った探査は、多様なタスク全体で正確な識別とより良い一般化につながります。
実験は、Spi-activeが現実世界への学習ポリシーの正確なSIMから現実的な転送を可能にし、さまざまな移動タスクでベースラインを42〜63%上回ることを実証することを示しています。

要約(オリジナル)

Sim-to-real discrepancies hinder learning-based policies from achieving high-precision tasks in the real world. While Domain Randomization (DR) is commonly used to bridge this gap, it often relies on heuristics and can lead to overly conservative policies with degrading performance when not properly tuned. System Identification (Sys-ID) offers a targeted approach, but standard techniques rely on differentiable dynamics and/or direct torque measurement, assumptions that rarely hold for contact-rich legged systems. To this end, we present SPI-Active (Sampling-based Parameter Identification with Active Exploration), a two-stage framework that estimates physical parameters of legged robots to minimize the sim-to-real gap. SPI-Active robustly identifies key physical parameters through massive parallel sampling, minimizing state prediction errors between simulated and real-world trajectories. To further improve the informativeness of collected data, we introduce an active exploration strategy that maximizes the Fisher Information of the collected real-world trajectories via optimizing the input commands of an exploration policy. This targeted exploration leads to accurate identification and better generalization across diverse tasks. Experiments demonstrate that SPI-Active enables precise sim-to-real transfer of learned policies to the real world, outperforming baselines by 42-63% in various locomotion tasks.

arxiv情報

著者 Nikhil Sobanbabu,Guanqi He,Tairan He,Yuxiang Yang,Guanya Shi
発行日 2025-05-20 12:16:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Sampling-Based System Identification with Active Exploration for Legged Robot Sim2Real Learning はコメントを受け付けていません

Local Minima Prediction using Dynamic Bayesian Filtering for UGV Navigation in Unstructured Environments

要約

パス計画は自動運転車のナビゲーションにとって重要ですが、これらの車両は複雑で現実世界の環境で課題に直面しています。
グローバルな見解は提供される場合がありますが、多くの場合時代遅れであり、無人の地上車両(UGV)がリアルタイムのローカル情報に依存する必要があります。
グローバルなコンテキストを考慮せずに、部分的な情報への依存は、UGVがローカルミニマに立ち往生することにつながる可能性があります。
このペーパーでは、ローカルビューの検出された障害とグローバルな目標に基づいて、動的ベイジアンフィルタリングを使用して局所的な最小値を積極的に予測する方法を開発します。
このアプローチの目的は、自動運転車両の自律的なナビゲーションを強化することを目的としています。潜在的な落とし穴を予測できるようにすることで、人間に助けを求めるか、代替軌道を再計画することができます。

要約(オリジナル)

Path planning is crucial for the navigation of autonomous vehicles, yet these vehicles face challenges in complex and real-world environments. Although a global view may be provided, it is often outdated, necessitating the reliance of Unmanned Ground Vehicles (UGVs) on real-time local information. This reliance on partial information, without considering the global context, can lead to UGVs getting stuck in local minima. This paper develops a method to proactively predict local minima using Dynamic Bayesian filtering, based on the detected obstacles in the local view and the global goal. This approach aims to enhance the autonomous navigation of self-driving vehicles by allowing them to predict potential pitfalls before they get stuck, and either ask for help from a human, or re-plan an alternate trajectory.

arxiv情報

著者 Seung Hun Lee,Wonse Jo,Lionel P. Robert Jr.,Dawn M. Tilbury
発行日 2025-05-20 13:23:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Local Minima Prediction using Dynamic Bayesian Filtering for UGV Navigation in Unstructured Environments はコメントを受け付けていません

Towards Embodied Cognition in Robots via Spatially Grounded Synthetic Worlds

要約

ビジョン言語モデル(VLM)をトレーニングするための概念的なフレームワークを提示して、視覚的視点(VPT)を実行します。これは、人間とロボットの相互作用に不可欠な具体化された認知のコア機能(HRI)です。
この目標への最初のステップとして、Nvidia Omniverseで生成された合成データセットを導入し、空間的推論タスクの監視された学習を可能にします。
各インスタンスには、RGB画像、自然言語の説明、およびオブジェクトポーズを表すグラウンドトゥルース4×4変換マトリックスが含まれます。
私たちは、Z軸距離を基礎スキルとして推測することに焦点を当てており、将来の拡張機能は6度の自由度(DOFS)の推論を対象としています。
データセットは、さらなる研究をサポートするために公開されています。
この作業は、インタラクティブなヒューマンロボットシナリオで空間的理解が可能な具体化されたAIシステムに向けた基本的なステップとして機能します。

要約(オリジナル)

We present a conceptual framework for training Vision-Language Models (VLMs) to perform Visual Perspective Taking (VPT), a core capability for embodied cognition essential for Human-Robot Interaction (HRI). As a first step toward this goal, we introduce a synthetic dataset, generated in NVIDIA Omniverse, that enables supervised learning for spatial reasoning tasks. Each instance includes an RGB image, a natural language description, and a ground-truth 4X4 transformation matrix representing object pose. We focus on inferring Z-axis distance as a foundational skill, with future extensions targeting full 6 Degrees Of Freedom (DOFs) reasoning. The dataset is publicly available to support further research. This work serves as a foundational step toward embodied AI systems capable of spatial understanding in interactive human-robot scenarios.

arxiv情報

著者 Joel Currie,Gioele Migno,Enrico Piacenti,Maria Elena Giannaccini,Patric Bach,Davide De Tommaso,Agnieszka Wykowska
発行日 2025-05-20 13:49:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Towards Embodied Cognition in Robots via Spatially Grounded Synthetic Worlds はコメントを受け付けていません

End-to-End and Highly-Efficient Differentiable Simulation for Robotics

要約

過去数年にわたって、ロボットシミュレーターは効率とスケーラビリティが大幅に改善されており、数時間で長年のシミュレーションデータを生成できるようになりました。
しかし、シミュレーション導関数を効率的かつ正確に計算すると、特に物理的な接触相互作用に関連する問題について、補強学習と軌道最適化アルゴリズムの収束速度が潜在的に高い利益を得て、依然としてオープンな課題のままです。
この論文は、ロボットシミュレータの分析導関数を計算するための統一された効率的なアルゴリズムソリューションを導入することにより、この目的に貢献します。
このアプローチでは、衝突段階と摩擦段階の両方を考慮し、本質的な非滑らかさを考慮し、基礎となるマルチボディシステムによって誘発されるスパース性を活用します。
これらの導関数はC ++で実装されており、コードは単純なシミュレーターでオープンソーリングされます。
彼らは、7ドーフのマニピュレーターの5マイクロ秒から36ドフのヒューマノイドの最大95マイクロ秒までの最先端のタイミングを描写し、少なくとも100の係数で優れた代替溶液を上回ります。

要約(オリジナル)

Over the past few years, robotics simulators have largely improved in efficiency and scalability, enabling them to generate years of simulated data in a few hours. Yet, efficiently and accurately computing the simulation derivatives remains an open challenge, with potentially high gains on the convergence speed of reinforcement learning and trajectory optimization algorithms, especially for problems involving physical contact interactions. This paper contributes to this objective by introducing a unified and efficient algorithmic solution for computing the analytical derivatives of robotic simulators. The approach considers both the collision and frictional stages, accounting for their intrinsic nonsmoothness and also exploiting the sparsity induced by the underlying multibody systems. These derivatives have been implemented in C++, and the code will be open-sourced in the Simple simulator. They depict state-of-the-art timings ranging from 5 microseconds for a 7-dof manipulator up to 95 microseconds for 36-dof humanoid, outperforming alternative solutions by a factor of at least 100.

arxiv情報

著者 Quentin Le Lidec,Louis Montaut,Yann de Mont-Marin,Fabian Schramm,Justin Carpentier
発行日 2025-05-20 14:18:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | End-to-End and Highly-Efficient Differentiable Simulation for Robotics はコメントを受け付けていません

AC-LIO: Towards Asymptotic Compensation for Distortion in LiDAR-Inertial Odometry via Selective Intra-Frame Smoothing

要約

既存のLidar-inertial Odometry(LIO)メソッドは、通常、Lidarフレーム内のモーション歪みを補うためにIMU統合から導出された以前の軌道を利用します。
ただし、以前の軌道と真の軌跡の矛盾は、リダーフレームの対応する幾何学的環境との一貫性を損なう残留運動の歪みにつながる可能性があります。
この不均衡により、PointCloud登録はローカルオプティマに閉じ込められ、それにより、長期および大規模なローカリゼーション中にドリフトを悪化させる可能性があります。
この目的のために、AC-LIOと呼ばれる選択的なフレーム内スムージングを備えた新しいLIOフレームワークを提案します。
私たちの中核的なアイデアは、現在の更新期間を漸近的に逆流させ、収束基準のガイダンスに基づく残留運動の歪みを補償することです。
広範な実験は、AC-Lioフレームワークが以前の芸術と比較して臭気測定の精度をさらに高めることを示しており、2番目の最良の結果よりも平均RMSEが約30.4%減少し、長期および大規模な局在化とマッピングの精度の著しい改善につながることが示されています。

要約(オリジナル)

Existing LiDAR-Inertial Odometry (LIO) methods typically utilize the prior trajectory derived from the IMU integration to compensate for the motion distortion within LiDAR frames. However, discrepancies between the prior and true trajectory can lead to residual motion distortions that compromise the consistency of LiDAR frame with its corresponding geometric environment. This imbalance may result in pointcloud registration becoming trapped in local optima, thereby exacerbating drift during long-term and large-scale localization. To this end, we propose a novel LIO framework with selective intra-frame smoothing dubbed AC-LIO. Our core idea is to asymptotically backpropagate current update term and compensate for residual motion distortion under the guidance of convergence criteria, aiming to improve the accuracy of discrete-state LIO system with minimal computational increase. Extensive experiments demonstrate that our AC-LIO framework further enhances odometry accuracy compared to prior arts, with about 30.4% reduction in average RMSE over the second best result, leading to marked improvements in the accuracy of long-term and large-scale localization and mapping.

arxiv情報

著者 Tianxiang Zhang,Xuanxuan Zhang,Wenlei Fan,Xin Xia,Huai Yu,Lin Wang,You Li
発行日 2025-05-20 14:18:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | AC-LIO: Towards Asymptotic Compensation for Distortion in LiDAR-Inertial Odometry via Selective Intra-Frame Smoothing はコメントを受け付けていません

Semantically-driven Deep Reinforcement Learning for Inspection Path Planning

要約

このペーパーでは、深い強化学習を通じて導き出された新しいセマンティクス認識検査計画ポリシーを紹介します。
未知の環境における自律的な情報パス計画ミッション内では、多くの場合、検査する必要があるのは多くの場合、興味のあるオブジェクトのまばらなセットであるという事実を反映して、この方法は、衝突のないナビゲーションと組み合わせたセマンティックオブジェクトの目視検査を同時に実行するエンドツーエンドポリシーに貢献します。
瞬時の深度マップ、関連するセグメンテーション画像、自我中心の地元の占有率、およびロボットの近隣における過去の位置の歴史にのみアクセスを想定すると、この方法は、堅牢な一般化可能性とSIM2REALギャップの交差の成功を示しています。
シミュレーションと広範な比較研究を超えて、このアプローチは、以前に目に見えなかったセマンティクスと全体的な幾何学的構成を備えた新しい環境に展開されていた飛行ロボットを搭載した実験的評価で検証されています。

要約(オリジナル)

This paper introduces a novel semantics-aware inspection planning policy derived through deep reinforcement learning. Reflecting the fact that within autonomous informative path planning missions in unknown environments, it is often only a sparse set of objects of interest that need to be inspected, the method contributes an end-to-end policy that simultaneously performs semantic object visual inspection combined with collision-free navigation. Assuming access only to the instantaneous depth map, the associated segmentation image, the ego-centric local occupancy, and the history of past positions in the robot’s neighborhood, the method demonstrates robust generalizability and successful crossing of the sim2real gap. Beyond simulations and extensive comparison studies, the approach is verified in experimental evaluations onboard a flying robot deployed in novel environments with previously unseen semantics and overall geometric configurations.

arxiv情報

著者 Grzegorz Malczyk,Mihir Kulkarni,Kostas Alexis
発行日 2025-05-20 14:45:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Semantically-driven Deep Reinforcement Learning for Inspection Path Planning はコメントを受け付けていません

Robust Immersive Bilateral Teleoperation of Dissimilar Systems with Enhanced Transparency and Sense of Embodiment

要約

テレオ操作、特に頑丈なマニピュレーターを含む人間のループシステムでは、高いタスクパフォ​​ーマンスを達成するには、堅牢な制御と強力な人間の関与の両方が必要です。
この論文は、没入型仮想現実のインターフェイスと外骨格を介した分散触覚フィードバックを介して、オペレーターの具体化(SOE)、特に代理店と自己位置の感覚を強化する二国間テレオ操作のフレームワークを紹介します。
この実施形態をサポートし、高レベルの運動と力の透明性を耐えるために、入力の非線形性、マスター奴隷の非対称性、不明な不確実性、および任意の時間遅延に取り組む力センサーレスで堅牢な制御アーキテクチャを開発します。
ヒトロボット拡張動的モデルがコントロールループに統合され、コントローラーのヒト適応性が向上します。
理論分析により、閉ループシステムの半グローバル均一な究極の境界性が確認されます。
広範な実世界の実験は、最大1:13のモーションスケーリングと1:1000の力スケーリングの下で​​高精度追跡を実証し、結果の重要性を示しています。
さらに、モーショントラッキングと力反射追跡のための安定性透明性のトレードオフは、最大150ミリ秒の一元配置修正と時変コミュニケーション遅延を確立します。
10人の参加者(男性9人と女性1人)を使用したユーザー調査の結果は、システムがSOEの良いレベル(76.4%)を暗示できることを実証しました。同時に、性別の制限はなく、非常にユーザーフレンドリーです。
これらの結果は、頑丈なマニピュレーターのスケールと重量を考えると重要です。

要約(オリジナル)

In human-in-the-loop systems such as teleoperation, especially those involving heavy-duty manipulators, achieving high task performance requires both robust control and strong human engagement. This paper presents a bilateral teleoperation framework that enhances the operator’s Sense of Embodiment (SoE), specifically, the senses of agency and self-location, through an immersive virtual reality interface and distributed haptic feedback via an exoskeleton. To support this embodiment and stablish high level of motion and force transparency, we develop a force-sensorless, robust control architecture that tackles input nonlinearities, master-slave asymmetries, unknown uncertainties, and arbitrary time delays. A human-robot augmented dynamic model is integrated into the control loop to enhance human-adaptability of the controller. Theoretical analysis confirms semi-global uniform ultimate boundedness of the closed-loop system. Extensive real-world experiments demonstrate high accuracy tracking under up to 1:13 motion scaling and 1:1000 force scaling, showcasing the significance of the results. Additionally, the stability-transparency tradeoff for motion tracking and force reflection-tracking is establish up to 150 ms of one-way fix and time-varying communication delay. The results of user study with 10 participants (9 male and 1 female) demonstrated that the system can imply a good level of SoE (76.4%), at the same time is very user friendly with no gender limitation. These results are significant given the scale and weight of the heavy-duty manipulators.

arxiv情報

著者 Mahdi Hejrati,Jouni Mattila
発行日 2025-05-20 15:17:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Robust Immersive Bilateral Teleoperation of Dissimilar Systems with Enhanced Transparency and Sense of Embodiment はコメントを受け付けていません