Multi-Goal Dexterous Hand Manipulation using Probabilistic Model-based Reinforcement Learning

要約

このペーパーは、モデルベースの強化学習を使用して、マルチゴールの器用な手操作タスクを学習するという課題に取り組んでいます。
確率的なニューラルネットワークアンサンブルを設計して、高次元の器用な手ダイナミクスを説明し、非同期MPCポリシーを導入して、実際の器用なハンドシステムの制御周波数要件を満たすために、目標条件付き確率モデル予測制御(GC-PMPC)を提案します。
ランダムに生成された目標を持つ4つのシミュレートされたシャドウハンド操作シナリオに関する広範な評価は、最先端のベースラインよりもGC-PMPCの優れたパフォーマンスを示しています。
ケーブル駆動型の器用な手、12のアクティブなDOFと5つの触覚センサーを備えたDexhand 021を駆動し、相互作用の約80分以内に3つの目標ポーズに立方体を操作することを学び、費用対効果の高い器用なハンドプラットフォームで優れた学習効率と制御パフォーマンスを実証します。

要約(オリジナル)

This paper tackles the challenge of learning multi-goal dexterous hand manipulation tasks using model-based Reinforcement Learning. We propose Goal-Conditioned Probabilistic Model Predictive Control (GC-PMPC) by designing probabilistic neural network ensembles to describe the high-dimensional dexterous hand dynamics and introducing an asynchronous MPC policy to meet the control frequency requirements in real-world dexterous hand systems. Extensive evaluations on four simulated Shadow Hand manipulation scenarios with randomly generated goals demonstrate GC-PMPC’s superior performance over state-of-the-art baselines. It successfully drives a cable-driven Dexterous hand, DexHand 021 with 12 Active DOFs and 5 tactile sensors, to learn manipulating a cubic die to three goal poses within approximately 80 minutes of interactions, demonstrating exceptional learning efficiency and control performance on a cost-effective dexterous hand platform.

arxiv情報

著者 Yingzhuo Jiang,Wenjun Huang,Rongdun Lin,Chenyang Miao,Tianfu Sun,Yunduan Cui
発行日 2025-04-30 12:44:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, cs.SY, eess.SY | Multi-Goal Dexterous Hand Manipulation using Probabilistic Model-based Reinforcement Learning はコメントを受け付けていません

One Net to Rule Them All: Domain Randomization in Quadcopter Racing Across Different Platforms

要約

高速クアッドコプターレースでは、さまざまなプラットフォームでうまく機能する単一のコントローラーを見つけることは依然として困難です。
この作業は、物理的に異なるクワッドコプター全体に一般化するドローンレース用の最初のニューラルネットワークコントローラーを提示します。
ドメインのランダム化でトレーニングされた単一のネットワークは、さまざまなタイプのクワッドコプターを堅牢に制御できることを実証します。
ネットワークは、モーターコマンドを直接計算するために現在の状態のみに依存しています。
この一般化コントローラーの有効性は、2つの実質的に異なる工芸品(3インチおよび5インチのレースクアッドコプター)の実際のテストを通じて検証されます。
さらに、この一般化コントローラーのパフォーマンスを、さまざまなレベルのドメインランダム化(0%、10%、20%、30%)で特定されたモデルパラメーターを使用して、3インチおよび5インチドローン用に特異的にトレーニングされたコントローラーと比較します。
一般化されたコントローラーは、微調整されたモデルと比較してわずかに遅い速度を示しますが、さまざまなプラットフォームで適応性に優れています。
我々の結果は、ランダム化がSIMからリアルへの転送に失敗しないことを示していますが、ランダム化を増加させると堅牢性が向上しますが、速度が低下します。
このトレードオフにもかかわらず、私たちの調査結果は、コントローラーを一般化するためのドメインランダム化の可能性を強調し、あらゆるプラットフォームに適応できるユニバーサルAIコントローラーへの道を開いています。

要約(オリジナル)

In high-speed quadcopter racing, finding a single controller that works well across different platforms remains challenging. This work presents the first neural network controller for drone racing that generalizes across physically distinct quadcopters. We demonstrate that a single network, trained with domain randomization, can robustly control various types of quadcopters. The network relies solely on the current state to directly compute motor commands. The effectiveness of this generalized controller is validated through real-world tests on two substantially different crafts (3-inch and 5-inch race quadcopters). We further compare the performance of this generalized controller with controllers specifically trained for the 3-inch and 5-inch drone, using their identified model parameters with varying levels of domain randomization (0%, 10%, 20%, 30%). While the generalized controller shows slightly slower speeds compared to the fine-tuned models, it excels in adaptability across different platforms. Our results show that no randomization fails sim-to-real transfer while increasing randomization improves robustness but reduces speed. Despite this trade-off, our findings highlight the potential of domain randomization for generalizing controllers, paving the way for universal AI controllers that can adapt to any platform.

arxiv情報

著者 Robin Ferede,Till Blaha,Erin Lucassen,Christophe De Wagter,Guido C. H. E. de Croon
発行日 2025-04-30 12:44:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, cs.SY, eess.SY | One Net to Rule Them All: Domain Randomization in Quadcopter Racing Across Different Platforms はコメントを受け付けていません

Leveraging Pre-trained Large Language Models with Refined Prompting for Online Task and Motion Planning

要約

人工知能の急速な進歩により、毎日のタスクで人間を支援し、複雑な操作を実行できるインテリジェントロボットに対する需要が高まっています。
このようなロボットは、タスク計画機能を必要とするだけでなく、安定性と堅牢性を備えたタスクを実行する必要があります。
このホワイトペーパーでは、閉鎖されたループタスク計画および演技システムであるLLM-PAを紹介します。これは、事前に訓練された大手言語モデル(LLM)の支援を受けています。
LLM-PASは、従来のタスクやモーションプランナーに似た方法で長距離タスクを計画していますが、タスクの実行フェーズも強調しています。
制約チェックプロセスの一部を計画フェーズから実行フェーズに転送することにより、LLM-PAは制約空間の調査を可能にし、実行中の環境異常に関するより正確なフィードバックを提供します。
LLMの推論能力により、堅牢なエグゼクティアが対処できない異常を処理できます。
再施行中にプランナーを支援するシステムの能力をさらに強化するために、LLMを誘導する最初の外観プロンプト(FLP)メソッドを提案します。
比較プロンプト実験と体系的な実験を通じて、タスクの実行中の異常条件の処理におけるLLM-PAの有効性と堅牢性を示します。

要約(オリジナル)

With the rapid advancement of artificial intelligence, there is an increasing demand for intelligent robots capable of assisting humans in daily tasks and performing complex operations. Such robots not only require task planning capabilities but must also execute tasks with stability and robustness. In this paper, we present a closed-loop task planning and acting system, LLM-PAS, which is assisted by a pre-trained Large Language Model (LLM). While LLM-PAS plans long-horizon tasks in a manner similar to traditional task and motion planners, it also emphasizes the execution phase of the task. By transferring part of the constraint-checking process from the planning phase to the execution phase, LLM-PAS enables exploration of the constraint space and delivers more accurate feedback on environmental anomalies during execution. The reasoning capabilities of the LLM allow it to handle anomalies that cannot be addressed by the robust executor. To further enhance the system’s ability to assist the planner during replanning, we propose the First Look Prompting (FLP) method, which induces LLM to generate effective PDDL goals. Through comparative prompting experiments and systematic experiments, we demonstrate the effectiveness and robustness of LLM-PAS in handling anomalous conditions during task execution.

arxiv情報

著者 Huihui Guo,Huilong Pi,Yunchuan Qin,Zhuo Tang,Kenli Li
発行日 2025-04-30 12:53:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Leveraging Pre-trained Large Language Models with Refined Prompting for Online Task and Motion Planning はコメントを受け付けていません

LRBO2: Improved 3D Vision Based Hand-Eye Calibration for Collaborative Robot Arm

要約

手と目のキャリブレーションは、視覚センサーとロボットフランジの間の変換マトリックスの決定を伴う共同ロボット工学の分野で一般的な問題です。
ただし、このプロセスには通常、ロボットアームと外部キャリブレーションオブジェクトの複数の動きが必要であり、特に頻繁な再調整が必要なシナリオでは、時間がかかり、不便になります。
この作業では、以前の方法を拡張し、ロボットベース(LRBO)をご覧ください。これにより、チェスボードなどの外部キャリブレーションオブジェクトの必要性が排除されます。
ポイントクラウド登録のための一般的なデータセット生成アプローチを提案し、ロボットベースポイントクラウドとスキャンされたデータを合わせることに焦点を当てています。
さらに、いくつかの異なる共同ロボットアームを含む、より詳細なシミュレーション研究が実施され、その後、産業環境での実際の実験が行われます。
改良された方法は、KUKA、Universal Robots、Ufactory、Franka Emikaを含む9つの異なるブランドの合計14のロボットアームを使用してシミュレートおよび評価されます。これらはすべて、共同ロボット工学の分野で広く使用されています。
物理実験は、拡張されたアプローチが既存の商用ハンドアイキャリブレーションソリューションに匹敵するパフォーマンスを達成し、数秒でキャリブレーション手順全体を完了することを示しています。
さらに、github.com/leihui6/lrbo2で公開されているコードを使用して、ユーザーフレンドリーなハンドアイキャリブレーションソリューションを提供します。

要約(オリジナル)

Hand-eye calibration is a common problem in the field of collaborative robotics, involving the determination of the transformation matrix between the visual sensor and the robot flange to enable vision-based robotic tasks. However, this process typically requires multiple movements of the robot arm and an external calibration object, making it both time-consuming and inconvenient, especially in scenarios where frequent recalibration is necessary. In this work, we extend our previous method, Look at Robot Base Once (LRBO), which eliminates the need for external calibration objects such as a chessboard. We propose a generic dataset generation approach for point cloud registration, focusing on aligning the robot base point cloud with the scanned data. Furthermore, a more detailed simulation study is conducted involving several different collaborative robot arms, followed by real-world experiments in an industrial setting. Our improved method is simulated and evaluated using a total of 14 robotic arms from 9 different brands, including KUKA, Universal Robots, UFACTORY, and Franka Emika, all of which are widely used in the field of collaborative robotics. Physical experiments demonstrate that our extended approach achieves performance comparable to existing commercial hand-eye calibration solutions, while completing the entire calibration procedure in just a few seconds. In addition, we provide a user-friendly hand-eye calibration solution, with the code publicly available at github.com/leihui6/LRBO2.

arxiv情報

著者 Leihui Li,Lixuepiao Wan,Volker Krueger,Xuping Zhang
発行日 2025-04-30 13:20:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | LRBO2: Improved 3D Vision Based Hand-Eye Calibration for Collaborative Robot Arm はコメントを受け付けていません

Path Planning on Multi-level Point Cloud with a Weighted Traversability Graph

要約

この記事では、マルチレベルの地形状況に対処するための新しいパス計画方法を提案しています。
提案された方法には、3つの側面のイノベーションが含まれます。1)マルチレベルのスキップリスト構造を備えたポイントクラウドマップの前処理と、よく組織化された単純化されたマップの形式化と管理のためのデータスリムアルゴリズム、2)車両とポイントクラウドのインターション分析を介したポイントクラウドインターションの分析を介した節約の節約の節約の3つ
一般的に検索ベースのパス計画のために、加重トラバース性グラフを生成します。
A*アルゴリズムは、トラバース性グラフを利用して短く安全なパスを生成するように変更されています。
提案された方法の有効性と信頼性は、複数床の建物、森林、険しい山岳地帯など、さまざまな環境で行われた屋内および屋外の実験を通じて検証されています。
結果は、提案された方法が、広範囲の状況で地上車両の3Dパス計画の問題に適切に対処できることを示しています。

要約(オリジナル)

This article proposes a new path planning method for addressing multi-level terrain situations. The proposed method includes innovations in three aspects: 1) the pre-processing of point cloud maps with a multi-level skip-list structure and data-slimming algorithm for well-organized and simplified map formalization and management, 2) the direct acquisition of local traversability indexes through vehicle and point cloud interaction analysis, which saves work in surface fitting, and 3) the assignment of traversability indexes on a multi-level connectivity graph to generate a weighted traversability graph for generally search-based path planning. The A* algorithm is modified to utilize the traversability graph to generate a short and safe path. The effectiveness and reliability of the proposed method are verified through indoor and outdoor experiments conducted in various environments, including multi-floor buildings, woodland, and rugged mountainous regions. The results demonstrate that the proposed method can properly address 3D path planning problems for ground vehicles in a wide range of situations.

arxiv情報

著者 Yujie Tang,Quan Li,Hao Geng,Yangmin Xie,Hang Shi,Yusheng Yang
発行日 2025-04-30 13:24:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Path Planning on Multi-level Point Cloud with a Weighted Traversability Graph はコメントを受け付けていません

Robotic Trail Maker Platform for Rehabilitation in Neurological Conditions: Clinical Use Cases

要約

神経学的状態の患者は、モーター、視覚、および認知能力を回復するためにリハビリテーションを必要とします。
セラピストの不足を満たし、ワークロードを減らすために、臨床トレイル製造テストを含むロボットリハビリテーションプラットフォームが提案されています。
セラピストは各患者にカスタムトレイルを作成することができ、患者はロボットデバイスを使用してトレイルを追跡できます。
プラットフォームは、患者のパフォーマンスを追跡し、これらのデータを使用して、ロボットを介して患者インターフェイスに動的な支援を提供できます。
したがって、提案されたプラットフォームは、評価プラットフォームとして機能するだけでなく、回復中の患者を訓練します。
開発されたプラットフォームは、リハビリテーションセンターで検証されており、セラピストと患者がデバイスを操作しています。
健康な被験者と比較してプラットフォームを使用している間、患者のパフォーマンスが低く、患者のパフォーマンスも向上したことがわかった。
統計分析は、患者の速度がロボット支援により大幅に向上したことを実証しました。
さらに、ニューラルネットワークは、患者と健康な被験者の間で分類し、収集されたデータを使用して動きを予測するように訓練されています。

要約(オリジナル)

Patients with neurological conditions require rehabilitation to restore their motor, visual, and cognitive abilities. To meet the shortage of therapists and reduce their workload, a robotic rehabilitation platform involving the clinical trail making test is proposed. Therapists can create custom trails for each patient and the patient can trace the trails using a robotic device. The platform can track the performance of the patient and use these data to provide dynamic assistance through the robot to the patient interface. Therefore, the proposed platform not only functions as an evaluation platform, but also trains the patient in recovery. The developed platform has been validated at a rehabilitation center, with therapists and patients operating the device. It was found that patients performed poorly while using the platform compared to healthy subjects and that the assistance provided also improved performance amongst patients. Statistical analysis demonstrated that the speed of the patients was significantly enhanced with the robotic assistance. Further, neural networks are trained to classify between patients and healthy subjects and to forecast their movements using the data collected.

arxiv情報

著者 Srikar Annamraju,Harris Nisar,Dayu Xia,Shankar A. Deka,Anne Horowitz,Nadica Miljković,Dušan M. Stipanović
発行日 2025-04-30 14:05:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Robotic Trail Maker Platform for Rehabilitation in Neurological Conditions: Clinical Use Cases はコメントを受け付けていません

LangWBC: Language-directed Humanoid Whole-Body Control via End-to-end Learning

要約

汎用のヒューマノイドロボットは、人間と直感的に相互作用することが期待されており、日常生活へのシームレスな統合を可能にします。
自然言語は、この目的のために最もアクセスしやすい媒体を提供します。
ただし、主に言語の理解と身体的行動の間のギャップが原因で、言語をヒューマノイド全身の動きに変換することは依然として重要な課題のままです。
この作業では、現実世界のヒューマノイド全身コントロールのためのエンドツーエンドの言語指向のポリシーを提示します。
私たちのアプローチは、強化学習と政策蒸留を組み合わせて、単一のニューラルネットワークが言語コマンドを解釈し、対応する物理的行動を直接実行できるようにします。
運動の多様性と構成性を高めるために、条件付き変分自動エンコーダー(CVAE)構造を組み込みます。
結果として得られるポリシーは、言語入力を条件付けられたアジャイルで汎用性のある全身行動を達成し、さまざまな動きの間のスムーズな遷移を伴い、言語の変動への適応と新しい動きの出現を可能にします。
広範なシミュレーションと実世界の実験を通じて、方法の有効性と一般化可能性を検証し、堅牢な全身制御を実証します。
詳細については、当社のウェブサイトをご覧ください。

要約(オリジナル)

General-purpose humanoid robots are expected to interact intuitively with humans, enabling seamless integration into daily life. Natural language provides the most accessible medium for this purpose. However, translating language into humanoid whole-body motion remains a significant challenge, primarily due to the gap between linguistic understanding and physical actions. In this work, we present an end-to-end, language-directed policy for real-world humanoid whole-body control. Our approach combines reinforcement learning with policy distillation, allowing a single neural network to interpret language commands and execute corresponding physical actions directly. To enhance motion diversity and compositionality, we incorporate a Conditional Variational Autoencoder (CVAE) structure. The resulting policy achieves agile and versatile whole-body behaviors conditioned on language inputs, with smooth transitions between various motions, enabling adaptation to linguistic variations and the emergence of novel motions. We validate the efficacy and generalizability of our method through extensive simulations and real-world experiments, demonstrating robust whole-body control. Please see our website at LangWBC.github.io for more information.

arxiv情報

著者 Yiyang Shao,Xiaoyu Huang,Bike Zhang,Qiayuan Liao,Yuman Gao,Yufeng Chi,Zhongyu Li,Sophia Shao,Koushil Sreenath
発行日 2025-04-30 15:37:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | LangWBC: Language-directed Humanoid Whole-Body Control via End-to-end Learning はコメントを受け付けていません

Whleaper: A 10-DOF Flexible Bipedal Wheeled Robot

要約

車輪足のロボットは、車輪付きロボットと脚のあるロボットの両方の利点を組み合わせて、困難な地形で優れた安定性と平らな表面の高効率を備えた多用途の移動能力を提供します。
ただし、既存のホイールレッグロボットは通常、人間と比較して股関節の可動性が限られていますが、股関節は運動に重要な役割を果たします。
このペーパーでは、各脚の腰に3つのDOFがある新しい10度フリードーム(DOF)二足歩行装置ロボットであるWhleaperを紹介します。
そのヒューマノイド関節設計により、複雑なシナリオで適応可能な動きが可能になり、安定性と柔軟性が確保されます。
このペーパーでは、革新的な機械設計、制御アルゴリズム、システムの実装に焦点を当てたWHLEAPERの詳細を紹介します。
第一に、安定性は、股関節でのDOFの増加に由来し、可能な姿勢の範囲を拡大し、ロボットの足跡の接触を改善します。
第二に、余分なDOFもそのモビリティを強化します。
ウォーキングまたはスライド中に、より複雑な動きを採用して、障害物回避タスクを実行できます。
第三に、2つの制御アルゴリズムを利用して、歩行とスライドのためにマルチモーダルモーションを実装します。
ロボットの特定のDOFを制御することにより、一連のシミュレーションと実用的な実験を実施し、高度な股関節設計がホイールレッグロボットの安定性と柔軟性を効果的に向上させることができることを実証しました。
WHLEAPERは、しゃがみ、障害物回避のスライド、および現実世界のシナリオの急速な回転などのアクションを実行する能力を示しています。

要約(オリジナル)

Wheel-legged robots combine the advantages of both wheeled robots and legged robots, offering versatile locomotion capabilities with excellent stability on challenging terrains and high efficiency on flat surfaces. However, existing wheel-legged robots typically have limited hip joint mobility compared to humans, while hip joint plays a crucial role in locomotion. In this paper, we introduce Whleaper, a novel 10-degree-of-freedom (DOF) bipedal wheeled robot, with 3 DOFs at the hip of each leg. Its humanoid joint design enables adaptable motion in complex scenarios, ensuring stability and flexibility. This paper introduces the details of Whleaper, with a focus on innovative mechanical design, control algorithms and system implementation. Firstly, stability stems from the increased DOFs at the hip, which expand the range of possible postures and improve the robot’s foot-ground contact. Secondly, the extra DOFs also augment its mobility. During walking or sliding, more complex movements can be adopted to execute obstacle avoidance tasks. Thirdly, we utilize two control algorithms to implement multimodal motion for walking and sliding. By controlling specific DOFs of the robot, we conducted a series of simulations and practical experiments, demonstrating that a high-DOF hip joint design can effectively enhance the stability and flexibility of wheel-legged robots. Whleaper shows its capability to perform actions such as squatting, obstacle avoidance sliding, and rapid turning in real-world scenarios.

arxiv情報

著者 Yinglei Zhu,Sixiao He,Zhenghao Qi,Zhuoyuan Yong,Yihua Qin,Jianyu Chen
発行日 2025-04-30 16:07:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Whleaper: A 10-DOF Flexible Bipedal Wheeled Robot はコメントを受け付けていません

LLM-based Interactive Imitation Learning for Robotic Manipulation

要約

機械学習における最近の進歩は、ロボット工学における連続的な意思決定の複雑さの増加を処理できる自律エージェントを訓練する方法を提供します。
模倣学習(IL)は顕著なアプローチであり、エージェントは人間のデモンストレーションに基づいてロボットを制御することを学びます。
ただし、ILは一般に、ロボットタスクで独立した同一に分布している(I.I.D)仮定に違反することに苦しんでいます。
インタラクティブな模倣学習(IIL)は、エージェントが人間の教師からのインタラクティブなフィードバックから学習できるようにすることにより、パフォーマンスの向上を実現します。
これらの改善にもかかわらず、両方のアプローチには、人間の関与が必要であるため、かなりのコストがかかります。
人間のような応答の推論と生成において、大規模な言語モデル(LLMS)の緊急能力を活用して、LLM-Iteachを紹介します。これは、人事への依存を緩和しながらエージェントのパフォーマンスを強化するためのインタラクティブな教師としてLLMを利用する新しいIILフレームワークです。
第一に、LLM-Iteachは、Pythonコードでポリシーを生成する際にLLMを導く階層的なプロンプト戦略を使用します。
次に、設計された類似性ベースのフィードバックメカニズムにより、LLM-Iteachは、エージェントのトレーニング中に是正および評価フィードバックをインタラクティブに提供します。
さまざまなロボット操作タスクで、人間の教師を使用した最先端のIILメソッドであるILメソッドであるBehavior Cloning(BC)、Ceilingなどのベースラインメソッドに対してLLM-Iteachを評価します。
私たちの結果は、LLM-Iteachが成功率でBCを上回り、天井のそれを達成または上回ることを示しており、LLMの可能性をインタラクティブな学習環境で費用対効果の高い人間のような教師として強調しています。
さらに、追加のタスクで評価することにより、メソッドの一般化の可能性を実証します。
コードとプロンプトは、https://github.com/tubicor/llm-iteachで提供されます。

要約(オリジナル)

Recent advancements in machine learning provide methods to train autonomous agents capable of handling the increasing complexity of sequential decision-making in robotics. Imitation Learning (IL) is a prominent approach, where agents learn to control robots based on human demonstrations. However, IL commonly suffers from violating the independent and identically distributed (i.i.d) assumption in robotic tasks. Interactive Imitation Learning (IIL) achieves improved performance by allowing agents to learn from interactive feedback from human teachers. Despite these improvements, both approaches come with significant costs due to the necessity of human involvement. Leveraging the emergent capabilities of Large Language Models (LLMs) in reasoning and generating human-like responses, we introduce LLM-iTeach — a novel IIL framework that utilizes an LLM as an interactive teacher to enhance agent performance while alleviating the dependence on human resources. Firstly, LLM-iTeach uses a hierarchical prompting strategy that guides the LLM in generating a policy in Python code. Then, with a designed similarity-based feedback mechanism, LLM-iTeach provides corrective and evaluative feedback interactively during the agent’s training. We evaluate LLM-iTeach against baseline methods such as Behavior Cloning (BC), an IL method, and CEILing, a state-of-the-art IIL method using a human teacher, on various robotic manipulation tasks. Our results demonstrate that LLM-iTeach surpasses BC in the success rate and achieves or even outscores that of CEILing, highlighting the potential of LLMs as cost-effective, human-like teachers in interactive learning environments. We further demonstrate the method’s potential for generalization by evaluating it on additional tasks. The code and prompts are provided at: https://github.com/Tubicor/LLM-iTeach.

arxiv情報

著者 Jonas Werner,Kun Chu,Cornelius Weber,Stefan Wermter
発行日 2025-04-30 16:14:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | LLM-based Interactive Imitation Learning for Robotic Manipulation はコメントを受け付けていません

An Underwater, Fault-Tolerant, Laser-Aided Robotic Multi-Modal Dense SLAM System for Continuous Underwater In-Situ Observation

要約

既存の水中スラムシステムは、テクスチャスパーであり、幾何学的に劣化した水中環境で効果的に作業することが困難であり、断続的な追跡とまばらなマッピングをもたらします。
したがって、3つの重要なイノベーションを通じて、多様な複雑な水中シナリオで連続的に耐性のない密集したスラムを実現できる新しいレーザー支援マルチセンサー融合システムであるWater-Dslamを提示します。
高精度3D認識。
第二に、次の断層耐性トリプルサブシステムアーキテクチャを提案します:1)DP-INS(DVLおよび圧力慣性ナビゲーションシステム):慣性測定ユニット、ドップラー速度ログ、圧力センサーベースのエラーステートカルマンフィルター(ESKF)を融合
(IESKF)UBSLとDP-Insの間の緊密な結合がUBSLの変性問題を緩和する3)水ステレオ:正確な初期化と追跡のためのDP-Insとステレオカメラの融合。
第三に、異種センサーデータを動的に融合するマルチモーダルファクターグラフバックエンドを導入します。
提案されているマルチセンサーファクターグラフメンテナンス戦略は、非同期センサーの頻度と部分的なデータ損失によって引き起こされる問題に効率的に対処します。
実験結果は、水湿性が優れた堅牢性を達成することを示しています(部分センサードロップアウト中に0.039 mの軌道RMSEおよび100 \%連続性比)および密なマッピング(既存の方法よりも約10倍の密度のある750 m^3水量で6922.4ポイント/m^3)。
当社のプロジェクトは、https://water-scanner.github.io/で入手できます。

要約(オリジナル)

Existing underwater SLAM systems are difficult to work effectively in texture-sparse and geometrically degraded underwater environments, resulting in intermittent tracking and sparse mapping. Therefore, we present Water-DSLAM, a novel laser-aided multi-sensor fusion system that can achieve uninterrupted, fault-tolerant dense SLAM capable of continuous in-situ observation in diverse complex underwater scenarios through three key innovations: Firstly, we develop Water-Scanner, a multi-sensor fusion robotic platform featuring a self-designed Underwater Binocular Structured Light (UBSL) module that enables high-precision 3D perception. Secondly, we propose a fault-tolerant triple-subsystem architecture combining: 1) DP-INS (DVL- and Pressure-aided Inertial Navigation System): fusing inertial measurement unit, doppler velocity log, and pressure sensor based Error-State Kalman Filter (ESKF) to provide high-frequency absolute odometry 2) Water-UBSL: a novel Iterated ESKF (IESKF)-based tight coupling between UBSL and DP-INS to mitigate UBSL’s degeneration issues 3) Water-Stereo: a fusion of DP-INS and stereo camera for accurate initialization and tracking. Thirdly, we introduce a multi-modal factor graph back-end that dynamically fuses heterogeneous sensor data. The proposed multi-sensor factor graph maintenance strategy efficiently addresses issues caused by asynchronous sensor frequencies and partial data loss. Experimental results demonstrate Water-DSLAM achieves superior robustness (0.039 m trajectory RMSE and 100\% continuity ratio during partial sensor dropout) and dense mapping (6922.4 points/m^3 in 750 m^3 water volume, approximately 10 times denser than existing methods) in various challenging environments, including pools, dark underwater scenes, 16-meter-deep sinkholes, and field rivers. Our project is available at https://water-scanner.github.io/.

arxiv情報

著者 Yaming Ou,Junfeng Fan,Chao Zhou,Pengju Zhang,Zongyuan Shen,Yichen Fu,Xiaoyan Liu,Zengguang Hou
発行日 2025-04-30 17:30:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | An Underwater, Fault-Tolerant, Laser-Aided Robotic Multi-Modal Dense SLAM System for Continuous Underwater In-Situ Observation はコメントを受け付けていません