Fast Online Adaptive Neural MPC via Meta-Learning

要約

データ駆動型モデル予測制御(MPC)は、モデルの不確実性の存在下でロボット制御性能を改善する重要な可能性を実証しています。
ただし、既存のアプローチでは、広範なオフラインデータ収集と計算集中トレーニングが必要であることが多く、オンラインで適応する能力が制限されます。
これらの課題に対処するために、このペーパーでは、モデルに依存しないメタラーニング(MAML)と統合されたニューラルネットワークを活用する高速オンライン適応MPCフレームワークを紹介します。
私たちのアプローチは、最小限のオンラインデータとグラデーションステップを使用して、公称システムの動作と真のシステム動作の矛盾を捉える残留ダイナミクスの少数のショット適応に焦点を当てています。
これらのメタ学習された残差モデルを計算効率の良いL4CasadiベースのMPCパイプラインに埋め込むことにより、提案された方法により、迅速なモデル補正が可能になり、予測精度が向上し、リアルタイムの制御パフォーマンスが向上します。
ファンデルポールオシレーター、カートポールシステム、および2D四角体に関するシミュレーション研究を通じてフレームワークを検証します。
結果は、新たに初期化されたニューラルネットワークで拡張された、名目MPCと公称MPCの両方にわたって適応速度と予測精度が大幅に向上し、リアルタイム適応ロボット制御のアプローチの有効性を強調しています。

要約(オリジナル)

Data-driven model predictive control (MPC) has demonstrated significant potential for improving robot control performance in the presence of model uncertainties. However, existing approaches often require extensive offline data collection and computationally intensive training, limiting their ability to adapt online. To address these challenges, this paper presents a fast online adaptive MPC framework that leverages neural networks integrated with Model-Agnostic Meta-Learning (MAML). Our approach focuses on few-shot adaptation of residual dynamics – capturing the discrepancy between nominal and true system behavior – using minimal online data and gradient steps. By embedding these meta-learned residual models into a computationally efficient L4CasADi-based MPC pipeline, the proposed method enables rapid model correction, enhances predictive accuracy, and improves real-time control performance. We validate the framework through simulation studies on a Van der Pol oscillator, a Cart-Pole system, and a 2D quadrotor. Results show significant gains in adaptation speed and prediction accuracy over both nominal MPC and nominal MPC augmented with a freshly initialized neural network, underscoring the effectiveness of our approach for real-time adaptive robot control.

arxiv情報

著者 Yu Mei,Xinyu Zhou,Shuyang Yu,Vaibhav Srivastava,Xiaobo Tan
発行日 2025-04-23 02:42:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Fast Online Adaptive Neural MPC via Meta-Learning はコメントを受け付けていません

DPGP: A Hybrid 2D-3D Dual Path Potential Ghost Probe Zone Prediction Framework for Safe Autonomous Driving

要約

現代のロボットは、密集した都市環境で人間と共存しなければなりません。
重要な課題はゴーストプローブの問題です。そこでは、歩行者やオブジェクトが予期せずトラフィックパスに突入します。
この問題は、自動運転車と人間のドライバーの両方に影響します。
既存の作品は、ゴーストプローブゾーン検出のための車両からすべてのもの(V2X)戦略と非表示(NLOS)イメージングを提案しています。
ただし、ほとんどの場合、高い計算能力または特殊なハードウェアが必要であり、実際の実現可能性が制限されています。
さらに、多くの方法では、この問題に明示的に対処していません。
これに取り組むために、トレーニングと推論中に単眼カメラのみを使用して、ゴーストプローブゾーン予測のハイブリッド2D-3D融合フレームワークであるDPGPを提案します。
監視されていない深さの予測により、ゴーストプローブゾーンが深さの不連続性に合わせて観察しますが、深さ表現が異なるとさまざまな堅牢性があります。
これを活用するために、複数の特徴の埋め込みを融合して予測を改善します。
アプローチを検証するために、ゴーストプローブゾーンが注釈が付けられた12Kイメージデータセットを作成し、正確に慎重に調達し、クロスチェックしました。
実験結果は、私たちのフレームワークが既存の方法を上回っている間、費用対効果の高いままであることを示しています。
私たちの知る限り、これは車両を超えてゴーストプローブゾーンの予測を拡張する最初の作業であり、多様な非車両オブジェクトに対処します。
コミュニティの利益のために、コードとデータセットをオープンソーシングします。

要約(オリジナル)

Modern robots must coexist with humans in dense urban environments. A key challenge is the ghost probe problem, where pedestrians or objects unexpectedly rush into traffic paths. This issue affects both autonomous vehicles and human drivers. Existing works propose vehicle-to-everything (V2X) strategies and non-line-of-sight (NLOS) imaging for ghost probe zone detection. However, most require high computational power or specialized hardware, limiting real-world feasibility. Additionally, many methods do not explicitly address this issue. To tackle this, we propose DPGP, a hybrid 2D-3D fusion framework for ghost probe zone prediction using only a monocular camera during training and inference. With unsupervised depth prediction, we observe ghost probe zones align with depth discontinuities, but different depth representations offer varying robustness. To exploit this, we fuse multiple feature embeddings to improve prediction. To validate our approach, we created a 12K-image dataset annotated with ghost probe zones, carefully sourced and cross-checked for accuracy. Experimental results show our framework outperforms existing methods while remaining cost-effective. To our knowledge, this is the first work extending ghost probe zone prediction beyond vehicles, addressing diverse non-vehicle objects. We will open-source our code and dataset for community benefit.

arxiv情報

著者 Weiming Qu,Jiawei Du,Shenghai Yuan,Jia Wang,Yang Sun,Shengyi Liu,Yuanhao Zhu,Jianfeng Yu,Song Cao,Rui Xia,Xiaoyu Tang,Xihong Wu,Dingsheng Luo
発行日 2025-04-23 02:50:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | DPGP: A Hybrid 2D-3D Dual Path Potential Ghost Probe Zone Prediction Framework for Safe Autonomous Driving はコメントを受け付けていません

SILM: A Subjective Intent Based Low-Latency Framework for Multiple Traffic Participants Joint Trajectory Prediction

要約

軌道予測は、高度な自律駆動システムの基本的な技術であり、認知知能の分野で最も困難な問題の1つを表しています。
各交通参加者の将来の軌跡を正確に予測することは、自律運転における高安全性と高い信頼性の意思決定、計画、および制御能力を構築するための前提条件です。
ただし、既存の方法は、その動きの背後にある根本的な意図を考慮せずに、他の交通参加者の動きのみにのみ焦点を当てていることが多く、軌跡予測の不確実性が高まります。
自律車両はリアルタイム環境で動作します。つまり、軌道予測アルゴリズムはデータを処理し、リアルタイムで予測を生成できる必要があります。
多くの既存の方法は高い精度を達成しますが、不均一なトラフィックシナリオを効果的に処理するのに苦労することがよくあります。
この論文では、複数のトラフィック参加者の共同軌道予測のための主観的な意図に基づく低遅延フレームワークを提案します。
私たちの方法は、重要なポイントに基づいて交通参加者の主観的な意図を明示的に組み込み、MAPなしで将来の軌跡を共同で予測します。
さらに、軌道予測のために特別に設計された新しいデータセットを紹介します。
関連するコードとデータセットはまもなく利用可能になります。

要約(オリジナル)

Trajectory prediction is a fundamental technology for advanced autonomous driving systems and represents one of the most challenging problems in the field of cognitive intelligence. Accurately predicting the future trajectories of each traffic participant is a prerequisite for building high safety and high reliability decision-making, planning, and control capabilities in autonomous driving. However, existing methods often focus solely on the motion of other traffic participants without considering the underlying intent behind that motion, which increases the uncertainty in trajectory prediction. Autonomous vehicles operate in real-time environments, meaning that trajectory prediction algorithms must be able to process data and generate predictions in real-time. While many existing methods achieve high accuracy, they often struggle to effectively handle heterogeneous traffic scenarios. In this paper, we propose a Subjective Intent-based Low-latency framework for Multiple traffic participants joint trajectory prediction. Our method explicitly incorporates the subjective intent of traffic participants based on their key points, and predicts the future trajectories jointly without map, which ensures promising performance while significantly reducing the prediction latency. Additionally, we introduce a novel dataset designed specifically for trajectory prediction. Related code and dataset will be available soon.

arxiv情報

著者 Qu Weiming,Wang Jia,Du Jiawei,Zhu Yuanhao,Yu Jianfeng,Xia Rui,Cao Song,Wu Xihong,Luo Dingsheng
発行日 2025-04-23 02:56:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SILM: A Subjective Intent Based Low-Latency Framework for Multiple Traffic Participants Joint Trajectory Prediction はコメントを受け付けていません

SLAM-Based Navigation and Fault Resilience in a Surveillance Quadcopter with Embedded Vision Systems

要約

GPSに依存しないナビゲーション用の視覚的スラム、動的安定性のための高度な制御アーキテクチャ、リアルタイムオブジェクトおよび顔認識用の埋め込みビジョンモジュールを統合する障害耐性クアッドコプターシステムとして設計された自律航空監視プラットフォームである野菜を紹介します。
このプラットフォームには、LQRインナーループとPDの外側ループ軌道コントロールを備えたカスケードコントロール設計があります。
6-dofのローカリゼーションとループ閉鎖のためにorb-slam3を活用し、スラム由来マップを介したダイクストラパス計画を介したウェイポイントベースのナビゲーションをサポートします。
リアルタイムの障害検出および識別(FDI)システムは、ローター障害を検出し、再ルーティングを通じて緊急着陸を実行します。
軽量のCNNとPCAに基づいた組み込みビジョンシステムにより、オンボードオブジェクトの検出と顔認識が高精度で認識されます。
ドローンは、シミュレーションと実際のテストを通じて検証されたRaspberry Pi 4とArduino Nanoを使用して完全に搭載されています。
この作業は、制約された環境に適した単一のプラットフォームに、リアルタイムのローカリゼーション、障害回復、および組み込みAIを統合します。

要約(オリジナル)

We present an autonomous aerial surveillance platform, Veg, designed as a fault-tolerant quadcopter system that integrates visual SLAM for GPS-independent navigation, advanced control architecture for dynamic stability, and embedded vision modules for real-time object and face recognition. The platform features a cascaded control design with an LQR inner-loop and PD outer-loop trajectory control. It leverages ORB-SLAM3 for 6-DoF localization and loop closure, and supports waypoint-based navigation through Dijkstra path planning over SLAM-derived maps. A real-time Failure Detection and Identification (FDI) system detects rotor faults and executes emergency landing through re-routing. The embedded vision system, based on a lightweight CNN and PCA, enables onboard object detection and face recognition with high precision. The drone operates fully onboard using a Raspberry Pi 4 and Arduino Nano, validated through simulations and real-world testing. This work consolidates real-time localization, fault recovery, and embedded AI on a single platform suitable for constrained environments.

arxiv情報

著者 Abhishek Tyagi,Charu Gaur
発行日 2025-04-23 03:17:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T40, 68U10, 70Q05, cs.CV, cs.RO, cs.SY, eess.SY, I.2.10 | SLAM-Based Navigation and Fault Resilience in a Surveillance Quadcopter with Embedded Vision Systems はコメントを受け付けていません

Fast and Modular Whole-Body Lagrangian Dynamics of Legged Robots with Changing Morphology

要約

特に機械的損傷によって引き起こされる重要な形態学的変化の下では、マルチ脚のロボット(MLR)の高速およびモジュラーモデリングは、回復力のある制御に不可欠です。
多くの場合、公称歩行の単純化された仮定で開発された従来の固定構造モデルは、そのようなシナリオに適応する柔軟性がありません。
これに対処するために、ボルツマンハメル方程式とネジ理論を使用して、高速モジュールの全身モデリングフレームワークを提案します。この理論では、各レッグのダイナミクスが独立してモデル化され、現在のロボットの形態に基づいて組み立てられます。
この特異性のない閉じた形式の定式化により、モデルベースのコントローラーの効率的な設計とダメージ識別アルゴリズムが可能になります。
そのモジュール性により、ニューラルネットワークの手動の再現または再訓練なしに、さまざまな損傷構成への自律的な適応が可能になります。
コンタクトダイナミクス、ゲートジェネレーター、ローカルレッグコントロールを統合するカスタムシミュレーションエンジンを使用して、提案されたフレームワークを検証します。
複数の脚の損傷を伴う六肢ロボットのハードウェアテストとの比較シミュレーションモデルの精度と適応性が確認されます。
さらに、ランタイム分析により、提案されたモデルはリアルタイムの約3倍高速であるため、損傷の識別と回復のリアルタイムアプリケーションに適しています。

要約(オリジナル)

Fast and modular modeling of multi-legged robots (MLRs) is essential for resilient control, particularly under significant morphological changes caused by mechanical damage. Conventional fixed-structure models, often developed with simplifying assumptions for nominal gaits, lack the flexibility to adapt to such scenarios. To address this, we propose a fast modular whole-body modeling framework using Boltzmann-Hamel equations and screw theory, in which each leg’s dynamics is modeled independently and assembled based on the current robot morphology. This singularity-free, closed-form formulation enables efficient design of model-based controllers and damage identification algorithms. Its modularity allows autonomous adaptation to various damage configurations without manual re-derivation or retraining of neural networks. We validate the proposed framework using a custom simulation engine that integrates contact dynamics, a gait generator, and local leg control. Comparative simulations against hardware tests on a hexapod robot with multiple leg damage confirm the model’s accuracy and adaptability. Additionally, runtime analyses reveal that the proposed model is approximately three times faster than real-time, making it suitable for real-time applications in damage identification and recovery.

arxiv情報

著者 Sahand Farghdani,Omar Abdelrahman,Robin Chhabra
発行日 2025-04-23 03:24:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, nlin.AO | Fast and Modular Whole-Body Lagrangian Dynamics of Legged Robots with Changing Morphology はコメントを受け付けていません

Embodied Self-Supervised Learning (EMSSL) with Sampling and Training Coordination for Robot Arm Inverse Kinematics Model Learning

要約

前方および逆運動モデルは、ロボットアームの基本であり、ロボットアームの運用タスクの基礎として機能します。
ただし、ロボットアームのモデル学習では、特に冗長な自由度が存在する場合、逆モデル学習は、複数のソリューションによって引き起こされる非凸の問題のため、逆モデル学習よりも困難です。
この論文では、サンプリングとトレーニングの調整を伴う具体化された自己監視学習(EMSSL)に基づいて、ロボットアーム逆モデルの自律学習のためのフレームワークを提案します。
モデル学習を加速し、ロボットアームモデルの迅速な適応のための2つのアプローチを提案するために、データサンプリングのバッチ推論と並列計算戦略を調査します。
一連の実験は、提案した方法の有効性を示しています。
関連コードはまもなく利用可能になります。

要約(オリジナル)

Forward and inverse kinematics models are fundamental to robot arms, serving as the basis for the robot arm’s operational tasks. However, in model learning of robot arms, especially in the presence of redundant degrees of freedom, inverse model learning is more challenging than forward model learning due to the non-convex problem caused by multiple solutions. In this paper, we propose a framework for autonomous learning of the robot arm inverse model based on embodied self-supervised learning (EMSSL) with sampling and training coordination. We investigate batch inference and parallel computation strategies for data sampling in order to accelerate model learning and propose two approaches for fast adaptation of the robot arm model. A series of experiments demonstrate the effectiveness of the method we proposed. The related code will be available soon.

arxiv情報

著者 Qu Weiming,Liu Tianlin,Wu Xihong,Luo Dingsheng
発行日 2025-04-23 03:26:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Embodied Self-Supervised Learning (EMSSL) with Sampling and Training Coordination for Robot Arm Inverse Kinematics Model Learning はコメントを受け付けていません

CEMSSL: Conditional Embodied Self-Supervised Learning is All You Need for High-precision Multi-solution Inverse Kinematics of Robot Arms

要約

ロボット工学の信号処理の分野では、ロボットアームの逆運動学は、冗長な自由度(DOFS)によって引き起こされる複数のソリューションのために重要な課題を提示します。
精度は、ロボットアームの重要なパフォーマンスインジケーターでもあります。
現在の方法は通常、条件付きディープ生成モデル(CDGM)に依存していますが、これはしばしば正確に不足しています。
このホワイトペーパーでは、条件付き具体化された自己監視学習(CEMSSL)を提案し、高精度の多溶液逆運動学習のためのCEMSSLに基づく統一フレームワークを導入します。
このフレームワークは、元のプロパティを維持しながら、既存のCDGMの精度を最大2〜3桁強化します。
さらに、私たちの方法は、事前にマルチソリューションデータを取得することが困難である他の信号処理のフィールドに拡張可能であり、マルチソリューションの逆プロセスを含む他の問題にも困難です。

要約(オリジナル)

In the field of signal processing for robotics, the inverse kinematics of robot arms presents a significant challenge due to multiple solutions caused by redundant degrees of freedom (DOFs). Precision is also a crucial performance indicator for robot arms. Current methods typically rely on conditional deep generative models (CDGMs), which often fall short in precision. In this paper, we propose Conditional Embodied Self-Supervised Learning (CEMSSL) and introduce a unified framework based on CEMSSL for high-precision multi-solution inverse kinematics learning. This framework enhances the precision of existing CDGMs by up to 2-3 orders of magnitude while maintaining their original properties. Furthermore, our method is extendable to other fields of signal processing where obtaining multi-solution data in advance is challenging, as well as to other problems involving multi-solution inverse processes.

arxiv情報

著者 Qu Weiming,Liu Tianlin,Du Jiawei,Luo Dingsheng
発行日 2025-04-23 03:33:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | CEMSSL: Conditional Embodied Self-Supervised Learning is All You Need for High-precision Multi-solution Inverse Kinematics of Robot Arms はコメントを受け付けていません

Long Exposure Localization in Darkness Using Consumer Cameras

要約

このペーパーでは、低コストのカメラを使用して非常に暗い環境でのパッシブビジョンベースのローカリゼーションのためのSEQSLAMアルゴリズムのパフォーマンスを評価します。
露出時間からの動きのある車から最大10,000ミリ秒までのモーションブラーの影響と、2つの異なる環境で夜に学んだルートからの昼間のローカリゼーションのパフォーマンスを評価します。
最後に、未処理のグレースケール画像を一致させることのベースラインパフォーマンスを、パッチの正規化とローカル近隣の正規化(2つの重要なSeqslamコンポーネント)の使用と比較する統計分析を実行します。
私たちの結果と分析は、Seqslamアルゴリズムが効果的である理由を初めて示し、極端な外観が変化したにもかかわらず機能する安価なカメラベースのローカリゼーションシステムの可能性を示しています。

要約(オリジナル)

In this paper we evaluate performance of the SeqSLAM algorithm for passive vision-based localization in very dark environments with low-cost cameras that result in massively blurred images. We evaluate the effect of motion blur from exposure times up to 10,000 ms from a moving car, and the performance of localization in day time from routes learned at night in two different environments. Finally we perform a statistical analysis that compares the baseline performance of matching unprocessed grayscale images to using patch normalization and local neighborhood normalization – the two key SeqSLAM components. Our results and analysis show for the first time why the SeqSLAM algorithm is effective, and demonstrate the potential for cheap camera-based localization systems that function despite extreme appearance change.

arxiv情報

著者 Michael Milford,Ian Turner,Peter Corke
発行日 2025-04-23 04:18:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Long Exposure Localization in Darkness Using Consumer Cameras はコメントを受け付けていません

GFreeDet: Exploiting Gaussian Splatting and Foundation Models for Model-free Unseen Object Detection in the BOP Challenge 2024

要約

GFREEDETは、モデルのない設定でガウスのスプラッティングとビジョンファンデーションモデルを活用する目に見えないオブジェクト検出アプローチを提示します。
事前に定義されたCADテンプレートに依存する既存のメソッドとは異なり、GFREEDETはGaussian Splattingを使用してリファレンスビデオから直接オブジェクトを再構築し、以前の3Dモデルなしで新しいオブジェクトの堅牢な検出を可能にします。
BOP-H3ベンチマークで評価されたGFREEDETは、CADベースの方法に匹敵するパフォーマンスを達成し、複合現実(MR)アプリケーションのモデルフリー検出の実行可能性を実証します。
特に、GFREEDETは、BOP Challenge 2024のモデルフリー2D検出トラックで、最高の全体的な方法と最高のFast Method Awardsを獲得しました。

要約(オリジナル)

We present GFreeDet, an unseen object detection approach that leverages Gaussian splatting and vision Foundation models under model-free setting. Unlike existing methods that rely on predefined CAD templates, GFreeDet reconstructs objects directly from reference videos using Gaussian splatting, enabling robust detection of novel objects without prior 3D models. Evaluated on the BOP-H3 benchmark, GFreeDet achieves comparable performance to CAD-based methods, demonstrating the viability of model-free detection for mixed reality (MR) applications. Notably, GFreeDet won the best overall method and the best fast method awards in the model-free 2D detection track at BOP Challenge 2024.

arxiv情報

著者 Xingyu Liu,Gu Wang,Chengxi Li,Yingyue Li,Chenyangguang Zhang,Ziqin Huang,Xiangyang Ji
発行日 2025-04-23 05:48:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | GFreeDet: Exploiting Gaussian Splatting and Foundation Models for Model-free Unseen Object Detection in the BOP Challenge 2024 はコメントを受け付けていません

Consistency Matters: Defining Demonstration Data Quality Metrics in Robot Learning from Demonstration

要約

デモンストレーション(LFD)から学ぶことで、ロボットは人間のデモンストレーションを通じて新しいスキルを獲得することができ、日常のユーザーがロボットを教えることができます。
ただし、学習と一般化の成功は、これらのデモンストレーションの質に大きく依存しています。
一貫性は、LFDの品質を示すためにしばしば使用されますが、この一貫性を定義する要因は露出不足のままです。
この論文では、包括的なモーションデータ特性のセットを評価して、どの一貫性が学習パフォーマンスを最適に予測するかを決定します。
トレーニング前にデモンストレーションの一貫性を確保することにより、モデルの予測精度と新しいシナリオへの一般化を強化します。
ロボット工学の専門知識の多様なレベルを持つ参加者を含む2つのユーザー研究でアプローチを検証します。
最初の調査(n = 24)では、ユーザーは制約された環境でボタンプレスタスクを実行するようにPR2ロボットを教えましたが、2番目の調査(n = 30)では、参加者はピックアンドプレイスタスクでUR5ロボットを訓練しました。
結果は、デモンストレーションの一貫性が学習と一般化の両方で成功率に大きく影響し、一貫性メトリックを使用して予測された2つの研究でタスクの成功率の70%と89%が重要であることを示しています。
さらに、私たちのメトリックは、76%と91%の精度で一般化されたパフォーマンスの成功率を推定しています。
これらの調査結果は、提案された措置が、専門家のデータやアルゴリズム固有の変更を必要とせずに、トレーニング前にデモデータの品質を評価する直感的で実用的な方法を提供することを示唆しています。
私たちのアプローチは、デモンストレーションの品質を評価する体系的な方法を提供し、人間のデモンストレーションからのロボット学習の信頼性を高める一貫性メトリックを形式化することにより、LFDの重大なギャップに対処します。

要約(オリジナル)

Learning from Demonstration (LfD) empowers robots to acquire new skills through human demonstrations, making it feasible for everyday users to teach robots. However, the success of learning and generalization heavily depends on the quality of these demonstrations. Consistency is often used to indicate quality in LfD, yet the factors that define this consistency remain underexplored. In this paper, we evaluate a comprehensive set of motion data characteristics to determine which consistency measures best predict learning performance. By ensuring demonstration consistency prior to training, we enhance models’ predictive accuracy and generalization to novel scenarios. We validate our approach with two user studies involving participants with diverse levels of robotics expertise. In the first study (N = 24), users taught a PR2 robot to perform a button-pressing task in a constrained environment, while in the second study (N = 30), participants trained a UR5 robot on a pick-and-place task. Results show that demonstration consistency significantly impacts success rates in both learning and generalization, with 70% and 89% of task success rates in the two studies predicted using our consistency metrics. Moreover, our metrics estimate generalized performance success rates with 76% and 91% accuracy. These findings suggest that our proposed measures provide an intuitive, practical way to assess demonstration data quality before training, without requiring expert data or algorithm-specific modifications. Our approach offers a systematic way to evaluate demonstration quality, addressing a critical gap in LfD by formalizing consistency metrics that enhance the reliability of robot learning from human demonstrations.

arxiv情報

著者 Maram Sakr,H. F. Machiel Van der Loos,Dana Kulic,Elizabeth Croft
発行日 2025-04-23 06:45:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | Consistency Matters: Defining Demonstration Data Quality Metrics in Robot Learning from Demonstration はコメントを受け付けていません