Heuristic Search for Path Finding with Refuelling

要約

この論文では、ガソリンスタンドの問題(GSP)と呼ばれる燃料補給の制約に関するパス発見(PF)問題の一般化を考慮します。
PFと同様に、頂点が既知の燃料価格のガスステーションであり、エッジコストが2つの頂点間のガス消費であるグラフを考えると、GSPは、限られたガスを備えたロボットの目標頂点までの最小コストパスを求めています
タンクと限られた数の給油停止。
GSPは多項式時間溶媒和ですが、実際に最適なソリューションを迅速に計算することは依然として課題です。これは、パス、停留所をどこで行うか、および各停留所で燃料補給額を同時に決定する必要があるためです。
このホワイトペーパーでは、計画中に剪定の支配ルールを活用しながら、ヒューリスティックによって導かれたゴールまでの部分的なソリューションパスを繰り返し構築する、燃料補給a $^*$(rf-a $^*$)と呼ばれるヒューリスティック検索アルゴリズムを開発します。
RF-a $^*$は、最適なソリューションを見つけるために保証されており、多くの場合、数百のガソリンスタンドを備えた大都市マップの既存のアプローチよりも2〜8倍速く実行されます。

要約(オリジナル)

This paper considers a generalization of the Path Finding (PF) problem with refuelling constraints referred to as the Gas Station Problem (GSP). Similar to PF, given a graph where vertices are gas stations with known fuel prices, and edge costs are the gas consumption between the two vertices, GSP seeks a minimum-cost path from the start to the goal vertex for a robot with a limited gas tank and a limited number of refuelling stops. While GSP is polynomial-time solvable, it remains a challenge to quickly compute an optimal solution in practice since it requires simultaneously determine the path, where to make the stops, and the amount to refuel at each stop. This paper develops a heuristic search algorithm called Refuel A$^*$ (RF-A$^*$) that iteratively constructs partial solution paths from the start to the goal guided by a heuristic while leveraging dominance rules for pruning during planning. RF-A$^*$ is guaranteed to find an optimal solution and often runs 2 to 8 times faster than the existing approaches in large city maps with several hundreds of gas stations.

arxiv情報

著者 Shizhe Zhao,Anushtup Nandy,Howie Choset,Sivakumar Rathinam,Zhongqiang Ren
発行日 2025-02-24 06:31:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T40, cs.AI, cs.RO | Heuristic Search for Path Finding with Refuelling はコメントを受け付けていません

Primitive-Swarm: An Ultra-lightweight and Scalable Planner for Large-scale Aerial Swarms

要約

大規模な空中群れを達成することは、計算効率とスケーラビリティのバランスをとることに固有の矛盾のために挑戦的です。
このペーパーでは、大規模な自律航空の群れに特化した、超軽量でスケーラブルなプランナーであるPrimitive-Swarmを紹介します。
提案されているアプローチは、分散型で非同期の再生戦略を採用しています。
その中には、時間最適で動的に実行可能な軌跡で構成される新しいモーションプリミティブライブラリがあります。
それらは、到達可能性分析(TOPP-RA)に基づいて、新しい時間最適パラメーター化アルゴリズムを使用して生成されます。
次に、競合に応じて、モーションプリミティブを離散的な周囲空間に関連付けることにより、急速な衝突チェックメカニズムが開発されます。
空間的競合と時間的競合の両方を考慮することにより、メカニズムはロボットとロボットの衝突を同時に処理します。
次に、再生プロセス中に、各ロボットは、ユーザー定義の要件に基づいてライブラリから安全で最小コストの軌跡を選択します。
時間最適なモーションプリミティブライブラリと占有情報の両方がオフラインで計算され、時間のかかる最適化問題を線形複雑さの選択問題に変えます。
これにより、プランナーは、多数の障害物とロボットで満たされた非凸で不連続な3Dセーフスペースを包括的に探索し、最高の隠れたパスを効果的に識別できます。
ベンチマークの比較は、密な環境で1ミリ秒未満の計算時間で、この方法が最短の飛行時間を達成し、移動距離を達成することを示しています。
最大1000のロボットを含む超大規模な群れシミュレーションは、リアルタイムで実行され、メソッドのスケーラビリティを検証します。
実際の実験は、アプローチの実現可能性と堅牢性を検証します。
コードは、コミュニティのコラボレーションを促進するためにリリースされます。

要約(オリジナル)

Achieving large-scale aerial swarms is challenging due to the inherent contradictions in balancing computational efficiency and scalability. This paper introduces Primitive-Swarm, an ultra-lightweight and scalable planner designed specifically for large-scale autonomous aerial swarms. The proposed approach adopts a decentralized and asynchronous replanning strategy. Within it is a novel motion primitive library consisting of time-optimal and dynamically feasible trajectories. They are generated utlizing a novel time-optimial path parameterization algorithm based on reachability analysis (TOPP-RA). Then, a rapid collision checking mechanism is developed by associating the motion primitives with the discrete surrounding space according to conflicts. By considering both spatial and temporal conflicts, the mechanism handles robot-obstacle and robot-robot collisions simultaneously. Then, during a replanning process, each robot selects the safe and minimum cost trajectory from the library based on user-defined requirements. Both the time-optimal motion primitive library and the occupancy information are computed offline, turning a time-consuming optimization problem into a linear-complexity selection problem. This enables the planner to comprehensively explore the non-convex, discontinuous 3-D safe space filled with numerous obstacles and robots, effectively identifying the best hidden path. Benchmark comparisons demonstrate that our method achieves the shortest flight time and traveled distance with a computation time of less than 1 ms in dense environments. Super large-scale swarm simulations, involving up to 1000 robots, running in real-time, verify the scalability of our method. Real-world experiments validate the feasibility and robustness of our approach. The code will be released to foster community collaboration.

arxiv情報

著者 Jialiang Hou,Xin Zhou,Neng Pan,Ang Li,Yuxiang Guan,Chao Xu,Zhongxue Gan,Fei Gao
発行日 2025-02-24 06:36:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Primitive-Swarm: An Ultra-lightweight and Scalable Planner for Large-scale Aerial Swarms はコメントを受け付けていません

Variations of Augmented Lagrangian for Robotic Multi-Contact Simulation

要約

多接触非線形相補性問題(NCP)は、ロボットシミュレーションで自然に発生する課題です。
特に集中的な接触と硬い相互作用を含むシナリオでは、精度と効率の両方の点で高性能を達成することは依然として重要な課題です。
この記事では、増強されたラグランジアン(AL)の理論に基づいて、新しいクラスのマルチコンタクトNCPソルバーを紹介します。
凸最適化におけるALの標準派生が、サロゲート問題ソリューションの反復とその後のプライマルデュアル変数の更新を通じて、マルチコンタクトNCPを処理するためにどのように適合させることができるかを詳しく説明します。
具体的には、ロボットシミュレーション用のALの2つの調整されたバリエーションを紹介します。カスケードされたニュートンベースの拡張ラグランジアン(運河)と、マルチリアのサブシステムベースの交互方向方式(サブADMM)です。
CanalがマルチコンタクトNCPを正確かつ堅牢な方法で管理する方法を示しますが、Subadmmは、多数の接触を持つ高度な程度のマルチボディシステムの優れた計算速度、スケーラビリティ、および並列化性を提供します。
私たちの結果は、提案されたソルバーフレームワークの有効性を示しており、さまざまなロボット操作シナリオの利点を示しています。

要約(オリジナル)

The multi-contact nonlinear complementarity problem (NCP) is a naturally arising challenge in robotic simulations. Achieving high performance in terms of both accuracy and efficiency remains a significant challenge, particularly in scenarios involving intensive contacts and stiff interactions. In this article, we introduce a new class of multi-contact NCP solvers based on the theory of the Augmented Lagrangian (AL). We detail how the standard derivation of AL in convex optimization can be adapted to handle multi-contact NCP through the iteration of surrogate problem solutions and the subsequent update of primal-dual variables. Specifically, we present two tailored variations of AL for robotic simulations: the Cascaded Newton-based Augmented Lagrangian (CANAL) and the Subsystem-based Alternating Direction Method of Multipliers (SubADMM). We demonstrate how CANAL can manage multi-contact NCP in an accurate and robust manner, while SubADMM offers superior computational speed, scalability, and parallelizability for high degrees-of-freedom multibody systems with numerous contacts. Our results showcase the effectiveness of the proposed solver framework, illustrating its advantages in various robotic manipulation scenarios.

arxiv情報

著者 Jeongmin Lee,Minji Lee,Sunkyung Park,Jinhee Yun,Dongjun Lee
発行日 2025-02-24 06:51:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Variations of Augmented Lagrangian for Robotic Multi-Contact Simulation はコメントを受け付けていません

Gazing at Failure: Investigating Human Gaze in Response to Robot Failure in Collaborative Tasks

要約

ロボットはエラーを起こす傾向があり、人間のユーザーとの共同作業中にチームメイトとしての信頼性に悪影響を与える可能性があります。
これらの障害を検出して回復することは、ユーザーから効果的なレベルの信頼を維持するために重要です。
ただし、ロボットに気付かずに失敗する可能性があります。
このような障害を検出する1つの方法は、人間の非言語的行動と障害に対する反応を分析することです。
この研究では、人間の視線のダイナミクスがロボットの障害を信号する方法を調査し、異なる種類の障害がロボットの人々の認識にどのように影響するかを調べます。
27人の参加者がロボットモバイルマニピュレーターと協力してタングラムパズルを解決するユーザー調査を実施しました。
ロボットは、障害を認めずに、または違反して、タスクの開始または終了時に発生する2種類の障害を経験するようにプログラムされました。
私たちの調査結果は、ロボットの失敗の種類とタイミングが参加者の視線の行動とロボットの認識に大きく影響することを明らかにしています。
具体的には、実行の障害により、視線シフトが増加し、ロボットへの焦点が強化されましたが、意思決定の障害により、特に障害がタスクの終了時に発生した場合、関心のある領域間の視線遷移のエントロピーが低下しました。
これらの結果は、視線がロボット障害とその種類の信頼できる指標として機能し、適切な回復アクションを予測するために使用できることを強調しています。

要約(オリジナル)

Robots are prone to making errors, which can negatively impact their credibility as teammates during collaborative tasks with human users. Detecting and recovering from these failures is crucial for maintaining effective level of trust from users. However, robots may fail without being aware of it. One way to detect such failures could be by analysing humans’ non-verbal behaviours and reactions to failures. This study investigates how human gaze dynamics can signal a robot’s failure and examines how different types of failures affect people’s perception of robot. We conducted a user study with 27 participants collaborating with a robotic mobile manipulator to solve tangram puzzles. The robot was programmed to experience two types of failures — executional and decisional — occurring either at the beginning or end of the task, with or without acknowledgement of the failure. Our findings reveal that the type and timing of the robot’s failure significantly affect participants’ gaze behaviour and perception of the robot. Specifically, executional failures led to more gaze shifts and increased focus on the robot, while decisional failures resulted in lower entropy in gaze transitions among areas of interest, particularly when the failure occurred at the end of the task. These results highlight that gaze can serve as a reliable indicator of robot failures and their types, and could also be used to predict the appropriate recovery actions.

arxiv情報

著者 Ramtin Tabatabaei,Vassilis Kostakos,Wafa Johal
発行日 2025-02-24 06:52:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | Gazing at Failure: Investigating Human Gaze in Response to Robot Failure in Collaborative Tasks はコメントを受け付けていません

PWM: Policy Learning with Multi-Task World Models

要約

Renforce Learning(RL)は、複雑なタスクで大きな進歩を遂げましたが、異なる実施形態を持つマルチタスク設定での苦労をしています。
ワールドモデルの方法は、環境のシミュレーションを学習することによりスケーラビリティを提供しますが、多くの場合、ポリシー抽出のための非効率的な勾配のない最適化方法に依存します。
対照的に、勾配ベースの方法は分散が低いことを示しますが、不連続性を処理できません。
私たちの仕事は、よく正規化された世界モデルが実際のダイナミクスよりもスムーズな最適化ランドスケープを生成し、より効果的な一次最適化を促進できることを明らかにしています。
継続的な制御のための新しいモデルベースのRLアルゴリズムであるマルチタスクワールドモデル(PWM)を使用してポリシー学習を紹介します。
当初、世界モデルはオフラインデータで事前に訓練されており、その後、タスクごとに10分以内に1次最適化を使用してポリシーが抽出されます。
PWMは、最大152のアクションディメンションを備えたタスクを効果的に解決し、グラウンドトゥラースダイナミクスを使用するメソッドを上回ります。
さらに、PWMは80タスクの設定にスケールし、コストのかかるオンライン計画に依存せずに既存のベースラインよりも最大27%高い報酬を達成します。
視覚化とコードはhttps://www.imgeorgiev.com/pwm/で入手できます。

要約(オリジナル)

Reinforcement Learning (RL) has made significant strides in complex tasks but struggles in multi-task settings with different embodiments. World model methods offer scalability by learning a simulation of the environment but often rely on inefficient gradient-free optimization methods for policy extraction. In contrast, gradient-based methods exhibit lower variance but fail to handle discontinuities. Our work reveals that well-regularized world models can generate smoother optimization landscapes than the actual dynamics, facilitating more effective first-order optimization. We introduce Policy learning with multi-task World Models (PWM), a novel model-based RL algorithm for continuous control. Initially, the world model is pre-trained on offline data, and then policies are extracted from it using first-order optimization in less than 10 minutes per task. PWM effectively solves tasks with up to 152 action dimensions and outperforms methods that use ground-truth dynamics. Additionally, PWM scales to an 80-task setting, achieving up to 27% higher rewards than existing baselines without relying on costly online planning. Visualizations and code are available at https://www.imgeorgiev.com/pwm/.

arxiv情報

著者 Ignat Georgiev,Varun Giridhar,Nicklas Hansen,Animesh Garg
発行日 2025-02-24 06:56:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | PWM: Policy Learning with Multi-Task World Models はコメントを受け付けていません

Design of a low-cost and lightweight 6 DoF bimanual arm for dynamic and contact-rich manipulation

要約

ハードウェアの制限のため、ロボットシステムにとって、ストライキ、スナッチ、ハンマーリングなどの動的および接触豊富なオブジェクトの操作は依然として困難です。
ほとんどの既存のロボットは、高挿入設計、限られたコンプライアンス、および高価なトルクセンサーへの依存によって制約されています。
これに対処するために、ダイナミック操作研究のために設計された6度のフリードームの双近のロボットであるArmada(操作と動的アクションのための手頃なロボット)を紹介します。
Armadaは、研究室での組み立てを容易にするために、容易に利用可能なコンポーネントと3Dプリントされたリンクを使用して、低腸の低下性アクチュエーターを軽量設計と組み合わせています。
両方のアームを含むシステム全体は、わずか6,100ドルで構築されています。
各アームは、最大6.16m/sの速度を達成し、ほとんどの共同ロボットのほぼ2倍で、2.5kgの同等のペイロードがあります。
Armadaは、実世界の環境でのひったくり、ハンマー、および双方向の投げなどの動的操作を実行できることを示しています。
また、シミュレーションにおける非充実した操作ポリシーをトレーニングし、現実世界にゼロショットを転送することと、動的な両マニュアルオブジェクトスロー用の人間の動きのシャドウイングを導入することにより、その強化学習(RL)におけるその有効性を紹介します。
Armadaには、詳細なアセンブリの指示、CADモデル、URDF、シミュレーション、および学習コードが完全にオープンソーリングされています。
https://sites.google.com/view/im2-humanoid-armで補足ビデオを見ることを強くお勧めします。

要約(オリジナル)

Dynamic and contact-rich object manipulation, such as striking, snatching, or hammering, remains challenging for robotic systems due to hardware limitations. Most existing robots are constrained by high-inertia design, limited compliance, and reliance on expensive torque sensors. To address this, we introduce ARMADA (Affordable Robot for Manipulation and Dynamic Actions), a 6 degrees-of-freedom bimanual robot designed for dynamic manipulation research. ARMADA combines low-inertia, back-drivable actuators with a lightweight design, using readily available components and 3D-printed links for ease of assembly in research labs. The entire system, including both arms, is built for just $6,100. Each arm achieves speeds up to 6.16m/s, almost twice that of most collaborative robots, with a comparable payload of 2.5kg. We demonstrate ARMADA can perform dynamic manipulation like snatching, hammering, and bimanual throwing in real-world environments. We also showcase its effectiveness in reinforcement learning (RL) by training a non-prehensile manipulation policy in simulation and transferring it zero-shot to the real world, as well as human motion shadowing for dynamic bimanual object throwing. ARMADA is fully open-sourced with detailed assembly instructions, CAD models, URDFs, simulation, and learning codes. We highly recommend viewing the supplementary video at https://sites.google.com/view/im2-humanoid-arm.

arxiv情報

著者 Jaehyung Kim,Jiho Kim,Dongryung Lee,Yujin Jang,Beomjoon Kim
発行日 2025-02-24 07:10:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Design of a low-cost and lightweight 6 DoF bimanual arm for dynamic and contact-rich manipulation はコメントを受け付けていません

Optimal Robotic Assembly Sequence Planning: A Sequential Decision-Making Approach

要約

最適なロボットアセンブリ計画の問題は、制約の選択を満たしながら、指数関数的に膨大な数の可能な計画の中で最適なソリューションを見つける必要があるため、困難です。
従来、ロボットアセンブリの計画の問題はヒューリスティックを使用して解決されてきましたが、これらの方法は、特定の客観的構造または問題パラメーターのセットに固有です。
この論文では、アセンブリシーケンスを連続的な意思決定の問題として提起するロボットアセンブリ計画への新しいアプローチを提案し、最先端をはるかに上回る方法を活用することができます。
問題をマルコフ決定プロセス(MDP)として策定し、動的プログラミング(DP)を利用して、中程度のサイズの狭窄に最適なアセンブリポリシーを見つけます。
さらに、フレームワークを拡張して、アセンブリ計画の決定論的性質を活用し、最適なグラフ探査アセンブリプランナー(GEAP)のクラスを導入します。
より大きな構造については、強化学習(RL)により、高い報酬アセンブリシーケンスを生成するポリシーを学習する方法を示します。
ハッブル宇宙望遠鏡の組み立て、国際宇宙ステーション、ジェームズウェッブ宇宙望遠鏡など、さまざまなロボットアセンブリの問題に関するアプローチを評価します。
さらに、DP、GEAP、およびRLの実装が、さまざまな目的関数の下で最適なソリューションを見つけることができる方法と、定式化により優先順位の制約を分岐剪定に変換し、パフォーマンスをさらに向上させる方法を紹介します。
https://github.com/labicon/orasp-codeでコードを公開しました。

要約(オリジナル)

The optimal robot assembly planning problem is challenging due to the necessity of finding the optimal solution amongst an exponentially vast number of possible plans, all while satisfying a selection of constraints. Traditionally, robotic assembly planning problems have been solved using heuristics, but these methods are specific to a given objective structure or set of problem parameters. In this paper, we propose a novel approach to robotic assembly planning that poses assembly sequencing as a sequential decision making problem, enabling us to harness methods that far outperform the state-of-the-art. We formulate the problem as a Markov Decision Process (MDP) and utilize Dynamic Programming (DP) to find optimal assembly policies for moderately sized strictures. We further expand our framework to exploit the deterministic nature of assembly planning and introduce a class of optimal Graph Exploration Assembly Planners (GEAPs). For larger structures, we show how Reinforcement Learning (RL) enables us to learn policies that generate high reward assembly sequences. We evaluate our approach on a variety of robotic assembly problems, such as the assembly of the Hubble Space Telescope, the International Space Station, and the James Webb Space Telescope. We further showcase how our DP, GEAP, and RL implementations are capable of finding optimal solutions under a variety of different objective functions and how our formulation allows us to translate precedence constraints to branch pruning and thus further improve performance. We have published our code at https://github.com/labicon/ORASP-Code.

arxiv情報

著者 Kartik Nagpal,Negar Mehr
発行日 2025-02-24 07:23:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Optimal Robotic Assembly Sequence Planning: A Sequential Decision-Making Approach はコメントを受け付けていません

Air-Ground Collaborative Robots for Fire and Rescue Missions: Towards Mapping and Navigation Perspective

要約

空軍共同ロボットは、火災と救助の分野で大きな可能性を示しており、救助のニーズに迅速に対応し、タスクの実行の効率を改善できます。
マッピングとナビゲーションは、効率的なタスクの実行を実現するための空軍共同ロボットの重要な基盤として、大きな注目を集めています。
共同ロボットのマッピングとナビゲーションへのこの関心の高まりは、火災と救助のタスクの実行の知性を改善するのに役立ちますが、その強みを強調するためのこの分野の包括的な調査はありません。
この論文では、マッピングとナビゲーションの新しい視点からの火災と救助のための地上から地面への協同ロボットの系統的レビューを紹介します。
第一に、無人航空機(UAV)マッピングと無人の地上車両(UGV)ナビゲーションに基づいた、消防および救助ミッションのための空中協力的なロボットフレームワークが導入されました。
次に、このフレームワークに基づくマッピングとナビゲーションの研究の進捗状況が、UAVマッピング、UAV/UGV共局在、UGVナビゲーションなど、主な成果と制限を含む体系的に要約されています。
火災および救助任務のニーズに基づいて、異なる数のUAVとUGVを持つ共同ロボットが分類され、火災と救助のタスクにおける実用性は、彼らのメリットとデメリットの議論に焦点を当てて、詳しく説明されています。
さらに、さまざまな消防および救助シナリオにおける空中協調ロボットのアプリケーションの例が示されています。
最後に、このペーパーでは、現在の課題と潜在的な研究の機会を強調し、この活気に満ちた空軍共同ロボットのこの活気に満ちたエリアに従事することをいとわない実務家や研究者の参照をまとめています。

要約(オリジナル)

Air-ground collaborative robots have shown great potential in the field of fire and rescue, which can quickly respond to rescue needs and improve the efficiency of task execution. Mapping and navigation, as the key foundation for air-ground collaborative robots to achieve efficient task execution, have attracted a great deal of attention. This growing interest in collaborative robot mapping and navigation is conducive to improving the intelligence of fire and rescue task execution, but there has been no comprehensive investigation of this field to highlight their strengths. In this paper, we present a systematic review of the ground-to-ground cooperative robots for fire and rescue from a new perspective of mapping and navigation. First, an air-ground collaborative robots framework for fire and rescue missions based on unmanned aerial vehicle (UAV) mapping and unmanned ground vehicle (UGV) navigation is introduced. Then, the research progress of mapping and navigation under this framework is systematically summarized, including UAV mapping, UAV/UGV co-localization, and UGV navigation, with their main achievements and limitations. Based on the needs of fire and rescue missions, the collaborative robots with different numbers of UAVs and UGVs are classified, and their practicality in fire and rescue tasks is elaborated, with a focus on the discussion of their merits and demerits. In addition, the application examples of air-ground collaborative robots in various firefighting and rescue scenarios are given. Finally, this paper emphasizes the current challenges and potential research opportunities, rounding up references for practitioners and researchers willing to engage in this vibrant area of air-ground collaborative robots.

arxiv情報

著者 Ying Zhang,Haibao Yan,Danni Zhu,Jiankun Wang,Cui-Hua Zhang,Weili Ding,Xi Luo,Changchun Hua,Max Q. -H. Meng
発行日 2025-02-24 07:38:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Air-Ground Collaborative Robots for Fire and Rescue Missions: Towards Mapping and Navigation Perspective はコメントを受け付けていません

DemoGen: Synthetic Demonstration Generation for Data-Efficient Visuomotor Policy Learning

要約

視覚運動ポリシーは、ロボット操作に大きな期待を示していますが、多くの場合、効果的なパフォーマンスのためにかなりの量の人間収集データが必要です。
データの要求の根底にある主な理由は、限られた空間一般化機能であり、異なるオブジェクト構成にわたって広範なデータ収集が必要です。
この作業では、自動デモンストレーション生成のための低コストで完全な合成アプローチであるデモゲンを提示します。
タスクごとに1つの人間収集デモンストレーションのみを使用して、Demogenは、実証されたアクション軌道を新しいオブジェクト構成に適合させることにより、空間的に増強されたデモンストレーションを生成します。
視覚観測は、3Dポイントクラウドをモダリティとして活用し、3D編集を介してシーンの被験者を再配置することにより合成されます。
経験的には、デモゲンは、さまざまな範囲の実際の操作タスク全体で政策パフォーマンスを大幅に向上させ、変形可能なオブジェクト、器用なハンドエンドエフェクター、および双方向のプラットフォームを含む挑戦的なシナリオでさえ、その適用性を示しています。
さらに、デモゲンを拡張して、妨害抵抗や障害物回避など、追加の分散能力を可能にすることができます。

要約(オリジナル)

Visuomotor policies have shown great promise in robotic manipulation but often require substantial amounts of human-collected data for effective performance. A key reason underlying the data demands is their limited spatial generalization capability, which necessitates extensive data collection across different object configurations. In this work, we present DemoGen, a low-cost, fully synthetic approach for automatic demonstration generation. Using only one human-collected demonstration per task, DemoGen generates spatially augmented demonstrations by adapting the demonstrated action trajectory to novel object configurations. Visual observations are synthesized by leveraging 3D point clouds as the modality and rearranging the subjects in the scene via 3D editing. Empirically, DemoGen significantly enhances policy performance across a diverse range of real-world manipulation tasks, showing its applicability even in challenging scenarios involving deformable objects, dexterous hand end-effectors, and bimanual platforms. Furthermore, DemoGen can be extended to enable additional out-of-distribution capabilities, including disturbance resistance and obstacle avoidance.

arxiv情報

著者 Zhengrong Xue,Shuying Deng,Zhenyang Chen,Yixuan Wang,Zhecheng Yuan,Huazhe Xu
発行日 2025-02-24 07:50:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | DemoGen: Synthetic Demonstration Generation for Data-Efficient Visuomotor Policy Learning はコメントを受け付けていません

Task-Oriented 6-DoF Grasp Pose Detection in Clutters

要約

一般に、人間はさまざまなタスクについてオブジェクトを異なる方法で把握します。たとえば、「ナイフのハンドルをつかんで、刃をつかむために握ります」。
ロボットグラスのポーズ検出研究の分野では、一部の既存の作品では、このタスク指向の把握を検討し、いくらかの進歩を遂げましたが、一般的に低いグリッパータイプまたは散らかっていない設定によって制約されています。
人生。
より一般的で実用的な把握モデルを取得することを目的として、この論文では、タスク指向の6-DOFグラップポーズ検出と呼ばれる問題を調査し、タスク指向の問題をより一般的な6-DOFに拡張します。
散らかった(マルチオブジェクト)シナリオでのポーズ検出を把握します。
この目的のために、タスク指向の大規模な握りデータセット、6-dofタスクグラップ(6DTG)を構築します。これには、200万を超える6-dofグラップポーズを備えた4391の散らかったシーンがあります。
各把握には、6つのタスクと198のオブジェクトが合計で含まれる特定のタスクが注釈が付けられています。
さらに、TO6DGC問題に対処するための強力なベースラインである1段階のTaskGrasp(OSTG)を提案します。
OSTGは、タスク指向のポイント選択戦略を採用して、把握する場所を検出し、特定のタスクを与えられたタスクを把握する方法を決定するタスク指向の把握モジュールを採用しています。
OSTGの有効性を評価するために、6DTGで広範な実験が行われます。
結果は、私たちの方法が複数のメトリック上のさまざまなベースラインよりも優れていることを示しています。
また、実際のロボット実験では、OSTGがタスク指向の把握ポイントと6-dofの把握ポーズをよりよく認識していることも確認しています。

要約(オリジナル)

In general, humans would grasp an object differently for different tasks, e.g., ‘grasping the handle of a knife to cut’ vs. ‘grasping the blade to hand over’. In the field of robotic grasp pose detection research, some existing works consider this task-oriented grasping and made some progress, but they are generally constrained by low-DoF gripper type or non-cluttered setting, which is not applicable for human assistance in real life. With an aim to get more general and practical grasp models, in this paper, we investigate the problem named Task-Oriented 6-DoF Grasp Pose Detection in Clutters (TO6DGC), which extends the task-oriented problem to a more general 6-DOF Grasp Pose Detection in Cluttered (multi-object) scenario. To this end, we construct a large-scale 6-DoF task-oriented grasping dataset, 6-DoF Task Grasp (6DTG), which features 4391 cluttered scenes with over 2 million 6-DoF grasp poses. Each grasp is annotated with a specific task, involving 6 tasks and 198 objects in total. Moreover, we propose One-Stage TaskGrasp (OSTG), a strong baseline to address the TO6DGC problem. Our OSTG adopts a task-oriented point selection strategy to detect where to grasp, and a task-oriented grasp generation module to decide how to grasp given a specific task. To evaluate the effectiveness of OSTG, extensive experiments are conducted on 6DTG. The results show that our method outperforms various baselines on multiple metrics. Real robot experiments also verify that our OSTG has a better perception of the task-oriented grasp points and 6-DoF grasp poses.

arxiv情報

著者 An-Lan Wang,Nuo Chen,Kun-Yu Lin,Li Yuan-Ming,Wei-Shi Zheng
発行日 2025-02-24 09:05:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Task-Oriented 6-DoF Grasp Pose Detection in Clutters はコメントを受け付けていません