Learning Transferable Friction Models and LuGre Identification via Physics Informed Neural Networks

要約

MujocoやPybulletのようなロボットシミュレーターが単純化された摩擦モデルまたはヒューリスティックを使用して計算効率と精度のバランスをとることができるため、ロボット工学の摩擦の正確なモデリングは依然としてコアチャレンジのままです。
このホワイトペーパーでは、学習可能なコンポーネントを備えた定評のある摩擦モデルを最小限の一般的な測定データのみを要求することを可能にする物理情報に基づいた摩擦推定フレームワークを紹介します。
私たちのアプローチは、物理的な一貫性を強化し、現実世界の複雑さに適応する柔軟性を保持します。
積極的で非線形のシステムで、学習した摩擦モデルは、小さくて騒々しいデータセットのみで訓練され、動的摩擦特性を正確にシミュレートし、SIMからリアルのギャップを削減することを実証します。
重要なことに、私たちのアプローチにより、学習されたモデルが訓練されていないシステムに転送可能であることを示します。
複数のシステムを越えて一般化するこの能力は、複雑で不足しているタスクの摩擦モデリングを合理化し、ロボット工学と制御のSIMから現実的なギャップを埋めるためのスケーラブルで解釈可能なパスを提供します。

要約(オリジナル)

Accurately modeling friction in robotics remains a core challenge, as robotics simulators like Mujoco and PyBullet use simplified friction models or heuristics to balance computational efficiency with accuracy, where these simplifications and approximations can lead to substantial differences between simulated and physical performance. In this paper, we present a physics-informed friction estimation framework that enables the integration of well-established friction models with learnable components-requiring only minimal, generic measurement data. Our approach enforces physical consistency yet retains the flexibility to adapt to real-world complexities. We demonstrate, on an underactuated and nonlinear system, that the learned friction models, trained solely on small and noisy datasets, accurately simulate dynamic friction properties and reduce the sim-to-real gap. Crucially, we show that our approach enables the learned models to be transferable to systems they are not trained on. This ability to generalize across multiple systems streamlines friction modeling for complex, underactuated tasks, offering a scalable and interpretable path toward bridging the sim-to-real gap in robotics and control.

arxiv情報

著者 Asutay Ozmen,João P. Hespanha,Katie Byl
発行日 2025-04-16 19:15:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SY | Learning Transferable Friction Models and LuGre Identification via Physics Informed Neural Networks はコメントを受け付けていません

Unified World Models: Coupling Video and Action Diffusion for Pretraining on Large Robotic Datasets

要約

模倣学習は、ジェネラリストのロボットを構築するための有望なアプローチとして浮上しています。
ただし、高品質の専門家デモに依存しているため、大規模なロボットファンデーションモデルの模倣学習のスケーリング学習は依然として困難です。
一方、幅広い環境と多様な動作を描いた大量のビデオデータを容易に入手できます。
このデータは、実際のダイナミクスとエージェントと環境の相互作用に関する豊富な情報源を提供します。
ただし、模倣学習のためにこのデータを直接活用することは、ほとんどの現代的な方法に必要なアクション注釈が不足しているために困難であることが証明されています。
この作業では、統一された世界モデル(UWM)を提示します。これは、ポリシー学習のビデオとアクションデータの両方を活用できるフレームワークです。
具体的には、UWMは、独立した拡散タイムステップが各モダリティを支配する統合されたトランスアーキテクチャ内で、アクション拡散プロセスとビデオ拡散プロセスを統合します。
各拡散タイムステップを単純に制御することにより、UWMはポリシー、フォワードダイナミクス、逆ダイナミクス、およびビデオジェネレーターを柔軟に表現できます。
シミュレートされた実世界の実験を通じて、次のことを示します。(1)UWMは、ダイナミクスとアクション予測の両方を備えた大規模なマルチタスクロボットデータセットで効果的な事前化を可能にし、模倣学習よりも一般化可能で堅牢なポリシーをもたらします。
我々の結果は、UWMがスケーラブルなロボット学習のために大規模で不均一なデータセットを活用するための有望なステップを提供し、模倣学習と世界モデリングのしばしば異なるパラダイムの間の簡単な統一を提供することを示唆しています。
ビデオとコードはhttps://weirdlabuw.github.io/uwm/で入手できます。

要約(オリジナル)

Imitation learning has emerged as a promising approach towards building generalist robots. However, scaling imitation learning for large robot foundation models remains challenging due to its reliance on high-quality expert demonstrations. Meanwhile, large amounts of video data depicting a wide range of environments and diverse behaviors are readily available. This data provides a rich source of information about real-world dynamics and agent-environment interactions. Leveraging this data directly for imitation learning, however, has proven difficult due to the lack of action annotation required for most contemporary methods. In this work, we present Unified World Models (UWM), a framework that allows for leveraging both video and action data for policy learning. Specifically, a UWM integrates an action diffusion process and a video diffusion process within a unified transformer architecture, where independent diffusion timesteps govern each modality. By simply controlling each diffusion timestep, UWM can flexibly represent a policy, a forward dynamics, an inverse dynamics, and a video generator. Through simulated and real-world experiments, we show that: (1) UWM enables effective pretraining on large-scale multitask robot datasets with both dynamics and action predictions, resulting in more generalizable and robust policies than imitation learning, (2) UWM naturally facilitates learning from action-free video data through independent control of modality-specific diffusion timesteps, further improving the performance of finetuned policies. Our results suggest that UWM offers a promising step toward harnessing large, heterogeneous datasets for scalable robot learning, and provides a simple unification between the often disparate paradigms of imitation learning and world modeling. Videos and code are available at https://weirdlabuw.github.io/uwm/.

arxiv情報

著者 Chuning Zhu,Raymond Yu,Siyuan Feng,Benjamin Burchfiel,Paarth Shah,Abhishek Gupta
発行日 2025-04-16 20:27:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Unified World Models: Coupling Video and Action Diffusion for Pretraining on Large Robotic Datasets はコメントを受け付けていません

Robust Visual Servoing under Human Supervision for Assembly Tasks

要約

モバイルマニピュレーターが構造ブロックから構造を組み立てるためのピックアンドプレイスタスクを確実に完全に完了できるようにするフレームワークを提案します。
ピッキングは、コントロールバリア関数(CBFS)を使用したオブジェクト追跡に目の中の視覚サービングコントローラーを使用して、ブロック内のフィダルなマーカーが表示されたままであることを保証します。
目に合わせたセットアップを備えた追加のロボットは、構造の安定性に重要な正確な配置を保証します。
柔軟性と障害補正のために人間のループ機能を統合し、カメラのポーズエラーに堅牢性を分析し、それらを処理するために適応したバリア機能を提案します。
最後に、実験は6-Dofモバイルアームのフレームワークを検証します。

要約(オリジナル)

We propose a framework enabling mobile manipulators to reliably complete pick-and-place tasks for assembling structures from construction blocks. The picking uses an eye-in-hand visual servoing controller for object tracking with Control Barrier Functions (CBFs) to ensure fiducial markers in the blocks remain visible. An additional robot with an eye-to-hand setup ensures precise placement, critical for structural stability. We integrate human-in-the-loop capabilities for flexibility and fault correction and analyze robustness to camera pose errors, proposing adapted barrier functions to handle them. Lastly, experiments validate the framework on 6-DoF mobile arms.

arxiv情報

著者 Victor Nan Fernandez-Ayala,Jorge Silva,Meng Guo,Dimos V. Dimarogonas
発行日 2025-04-16 21:57:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Robust Visual Servoing under Human Supervision for Assembly Tasks はコメントを受け付けていません

Practical Insights on Grasp Strategies for Mobile Manipulation in the Wild

要約

モバイル操作ロボットは継続的に進歩しており、その把握能力は急速に進行しています。
ただし、構造化されていない環境でアイテムを確実に把握する能力など、最先端のモバイルマニピュレーターが広範囲にわたる現実世界の展開を妨げる重要なギャップがまだあります。
このギャップを埋めるために、信頼できる一般化可能な把握戦略の境界を押し上げるように設計されたモバイル操作ロボットプラットフォームであるShopperを開発しました。
これらの把握戦略を開発し、現実世界の食料品店に展開します。これは、操作可能なアイテム、備品、レイアウトの膨大な多様性のために選択された非常に挑戦的な設定です。
この作業では、本物の食料品店でアイテムを選ぶための一般的な把握戦略を設計するための詳細なアプローチを提示します。
さらに、最新の現実世界のフィールドテストの詳細な分析を提供し、何百もの異なるピックの試みにおける基本的な障害モードに関連する重要な調査結果について説明します。
詳細な分析を通じて、貴重な実用的な洞察を提供し、重要な把握の課題を特定することを目指しています。これは、ロボティクスコミュニティを現場のオープンな問題を押し付けることを導くことができます。

要約(オリジナル)

Mobile manipulation robots are continuously advancing, with their grasping capabilities rapidly progressing. However, there are still significant gaps preventing state-of-the-art mobile manipulators from widespread real-world deployments, including their ability to reliably grasp items in unstructured environments. To help bridge this gap, we developed SHOPPER, a mobile manipulation robot platform designed to push the boundaries of reliable and generalizable grasp strategies. We develop these grasp strategies and deploy them in a real-world grocery store — an exceptionally challenging setting chosen for its vast diversity of manipulable items, fixtures, and layouts. In this work, we present our detailed approach to designing general grasp strategies towards picking any item in a real grocery store. Additionally, we provide an in-depth analysis of our latest real-world field test, discussing key findings related to fundamental failure modes over hundreds of distinct pick attempts. Through our detailed analysis, we aim to offer valuable practical insights and identify key grasping challenges, which can guide the robotics community towards pressing open problems in the field.

arxiv情報

著者 Isabella Huang,Richard Cheng,Sangwoon Kim,Dan Kruse,Carolyn Matl,Lukas Kaul,JC Hancock,Shanmuga Harikumar,Mark Tjersland,James Borders,Dan Helmick
発行日 2025-04-16 22:17:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Practical Insights on Grasp Strategies for Mobile Manipulation in the Wild はコメントを受け付けていません

UniPhys: Unified Planner and Controller with Diffusion for Flexible Physics-Based Character Control

要約

特に多様なガイダンスシグナルを使用した長老のコントロールでは、自然および身体的にもっともらしいキャラクターの動きを生成することは依然として困難です。
以前の作業では、高レベルの拡散ベースのモーションプランナーと低レベルの物理コントローラーを組み合わせていますが、これらのシステムはモーション品質を低下させ、タスク固有の微調整を必要とするドメインギャップに悩まされています。
この問題に取り組むために、モーション計画と制御を単一のモデルに統合する拡散ベースの動作クローニングフレームワークであるUniphysを紹介します。
Uniphysは、テキスト、軌跡、目標などのマルチモーダル入力に条件付けられた柔軟で表現力のあるキャラクターモーションを可能にします。
長いシーケンスにわたって蓄積された予測エラーに対処するために、Uniphysは拡散強制パラダイムで訓練され、騒々しい動きの履歴を除去し、物理シミュレーターによって導入された不一致を処理します。
この設計により、Uniphysは物理的にもっともらしい長老の動きを堅牢に生成することができます。
ガイド付きサンプリングを通じて、Uniphysは、タスク固有の微調整を必要とせずに、目に見えないものを含む幅広い制御信号に一般化します。
実験では、ユニピが動きの自然性、一般化、および多様な制御タスク全体の堅牢性における以前の方法よりも優れていることが示されています。

要約(オリジナル)

Generating natural and physically plausible character motion remains challenging, particularly for long-horizon control with diverse guidance signals. While prior work combines high-level diffusion-based motion planners with low-level physics controllers, these systems suffer from domain gaps that degrade motion quality and require task-specific fine-tuning. To tackle this problem, we introduce UniPhys, a diffusion-based behavior cloning framework that unifies motion planning and control into a single model. UniPhys enables flexible, expressive character motion conditioned on multi-modal inputs such as text, trajectories, and goals. To address accumulated prediction errors over long sequences, UniPhys is trained with the Diffusion Forcing paradigm, learning to denoise noisy motion histories and handle discrepancies introduced by the physics simulator. This design allows UniPhys to robustly generate physically plausible, long-horizon motions. Through guided sampling, UniPhys generalizes to a wide range of control signals, including unseen ones, without requiring task-specific fine-tuning. Experiments show that UniPhys outperforms prior methods in motion naturalness, generalization, and robustness across diverse control tasks.

arxiv情報

著者 Yan Wu,Korrawe Karunratanakul,Zhengyi Luo,Siyu Tang
発行日 2025-04-17 00:04:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR, cs.RO | UniPhys: Unified Planner and Controller with Diffusion for Flexible Physics-Based Character Control はコメントを受け付けていません

Acoustic Analysis of Uneven Blade Spacing and Toroidal Geometry for Reducing Propeller Annoyance

要約

無人航空機(UAV)は、人口密集地域でより一般的に使用されており、プロペラから発生した騒音汚染に関する懸念を提起しています。
この研究では、型にはまらないプロペラデザイン、特にトロイダルと不均一な間隔のプロペラの音響性能を調査し、精神音響の迷惑を減らす可能性があります。
私たちの実験結果は、これらの設計がノイズの迷惑に関連する音響特性を著しく低下させることを示しています。

要約(オリジナル)

Unmanned aerial vehicles (UAVs) are becoming more commonly used in populated areas, raising concerns about noise pollution generated from their propellers. This study investigates the acoustic performance of unconventional propeller designs, specifically toroidal and uneven-blade spaced propellers, for their potential in reducing psychoacoustic annoyance. Our experimental results show that these designs noticeably reduced acoustic characteristics associated with noise annoyance.

arxiv情報

著者 Nikhil Vijay,Will C. Forte,Ishan Gajjar,Sarvesh Patham,Syon Gupta,Sahil Shah,Prathamesh Trivedi,Rishit Arora
発行日 2025-04-17 00:52:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, physics.flu-dyn | Acoustic Analysis of Uneven Blade Spacing and Toroidal Geometry for Reducing Propeller Annoyance はコメントを受け付けていません

A Centralized Planning and Distributed Execution Method for Shape Filling with Homogeneous Mobile Robots

要約

パターン形成タスクは、マルチロボットシステムでよく見られます。
この論文では、機能的に限られたモバイルロボットで複雑な形を形成する問題を研究します。これは、自分自身を正確に見つけるために他のロボットに依存する必要があります。
目標は、与えられた形状を特定のロボットセットで埋めることができるかどうかを決定することです。
答えが「はい」の場合は、最小限の通信でできるだけ速く形状形成プロセスを完了します。
従来のアプローチでは、各ロボットのグローバル座標を必要とするか、指定されたアプローチの能力を超えて複雑な形状を形成しようとする際に故障する傾向があります。後者は、実際の形状形成プロセスが開始される前にターゲット形状を形成できるかどうかを判断できる決定手順を求めています。
この論文では、実行プロセス中にグローバル座標情報を必要とせず、目的の形状を形成することが実行可能かどうかを効果的に決定できる方法を開発します。
後者は、特に穴のあるさまざまな複雑な形状を処理し、各ロボットにスケジューリング情報を割り当てることができる計画手順を介して達成され、その後の分散実行を促進します。
私たちの形状形成アプローチの有効性は、いくつかのシミュレーションケーススタディで鮮明に説明されています。

要約(オリジナル)

The pattern formation task is commonly seen in a multi-robot system. In this paper, we study the problem of forming complex shapes with functionally limited mobile robots, which have to rely on other robots to precisely locate themselves. The goal is to decide whether a given shape can be filled by a given set of robots; in case the answer is yes, to complete a shape formation process as fast as possible with a minimum amount of communication. Traditional approaches either require global coordinates for each robot or are prone to failure when attempting to form complex shapes beyond the capability of given approaches – the latter calls for a decision procedure that can tell whether a target shape can be formed before the actual shape-forming process starts. In this paper, we develop a method that does not require global coordinate information during the execution process and can effectively decide whether it is feasible to form the desired shape. The latter is achieved via a planning procedure that is capable of handling a variety of complex shapes, in particular, those with holes, and assigning a simple piece of scheduling information to each robot, facilitating subsequent distributed execution, which does not rely on the coordinates of all robots but only those of neighboring ones. The effectiveness of our shape-forming approach is vividly illustrated in several simulation case studies.

arxiv情報

著者 Shuqing Liu,Rong Su,Karl H. Johansson
発行日 2025-04-17 02:30:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | A Centralized Planning and Distributed Execution Method for Shape Filling with Homogeneous Mobile Robots はコメントを受け付けていません

Planning for quasi-static manipulation tasks via an intrinsic haptic metric: a book insertion case study

要約

連絡先の操作には、特定のタスクを達成するためにプッシュするなど、オブジェクトとの戦略的な相互作用が必要です。
新しい本を所定の位置に入れる前に、近隣の本を脇に​​押し出してスペースを作成することにより、ロボットが混雑した棚に本を挿入する新しいシナリオを提案します。
このコンテキストでは、スペースが限られており、接触を避ける傾向があるため、このコンテキストでは古典的な計画アルゴリズムが失敗します。
さらに、間接的に操作可能なオブジェクトを処理したり、力の相互作用を考慮したりしません。
私たちの重要な貢献は次のとおりです。i)均衡条件から導出された暗黙のマニホールドの計画問題として準静的操作を再構築する。
ii)アドホックコスト関数の代わりに固有の触覚メトリックを利用する。
iii)ロボット状態、オブジェクト位置、接点、触覚距離を同時に更新する適応アルゴリズムを提案します。
混雑した本棚挿入タスクでの方法を評価し、一般的に剛体操作タスクに適用できます。
接触点と力をキャプチャするプロキシを提案します。スーパーリップスはオブジェクトを表します。
この単純化されたモデルは、差別化可能性を保証します。
私たちのフレームワークは、戦略的なウェッジインポリシーを自律的に発見し、単純化された連絡先モデルは実際のシナリオと同様の動作を達成します。
また、剛性と初期位置を変化させて、フレームワークを包括的に分析します。
ビデオはhttps://youtu.be/eab8umz3aq0にあります。

要約(オリジナル)

Contact-rich manipulation often requires strategic interactions with objects, such as pushing to accomplish specific tasks. We propose a novel scenario where a robot inserts a book into a crowded shelf by pushing aside neighboring books to create space before slotting the new book into place. Classical planning algorithms fail in this context due to limited space and their tendency to avoid contact. Additionally, they do not handle indirectly manipulable objects or consider force interactions. Our key contributions are: i) reframing quasi-static manipulation as a planning problem on an implicit manifold derived from equilibrium conditions; ii) utilizing an intrinsic haptic metric instead of ad-hoc cost functions; and iii) proposing an adaptive algorithm that simultaneously updates robot states, object positions, contact points, and haptic distances. We evaluate our method on a crowded bookshelf insertion task, and it can be generally applied to rigid body manipulation tasks. We propose proxies to capture contact points and forces, with superellipses to represent objects. This simplified model guarantees differentiability. Our framework autonomously discovers strategic wedging-in policies while our simplified contact model achieves behavior similar to real world scenarios. We also vary the stiffness and initial positions to analyze our framework comprehensively. The video can be found at https://youtu.be/eab8umZ3AQ0.

arxiv情報

著者 Lin Yang,Sri Harsha Turlapati,Chen Lv,Domenico Campolo
発行日 2025-04-17 03:11:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Planning for quasi-static manipulation tasks via an intrinsic haptic metric: a book insertion case study はコメントを受け付けていません

Crossing the Human-Robot Embodiment Gap with Sim-to-Real RL using One Human Demonstration

要約

ロボットの装備操作スキルを教えるには、多くの場合、ウェアラブルまたはテレオ操作を使用して何百ものデモンストレーションを収集する必要があります。
人間とオブジェクトの相互作用のビデオは収集して拡大するのが簡単ですが、ビデオからの明示的なアクションラベルとロボットと人間の手の形態学的な違いがないため、ロボット学習に直接レバレッジすることは困難です。
Human2Sim2robotは、タスクを実証する人間の1つのRGB-Dビデオのみを使用して、器用な操作ポリシーをトレーニングするための新しいリアルからシムからリアルのフレームワークであることを提案します。
私たちの方法では、シミュレーションで補強学習(RL)を利用して、ウェアラブル、テレオ操作、または模倣学習方法に通常必要な大規模なデータ収集に依存することなく、人間のロボットの具体化ギャップを越えます。
デモンストレーションから、2つのタスク固有のコンポーネントを抽出します。(1)オブジェクト中心の実施形態と存在する報酬関数を定義するオブジェクトが軌道を配置し、(2)操作前のハンドがRLトレーニング中に探索を初期化およびガイドするためにポーズをとる。
これらの2つのコンポーネントは、目的のタスクを学習するのに非常に効果的であり、タスク固有の報酬の形成とチューニングの必要性を排除することがわかりました。
Human2Sim2robotは、オブジェクトを意識しているオープンループ軌道リプレイを55%上回り、把握、非緩和操作、およびマルチステップタスク全体で68%のデータ増強を使用した模倣学習を上回ることを実証します。
プロジェクトサイト:https://human2sim2robot.github.io

要約(オリジナル)

Teaching robots dexterous manipulation skills often requires collecting hundreds of demonstrations using wearables or teleoperation, a process that is challenging to scale. Videos of human-object interactions are easier to collect and scale, but leveraging them directly for robot learning is difficult due to the lack of explicit action labels from videos and morphological differences between robot and human hands. We propose Human2Sim2Robot, a novel real-to-sim-to-real framework for training dexterous manipulation policies using only one RGB-D video of a human demonstrating a task. Our method utilizes reinforcement learning (RL) in simulation to cross the human-robot embodiment gap without relying on wearables, teleoperation, or large-scale data collection typically necessary for imitation learning methods. From the demonstration, we extract two task-specific components: (1) the object pose trajectory to define an object-centric, embodiment-agnostic reward function, and (2) the pre-manipulation hand pose to initialize and guide exploration during RL training. We found that these two components are highly effective for learning the desired task, eliminating the need for task-specific reward shaping and tuning. We demonstrate that Human2Sim2Robot outperforms object-aware open-loop trajectory replay by 55% and imitation learning with data augmentation by 68% across grasping, non-prehensile manipulation, and multi-step tasks. Project Site: https://human2sim2robot.github.io

arxiv情報

著者 Tyler Ga Wei Lum,Olivia Y. Lee,C. Karen Liu,Jeannette Bohg
発行日 2025-04-17 03:15:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Crossing the Human-Robot Embodiment Gap with Sim-to-Real RL using One Human Demonstration はコメントを受け付けていません

Graph-based Path Planning with Dynamic Obstacle Avoidance for Autonomous Parking

要約

駐車場のシナリオでの安全で効率的なパス計画は、静的および動的な障害に満ちた乱雑な環境が存在するため、重要な課題を提示します。
これに対処するために、動的障害の予測を計画プロセスにシームレスに統合し、衝突のないパスの生成を確保する、斬新で計算効率の高い計画戦略を提案します。
私たちのアプローチは、グラフのノード探索中の動的障害の予測を明示的に説明し、動的障害物の回避を可能にする、時間をインデックスしたバリアントを導入することにより、従来のハイブリッドA Starアルゴリズムに基づいています。
オンライン計画フレームワーク内に時間をインデックスしたハイブリッドAスターアルゴリズムを統合して、各計画ステップでローカルパスを計算し、適応的に選択された中間目標に導かれます。
提案された方法は、垂直、角度のある、並列駐車を含む多様な駐車場シナリオで検証されています。
シミュレーションを通じて、駐車状況の最先端のスプラインベースの計画方法と比較した場合、効率と安全性を大幅に改善するアプローチの可能性を紹介します。

要約(オリジナル)

Safe and efficient path planning in parking scenarios presents a significant challenge due to the presence of cluttered environments filled with static and dynamic obstacles. To address this, we propose a novel and computationally efficient planning strategy that seamlessly integrates the predictions of dynamic obstacles into the planning process, ensuring the generation of collision-free paths. Our approach builds upon the conventional Hybrid A star algorithm by introducing a time-indexed variant that explicitly accounts for the predictions of dynamic obstacles during node exploration in the graph, thus enabling dynamic obstacle avoidance. We integrate the time-indexed Hybrid A star algorithm within an online planning framework to compute local paths at each planning step, guided by an adaptively chosen intermediate goal. The proposed method is validated in diverse parking scenarios, including perpendicular, angled, and parallel parking. Through simulations, we showcase our approach’s potential in greatly improving the efficiency and safety when compared to the state of the art spline-based planning method for parking situations.

arxiv情報

著者 Farhad Nawaz,Minjun Sung,Darshan Gadginmath,Jovin D’sa,Sangjae Bae,David Isele,Nadia Figueroa,Nikolai Matni,Faizan M. Tariq
発行日 2025-04-17 03:43:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Graph-based Path Planning with Dynamic Obstacle Avoidance for Autonomous Parking はコメントを受け付けていません