SuperQ-GRASP: Superquadrics-based Grasp Pose Estimation on Larger Objects for Mobile-Manipulation

要約

計画と推定を把握しているのは、ロボット工学の長年の研究問題であり、オブジェクトに把握可能なポーズを見つけるための2つの主要なアプローチを備えています:1)オブジェクトの3Dモデルとグリッパーに依存して有効な把握を推定するグリッパー、および2)データ駆動型の学習ベースのアプローチは、生のセンサー観測からの把握ポーズを識別するために訓練されたモデルを使用します。
後者は、トレーニング段階で包括的な幾何学的カバレッジを想定しています。
ただし、データ駆動型のアプローチは通常、テーブルトップシナリオに偏っており、より大きなオブジェクト(椅子など)を使用して、分散型シナリオに一般化するのに苦労しています。
さらに、これらの大きなオブジェクトの単一ビューからの生センサーデータ(RGB-Dデータなど)は不完全であり、追加の観測が必要です。
この論文では、幾何学的アプローチを取り、オブジェクトモデリング(NERFなど)の進歩を活用して、ターゲットオブジェクトの周りのビューからRGB画像を取得することにより暗黙モデルを構築します。
このモデルにより、明示的なメッシュモデルの抽出が可能になり、オブジェクトの検出やポーズ推定などの知覚タスクに役立つ新しい観点から視覚的な外観をキャプチャします。
さらに、NERF再構築された3DメッシュをSuperquadrics(SQS) – パラメトリックな幾何学的プリミティブに分解し、それぞれが事前に計算された一連の把握ポーズにマッピングされ、これらのプリミティブに基づいてターゲットオブジェクトの把握を把握できるようにします。
提案されたパイプラインは、a)モデリングステップでオブジェクトの騒々しい深さと不完全なビュー、およびb)あらゆるサイズのオブジェクトへの一般化を克服します。
より質的な結果については、補足ビデオおよびウェブページhttps://bit.ly/3zroanuを参照してください。

要約(オリジナル)

Grasp planning and estimation have been a longstanding research problem in robotics, with two main approaches to find graspable poses on the objects: 1) geometric approach, which relies on 3D models of objects and the gripper to estimate valid grasp poses, and 2) data-driven, learning-based approach, with models trained to identify grasp poses from raw sensor observations. The latter assumes comprehensive geometric coverage during the training phase. However, the data-driven approach is typically biased toward tabletop scenarios and struggle to generalize to out-of-distribution scenarios with larger objects (e.g. chair). Additionally, raw sensor data (e.g. RGB-D data) from a single view of these larger objects is often incomplete and necessitates additional observations. In this paper, we take a geometric approach, leveraging advancements in object modeling (e.g. NeRF) to build an implicit model by taking RGB images from views around the target object. This model enables the extraction of explicit mesh model while also capturing the visual appearance from novel viewpoints that is useful for perception tasks like object detection and pose estimation. We further decompose the NeRF-reconstructed 3D mesh into superquadrics (SQs) — parametric geometric primitives, each mapped to a set of precomputed grasp poses, allowing grasp composition on the target object based on these primitives. Our proposed pipeline overcomes the problems: a) noisy depth and incomplete view of the object, with a modeling step, and b) generalization to objects of any size. For more qualitative results, refer to the supplementary video and webpage https://bit.ly/3ZrOanU

arxiv情報

著者 Xun Tu,Karthik Desingh
発行日 2025-04-10 01:26:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, I.2.9 | SuperQ-GRASP: Superquadrics-based Grasp Pose Estimation on Larger Objects for Mobile-Manipulation はコメントを受け付けていません

Optimal Robot Formations: Balancing Range-Based Observability and User-Defined Configurations

要約

このホワイトペーパーでは、ユーザーが「高カバレッジ」インフラストラクチャインスペクションフォーメーションなどの望ましいロボットフォーメーションを簡単に指定できるようにする一連のカスタマイズ可能な斬新なコスト関数を紹介し、高い相対的なポーズ推定精度を維持します。
全体的なコスト関数は、ロボットが適切な範囲に基づいた相対的なローカリゼーションの精度と、特定の領域の検査にかかった時間を最小限に抑えるなど、ロボットが特定のタスクを実現する必要性のために互いに近づく必要性のバランスをとっています。
集約されたコスト関数を最小化することで見つかった形成は、シミュレーションと実験のカバレッジパス計画タスクで評価されます。ここでは、ロボットが拡張されたカルマンフィルターに基づいて同時ローカリゼーションとマッピングアルゴリズムを使用して、ロボット自体と未知のランドマークをローカライズします。
範囲ベースの相対的な局在精度を最大化する最適な形成と比較して、これらの形成は、相対的なポーズ推定精度に最小限の影響を与え、特定の領域をカバーする時間を大幅に短縮します。

要約(オリジナル)

This paper introduces a set of customizable and novel cost functions that enable the user to easily specify desirable robot formations, such as a “high-coverage” infrastructure-inspection formation, while maintaining high relative pose estimation accuracy. The overall cost function balances the need for the robots to be close together for good ranging-based relative localization accuracy and the need for the robots to achieve specific tasks, such as minimizing the time taken to inspect a given area. The formations found by minimizing the aggregated cost function are evaluated in a coverage path planning task in simulation and experiment, where the robots localize themselves and unknown landmarks using a simultaneous localization and mapping algorithm based on the extended Kalman filter. Compared to an optimal formation that maximizes ranging-based relative localization accuracy, these formations significantly reduce the time to cover a given area with minimal impact on relative pose estimation accuracy.

arxiv情報

著者 Syed Shabbir Ahmed,Mohammed Ayman Shalaby,Jerome Le Ny,James Richard Forbes
発行日 2025-04-10 04:47:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Optimal Robot Formations: Balancing Range-Based Observability and User-Defined Configurations はコメントを受け付けていません

Personalized and Demand-Based Education Concept: Practical Tools for Control Engineers

要約

このペーパーでは、教育ブロックと新しい大学の講義でのその実証的なアプリケーションを使用したパーソナライズされた講義概念を紹介します。
高等教育は毎日の課題に直面しています:深くて専門的な知識は、どこからでも利用可能であり、ほとんどすべての人がアクセスしやすいです。
専門のマスターコースの大学講師は、彼らの講義が退屈すぎるか、参加者にとって複雑すぎるという問題に直面しています。
さらに、カリキュラムは過去10〜30年よりも急速に変化しています。
ドイツの教育システムは、さまざまな教育形式で構成されており、大学は実用的なコンテンツを提供しません。
その結果、多くの大学生は、大学の講義を通じて理想的に得られるべき実践的なスキルを得ていません。
したがって、この作業では、ジャストインタイムの教育パラダイムの拡張であるパー​​ソナライズされた需要ベースの教育に基づいて、新しい講義概念が提案されています。
この概念には、1)学生の背景の初期評価、2)適切な教育ブロックの選択、3)学期中に継続的なフィードバックを収集することが含まれます。
フィードバックはPingoを介して収集され、学生の匿名性が確保されました。
私たちのコンセプトは、Karlsruhe Institute of Technologyの新しい講義「制御エンジニアのための実用的なツール」で例示的にテストされました。
最初の結果は、私たちの提案された概念が高等教育における現在の課題に対処するのに有益であることを示しています。

要約(オリジナル)

This paper presents a personalized lecture concept using educational blocks and its demonstrative application in a new university lecture. Higher education faces daily challenges: deep and specialized knowledge is available from everywhere and accessible to almost everyone. University lecturers of specialized master courses confront the problem that their lectures are either too boring or too complex for the attending students. Additionally, curricula are changing more rapidly than they have in the past 10-30 years. The German education system comprises different educational forms, with universities providing less practical content. Consequently, many university students do not obtain the practical skills they should ideally gain through university lectures. Therefore, in this work, a new lecture concept is proposed based on the extension of the just-in-time teaching paradigm: Personalized and Demand-Based Education. This concept includes: 1) an initial assessment of students’ backgrounds, 2) selecting the appropriate educational blocks, and 3) collecting ongoing feedback during the semester. The feedback was gathered via Pingo, ensuring anonymity for the students. Our concept was exemplarily tested in the new lecture ‘Practical Tools for Control Engineers’ at the Karlsruhe Institute of Technology. The initial results indicate that our proposed concept could be beneficial in addressing the current challenges in higher education.

arxiv情報

著者 Balint Varga,Lars Fischer,Levente Kovacs
発行日 2025-04-10 05:34:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 93C85, cs.RO, cs.SY, eess.SY, K.3.1 | Personalized and Demand-Based Education Concept: Practical Tools for Control Engineers はコメントを受け付けていません

A Convex and Global Solution for the P$n$P Problem in 2D Forward-Looking Sonar

要約

パースペクティブ – $ n $ -point(p $ n $ p)問題は、ロボットポーズ推定に重要です。
光学カメラについてはよく研究されていますが、イメージングの原則が大きく異なるため、水中シナリオでは2D前方のソナー(FLS)の研究が不足しています。
この論文では、ソナーの画像形成に固有の非線形性にもかかわらず、2D FLのp $ n $ pの問題は、ポイントツーライン(PTL)3D登録パラダイム内で正書法近似を通じて効果的に対処できることを実証します。
登録は、二元性ベースの最適ソルバーによって解決され、グローバルな最適性が確保されます。
コプラナーの場合、ヌル空間分析が実施され、二重製剤から解を取得し、より一般的なケースにメソッドを適用できるようにします。
さまざまな設定でパフォーマンスを体系的に評価するために、広範なシミュレーションが実施されています。
非除去が最適化されていない最先端(SOTA)メソッドと比較して、提案されたアプローチは非常に高い精度を達成します。
両方の方法が最適化されている場合、私たちのものは同等またはわずかに優れた精度を示します。

要約(オリジナル)

The perspective-$n$-point (P$n$P) problem is important for robotic pose estimation. It is well studied for optical cameras, but research is lacking for 2D forward-looking sonar (FLS) in underwater scenarios due to the vastly different imaging principles. In this paper, we demonstrate that, despite the nonlinearity inherent in sonar image formation, the P$n$P problem for 2D FLS can still be effectively addressed within a point-to-line (PtL) 3D registration paradigm through orthographic approximation. The registration is then resolved by a duality-based optimal solver, ensuring the global optimality. For coplanar cases, a null space analysis is conducted to retrieve the solutions from the dual formulation, enabling the methods to be applied to more general cases. Extensive simulations have been conducted to systematically evaluate the performance under different settings. Compared to non-reprojection-optimized state-of-the-art (SOTA) methods, the proposed approach achieves significantly higher precision. When both methods are optimized, ours demonstrates comparable or slightly superior precision.

arxiv情報

著者 Jiayi Su,Jingyu Qian,Liuqing Yang,Yufan Yuan,Yanbing Fu,Jie Wu,Yan Wei,Fengzhong Qu
発行日 2025-04-10 06:41:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | A Convex and Global Solution for the P$n$P Problem in 2D Forward-Looking Sonar はコメントを受け付けていません

Extended URDF: Accounting for parallel mechanism in robot description

要約

ロボットデザインは、複雑なメカニズムを強力なロボットに提供することにより、最近の進歩において重要な役割を果たしました。
最近の多くのシステムは、より明るい手足を提供し、より複雑な動きを可能にするために、並列作動に依存しています。
ただし、これらの新興アーキテクチャは、最も使用される説明形式の範囲外にあり、これらのシステムのモデルを設計、保存、共有する際に困難につながります。
このペーパーでは、広く使用されているUnified Robot説明形式(URDF)の拡張機能を紹介して、閉ループの運動構造をサポートします。
私たちのアプローチは、既存の設計およびシミュレーションフレームワークとの互換性を維持しながら、複雑なロボットシステムのより効率的なモデリングを可能にするために、最小限の追加情報でURDFを増強することに依存しています。
この方法は、並列メカニズムを効率的に処理するために、説明形式の基本要件を設定します。
この拡張された説明形式を生成および解析するためのツールとともに、並列ロボットのオープンソースコレクションを提供することにより、アプローチの適用性を実証します。
提案された拡張機能は、ロボットモデリングを簡素化し、冗長性を削減し、高度なロボットアプリケーションの使いやすさを向上させます。

要約(オリジナル)

Robotic designs played an important role in recent advances by providing powerful robots with complex mechanics. Many recent systems rely on parallel actuation to provide lighter limbs and allow more complex motion. However, these emerging architectures fall outside the scope of most used description formats, leading to difficulties when designing, storing, and sharing the models of these systems. This paper introduces an extension to the widely used Unified Robot Description Format (URDF) to support closed-loop kinematic structures. Our approach relies on augmenting URDF with minimal additional information to allow more efficient modeling of complex robotic systems while maintaining compatibility with existing design and simulation frameworks. This method sets the basic requirement for a description format to handle parallel mechanisms efficiently. We demonstrate the applicability of our approach by providing an open-source collection of parallel robots, along with tools for generating and parsing this extended description format. The proposed extension simplifies robot modeling, reduces redundancy, and improves usability for advanced robotic applications.

arxiv情報

著者 Virgile Batto,Ludovic de Matteis,Nicolas Mansard
発行日 2025-04-10 06:58:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Extended URDF: Accounting for parallel mechanism in robot description はコメントを受け付けていません

Drive in Corridors: Enhancing the Safety of End-to-end Autonomous Driving via Corridor Learning and Planning

要約

安全性は、自律運転システムにおける最も重要な課題の1つです。
近年、エンドツーエンドの運転は、スケーラブルな方法で車両の自律性を前進させることに大きな期待を示しています。
ただし、既存のアプローチは、明示的な動作の制約がないため、しばしば安全リスクに直面しています。
この問題に対処するために、廊下を中間表現として導入することにより、新しいパラダイムを明らかにします。
ロボット工学計画に広く採用されている廊下は、車両が横断するための時空間的な障害物のないゾーンを表しています。
多様なトラフィックシナリオで正確な回廊の予測を確保するために、データアノテーション、アーキテクチャの改良、損失の定式化など、包括的な学習パイプラインを開発します。
予測された廊下は、軌道最適化プロセスの制約としてさらに統合されています。
最適化の分化性を拡張することにより、最適化された軌道をエンドツーエンドの学習フレームワーク内でシームレスにトレーニングし、安全性と解釈可能性の両方を改善できます。
ヌスセンデータセットの実験結果は、当社のアプローチの最先端のパフォーマンスを示しており、エージェントとの衝突の66.7%の減少と縁石との46.5%の減少を示し、エンドツーエンドの運転の安全性を大幅に向上させます。
さらに、廊下を組み込むと、閉ループ評価の成功率が高くなります。

要約(オリジナル)

Safety remains one of the most critical challenges in autonomous driving systems. In recent years, the end-to-end driving has shown great promise in advancing vehicle autonomy in a scalable manner. However, existing approaches often face safety risks due to the lack of explicit behavior constraints. To address this issue, we uncover a new paradigm by introducing the corridor as the intermediate representation. Widely adopted in robotics planning, the corridors represents spatio-temporal obstacle-free zones for the vehicle to traverse. To ensure accurate corridor prediction in diverse traffic scenarios, we develop a comprehensive learning pipeline including data annotation, architecture refinement and loss formulation. The predicted corridor is further integrated as the constraint in a trajectory optimization process. By extending the differentiability of the optimization, we enable the optimized trajectory to be seamlessly trained within the end-to-end learning framework, improving both safety and interpretability. Experimental results on the nuScenes dataset demonstrate state-of-the-art performance of our approach, showing a 66.7% reduction in collisions with agents and a 46.5% reduction with curbs, significantly enhancing the safety of end-to-end driving. Additionally, incorporating the corridor contributes to higher success rates in closed-loop evaluations.

arxiv情報

著者 Zhiwei Zhang,Ruichen Yang,Ke Wu,Zijun Xu,Jingchu Liu,Lisen Mu,Zhongxue Gan,Wenchao Ding
発行日 2025-04-10 07:10:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Drive in Corridors: Enhancing the Safety of End-to-end Autonomous Driving via Corridor Learning and Planning はコメントを受け付けていません

Efficient Swept Volume-Based Trajectory Generation for Arbitrary-Shaped Ground Robot Navigation

要約

散らかった環境で任意の形の地上ロボットを安全にナビゲートすることは、挑戦的な問題のままです。
ロボットの物理的な幾何学を説明する既存の軌跡計画者は、手に負えないランタイムに深刻に苦しんでいます。
任意の形状の地上ロボット計画の計算効率と継続的な衝突回避(CCA)の両方を達成するために、計画を大幅に加速する新しい粗からファインへのナビゲーションフレームワークを提案しました。
最初の段階では、サンプリングベースのメソッドは、最小膨張したマージンを保証する明確なトポロジーパスを選択的に生成します。
第2段階では、ジオメトリ認識フロントエンド戦略がこれらのトポロジをフル状態のロボットモーションシーケンスに離散化しながら、SE(2)サブ問題とバックエンド最適化のためのよりシンプルなR2サブ問題へのパスを同時に分割するように設計されています。
最終段階では、SVSDFベースのオプティマイザーは、これらのサブ問題に合わせた軌跡を生成し、連続的な最終モーションプランにシームレスにスプライスします。
広範なベンチマークの比較は、提案された方法が、高い計画成功率を維持し、CCAを確保しながら、ランタイムの最先端の方法よりも1桁から数桁高速であることを示しています。

要約(オリジナル)

Navigating an arbitrary-shaped ground robot safely in cluttered environments remains a challenging problem. The existing trajectory planners that account for the robot’s physical geometry severely suffer from the intractable runtime. To achieve both computational efficiency and Continuous Collision Avoidance (CCA) of arbitrary-shaped ground robot planning, we proposed a novel coarse-to-fine navigation framework that significantly accelerates planning. In the first stage, a sampling-based method selectively generates distinct topological paths that guarantee a minimum inflated margin. In the second stage, a geometry-aware front-end strategy is designed to discretize these topologies into full-state robot motion sequences while concurrently partitioning the paths into SE(2) sub-problems and simpler R2 sub-problems for back-end optimization. In the final stage, an SVSDF-based optimizer generates trajectories tailored to these sub-problems and seamlessly splices them into a continuous final motion plan. Extensive benchmark comparisons show that the proposed method is one to several orders of magnitude faster than the cutting-edge methods in runtime while maintaining a high planning success rate and ensuring CCA.

arxiv情報

著者 Yisheng Li,Longji Yin,Yixi Cai,Jianheng Liu,Haotian Li,Fu Zhang
発行日 2025-04-10 08:34:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Efficient Swept Volume-Based Trajectory Generation for Arbitrary-Shaped Ground Robot Navigation はコメントを受け付けていません

SGFormer: Satellite-Ground Fusion for 3D Semantic Scene Completion

要約

最近、カメラベースのソリューションがシーンセマンティック完了(SSC)について広範囲に調査されています。
目に見える領域での成功にもかかわらず、既存の方法は、頻繁な視覚閉塞のために完全なシーンセマンティクスをキャプチャするのに苦労しています。
この制限に対処するために、このペーパーでは、最初の衛星地面協同組合SSCフレームワーク、つまりSGFormerを紹介し、SSCタスクの衛星地面画像ペアの可能性を調査します。
具体的には、直交衛星と地上ビューを並行して統合するデュアルブランチアーキテクチャを提案し、それらを共通のドメインに統合します。
さらに、機能エンコーディング中に衛星画像バイアスを修正するグラウンドビューガイダンス戦略を設計し、衛星ビューとグラウンドビューの間の不整合に対処します。
さらに、衛星と地上ビューからの貢献のバランスをとる適応重み付け戦略を開発します。
実験は、SGFORMERがSemantickittiおよびSSCBench-Kitti-360データセットの最新技術を上回ることを示しています。
私たちのコードは、https://github.com/gxytcrc/sgformerで入手できます。

要約(オリジナル)

Recently, camera-based solutions have been extensively explored for scene semantic completion (SSC). Despite their success in visible areas, existing methods struggle to capture complete scene semantics due to frequent visual occlusions. To address this limitation, this paper presents the first satellite-ground cooperative SSC framework, i.e., SGFormer, exploring the potential of satellite-ground image pairs in the SSC task. Specifically, we propose a dual-branch architecture that encodes orthogonal satellite and ground views in parallel, unifying them into a common domain. Additionally, we design a ground-view guidance strategy that corrects satellite image biases during feature encoding, addressing misalignment between satellite and ground views. Moreover, we develop an adaptive weighting strategy that balances contributions from satellite and ground views. Experiments demonstrate that SGFormer outperforms the state of the art on SemanticKITTI and SSCBench-KITTI-360 datasets. Our code is available on https://github.com/gxytcrc/SGFormer.

arxiv情報

著者 Xiyue Guo,Jiarui Hu,Junjie Hu,Hujun Bao,Guofeng Zhang
発行日 2025-04-10 08:47:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | SGFormer: Satellite-Ground Fusion for 3D Semantic Scene Completion はコメントを受け付けていません

DiffusionDrive: Truncated Diffusion Model for End-to-End Autonomous Driving

要約

最近、拡散モデルは、マルチモードアクション分布をモデル化できるロボットポリシー学習の強力な生成手法として浮上しています。
エンドツーエンドの自律運転の能力を活用することは、有望な方向です。
ただし、ロボット拡散ポリシーの多くの除去ステップと、トラフィックシーンのより動的でオープンワールドの性質は、リアルタイムの速度で多様な運転アクションを生成するための大きな課題をもたらします。
これらの課題に対処するために、以前のマルチモードアンカーを組み込み、拡散スケジュールを切り捨てる新しい切り捨てられた拡散ポリシーを提案し、モデルがアンカーのガウス分布からマルチモードの駆動アクション分布への除去を学習できるようにします。
さらに、条件付きシーンコンテキストとの相互作用を強化するために、効率的なカスケード拡散デコーダーを設計します。
提案されたモデルであるDiffusionDriveは、バニラ拡散ポリシーと比較して10ドルの時間$削減ステップの削減を示し、わずか2ステップで優れた多様性と品質を提供します。
Aligned ResNet-34バックボーンを備えた計画指向のNAVSIMデータセットでは、DiffusionDriveはベルやホイッスルなしで88.1 PDMSを達成し、NVIDIA 4090で45 fpsのリアルタイム速度で実行されます。
コードとモデルはhttps://github.com/hustvl/diffusiondriveで入手できます。

要約(オリジナル)

Recently, the diffusion model has emerged as a powerful generative technique for robotic policy learning, capable of modeling multi-mode action distributions. Leveraging its capability for end-to-end autonomous driving is a promising direction. However, the numerous denoising steps in the robotic diffusion policy and the more dynamic, open-world nature of traffic scenes pose substantial challenges for generating diverse driving actions at a real-time speed. To address these challenges, we propose a novel truncated diffusion policy that incorporates prior multi-mode anchors and truncates the diffusion schedule, enabling the model to learn denoising from anchored Gaussian distribution to the multi-mode driving action distribution. Additionally, we design an efficient cascade diffusion decoder for enhanced interaction with conditional scene context. The proposed model, DiffusionDrive, demonstrates 10$\times$ reduction in denoising steps compared to vanilla diffusion policy, delivering superior diversity and quality in just 2 steps. On the planning-oriented NAVSIM dataset, with the aligned ResNet-34 backbone, DiffusionDrive achieves 88.1 PDMS without bells and whistles, setting a new record, while running at a real-time speed of 45 FPS on an NVIDIA 4090. Qualitative results on challenging scenarios further confirm that DiffusionDrive can robustly generate diverse plausible driving actions. Code and model will be available at https://github.com/hustvl/DiffusionDrive.

arxiv情報

著者 Bencheng Liao,Shaoyu Chen,Haoran Yin,Bo Jiang,Cheng Wang,Sixu Yan,Xinbang Zhang,Xiangyu Li,Ying Zhang,Qian Zhang,Xinggang Wang
発行日 2025-04-10 08:48:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | DiffusionDrive: Truncated Diffusion Model for End-to-End Autonomous Driving はコメントを受け付けていません

Reachability-Guaranteed Optimal Control for the Interception of Dynamic Targets under Uncertainty

要約

不確実な環境での動的オブジェクトを傍受するには、現代のロボットシステムにおける重要な未解決の課題が含まれます。
現在の制御アプローチは、推定情報のみに依存しており、結果には堅牢性と実現可能性の保証がありません。
この作業では、既知の境界の不確実性によって動きが影響を受けるターゲットの傍受に取り組むための新しい方法を紹介します。
私たちのアプローチでは、不確実な条件下での傍受の実現可能性を保証するために活用された剛体の到達可能性分析の新しい技術を導入します。
次に、到達可能性の保証最適制御問題を提案し、ターゲットセットの堅牢性と保証された到達可能性を確保します。
宇宙の転倒ターゲットの傍受操作のケーススタディで方法論を示します。

要約(オリジナル)

Intercepting dynamic objects in uncertain environments involves a significant unresolved challenge in modern robotic systems. Current control approaches rely solely on estimated information, and results lack guarantees of robustness and feasibility. In this work, we introduce a novel method to tackle the interception of targets whose motion is affected by known and bounded uncertainty. Our approach introduces new techniques of reachability analysis for rigid bodies, leveraged to guarantee feasibility of interception under uncertain conditions. We then propose a Reachability-Guaranteed Optimal Control Problem, ensuring robustness and guaranteed reachability to a target set of configurations. We demonstrate the methodology in the case study of an interception maneuver of a tumbling target in space.

arxiv情報

著者 Tommaso Faraci,Roberto Lampariello
発行日 2025-04-10 09:08:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Reachability-Guaranteed Optimal Control for the Interception of Dynamic Targets under Uncertainty はコメントを受け付けていません