Enhancing Regrasping Efficiency Using Prior Grasping Perceptions with Soft Fingertips

要約

特にツールや積み重ねられたアイテムを処理する場合、異なる姿勢で同じオブジェクトを把握することがしばしば必要です。
不明なオブジェクトの特性と把握姿勢の変化により、必要な把握力は不確実で変動します。
従来の方法は、滑りやダメージを防ぐことを目指して、滑らかな力を慎重に制御するためにリアルタイムのフィードバックに依存しています。
しかし、彼らは最初の把握から再利用可能な情報を見落とし、その後の再生試みを最初のものであるかのように扱い、効率を大幅に低下させます。
これを改善するために、ポジションの変化があっても、必要な把握力を予測するための以前の把握試みからの知覚を利用する方法を提案します。
また、指先の柔らかさとオブジェクトの非対称性を説明する計算方法も紹介します。
理論分析は、単一の把握後にさまざまな姿勢で握る力を予測する可能性を示しています。
実験的検証は、予測方法の精度と適応性を証明しています。
さらに、結果は、予測された握る力をフィードバックベースのアプローチに組み込むことで、さまざまな日常のオブジェクトにわたって把握効率を大幅に向上させることを示しています。

要約(オリジナル)

Grasping the same object in different postures is often necessary, especially when handling tools or stacked items. Due to unknown object properties and changes in grasping posture, the required grasping force is uncertain and variable. Traditional methods rely on real-time feedback to control the grasping force cautiously, aiming to prevent slipping or damage. However, they overlook reusable information from the initial grasp, treating subsequent regrasping attempts as if they were the first, which significantly reduces efficiency. To improve this, we propose a method that utilizes perception from prior grasping attempts to predict the required grasping force, even with changes in position. We also introduce a calculation method that accounts for fingertip softness and object asymmetry. Theoretical analyses demonstrate the feasibility of predicting grasping forces across various postures after a single grasp. Experimental verifications attest to the accuracy and adaptability of our prediction method. Furthermore, results show that incorporating the predicted grasping force into feedback-based approaches significantly enhances grasping efficiency across a range of everyday objects.

arxiv情報

著者 Qiyin Huang,Ruomin Sui,Lunwei Zhang,Yenhang Zhou,Tiemin Li,Yao Jiang
発行日 2025-03-14 03:51:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Enhancing Regrasping Efficiency Using Prior Grasping Perceptions with Soft Fingertips はコメントを受け付けていません

Training Directional Locomotion for Quadrupedal Low-Cost Robotic Systems via Deep Reinforcement Learning

要約

この作業では、現実の世界の低コスト四足動物ロボットの方向移動のディープ補強学習(DRL)トレーニングを紹介します。
特に、ロボットは、前方移動とコース調整の両方を学習するのに最も役立つアクションステートの移行の調査を促進するために、ロボットが従わなければならない見出しのランダム化を活用します。
エピソードの見出しを現在のヨーにリセットすることに加えて、正規分布から描かれたランダムな値は、両方向に頻繁にターンを含む複雑な軌跡に従うことができるポリシーを生成します。
見出しを繰り返し変更することにより、この方法はロボットをトレーニングプラットフォーム内で動かし続け、したがって、トレーニング中に人間の関与と手動リセットの必要性を減らします。
カスタムで構築された低コストの四足動物での現実世界の実験は、ロボットがすべての検証テストを正常にナビゲートすることで、私たちの方法の有効性を示しています。
他のアプローチで訓練された場合、ロボットは前方移動テストでのみ成功し、ターニングが必要なときに失敗します。

要約(オリジナル)

In this work we present Deep Reinforcement Learning (DRL) training of directional locomotion for low-cost quadrupedal robots in the real world. In particular, we exploit randomization of heading that the robot must follow to foster exploration of action-state transitions most useful for learning both forward locomotion as well as course adjustments. Changing the heading in episode resets to current yaw plus a random value drawn from a normal distribution yields policies able to follow complex trajectories involving frequent turns in both directions as well as long straight-line stretches. By repeatedly changing the heading, this method keeps the robot moving within the training platform and thus reduces human involvement and need for manual resets during the training. Real world experiments on a custom-built, low-cost quadruped demonstrate the efficacy of our method with the robot successfully navigating all validation tests. When trained with other approaches, the robot only succeeds in forward locomotion test and fails when turning is required.

arxiv情報

著者 Peter Böhm,Archie C. Chapman,Pauline Pounds
発行日 2025-03-14 03:53:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Training Directional Locomotion for Quadrupedal Low-Cost Robotic Systems via Deep Reinforcement Learning はコメントを受け付けていません

Low-cost Real-world Implementation of the Swing-up Pendulum for Deep Reinforcement Learning Experiments

要約

Deep Rehnection Learning(DRL)は仮想ドメインとシミュレーションドメインで成功していますが、シミュレートされた環境と実際の環境の間の重要な違いにより、DRLトレーニングを受けたポリシーは、実際のアプリケーションで成功しました。
このホワイトペーパーでは、研究者が\ textit {sim-to-realギャップ}を橋渡しするのを支援するために、SIM-to-Real DRLメソッドを探索するための低コストの物理的逆振り子装置とソフトウェア環境について説明します。
特に、私たちの装置の設計により、感知、通信、学習、推測、および作動時に物理システムで生じる遅延を詳細に調べることができます。
さらに、私たちは教育システムへのアクセスを改善したいと考えているため、私たちの装置は、コストと物流の障壁を削減するために、容易に利用可能な材料と部品を使用します。
私たちの設計は、一般的な金属押出、ダボ、3D印刷された結合と組み合わされた商用、既製の電子機器、電気機械およびセンサーシステムが、手頃な物理DRL装置の経路をどのように提供するかを示しています。
物理的な装置は、高忠実度の物理学エンジンとOpenaiジムインターフェイスを使用して実装されたシミュレートされた環境で補完されます。

要約(オリジナル)

Deep reinforcement learning (DRL) has had success in virtual and simulated domains, but due to key differences between simulated and real-world environments, DRL-trained policies have had limited success in real-world applications. To assist researchers to bridge the \textit{sim-to-real gap}, in this paper, we describe a low-cost physical inverted pendulum apparatus and software environment for exploring sim-to-real DRL methods. In particular, the design of our apparatus enables detailed examination of the delays that arise in physical systems when sensing, communicating, learning, inferring and actuating. Moreover, we wish to improve access to educational systems, so our apparatus uses readily available materials and parts to reduce cost and logistical barriers. Our design shows how commercial, off-the-shelf electronics and electromechanical and sensor systems, combined with common metal extrusions, dowel and 3D printed couplings provide a pathway for affordable physical DRL apparatus. The physical apparatus is complemented with a simulated environment implemented using a high-fidelity physics engine and OpenAI Gym interface.

arxiv情報

著者 Peter Böhm,Pauline Pounds,Archie C. Chapman
発行日 2025-03-14 04:18:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO, cs.SY, eess.SY | Low-cost Real-world Implementation of the Swing-up Pendulum for Deep Reinforcement Learning Experiments はコメントを受け付けていません

A High-Speed Time-Optimal Trajectory Generation Strategy via a Two-layer Planning Model

要約

モーション計画と軌跡の生成は、無人航空機(UAV)、マニピュレーター、ロケットの制御など、さまざまなドメインにおける重要な技術です。
ただし、問題の非概念性と非線形プログラミングアルゴリズムの固有の制限により、最適化ベースのリアルタイムモーション計画はますます困難になります。
高度に非線形のダイナミクス、障害物回避の制約、および非凸入力は、これらの困難を悪化させる可能性があります。
これらのハードルに対処するために、このペーパーでは、軌道最適化のリアルタイム保証を提供することを目的とした、小さな時間帯の凸状のプログラミングのサブ問題を動的に再定式化することにより、2D車両の2層最適化アルゴリズムを提案します。
私たちのアプローチでは、元の問題を、計画サイクルと呼ばれる固定された最終時間を備えた小さな地平線ベースの計画サイクルに分割することが含まれます。
各計画サイクルは、カスタマイズされた検索アルゴリズムによって段階的に識別される一連の制限された凸セット内で解決されます。
提案されているアルゴリズムの主な利点には、速い計算速度とタスクタイムの削減が含まれます。
いくつかの中程度の前提条件と実験結果の下で、数学的証明を通じてこれらの利点を示します。

要約(オリジナル)

Motion planning and trajectory generation are crucial technologies in various domains including the control of Unmanned Aerial Vehicles (UAV), manipulators, and rockets. However, optimization-based real-time motion planning becomes increasingly challenging due to the problem’s probable non-convexity and the inherent limitations of Non-Linear Programming algorithms. Highly nonlinear dynamics, obstacle avoidance constraints, and non-convex inputs can exacerbate these difficulties. To address these hurdles, this paper proposes a two-layer optimization algorithm for 2D vehicles by dynamically reformulating small time horizon convex programming subproblems, aiming to provide real-time guarantees for trajectory optimization. Our approach involves breaking down the original problem into small horizon-based planning cycles with fixed final times, referred to as planning cycles. Each planning cycle is then solved within a series of restricted convex sets identified by our customized search algorithms incrementally. The key benefits of our proposed algorithm include fast computation speeds and lower task time. We demonstrate these advantages through mathematical proofs under some moderate preconditions and experimental results.

arxiv情報

著者 Haotian Tan,Yuan-Hua Ni
発行日 2025-03-14 04:31:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, math.OC | A High-Speed Time-Optimal Trajectory Generation Strategy via a Two-layer Planning Model はコメントを受け付けていません

MR-COGraphs: Communication-efficient Multi-Robot Open-vocabulary Mapping System via 3D Scene Graphs

要約

未知の環境での共同認識は、マルチロボットシステムにとって重要です。
基礎モデルの出現により、ロボットは幾何学的な情報を知覚するだけでなく、オープンボキャブラリーシーンの理解を達成できるようになりました。
ただし、オープンボキャブラリークエリをサポートする既存のマップ表現には、多くの場合、大量のデータ量が含まれ、通信制限環境でのマルチロボット伝送のボトルネックになります。
この課題に対処するために、コグラフと呼ばれるグラフ構造の3D表現を構築する方法を開発します。ここでは、ノードはセマンティック機能を持つオブジェクトを表し、エッジは空間的隣接関係をキャプチャします。
伝送の前に、データ駆動型機能エンコーダーが適用され、コグラフの特徴寸法を圧縮します。
他のロボットからコグラフを受信すると、各ノードのセマンティック機能がデコーダーを使用して回復します。
また、場所の認識と翻訳推定のための機能ベースのアプローチを提案し、ローカルコグラフと統一されたグローバルマップへの融合を可能にします。
2つの現実的なデータセットと実際の環境でフレームワークを検証します。
結果は、オープンボキャブラリーマップ構造の既存のベースラインと比較して、我々のフレームワークにより、マッピングとクエリのパフォーマンスを妥協せずに維持しながら、データ量を80 \%以上削減することが示されています。
詳細については、当社のWebサイトhttps://github.com/efc-robot/mr-cographsをご覧ください。

要約(オリジナル)

Collaborative perception in unknown environments is crucial for multi-robot systems. With the emergence of foundation models, robots can now not only perceive geometric information but also achieve open-vocabulary scene understanding. However, existing map representations that support open-vocabulary queries often involve large data volumes, which becomes a bottleneck for multi-robot transmission in communication-limited environments. To address this challenge, we develop a method to construct a graph-structured 3D representation called COGraph, where nodes represent objects with semantic features and edges capture their spatial adjacency relationships. Before transmission, a data-driven feature encoder is applied to compress the feature dimensions of the COGraph. Upon receiving COGraphs from other robots, the semantic features of each node are recovered using a decoder. We also propose a feature-based approach for place recognition and translation estimation, enabling the merging of local COGraphs into a unified global map. We validate our framework on two realistic datasets and the real-world environment. The results demonstrate that, compared to existing baselines for open-vocabulary map construction, our framework reduces the data volume by over 80\% while maintaining mapping and query performance without compromise. For more details, please visit our website at https://github.com/efc-robot/MR-COGraphs.

arxiv情報

著者 Qiuyi Gu,Zhaocheng Ye,Jincheng Yu,Jiahao Tang,Tinghao Yi,Yuhan Dong,Jian Wang,Jinqiang Cui,Xinlei Chen,Yu Wang
発行日 2025-03-14 04:37:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | MR-COGraphs: Communication-efficient Multi-Robot Open-vocabulary Mapping System via 3D Scene Graphs はコメントを受け付けていません

MoMa-Kitchen: A 100K+ Benchmark for Affordance-Grounded Last-Mile Navigation in Mobile Manipulation

要約

モバイル操作では、ナビゲーションと操作はしばしば別々の問題として扱われ、その結果、単にオブジェクトに近づくことと効果的に関与することとの間に大きなギャップが生じます。
多くのナビゲーションアプローチは、主にターゲットに近接して成功を定義し、しばしばその後の操作を促進する最適な位置決めの必要性を見落としています。
これに対処するために、操作へのシームレスな移行のために最適な最終ナビゲーション位置を学習するためのモデルのトレーニングデータを提供する100,000以上のサンプルを含むベンチマークデータセットであるMoMa-Kitchenを紹介します。
私たちのデータセットには、さまざまなキッチン環境から収集されたアフォーデンスグラウンドのフロアラベルが含まれています。ここでは、さまざまなモデルのロボットモバイルマニピュレーターが散らかった際のターゲットオブジェクトを把握しようとします。
完全に自動化されたパイプラインを使用して、多様な現実世界のシナリオをシミュレートし、最適な操作位置のためにアフォーダンスラベルを生成します。
視覚データは、ロボットアームに取り付けられた一人称ビューカメラによってキャプチャされたRGB-D入力から収集され、データ収集中の視点の一貫性を確保します。
また、MoMa-Kitchenベンチマークで有望なパフォーマンスを示すナビゲーションアフォーダンスの接地のために、軽量のベースラインモデルであるNavaffを開発します。
私たちのアプローチにより、モデルは、さまざまなアームタイプとプラットフォームの高さに対応するアフォーダンスベースの最終的な位置付けを学ぶことができ、それにより、具体化されたAIにおけるナビゲーションと操作のより堅牢で一般化可能な統合の道を開いています。
プロジェクトページ:\ href {https://momakitchen.github.io/} {https://momakitchen.github.io/}。

要約(オリジナル)

In mobile manipulation, navigation and manipulation are often treated as separate problems, resulting in a significant gap between merely approaching an object and engaging with it effectively. Many navigation approaches primarily define success by proximity to the target, often overlooking the necessity for optimal positioning that facilitates subsequent manipulation. To address this, we introduce MoMa-Kitchen, a benchmark dataset comprising over 100k samples that provide training data for models to learn optimal final navigation positions for seamless transition to manipulation. Our dataset includes affordance-grounded floor labels collected from diverse kitchen environments, in which robotic mobile manipulators of different models attempt to grasp target objects amidst clutter. Using a fully automated pipeline, we simulate diverse real-world scenarios and generate affordance labels for optimal manipulation positions. Visual data are collected from RGB-D inputs captured by a first-person view camera mounted on the robotic arm, ensuring consistency in viewpoint during data collection. We also develop a lightweight baseline model, NavAff, for navigation affordance grounding that demonstrates promising performance on the MoMa-Kitchen benchmark. Our approach enables models to learn affordance-based final positioning that accommodates different arm types and platform heights, thereby paving the way for more robust and generalizable integration of navigation and manipulation in embodied AI. Project page: \href{https://momakitchen.github.io/}{https://momakitchen.github.io/}.

arxiv情報

著者 Pingrui Zhang,Xianqiang Gao,Yuhan Wu,Kehui Liu,Dong Wang,Zhigang Wang,Bin Zhao,Yan Ding,Xuelong Li
発行日 2025-03-14 04:47:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | MoMa-Kitchen: A 100K+ Benchmark for Affordance-Grounded Last-Mile Navigation in Mobile Manipulation はコメントを受け付けていません

GP-enhanced Autonomous Drifting Framework using ADMM-based iLQR

要約

自律的なドリフトは、特に不確実な環境では、非常に非線形のダイナミクスと正確なリアルタイム制御の必要性のために複雑な課題です。
これらの制限に対処するために、このペーパーでは、一般的な経路に沿って漂う自律車両の階層制御フレームワークを提示し、主にモデルの不正確さに対処し、リアルタイム制御における計算上の課題を軽減することに焦点を当てています。
このフレームワークは、ガウスプロセス(GP)回帰を、乗数(ADMM)ベースの反復線形二次レギュレーター(ILQR)の交互方向方法と統合します。
GP回帰は、モデルの残差を効果的に補正し、動的条件の精度を向上させます。
ADMMベースのILQRは、ILQRの迅速な軌道最適化を組み合わせただけでなく、問題をより単純なサブ問題に分解する際のADMMの強さも利用します。
シミュレーション結果は、提案されたフレームワークの有効性を示しており、ドリフト軌道追跡と計算効率の両方が大幅に改善されています。
私たちのアプローチにより、RMSE横方向の誤差が38ドル$ \%$削減され、インテリアポイントオプティマイザー(IPOPT)よりも75 $ \%$が低い平均計算時間が達成されました。

要約(オリジナル)

Autonomous drifting is a complex challenge due to the highly nonlinear dynamics and the need for precise real-time control, especially in uncertain environments. To address these limitations, this paper presents a hierarchical control framework for autonomous vehicles drifting along general paths, primarily focusing on addressing model inaccuracies and mitigating computational challenges in real-time control. The framework integrates Gaussian Process (GP) regression with an Alternating Direction Method of Multipliers (ADMM)-based iterative Linear Quadratic Regulator (iLQR). GP regression effectively compensates for model residuals, improving accuracy in dynamic conditions. ADMM-based iLQR not only combines the rapid trajectory optimization of iLQR but also utilizes ADMM’s strength in decomposing the problem into simpler sub-problems. Simulation results demonstrate the effectiveness of the proposed framework, with significant improvements in both drift trajectory tracking and computational efficiency. Our approach resulted in a 38$\%$ reduction in RMSE lateral error and achieved an average computation time that is 75$\%$ lower than that of the Interior Point OPTimizer (IPOPT).

arxiv情報

著者 Yangyang Xie,Cheng Hu,Nicolas Baumann,Edoardo Ghignone,Michele Magno,Lei Xie
発行日 2025-03-14 04:49:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | GP-enhanced Autonomous Drifting Framework using ADMM-based iLQR はコメントを受け付けていません

EmbodiedVSR: Dynamic Scene Graph-Guided Chain-of-Thought Reasoning for Visual Spatial Tasks

要約

マルチモーダルの大手言語モデル(MLLM)は、具体化された知性を画期的に進歩させていますが、複雑な長老タスクの空間的推論において大きな課題に直面しています。
このギャップに対処するために、具体化されたエージェントの空間的理解を高めるためのグラフ誘導チェーン(COT)推論を統合する動的なシーンを統合する新しいフレームワークであるEmbodiedVSR(具体化された視覚空間推論)を提案します。
動的シーングラフを通じて構造化された知識表現を明示的に構築することにより、この方法により、タスク固有の微調整なしでゼロショット空間推論が可能になります。
このアプローチは、複雑な空間的関係を解き放つだけでなく、推論ステップを実用的な環境ダイナミクスに合わせます。
パフォーマンスを厳密に評価するために、エスパティアベンチマークを紹介します。これは、微細な空間注釈と適応的なタスクの難易度を備えた実際の具体化されたシナリオを含む包括的なデータセットです。
実験は、特に反復的な環境相互作用を必要とする長老のタスクで、既存のMLLMベースのメソッドを精度と推論的な一貫性を大きく上回ることを示しています。
結果は、構造化された説明可能な推論メカニズムを装備した場合、具体化されたインテリジェンスのMLLMの未開発の可能性を明らかにし、実際の空間アプリケーションでより信頼できる展開への道を開いています。
コードとデータセットはまもなくリリースされます。

要約(オリジナル)

While multimodal large language models (MLLMs) have made groundbreaking progress in embodied intelligence, they still face significant challenges in spatial reasoning for complex long-horizon tasks. To address this gap, we propose EmbodiedVSR (Embodied Visual Spatial Reasoning), a novel framework that integrates dynamic scene graph-guided Chain-of-Thought (CoT) reasoning to enhance spatial understanding for embodied agents. By explicitly constructing structured knowledge representations through dynamic scene graphs, our method enables zero-shot spatial reasoning without task-specific fine-tuning. This approach not only disentangles intricate spatial relationships but also aligns reasoning steps with actionable environmental dynamics. To rigorously evaluate performance, we introduce the eSpatial-Benchmark, a comprehensive dataset including real-world embodied scenarios with fine-grained spatial annotations and adaptive task difficulty levels. Experiments demonstrate that our framework significantly outperforms existing MLLM-based methods in accuracy and reasoning coherence, particularly in long-horizon tasks requiring iterative environment interaction. The results reveal the untapped potential of MLLMs for embodied intelligence when equipped with structured, explainable reasoning mechanisms, paving the way for more reliable deployment in real-world spatial applications. The codes and datasets will be released soon.

arxiv情報

著者 Yi Zhang,Qiang Zhang,Xiaozhu Ju,Zhaoyang Liu,Jilei Mao,Jingkai Sun,Jintao Wu,Shixiong Gao,Shihan Cai,Zhiyuan Qin,Linkai Liang,Jiaxu Wang,Yiqun Duan,Jiahang Cao,Renjing Xu,Jian Tang
発行日 2025-03-14 05:06:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | EmbodiedVSR: Dynamic Scene Graph-Guided Chain-of-Thought Reasoning for Visual Spatial Tasks はコメントを受け付けていません

Flow-Aware Navigation of Magnetic Micro-Robots in Complex Fluids via PINN-Based Prediction

要約

磁気マイクロロボットは、薬物送達や顕微手術など、さまざまな用途にわたって重要な可能性を実証していますが、複雑な流体環境での正確なナビゲーションと制御のオープンな問題は、in vivoの実装に重要です。
このペーパーでは、動きに対する流体の流れの影響を明示的に説明する磁気マイクロロボットの新しいフロー認識ナビゲーションと制御戦略を紹介します。
第一に、提案された方法は、物理学に基づいたU-Net(PI-UNET)を採用して、局所的な観測を使用して数値的に予測される流体速度を改良します。
次に、予測速度は、流れを覚えるA*パス計画アルゴリズムに組み込まれ、流れ誘導障害を軽減しながら効率的なナビゲーションを確保します。
最後に、予測される流体速度を補うために制御スキームが開発され、それによってマイクロロボットのパフォーマンスが最適化されます。
提案されたアプローチの有効性を検証するために、一連のシミュレーション研究と実世界の実験が実施されます。
この方法は、計画精度と制御精度の両方を強化し、多くの医療シナリオに典型的な流体に影響を受けた環境での磁気マイクロロボットの潜在的なアプリケーションを拡大します。

要約(オリジナル)

While magnetic micro-robots have demonstrated significant potential across various applications, including drug delivery and microsurgery, the open issue of precise navigation and control in complex fluid environments is crucial for in vivo implementation. This paper introduces a novel flow-aware navigation and control strategy for magnetic micro-robots that explicitly accounts for the impact of fluid flow on their movement. First, the proposed method employs a Physics-Informed U-Net (PI-UNet) to refine the numerically predicted fluid velocity using local observations. Then, the predicted velocity is incorporated in a flow-aware A* path planning algorithm, ensuring efficient navigation while mitigating flow-induced disturbances. Finally, a control scheme is developed to compensate for the predicted fluid velocity, thereby optimizing the micro-robot’s performance. A series of simulation studies and real-world experiments are conducted to validate the efficacy of the proposed approach. This method enhances both planning accuracy and control precision, expanding the potential applications of magnetic micro-robots in fluid-affected environments typical of many medical scenarios.

arxiv情報

著者 Yongyi Jia,Shu Miao,Jiayu Wu,Ming Yang,Chengzhi Hu,Xiang Li
発行日 2025-03-14 06:36:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY, physics.flu-dyn | Flow-Aware Navigation of Magnetic Micro-Robots in Complex Fluids via PINN-Based Prediction はコメントを受け付けていません

Fast Global Localization on Neural Radiance Field

要約

ニューラル放射輝度フィールド(NERF)は、シーンを表す新しい方法を提示し、2D画像から高品質の3D再構成を可能にしました。
その驚くべき成果に続いて、NERFマップ内のグローバルなローカリゼーションは、幅広いアプリケーションを可能にするために不可欠なタスクです。
最近、Loc-Nerfは、従来のモンテカルロのローカリゼーションとNERFを組み合わせたローカリゼーションアプローチを実証し、NERFを環境マップとして使用することで有望な結果を示しました。
ただし、その進歩にもかかわらず、Loc-NERFは、時間をかけた光線レンダリングプロセスの課題に遭遇します。これは、実際のアプリケーションの大きな制限となる可能性があります。
この問題に対処するために、より効率的で正確なNERF MAPベースのグローバルローカリゼーションを可能にするために、粗からファインへのアプローチを活用する高速loc-nerfを導入します。
具体的には、高速loc-nerfは、レンダリングされたピクセルと、低解像度から高解像度への多解像度で観測された画像と一致します。
その結果、正確なローカリゼーション結果を維持しながら、高価な粒子更新プロセスをスピードアップします。
さらに、異常な粒子を拒否するために、粒子の拒絶重量を提案します。これは、NERFの特性を活用することにより粒子の不確実性を推定し、粒子の重み付けプロセスでそれらを考慮します。
Fast Loc-nerfは、いくつかのベンチマークで新しい最先端のローカリゼーションパフォーマンスを設定し、その精度と効率を納得させます。

要約(オリジナル)

Neural Radiance Fields (NeRF) presented a novel way to represent scenes, allowing for high-quality 3D reconstruction from 2D images. Following its remarkable achievements, global localization within NeRF maps is an essential task for enabling a wide range of applications. Recently, Loc-NeRF demonstrated a localization approach that combines traditional Monte Carlo Localization with NeRF, showing promising results for using NeRF as an environment map. However, despite its advancements, Loc-NeRF encounters the challenge of a time-intensive ray rendering process, which can be a significant limitation in practical applications. To address this issue, we introduce Fast Loc-NeRF, which leverages a coarse-to-fine approach to enable more efficient and accurate NeRF map-based global localization. Specifically, Fast Loc-NeRF matches rendered pixels and observed images on a multi-resolution from low to high resolution. As a result, it speeds up the costly particle update process while maintaining precise localization results. Additionally, to reject the abnormal particles, we propose particle rejection weighting, which estimates the uncertainty of particles by exploiting NeRF’s characteristics and considers them in the particle weighting process. Our Fast Loc-NeRF sets new state-of-the-art localization performances on several benchmarks, convincing its accuracy and efficiency.

arxiv情報

著者 Mangyu Kong,Seongwon Lee,Jaewon Lee,Euntai Kim
発行日 2025-03-14 06:50:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Fast Global Localization on Neural Radiance Field はコメントを受け付けていません