Collision Induced Binding and Transport of Shape Changing Robot Pairs

要約

実験で報告し、局所的に反発的な衝突を受けている形状変化ロボットの動的に結合したペアの自発的な形成をシミュレーションします。
これらの物理的な「グライダー」は、個別にうねる3つのリンク2モーターロボットのアンサンブルから堅牢に現れ、複数のロボット寸法のために何百ものうねりや移動に縛られたままになります。
グライダーは2つの異なる結合対称性で発生し、広範囲の角度振動範囲で形成されます。
このパラメーターは、形成確率と翻訳特性に影響する最大凹面を設定します。
シミュレーションにおけるダイナミクスの分析により、効果的な動的魅力のメカニズムが明らかになりました。これは、適切に指向されたタイミングの反発相互作用の出現した相互作用の結果です。
触覚センシングは、凹面変調を介して短命の立体構造を安定させます。

要約(オリジナル)

We report in experiment and simulation the spontaneous formation of dynamically bound pairs of shape changing robots undergoing locally repulsive collisions. These physical `gliders’ robustly emerge from an ensemble of individually undulating three-link two-motor robots and can remain bound for hundreds of undulations and travel for multiple robot dimensions. Gliders occur in two distinct binding symmetries and form over a wide range of angular oscillation extent. This parameter sets the maximal concavity which influences formation probability and translation characteristics. Analysis of dynamics in simulation reveals the mechanism of effective dynamical attraction — a result of the emergent interplay of appropriately oriented and timed repulsive interactions. Tactile sensing stabilizes the short-lived conformation via concavity modulation.

arxiv情報

著者 Akash Vardhan,Ram Avinery,Hosain Bagheri,Velin Kojohourav,Shengkai Li,Hridesh Kedia,Tianyu Wang,Daniel Soto,Kurt Wiesenfeld,Daniel I. Goldman
発行日 2025-06-05 14:59:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, nlin.AO | Collision Induced Binding and Transport of Shape Changing Robot Pairs はコメントを受け付けていません

Whole-Body Constrained Learning for Legged Locomotion via Hierarchical Optimization

要約

Renforce Learning(RL)は、さまざまな挑戦的な環境にわたる脚のある移動の印象的なパフォーマンスを実証しています。
ただし、SIMからのギャップと説明の欠如により、現実の世界に展開された制約のないRLポリシーは、低摩擦環境での関節の衝突、過剰なトルク、または足の滑りなど、避けられない安全性の問題に依然として悩まされています。
これらの問題は、惑星探査、原子力施設の検査、深海事業など、厳格な安全要件を伴うミッションでの使用法を制限しています。
このペーパーでは、階層的最適化ベースの全身フォロワーを設計します。これにより、ハードとソフトの両方の制約がRLフレームワークに統合され、安全性の保証が改善されてロボットが動きます。
モデルベースの制御の利点を活用すると、当社のアプローチにより、トレーニングまたは展開中のさまざまなタイプのハードおよびソフト制約の定義が可能になります。これにより、ポリシーの微調整が可能になり、SIMからリアルへの転送の課題が緩和されます。
一方、複雑な非構造化環境での移動を扱うとき、RLの堅牢性を保持します。
導入された制約を伴う訓練されたポリシーは、六角形のロボットに展開され、雪に覆われた斜面や階段など、さまざまな屋外環境でテストされ、アプローチの大きな横断性と安全性を示しています。

要約(オリジナル)

Reinforcement learning (RL) has demonstrated impressive performance in legged locomotion over various challenging environments. However, due to the sim-to-real gap and lack of explainability, unconstrained RL policies deployed in the real world still suffer from inevitable safety issues, such as joint collisions, excessive torque, or foot slippage in low-friction environments. These problems limit its usage in missions with strict safety requirements, such as planetary exploration, nuclear facility inspection, and deep-sea operations. In this paper, we design a hierarchical optimization-based whole-body follower, which integrates both hard and soft constraints into RL framework to make the robot move with better safety guarantees. Leveraging the advantages of model-based control, our approach allows for the definition of various types of hard and soft constraints during training or deployment, which allows for policy fine-tuning and mitigates the challenges of sim-to-real transfer. Meanwhile, it preserves the robustness of RL when dealing with locomotion in complex unstructured environments. The trained policy with introduced constraints was deployed in a hexapod robot and tested in various outdoor environments, including snow-covered slopes and stairs, demonstrating the great traversability and safety of our approach.

arxiv情報

著者 Haoyu Wang,Ruyi Zhou,Liang Ding,Tie Liu,Zhelin Zhang,Peng Xu,Haibo Gao,Zongquan Deng
発行日 2025-06-05 15:00:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Whole-Body Constrained Learning for Legged Locomotion via Hierarchical Optimization はコメントを受け付けていません

Learning Rock Pushability on Rough Planetary Terrain

要約

構造化されていない環境でのモバイルナビゲーションのコンテキストでは、主要なアプローチは障害の回避を伴います。
一般的なパス計画アルゴリズムは、意図したパスから無期限に逸脱し、障害物が空間的に残された後、ルートの最も近いポイントに戻ることを条件としています。
ただし、複数のエージェントが繰り返し使用するパス上の障害を回避すると、長期的な効率を妨げ、アクティブなパス計画システムに永続的な依存につながる可能性があります。
この研究では、モバイルロボットの上に取り付けられたロボットマニピュレーターの操作能力を活用することにより、非構造化環境でのモバイルナビゲーションへの代替アプローチを提案します。
提案されたフレームワークは、外部受容および固有受容のフィードバックを統合して、障害物のプッシュアフォーダンスを評価し、回避ではなく再配置を促進します。
予備的な視覚推定では、障害物と依存している表面の両方の特性を考慮していますが、プッシュアフォーダンス推定モジュールは、ガイダンス信号としてロボットマニピュレーターを介して障害物と相互作用することによって得られる力フィードバックを利用します。
ナビゲーションアプローチの目的は、自律的なインフラ開発や火星の表面など、自律的なインフラ開発が不可欠な環境で艦隊が費やす全体の時間を短縮することにより、複数のエージェントが長期間にわたって利用するルートの効率を高めることです。

要約(オリジナル)

In the context of mobile navigation in unstructured environments, the predominant approach entails the avoidance of obstacles. The prevailing path planning algorithms are contingent upon deviating from the intended path for an indefinite duration and returning to the closest point on the route after the obstacle is left behind spatially. However, avoiding an obstacle on a path that will be used repeatedly by multiple agents can hinder long-term efficiency and lead to a lasting reliance on an active path planning system. In this study, we propose an alternative approach to mobile navigation in unstructured environments by leveraging the manipulation capabilities of a robotic manipulator mounted on top of a mobile robot. Our proposed framework integrates exteroceptive and proprioceptive feedback to assess the push affordance of obstacles, facilitating their repositioning rather than avoidance. While our preliminary visual estimation takes into account the characteristics of both the obstacle and the surface it relies on, the push affordance estimation module exploits the force feedback obtained by interacting with the obstacle via a robotic manipulator as the guidance signal. The objective of our navigation approach is to enhance the efficiency of routes utilized by multiple agents over extended periods by reducing the overall time spent by a fleet in environments where autonomous infrastructure development is imperative, such as lunar or Martian surfaces.

arxiv情報

著者 Tuba Girgin,Emre Girgin,Cagri Kilic
発行日 2025-06-05 15:00:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Learning Rock Pushability on Rough Planetary Terrain はコメントを受け付けていません

Realizing Text-Driven Motion Generation on NAO Robot: A Reinforcement Learning-Optimized Control Pipeline

要約

ヒューマノイドロボットの人間のモーションリターゲティングは、模倣のために人間のモーションデータをロボットに転送し、重要な課題を提示しますが、実際のアプリケーションにかなりの可能性を提供します。
従来、このプロセスは、ポーズ推定またはモーションキャプチャシステムを通じてキャプチャされた人間のデモに依存しています。
この論文では、ヒューマノイドへの人間の動きをマッピングするためのテキスト駆動型のアプローチを探ります。
生成された運動表現とヒューマノイドロボットの運動学的制約との間の固有の矛盾に対処するために、ノルムポジションと回転損失(NPR損失)に基づいて角度信号ネットワークを提案します。
ジョイントアングルを生成します。これは、強化学習ベースの全身関節モーションコントロールポリシーへの入力として機能します。
このポリシーにより、実行中のロボットの安定性を維持しながら、生成された動きの追跡が保証されます。
私たちの実験結果は、このアプローチの有効性を示しており、テキスト駆動型の人間の動きを実際のヒューマノイドロボットNAOに正常に転送します。

要約(オリジナル)

Human motion retargeting for humanoid robots, transferring human motion data to robots for imitation, presents significant challenges but offers considerable potential for real-world applications. Traditionally, this process relies on human demonstrations captured through pose estimation or motion capture systems. In this paper, we explore a text-driven approach to mapping human motion to humanoids. To address the inherent discrepancies between the generated motion representations and the kinematic constraints of humanoid robots, we propose an angle signal network based on norm-position and rotation loss (NPR Loss). It generates joint angles, which serve as inputs to a reinforcement learning-based whole-body joint motion control policy. The policy ensures tracking of the generated motions while maintaining the robot’s stability during execution. Our experimental results demonstrate the efficacy of this approach, successfully transferring text-driven human motion to a real humanoid robot NAO.

arxiv情報

著者 Zihan Xu,Mengxian Hu,Kaiyan Xiao,Qin Fang,Chengju Liu,Qijun Chen
発行日 2025-06-05 15:02:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Realizing Text-Driven Motion Generation on NAO Robot: A Reinforcement Learning-Optimized Control Pipeline はコメントを受け付けていません

VertiSelector: Automatic Curriculum Learning for Wheeled Mobility on Vertically Challenging Terrain

要約

強化学習(RL)は、シミュレート対エンドの試行錯誤の学習体験により、複雑な運動力学モデリング、計画、および制御を回避することにより、極端なオフロードモビリティを可能にする可能性があります。
ただし、ほとんどのRLメソッドは、手動で設計された大量のシミュレーション環境でトレーニングし、現実の世界に一般化するのに苦労する場合、サンプルが不足しています。
これらの問題に対処するために、トレーニング地域を選択的にサンプリングすることにより、学習効率と一般化を強化するために設計された自動カリキュラム学習フレームワークであるVertiselector(VS)を紹介します。
VSは、再検討時により高い時間差(TD)エラーで垂直に挑戦する地形を優先し、それにより、ロボットが進化する機能の端で学習できるようにします。
サンプリングフォーカスを動的に調整することにより、Chrono Multi-Physicsエンジンに基づいて構築されたVW-Chronoシミュレーター内のサンプル効率と一般化を大幅に向上させます。
さらに、VERTI-4ホイーラープラットフォームでVSを使用して、シミュレーションと物理的結果を提供します。
これらの結果は、VSがトレーニング中に効率的にサンプリングし、現実の世界に堅牢に一般化することにより、成功率に関して23.08%の改善を達成できることを示しています。

要約(オリジナル)

Reinforcement Learning (RL) has the potential to enable extreme off-road mobility by circumventing complex kinodynamic modeling, planning, and control by simulated end-to-end trial-and-error learning experiences. However, most RL methods are sample-inefficient when training in a large amount of manually designed simulation environments and struggle at generalizing to the real world. To address these issues, we introduce VertiSelector (VS), an automatic curriculum learning framework designed to enhance learning efficiency and generalization by selectively sampling training terrain. VS prioritizes vertically challenging terrain with higher Temporal Difference (TD) errors when revisited, thereby allowing robots to learn at the edge of their evolving capabilities. By dynamically adjusting the sampling focus, VS significantly boosts sample efficiency and generalization within the VW-Chrono simulator built on the Chrono multi-physics engine. Furthermore, we provide simulation and physical results using VS on a Verti-4-Wheeler platform. These results demonstrate that VS can achieve 23.08% improvement in terms of success rate by efficiently sampling during training and robustly generalizing to the real world.

arxiv情報

著者 Tong Xu,Chenhui Pan,Xuesu Xiao
発行日 2025-06-05 15:06:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | VertiSelector: Automatic Curriculum Learning for Wheeled Mobility on Vertically Challenging Terrain はコメントを受け付けていません

Evaluating Robustness of Deep Reinforcement Learning for Autonomous Surface Vehicle Control in Field Tests

要約

自律的な地表車(ASV)の深部補強学習(DRL)の大幅な進歩にもかかわらず、特に外乱の下での現実世界条件での堅牢性は、十分に調査されていないままです。
この論文では、さまざまな摂動の下で浮遊廃棄物を捕獲するように設計されたDRLベースのエージェントの回復力を評価します。
ドメインのランダム化を使用してエージェントを訓練し、現実世界のフィールドテストでのパフォーマンスを評価し、非対称の抗力や中心外のペイロードなどの予期しない妨害を処理する能力を評価します。
シミュレーションと現実世界の両方の実験の両方で、これらの摂動に基づくエージェントのパフォーマンスを評価し、パフォーマンスの劣化を定量化し、MPCベースラインに対してベンチマークを付けます。
結果は、重大な乱れにもかかわらず、DRLエージェントが確実に機能することを示しています。
実装のオープンソースリリースに加えて、DRLベースのASVコントローラーを展開するための効果的なトレーニング戦略、現実世界の課題、および実用的な考慮事項に関する洞察を提供します。

要約(オリジナル)

Despite significant advancements in Deep Reinforcement Learning (DRL) for Autonomous Surface Vehicles (ASVs), their robustness in real-world conditions, particularly under external disturbances, remains insufficiently explored. In this paper, we evaluate the resilience of a DRL-based agent designed to capture floating waste under various perturbations. We train the agent using domain randomization and evaluate its performance in real-world field tests, assessing its ability to handle unexpected disturbances such as asymmetric drag and an off-center payload. We assess the agent’s performance under these perturbations in both simulation and real-world experiments, quantifying performance degradation and benchmarking it against an MPC baseline. Results indicate that the DRL agent performs reliably despite significant disturbances. Along with the open-source release of our implementation, we provide insights into effective training strategies, real-world challenges, and practical considerations for deploying DRLbased ASV controllers.

arxiv情報

著者 Luis F. W. Batista,Stéphanie Aravecchia,Seth Hutchinson,Cédric Pradalier
発行日 2025-06-05 15:31:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Evaluating Robustness of Deep Reinforcement Learning for Autonomous Surface Vehicle Control in Field Tests はコメントを受け付けていません

SR3D: Unleashing Single-view 3D Reconstruction for Transparent and Specular Object Grasping

要約

3Dロボット操作の最近の進歩により、日常のオブジェクトの把握が改善されましたが、深さの検知の制限により、透明で鏡面の素材が依然として困難なままです。
いくつかの3D再構成と深さ完了アプローチはこれらの課題に対処しますが、セットアップの複雑さまたは限られた観察情報の利用に苦しんでいます。
これに対処するために、シングルビュー3Dオブジェクト再構成アプローチの力を活用するために、単一ビューの観察から透明で鏡面オブジェクトのロボット把握を可能にするトレーニングフリーフレームワークSR3Dを提案します。
具体的には、シングルビューRGBおよび深度画像が与えられたSR3Dは、最初に外部視覚モデルを使用して、RGB画像に基づいて3D再構成されたオブジェクトメッシュを生成します。
次に、重要なアイデアは、3Dオブジェクトのポーズとスケールを決定して、再構築されたオブジェクトを元の深さ破損した3Dシーンに正確にローカライズすることです。
したがって、ビューマッチングおよびキーポイントマッチングメカニズムを提案します。これは、観察中の2Dおよび3Dの固有のセマンティック情報と幾何学的情報の両方を活用して、シーン内のオブジェクトの3D状態を決定し、それによって効果的な把持検出のために正確な3D深度マップを再構築します。
シミュレーションと現実世界の両方での実験は、SR3Dの再構築効果を示しています。

要約(オリジナル)

Recent advancements in 3D robotic manipulation have improved grasping of everyday objects, but transparent and specular materials remain challenging due to depth sensing limitations. While several 3D reconstruction and depth completion approaches address these challenges, they suffer from setup complexity or limited observation information utilization. To address this, leveraging the power of single view 3D object reconstruction approaches, we propose a training free framework SR3D that enables robotic grasping of transparent and specular objects from a single view observation. Specifically, given single view RGB and depth images, SR3D first uses the external visual models to generate 3D reconstructed object mesh based on RGB image. Then, the key idea is to determine the 3D object’s pose and scale to accurately localize the reconstructed object back into its original depth corrupted 3D scene. Therefore, we propose view matching and keypoint matching mechanisms,which leverage both the 2D and 3D’s inherent semantic and geometric information in the observation to determine the object’s 3D state within the scene, thereby reconstructing an accurate 3D depth map for effective grasp detection. Experiments in both simulation and real world show the reconstruction effectiveness of SR3D.

arxiv情報

著者 Mingxu Zhang,Xiaoqi Li,Jiahui Xu,Kaichen Zhou,Hojin Bae,Yan Shen,Chuyan Xiong,Jiaming Liu,Hao Dong
発行日 2025-06-05 15:36:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | SR3D: Unleashing Single-view 3D Reconstruction for Transparent and Specular Object Grasping はコメントを受け付けていません

LiPo: A Lightweight Post-optimization Framework for Smoothing Action Chunks Generated by Learned Policies

要約

模倣学習の最近の進歩により、ロボットは非構造化された環境でますます複雑な操作タスクを実行することができました。
ただし、学んだポリシーのほとんどは、離散アクションチャンキングに依存しており、これはチャンク境界で不連続性を導入します。
これらの不連続性は動きの質を低下させ、勢いの伝達やシステムの安定性に滑らかな軌跡が重要な重い物体の投げや持ち上げなどの動的なタスクで特に問題があります。
この作業では、チャンクされたアクションシーケンスを滑らかにするための軽量化後のフレームワークを提示します。
私たちの方法では、3つの重要なコンポーネントを組み合わせています。(1)重複するチャンクを積極的に生成し、推論の遅延からの一時停止を回避するための推論を意識したチャンクスケジューリング。
(2)オーバーラップ領域での線形ブレンドは、突然の遷移を減らす。
(3)境界のある摂動スペース内で制約されるジャークを最小化する軌道最適化。
提案された方法は、動的操作タスクを実行する位置制御されたロボットアームで検証されました。
実験結果は、私たちのアプローチが振動とモーションジッターを大幅に減らし、より滑らかな実行と機械的堅牢性の向上につながることを示しています。

要約(オリジナル)

Recent advances in imitation learning have enabled robots to perform increasingly complex manipulation tasks in unstructured environments. However, most learned policies rely on discrete action chunking, which introduces discontinuities at chunk boundaries. These discontinuities degrade motion quality and are particularly problematic in dynamic tasks such as throwing or lifting heavy objects, where smooth trajectories are critical for momentum transfer and system stability. In this work, we present a lightweight post-optimization framework for smoothing chunked action sequences. Our method combines three key components: (1) inference-aware chunk scheduling to proactively generate overlapping chunks and avoid pauses from inference delays; (2) linear blending in the overlap region to reduce abrupt transitions; and (3) jerk-minimizing trajectory optimization constrained within a bounded perturbation space. The proposed method was validated on a position-controlled robotic arm performing dynamic manipulation tasks. Experimental results demonstrate that our approach significantly reduces vibration and motion jitter, leading to smoother execution and improved mechanical robustness.

arxiv情報

著者 Dongwoo Son,Suhan Park
発行日 2025-06-05 15:41:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | LiPo: A Lightweight Post-optimization Framework for Smoothing Action Chunks Generated by Learned Policies はコメントを受け付けていません

Fabrica: Dual-Arm Assembly of General Multi-Part Objects via Integrated Planning and Learning

要約

マルチパートアセンブリは、ロボットが複雑な形状を越えて一般化を伴う長距離、接触豊富な操作を実行するための重要な課題をもたらします。
一般的なマルチパートオブジェクトの自律的なアセンブリのエンドツーエンドの計画と制御が可能なデュアルアームロボットシステムであるFabricaを提示します。
長い視野を越えて計画するために、自動化されたフィクスチャの生成を使用した優先順位、シーケンス、把持、およびモーション計画の階層を開発し、デュアルアームロボットで一般的なマルチステップアセンブリを可能にします。
プランナーは、平行化可能な設計により効率的になり、下流の制御安定性のために最適化されています。
連絡先の豊富なアセンブリの手順については、計画から得られた等掘りと残留アクションに導かれた、オブジェクトのジオメトリ、アセンブリの方向、および把握ポーズを越えて一般主義者のポリシーを訓練する軽量の強化学習フレームワークを提案します。
これらのポリシーは、ゼロショットを現実の世界に転送し、80%の成功したステップを達成します。
体系的な評価のために、多様なカテゴリとジオメトリにまたがる産業および毎日のオブジェクトに似たマルチパートアセンブリのベンチマークスイートを提案します。
効率的なグローバルな計画と堅牢なローカルコントロールを統合することにより、ドメインの知識や人間のデモンストレーションなしで、完全で一般化可能な現実世界のマルチパートアセンブリを実現するための最初のシステムを紹介します。
プロジェクトWebサイト:http://fabrica.csail.mit.edu/

要約(オリジナル)

Multi-part assembly poses significant challenges for robots to execute long-horizon, contact-rich manipulation with generalization across complex geometries. We present Fabrica, a dual-arm robotic system capable of end-to-end planning and control for autonomous assembly of general multi-part objects. For planning over long horizons, we develop hierarchies of precedence, sequence, grasp, and motion planning with automated fixture generation, enabling general multi-step assembly on any dual-arm robots. The planner is made efficient through a parallelizable design and is optimized for downstream control stability. For contact-rich assembly steps, we propose a lightweight reinforcement learning framework that trains generalist policies across object geometries, assembly directions, and grasp poses, guided by equivariance and residual actions obtained from the plan. These policies transfer zero-shot to the real world and achieve 80% successful steps. For systematic evaluation, we propose a benchmark suite of multi-part assemblies resembling industrial and daily objects across diverse categories and geometries. By integrating efficient global planning and robust local control, we showcase the first system to achieve complete and generalizable real-world multi-part assembly without domain knowledge or human demonstrations. Project website: http://fabrica.csail.mit.edu/

arxiv情報

著者 Yunsheng Tian,Joshua Jacob,Yijiang Huang,Jialiang Zhao,Edward Gu,Pingchuan Ma,Annan Zhang,Farhad Javid,Branden Romero,Sachin Chitta,Shinjiro Sueda,Hui Li,Wojciech Matusik
発行日 2025-06-05 15:43:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Fabrica: Dual-Arm Assembly of General Multi-Part Objects via Integrated Planning and Learning はコメントを受け付けていません

AquaticVision: Benchmarking Visual SLAM in Underwater Environment with Events and Frames

要約

オフショア資産検査などの多くの水中アプリケーションは、目視検査と詳細な3D再建に依存しています。
水生環境向けの水中ビジュアルスラムシステムにおける最近の進歩は、海洋ロボットの研究で大きな注目を集めています。
ただし、既存の水中の視覚的なスラムデータセットにはグラウンドトゥルース軌道データが欠けていることが多く、定性的な結果またはCOLMAP再構成のみに基づいて、異なるスラムアルゴリズムのパフォーマンスを客観的に比較することが困難です。
このホワイトペーパーでは、モーションキャプチャシステムを使用して取得したグラウンドトゥルース軌道データを含む新しい水中データセットを紹介します。
さらに、初めて、水中の視覚的ポジショニングをベンチマークするためのイベントとフレームの両方を含む視覚データをリリースします。
イベントカメラデータを提供することにより、より堅牢で高度な水中視覚スラムアルゴリズムの開発を促進することを目指しています。
イベントカメラの使用は、非常に低い光またはぼんやりとした水中条件によってもたらされる課題を軽減するのに役立ちます。
データセットのWebページはhttps://sites.google.com/view/aquaticvision-liasです。

要約(オリジナル)

Many underwater applications, such as offshore asset inspections, rely on visual inspection and detailed 3D reconstruction. Recent advancements in underwater visual SLAM systems for aquatic environments have garnered significant attention in marine robotics research. However, existing underwater visual SLAM datasets often lack groundtruth trajectory data, making it difficult to objectively compare the performance of different SLAM algorithms based solely on qualitative results or COLMAP reconstruction. In this paper, we present a novel underwater dataset that includes ground truth trajectory data obtained using a motion capture system. Additionally, for the first time, we release visual data that includes both events and frames for benchmarking underwater visual positioning. By providing event camera data, we aim to facilitate the development of more robust and advanced underwater visual SLAM algorithms. The use of event cameras can help mitigate challenges posed by extremely low light or hazy underwater conditions. The webpage of our dataset is https://sites.google.com/view/aquaticvision-lias.

arxiv情報

著者 Yifan Peng,Yuze Hong,Ziyang Hong,Apple Pui-Yi Chui,Junfeng Wu
発行日 2025-06-05 16:30:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | AquaticVision: Benchmarking Visual SLAM in Underwater Environment with Events and Frames はコメントを受け付けていません