Ground-Optimized 4D Radar-Inertial Odometry via Continuous Velocity Integration using Gaussian Process

要約

レーダーは、有害な気象条件で堅牢なセンシング能力を保証しますが、その固有の騒音レベルが高いため、課題は残ります。
既存のレーダー匂いは、スプリアスポイントのフィルタリング、ドップラー速度の悪用、または慣性測定との統合などの戦略でこれらの課題を克服しました。
このペーパーでは、既存のレーダー介入臭気を超えた2つの新しい改善点を紹介します。地上最適化ノイズフィルタリングと連続速度の統合です。
Lidar odmetryでの地上飛行機が広く使用されているにもかかわらず、レーダー測定の不正確なグラウンドポイント分布は、素朴な平面フィッティングを失敗させます。
LIDARでの平面フィッティングとは異なり、レーダー向けに設計されたゾーンベースの不確実性認識地面モデリングを導入します。
第二に、レーダー速度の測定は、レーダー介入臭気のより正確な前統合のために、IMUとよりよく組み合わせることができることに注意してください。
既存の方法は、離散伝播モデルを使用して非同期データストリームの複雑さを簡素化することにより、レーダーとIMUの間の時間的矛盾を無視することがよくあります。
この問題に取り組むと、GPを活用して、3-DOF線形速度をIMUにしっかりと統合するための連続前積分法を策定し、生の測定から直接完全な6-DOFモーションを促進します。
私たちのアプローチは、綿密な条件を持つ公共データセットの顕著なパフォーマンス(1%未満の垂直ドリフト)を示しており、標高の精度の大幅な改善を示しています。
このコードは、コミュニティのオープンソースとしてリリースされます:https://github.com/wooseongy/go-rio。

要約(オリジナル)

Radar ensures robust sensing capabilities in adverse weather conditions, yet challenges remain due to its high inherent noise level. Existing radar odometry has overcome these challenges with strategies such as filtering spurious points, exploiting Doppler velocity, or integrating with inertial measurements. This paper presents two novel improvements beyond the existing radar-inertial odometry: ground-optimized noise filtering and continuous velocity preintegration. Despite the widespread use of ground planes in LiDAR odometry, imprecise ground point distributions of radar measurements cause naive plane fitting to fail. Unlike plane fitting in LiDAR, we introduce a zone-based uncertainty-aware ground modeling specifically designed for radar. Secondly, we note that radar velocity measurements can be better combined with IMU for a more accurate preintegration in radar-inertial odometry. Existing methods often ignore temporal discrepancies between radar and IMU by simplifying the complexities of asynchronous data streams with discretized propagation models. Tackling this issue, we leverage GP and formulate a continuous preintegration method for tightly integrating 3-DOF linear velocity with IMU, facilitating full 6-DOF motion directly from the raw measurements. Our approach demonstrates remarkable performance (less than 1% vertical drift) in public datasets with meticulous conditions, illustrating substantial improvement in elevation accuracy. The code will be released as open source for the community: https://github.com/wooseongY/Go-RIO.

arxiv情報

著者 Wooseong Yang,Hyesu Jang,Ayoung Kim
発行日 2025-02-12 03:34:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Ground-Optimized 4D Radar-Inertial Odometry via Continuous Velocity Integration using Gaussian Process はコメントを受け付けていません

Generative AI-Enhanced Cooperative MEC of UAVs and Ground Stations for Unmanned Surface Vehicles

要約

無人水上車両(USV)の展開の増加には、海事捜索救助などのアプリケーションでの計算サポートとカバレッジが必要です。
無人航空機(UAV)は低コストで柔軟な航空サービスを提供でき、地上局(GSS)は強力なサポートを提供できます。これは、複雑なシナリオでUSVを支援するために協力できます。
ただし、USVSのUAVとGSSのコラボレーションは、タスクの不確実性、USVS軌道の不確実性、不均一性、および限られた計算リソースの課題に直面しています。
これらの問題に対処するために、USVSが計算タスクの完了を支援するために、協同組合UAVおよびGSベースの堅牢なマルチアクセスエッジコンピューティングフレームワークを提案します。
具体的には、合計実行時間を最小限に抑えるための共同タスクのオフロードとUAV軌道の最適化問題を策定します。これは、混合整数非線形プログラミングとNPハードの形式です。
したがって、生成的人工知能強化不均一なエージェント近位政策最適化(GAI-HAPPO)のアルゴリズムを提案します。
提案されたアルゴリズムは、GAIモデルを統合して、アクターネットワークの複雑な環境をモデル化し、高レベルの機能を抽出する能力を高め、それによりアルゴリズムが不確実性を予測し、動的条件に適応できるようにします。
さらに、GAIは批評家ネットワークを安定させ、マルチエージェント強化学習アプローチの不安定性に対処します。
最後に、広範なシミュレーションは、提案されたアルゴリズムが既存のベンチマークメソッドを上回ることを示しており、したがって、考慮されたシナリオで複雑でドメインの問題に取り組む可能性を強調しています。

要約(オリジナル)

The increasing deployment of unmanned surface vehicles (USVs) require computational support and coverage in applications such as maritime search and rescue. Unmanned aerial vehicles (UAVs) can offer low-cost, flexible aerial services, and ground stations (GSs) can provide powerful supports, which can cooperate to help the USVs in complex scenarios. However, the collaboration between UAVs and GSs for USVs faces challenges of task uncertainties, USVs trajectory uncertainties, heterogeneities, and limited computational resources. To address these issues, we propose a cooperative UAV and GS based robust multi-access edge computing framework to assist USVs in completing computational tasks. Specifically, we formulate the optimization problem of joint task offloading and UAV trajectory to minimize the total execution time, which is in the form of mixed integer nonlinear programming and NP-hard to tackle. Therefore, we propose the algorithm of generative artificial intelligence-enhanced heterogeneous agent proximal policy optimization (GAI-HAPPO). The proposed algorithm integrates GAI models to enhance the actor network ability to model complex environments and extract high-level features, thereby allowing the algorithm to predict uncertainties and adapt to dynamic conditions. Additionally, GAI stabilizes the critic network, addressing the instability of multi-agent reinforcement learning approaches. Finally, extensive simulations demonstrate that the proposed algorithm outperforms the existing benchmark methods, thus highlighting the potentials in tackling intricate, cross-domain issues in the considered scenarios.

arxiv情報

著者 Jiahao You,Ziye Jia,Chao Dong,Qihui Wu,Zhu Han
発行日 2025-02-12 04:42:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Generative AI-Enhanced Cooperative MEC of UAVs and Ground Stations for Unmanned Surface Vehicles はコメントを受け付けていません

EmbodiedSAM: Online Segment Any 3D Thing in Real Time

要約

具体化されたタスクでは、エージェントがその探索と同時に3Dシーンを完全に理解する必要があるため、オンライン、リアルタイム、微調整された高度な3D認識モデルが必死に必要です。
高品質の3Dデータは限られているため、3Dでそのようなモデルを直接トレーニングすることはほとんど実行不可能です。
一方、Vision Foundation Models(VFM)は、優れた性能を備えた2Dコンピュータービジョンの分野に革命をもたらしました。これにより、VFMを使用して、具体化された3D認識が有望な方向になります。
ただし、既存のVFM支援3D認識方法のほとんどは、オフラインまたは遅すぎるため、実際の具体化されたタスクには適用できません。
このホワイトペーパーでは、オンライン設定でのリアルタイム3Dインスタンスセグメンテーションのために、あらゆるモデル(SAM)を活用することを目指しています。
入力ストリーミングRGB-Dビデオでは将来のフレームが利用できないため、これは困難な問題です。いくつかのフレームでインスタンスが観察される可能性があるため、フレーム間のオブジェクトマッチングが必要です。
これらの課題に対処するために、最初に、3Dが認識したクエリによってSAMによって生成された2Dマスクを表す幾何学的なクエリリフティングモジュールを提案します。
このようにして、2Dマスクは3Dポイント雲の細粒の形状に転送されます。
3Dマスクのクエリ表現の恩恵を受けると、リアルタイムの推論を可能にする効率的なマトリックス操作により、さまざまなビューから3Dマスク間の類似性マトリックスを計算できます。
Scannet、Scannet200、Scenenn、3RSCANでの実験は、オフラインの方法と比較しても、私たちの方法が主要なパフォーマンスを達成することを示しています。
また、私たちの方法は、いくつかのゼロショットデータセット転送実験における優れた一般化能力を示しており、オープンボキャブラリーおよびデータ効率の良い設定で大きな可能性を示しています。
コードとデモはhttps://xuxw98.github.io/esam/で入手でき、トレーニングと評価に必要なRTX 3090 GPUは1つだけです。

要約(オリジナル)

Embodied tasks require the agent to fully understand 3D scenes simultaneously with its exploration, so an online, real-time, fine-grained and highly-generalized 3D perception model is desperately needed. Since high-quality 3D data is limited, directly training such a model in 3D is almost infeasible. Meanwhile, vision foundation models (VFM) has revolutionized the field of 2D computer vision with superior performance, which makes the use of VFM to assist embodied 3D perception a promising direction. However, most existing VFM-assisted 3D perception methods are either offline or too slow that cannot be applied in practical embodied tasks. In this paper, we aim to leverage Segment Anything Model (SAM) for real-time 3D instance segmentation in an online setting. This is a challenging problem since future frames are not available in the input streaming RGB-D video, and an instance may be observed in several frames so object matching between frames is required. To address these challenges, we first propose a geometric-aware query lifting module to represent the 2D masks generated by SAM by 3D-aware queries, which is then iteratively refined by a dual-level query decoder. In this way, the 2D masks are transferred to fine-grained shapes on 3D point clouds. Benefit from the query representation for 3D masks, we can compute the similarity matrix between the 3D masks from different views by efficient matrix operation, which enables real-time inference. Experiments on ScanNet, ScanNet200, SceneNN and 3RScan show our method achieves leading performance even compared with offline methods. Our method also demonstrates great generalization ability in several zero-shot dataset transferring experiments and show great potential in open-vocabulary and data-efficient setting. Code and demo are available at https://xuxw98.github.io/ESAM/, with only one RTX 3090 GPU required for training and evaluation.

arxiv情報

著者 Xiuwei Xu,Huangxing Chen,Linqing Zhao,Ziwei Wang,Jie Zhou,Jiwen Lu
発行日 2025-02-12 05:16:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | EmbodiedSAM: Online Segment Any 3D Thing in Real Time はコメントを受け付けていません

EdgeFlowNet: 100FPS@1W Dense Optical Flow For Tiny Mobile Robots

要約

光フロー推定は、小さなモバイルロボット工学が安全で正確なナビゲーション、障害物回避、およびその他の機能を可能にするための重要なタスクです。
ただし、小さなロボットの光学フロー推定は、船内センシングと計算機能が限られているため困難です。
このホワイトペーパーでは、エッジコンピューティングの力を活用することにより、小さな自律モバイルロボットの高速で低速度の密度密度密度密度密度の高い密度密度密度密度密度密度密度光高い流動アプローチであるEdgeflownetを提案します。
静的な障害物の回避、不明なギャップを通る飛行、動的障害物回避を実行するために、小さな四角体にEdgeflownetを展開することにより、アプローチの有効性を実証します。
EdgeFlownetは、以前の最先端のアプローチよりも約20速で、精度を20%以上改善し、1.08Wの電力しか使用しないため、手のひらサイズの小さなモバイルロボットで高度な自律性を可能にします。

要約(オリジナル)

Optical flow estimation is a critical task for tiny mobile robotics to enable safe and accurate navigation, obstacle avoidance, and other functionalities. However, optical flow estimation on tiny robots is challenging due to limited onboard sensing and computation capabilities. In this paper, we propose EdgeFlowNet , a high-speed, low-latency dense optical flow approach for tiny autonomous mobile robots by harnessing the power of edge computing. We demonstrate the efficacy of our approach by deploying EdgeFlowNet on a tiny quadrotor to perform static obstacle avoidance, flight through unknown gaps and dynamic obstacle dodging. EdgeFlowNet is about 20 faster than the previous state-of-the-art approaches while improving accuracy by over 20% and using only 1.08W of power enabling advanced autonomy on palm-sized tiny mobile robots.

arxiv情報

著者 Sai Ramana Kiran Pinnama Raju,Rishabh Singh,Manoj Velmurugan,Nitin J. Sanket
発行日 2025-02-12 05:34:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | EdgeFlowNet: 100FPS@1W Dense Optical Flow For Tiny Mobile Robots はコメントを受け付けていません

Observe Then Act: Asynchronous Active Vision-Action Model for Robotic Manipulation

要約

実際のシナリオでは、多くのロボット操作タスクが閉塞と限られた視野によって妨げられており、固定またはリストに取り付けられたカメラに依存する受動的な観察ベースのモデルに大きな課題を提起します。
このホワイトペーパーでは、限られた視覚観察下でのロボット操作の問題を調査し、タスク駆動型の非同期アクティブビジョンアクションモデルを提案します。ORモデルは、カメラを連続的に接続しますNEXT-BEST-VIEW(NBV)ポリシーをグリッパーの次のベストポーズに接続します
(NBP)ポリシー、および少ないショット強化学習を使用して、センサーモーター調整フレームワークでそれらをトレーニングします。
このアプローチにより、エージェントはサードパーソンカメラを調整して、タスクの目標に基づいて環境を積極的に観察し、その後適切な操作アクションを推測できます。
結果は、私たちのモデルがベースラインアルゴリズムを常に上回ることを示しており、操作タスクでの視覚的制約の処理における有効性を示しています。

要約(オリジナル)

In real-world scenarios, many robotic manipulation tasks are hindered by occlusions and limited fields of view, posing significant challenges for passive observation-based models that rely on fixed or wrist-mounted cameras. In this paper, we investigate the problem of robotic manipulation under limited visual observation and propose a task-driven asynchronous active vision-action model.Our model serially connects a camera Next-Best-View (NBV) policy with a gripper Next-Best Pose (NBP) policy, and trains them in a sensor-motor coordination framework using few-shot reinforcement learning. This approach allows the agent to adjust a third-person camera to actively observe the environment based on the task goal, and subsequently infer the appropriate manipulation actions.We trained and evaluated our model on 8 viewpoint-constrained tasks in RLBench. The results demonstrate that our model consistently outperforms baseline algorithms, showcasing its effectiveness in handling visual constraints in manipulation tasks.

arxiv情報

著者 Guokang Wang,Hang Li,Shuyuan Zhang,Di Guo,Yanhong Liu,Huaping Liu
発行日 2025-02-12 05:38:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Observe Then Act: Asynchronous Active Vision-Action Model for Robotic Manipulation はコメントを受け付けていません

DriveGPT: Scaling Autoregressive Behavior Models for Driving

要約

自律運転のスケーラブルな動作モデルであるDriveGPTを提示します。
運転を連続的な意思決定タスクとしてモデル化し、変圧器モデルを学習して、将来のエージェント状態を自己回帰的な方法でトークンとして予測します。
モデルパラメーターとトレーニングデータを複数桁スケールアップし、データセットサイズ、モデルパラメーター、および計算の観点からスケーリングプロパティを調査できるようにします。
複雑な現実世界のシナリオでの閉ループ運転など、定量的メトリックと定性的例の両方を通じて、計画タスクのさまざまなスケールにわたってDriveGPTを評価します。
別の予測タスクでは、DriveGPTは最先端のベースラインよりも優れており、大規模なデータセットで事前に削除することでパフォーマンスの向上を示し、データスケーリングの利点をさらに検証します。

要約(オリジナル)

We present DriveGPT, a scalable behavior model for autonomous driving. We model driving as a sequential decision-making task, and learn a transformer model to predict future agent states as tokens in an autoregressive fashion. We scale up our model parameters and training data by multiple orders of magnitude, enabling us to explore the scaling properties in terms of dataset size, model parameters, and compute. We evaluate DriveGPT across different scales in a planning task, through both quantitative metrics and qualitative examples, including closed-loop driving in complex real-world scenarios. In a separate prediction task, DriveGPT outperforms state-of-the-art baselines and exhibits improved performance by pretraining on a large-scale dataset, further validating the benefits of data scaling.

arxiv情報

著者 Xin Huang,Eric M. Wolff,Paul Vernaza,Tung Phan-Minh,Hongge Chen,David S. Hayden,Mark Edmonds,Brian Pierce,Xinxin Chen,Pratik Elias Jacob,Xiaobai Chen,Chingiz Tairbekov,Pratik Agarwal,Tianshi Gao,Yuning Chai,Siddhartha Srinivasa
発行日 2025-02-12 05:41:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | DriveGPT: Scaling Autoregressive Behavior Models for Driving はコメントを受け付けていません

Inferring Belief States in Partially-Observable Human-Robot Teams

要約

視認性が限られているロボットチームメイトからの観察を使用して、人間の状況認識のリアルタイムの推定を調査します。
ヒューマンファクターとヒューマン自由チームのチームでは、個人が内部の精神シミュレーションまたはメンタルモデルを使用して環境をナビゲートすることが認識されています。
メンタルモデルは、状況認識、文脈上の推論、タスク計画などの認知プロセスを通知します。
チーム化ドメインでは、メンタルモデルには、各チームメイトの信念と能力のチームモデルが含まれており、明示的なコミュニケーションを必要とせずに流fluentチームワークを可能にします。
ただし、チームモデルを人間のロボットチームに適用した作業はほとんどありません。
この作業では、さまざまな視認性条件よりもユーザーの状況認識を推定する2つのモデル、論理述語と大規模な言語モデルのパフォーマンスを比較します。
我々の結果は、この方法がドメインの低い視界条件に対して主に回復力があることを示していますが、全体的なパフォーマンスを改善する機会が存在します。

要約(オリジナル)

We investigate the real-time estimation of human situation awareness using observations from a robot teammate with limited visibility. In human factors and human-autonomy teaming, it is recognized that individuals navigate their environments using an internal mental simulation, or mental model. The mental model informs cognitive processes including situation awareness, contextual reasoning, and task planning. In teaming domains, the mental model includes a team model of each teammate’s beliefs and capabilities, enabling fluent teamwork without the need for explicit communication. However, little work has applied team models to human-robot teaming. In this work we compare the performance of two models, logical predicates and large language models, at estimating user situation awareness over varying visibility conditions. Our results indicate that the methods are largely resilient to low-visibility conditions in our domain, however opportunities exist to improve their overall performance.

arxiv情報

著者 Jack Kolb,Karen M. Feigh
発行日 2025-02-12 05:47:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | Inferring Belief States in Partially-Observable Human-Robot Teams はコメントを受け付けていません

Adaptive Grasping of Moving Objects in Dense Clutter via Global-to-Local Detection and Static-to-Dynamic Planning

要約

ロボットの把握は、非静的なオブジェクト状態、未知のオブジェクトプロパティ、および乱雑なオブジェクトの配置によって引き起こされるさまざまな現実世界の不確実性に直面しています。
把握の難しさは、より多くの不確実性の存在とともに増加します。一般的に使用される学習ベースのアプローチは、さまざまな条件で一貫して実行するのに苦労しています。
この研究では、類似性のマッチングのアイデアを統合して、複数の不確実性が共存する単一のRGBDカメラを使用して、同時に動いていて密集している新しいオブジェクトを把握するという課題に取り組みます。
これを達成し、視覚検出をグローバルから地方の状態にシフトし、静的から動的なシーンから動的なシーンに計画を把握します。
特に、この時間に敏感なタスクの計画効率を高めるための最適化方法を導入します。
私たちの提案されたシステムは、実際の実験で実証されているように、広範なトレーニングを必要とせずに、さまざまなオブジェクトタイプ、配置、および移動速度に適応できます。
ビデオはhttps://youtu.be/sdc50dx-xp8?si=27ovr4dhg0rqn_ttで入手できます。

要約(オリジナル)

Robotic grasping is facing a variety of real-world uncertainties caused by non-static object states, unknown object properties, and cluttered object arrangements. The difficulty of grasping increases with the presence of more uncertainties, where commonly used learning-based approaches struggle to perform consistently across varying conditions. In this study, we integrate the idea of similarity matching to tackle the challenge of grasping novel objects that are simultaneously in motion and densely cluttered using a single RGBD camera, where multiple uncertainties coexist. We achieve this by shifting visual detection from global to local states and operating grasp planning from static to dynamic scenes. Notably, we introduce optimization methods to enhance planning efficiency for this time-sensitive task. Our proposed system can adapt to various object types, arrangements and movement speeds without the need for extensive training, as demonstrated by real-world experiments. Videos are available at https://youtu.be/sdC50dx-xp8?si=27oVr4dhG0rqN_tT.

arxiv情報

著者 Hao Chen,Takuya Kiyokawa,Weiwei Wan,Kensuke Harada
発行日 2025-02-12 06:20:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Adaptive Grasping of Moving Objects in Dense Clutter via Global-to-Local Detection and Static-to-Dynamic Planning はコメントを受け付けていません

AToM: Adaptive Theory-of-Mind-Based Human Motion Prediction in Long-Term Human-Robot Interactions

要約

人間は観察と経験から学び、行動をより良いパフォーマンスに向けて調整します。
ロボットは安全で効率的な操作のために人間を正確に予測する必要があるため、このような動的な人間とのやり取りは挑戦的です。
動的な人間との長期的な相互作用は、以前の作品によって広範囲に研究されていません。
私たちは、人間が他人の行動と意図を推測できるようにする基本的な社会的認知能力である、精神理論(TOM)に基づいた適応的な人間の予測モデルを提案します。
ナビゲーションシナリオですべてのエージェントの将来の動きを予測するゲーム理論モデルを使用して、他の人についての人間の内部信念を定式化します。
進化する信念を推定するために、無香料のKalmanフィルターを使用して、人間の内部モデルの行動パラメーターを更新します。
私たちの定式化は、人間がロボットをどのように予測するかを推測することにより、動的な人間の行動に対する独自の解釈可能性を提供します。
私たちは、シミュレーションと現実世界の両方の設定での長期実験を通じて、予測が下流のロボット計画の安全性と効率を効果的に促進することを実証します。
コードはhttps://github.com/centilinda/atom-human-prediction.gitで入手できます。

要約(オリジナル)

Humans learn from observations and experiences to adjust their behaviours towards better performance. Interacting with such dynamic humans is challenging, as the robot needs to predict the humans accurately for safe and efficient operations. Long-term interactions with dynamic humans have not been extensively studied by prior works. We propose an adaptive human prediction model based on the Theory-of-Mind (ToM), a fundamental social-cognitive ability that enables humans to infer others’ behaviours and intentions. We formulate the human internal belief about others using a game-theoretic model, which predicts the future motions of all agents in a navigation scenario. To estimate an evolving belief, we use an Unscented Kalman Filter to update the behavioural parameters in the human internal model. Our formulation provides unique interpretability to dynamic human behaviours by inferring how the human predicts the robot. We demonstrate through long-term experiments in both simulations and real-world settings that our prediction effectively promotes safety and efficiency in downstream robot planning. Code will be available at https://github.com/centiLinda/AToM-human-prediction.git.

arxiv情報

著者 Yuwen Liao,Muqing Cao,Xinhang Xu,Lihua Xie
発行日 2025-02-12 06:33:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | AToM: Adaptive Theory-of-Mind-Based Human Motion Prediction in Long-Term Human-Robot Interactions はコメントを受け付けていません

Open-Source Factor Graph Optimization Package for GNSS: Examples and Applications

要約

因子グラフ最適化(FGO)を使用した状態推定方法は、グローバルナビゲーション衛星システム(GNSS)研究に大きな注意を払っています。
FGOは、最小二乗またはカルマンフィルターに依存する従来の状態推定方法と比較して、優れた推定精度を示します。
ただし、GNSS観測に特化したFGOライブラリはごくわずかです。
このペーパーでは、GTSAM \ _GNSSという名前のオープンソースGNSS FGOパッケージを紹介します。これは、単純な構造を持ち、GNSSの研究開発に簡単に適用できます。
このパッケージは、GNSS観測の前処理を因子の最適化から分離します。
さらに、GNSS因子のエラー関数を簡単な方法で説明し、汎用入力を可能にします。
この設計により、通常の最小二乗ベースのポジショニングからFGOへの移行が促進され、ユーザー固有のGNSS研究をサポートします。
さらに、GTSAM \ _GNSSには、実際の都市環境でGNSSデータを使用したさまざまな要因を含む分析例が含まれています。
このホワイトペーパーでは、堅牢なエラーモデルの使用、キャリアフェーズでの整数の曖昧さの推定、およびスマートフォンからのGNSSの組み合わせ、および慣性測定の3つのアプリケーションの例を紹介します。
提案されたフレームワークは、すべてのユースケースで優れた状態推定パフォーマンスを示しています。

要約(オリジナル)

State estimation methods using factor graph optimization (FGO) have garnered significant attention in global navigation satellite system (GNSS) research. FGO exhibits superior estimation accuracy compared with traditional state estimation methods that rely on least-squares or Kalman filters. However, only a few FGO libraries are specialized for GNSS observations. This paper introduces an open-source GNSS FGO package named gtsam\_gnss, which has a simple structure and can be easily applied to GNSS research and development. This package separates the preprocessing of GNSS observations from factor optimization. Moreover, it describes the error function of the GNSS factor in a straightforward manner, allowing for general-purpose inputs. This design facilitates the transition from ordinary least-squares-based positioning to FGO and supports user-specific GNSS research. In addition, gtsam\_gnss includes analytical examples involving various factors using GNSS data in real urban environments. This paper presents three application examples: the use of a robust error model, estimation of integer ambiguity in the carrier phase, and combination of GNSS and inertial measurements from smartphones. The proposed framework demonstrates excellent state estimation performance across all use cases.

arxiv情報

著者 Taro Suzuki
発行日 2025-02-12 06:51:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Open-Source Factor Graph Optimization Package for GNSS: Examples and Applications はコメントを受け付けていません