Cardiac Copilot: Automatic Probe Guidance for Echocardiography with World Model

要約

心エコー検査は心臓をリアルタイムで画像化できる唯一の技術であり、大部分の心臓病の診断に不可欠です。
しかし、心臓の複雑な構造と操作上の重大な課題により、経験豊富な心臓超音波検査技師が深刻に不足しています。
この状況を軽減するために、経験の浅い超音波検査技師がフリーハンドで心エコー検査を行うのを支援するために、リアルタイムのプローブ移動ガイダンスを提供できる Cardiac Copilot システムを紹介します。
このシステムにより、特に初等科や医療が十分に受けられていない分野の専門家以外でも心臓超音波検査を実施できるようになり、世界的な医療提供が改善される可能性があります。
中心となる革新は、心臓の空間構造を表現するための Cardiac Dreamer と呼ばれるデータ駆動型の世界モデルを提案することにあります。
この世界モデルは、潜在空間内の現在のプローブ位置の周囲の心臓面の構造特徴を提供でき、自律面位置特定のための正確なナビゲーション マップとして機能します。
私たちは、3 人の認定超音波検査技師による 151,000 個のサンプル ペアを含む 110 回の定期的な臨床スキャンから得られた実際の超音波データと対応するプローブの動きを使用してモデルをトレーニングします。
37,000 サンプル ペアを使用した 3 つの標準飛行機での評価では、ワールド モデルがナビゲーション エラーを最大 33\% 削減でき、より安定したパフォーマンスを発揮できることが実証されました。

要約(オリジナル)

Echocardiography is the only technique capable of real-time imaging of the heart and is vital for diagnosing the majority of cardiac diseases. However, there is a severe shortage of experienced cardiac sonographers, due to the heart’s complex structure and significant operational challenges. To mitigate this situation, we present a Cardiac Copilot system capable of providing real-time probe movement guidance to assist less experienced sonographers in conducting freehand echocardiography. This system can enable non-experts, especially in primary departments and medically underserved areas, to perform cardiac ultrasound examinations, potentially improving global healthcare delivery. The core innovation lies in proposing a data-driven world model, named Cardiac Dreamer, for representing cardiac spatial structures. This world model can provide structure features of any cardiac planes around the current probe position in the latent space, serving as an precise navigation map for autonomous plane localization. We train our model with real-world ultrasound data and corresponding probe motion from 110 routine clinical scans with 151K sample pairs by three certified sonographers. Evaluations on three standard planes with 37K sample pairs demonstrate that the world model can reduce navigation errors by up to 33\% and exhibit more stable performance.

arxiv情報

著者 Haojun Jiang,Zhenguo Sun,Ning Jia,Meng Li,Yu Sun,Shaqi Luo,Shiji Song,Gao Huang
発行日 2024-10-21 06:25:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO, eess.IV | Cardiac Copilot: Automatic Probe Guidance for Echocardiography with World Model はコメントを受け付けていません

LiteVLoc: Map-Lite Visual Localization for Image Goal Navigation

要約

この論文では、軽量の地形図を使用して環境を表現する階層型ビジュアル ローカリゼーション フレームワークである LiteVLoc について説明します。
この方法は、粗い方法から細かい方法までカメラのポーズを推定する 3 つの連続したモジュールで構成されます。
詳細な 3D 表現に依存する主流のアプローチとは異なり、LiteVLoc は、学習ベースの特徴マッチングとメトリック ポーズ推定のための幾何学ソルバーを活用することで、ストレージのオーバーヘッドを削減します。
マップフリーの再位置推定タスク用の新しいデータセットも紹介されています。
シミュレートされたシナリオと現実世界のシナリオの両方での位置特定とナビゲーションを含む広範な実験により、システムのパフォーマンスが検証され、大規模な展開における精度と効率が実証されました。
コードとデータは一般に公開されます。

要約(オリジナル)

This paper presents LiteVLoc, a hierarchical visual localization framework that uses a lightweight topo-metric map to represent the environment. The method consists of three sequential modules that estimate camera poses in a coarse-to-fine manner. Unlike mainstream approaches relying on detailed 3D representations, LiteVLoc reduces storage overhead by leveraging learning-based feature matching and geometric solvers for metric pose estimation. A novel dataset for the map-free relocalization task is also introduced. Extensive experiments including localization and navigation in both simulated and real-world scenarios have validate the system’s performance and demonstrated its precision and efficiency for large-scale deployment. Code and data will be made publicly available.

arxiv情報

著者 Jianhao Jiao,Jinhao He,Changkun Liu,Sebastian Aegidius,Xiangcheng Hu,Tristan Braud,Dimitrios Kanoulas
発行日 2024-10-21 06:35:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | LiteVLoc: Map-Lite Visual Localization for Image Goal Navigation はコメントを受け付けていません

A New Framework for Nonlinear Kalman Filters

要約

カルマン フィルター (KF) は、システムの知識と測定を最適に組み合わせて、推定された状態の平均二乗誤差を最小限に抑える状態推定アルゴリズムです。
KF は当初線形システム用に設計されましたが、拡張カルマン フィルター (EKF)、アンセンテッド カルマン フィルター (UKF)、立方体カルマン フィルター (CKF) などの多数の拡張が非線形システム用に提案されています。
非線形 KF のタイプが異なれば長所と短所も異なりますが、これらはすべて線形 KF の同じフレームワークを使用します。この論文でわかったことによると、測定関数が非線形の場合、過信して精度の低い状態推定を行う傾向があります。
したがって、この研究では、非線形 KF の新しいフレームワークを設計し、新しいフレームワークが古いフレームワークよりも状態と共分散行列をより正確に推定できることを理論的および経験的に示しました。
新しいフレームワークは 4 つの異なる非線形 KF と 5 つの異なるタスクでテストされ、計算時間の増加はわずか約 10 ~ 90% でありながら、低測定ノイズ条件で推定誤差を数桁削減できることが実証されました。
あらゆる種類の非線形 KF は新しいフレームワークから恩恵を受けることができ、将来的にセンサーの精度が高まるにつれてその恩恵はさらに大きくなるでしょう。
一例として、最も単純な非線形 KF である EKF は、以前は強い非線形システムではうまく機能しないと考えられていましたが、新しいフレームワークの助けを借りて、高速かつかなり正確な状態推定を提供できるようになりました。
コードは https://github.com/Shida-Jiang/A-new-framework-for-nonlinear-Kalman-filters で入手できます。

要約(オリジナル)

The Kalman filter (KF) is a state estimation algorithm that optimally combines system knowledge and measurements to minimize the mean squared error of the estimated states. While KF was initially designed for linear systems, numerous extensions of it, such as extended Kalman filter (EKF), unscented Kalman filter (UKF), cubature Kalman filter (CKF), etc., have been proposed for nonlinear systems. Although different types of nonlinear KFs have different pros and cons, they all use the same framework of linear KF, which, according to what we found in this paper, tends to give overconfident and less accurate state estimations when the measurement functions are nonlinear. Therefore, in this study, we designed a new framework for nonlinear KFs and showed theoretically and empirically that the new framework estimates the states and covariance matrix more accurately than the old one. The new framework was tested on four different nonlinear KFs and five different tasks, showcasing its ability to reduce the estimation errors by several orders of magnitude in low-measurement-noise conditions, with only about a 10 to 90% increase in computational time. All types of nonlinear KFs can benefit from the new framework, and the benefit will increase as the sensors become more and more accurate in the future. As an example, EKF, the simplest nonlinear KF that was previously believed to work poorly for strongly nonlinear systems, can now provide fast and fairly accurate state estimations with the help of the new framework. The codes are available at https://github.com/Shida-Jiang/A-new-framework-for-nonlinear-Kalman-filters.

arxiv情報

著者 Shida Jiang,Junzhe Shi,Scott Moura
発行日 2024-10-21 06:40:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SP, eess.SY | A New Framework for Nonlinear Kalman Filters はコメントを受け付けていません

RANSAC Back to SOTA: A Two-stage Consensus Filtering for Real-time 3D Registration

要約

対応ベースの点群登録 (PCR) は、ロボット工学とコンピューター ビジョンで重要な役割を果たします。
ただし、センサーのノイズ、オブジェクトのオクルージョン、記述子の制限などの課題により、必然的に多数の外れ値が発生します。
RANSAC ファミリは、最も人気のある異常値除去ソリューションです。
ただし、必要な反復は外れ値の比率とともに指数関数的に増加するため、精度や速度の点で既存の方法 (SC2PCR [1]、MAC [2] など) よりもはるかに劣ります。
そこで、RANSAC を最先端 (SOTA) の速度と精度に高める 2 段階のコンセンサス フィルタリング (TCF) を提案します。
まず、ワンポイント RANSAC は長さの一貫性に基づいてコンセンサス セットを取得します。
続いて、2 点 RANSAC が角度の一貫性を介してセットを改良します。
次に、3 点 RANSAC が粗い姿勢を計算し、変換された対応関係の距離に基づいて外れ値を除去します。
1 点および 2 点 RANSAC の最適化を利用することで、3 点 RANSAC は数回の反復のみを必要とします。
最終的に、反復再重み付け最小二乗法 (IRLS) が適用されて、最適なポーズが得られます。
大規模な KITTI および ETH データセットでの実験により、私たちの方法が登録精度と再現率を維持しながら、MAC と比較して最大 3 桁の高速化を達成できることが実証されました。
私たちのコードは https://github.com/ShiPC-AI/TCF で入手できます。

要約(オリジナル)

Correspondence-based point cloud registration (PCR) plays a key role in robotics and computer vision. However, challenges like sensor noises, object occlusions, and descriptor limitations inevitably result in numerous outliers. RANSAC family is the most popular outlier removal solution. However, the requisite iterations escalate exponentially with the outlier ratio, rendering it far inferior to existing methods (SC2PCR [1], MAC [2], etc.) in terms of accuracy or speed. Thus, we propose a two-stage consensus filtering (TCF) that elevates RANSAC to state-of-the-art (SOTA) speed and accuracy. Firstly, one-point RANSAC obtains a consensus set based on length consistency. Subsequently, two-point RANSAC refines the set via angle consistency. Then, three-point RANSAC computes a coarse pose and removes outliers based on transformed correspondence’s distances. Drawing on optimizations from one-point and two-point RANSAC, three-point RANSAC requires only a few iterations. Eventually, an iterative reweighted least squares (IRLS) is applied to yield the optimal pose. Experiments on the large-scale KITTI and ETH datasets demonstrate our method achieves up to three-orders-of-magnitude speedup compared to MAC while maintaining registration accuracy and recall. Our code is available at https://github.com/ShiPC-AI/TCF.

arxiv情報

著者 Pengcheng Shi,Shaocheng Yan,Yilin Xiao,Xinyi Liu,Yongjun Zhang,Jiayuan Li
発行日 2024-10-21 06:46:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | RANSAC Back to SOTA: A Two-stage Consensus Filtering for Real-time 3D Registration はコメントを受け付けていません

HiRT: Enhancing Robotic Control with Hierarchical Robot Transformers

要約

強力な事前トレーニング済みビジョン言語モデル (VLM) バックエンドを活用する大規模ビジョン言語アクション (VLA) モデルは、その優れた汎化能力によりロボット制御において有望であることが示されています。
ただし、成功には代償が伴います。
数十億のパラメータを備えた VLM バックエンドへの依存により、高い計算コストと推論遅延が発生し、テスト シナリオが主に準静的タスクに制限され、迅速な対話が必要な動的タスクのパフォーマンスが妨げられます。
これらの制限に対処するために、この文書では、周波数とパフォーマンスの柔軟なトレードオフを可能にする階層型ロボット トランスフォーマー フレームワークである HiRT を提案します。
HiRT は、VLM を低頻度で実行し続けて、一時的に不変の特徴をキャプチャすると同時に、ゆっくりと更新される特徴によって導かれる高頻度のビジョンベースのポリシーを通じてリアルタイムの対話を可能にします。
シミュレーションと現実世界の両方の設定での実験結果は、ベースライン手法に比べて大幅な改善を示しています。
経験的に、静的タスクでは制御頻度を 2 倍にし、同等の成功率を達成します。
さらに、以前の VLA モデルでは困難であった新しい現実世界の動的操作タスクにおいて、HiRT は成功率を 48% から 75% に向上させます。

要約(オリジナル)

Large Vision-Language-Action (VLA) models, leveraging powerful pre trained Vision-Language Models (VLMs) backends, have shown promise in robotic control due to their impressive generalization ability. However, the success comes at a cost. Their reliance on VLM backends with billions of parameters leads to high computational costs and inference latency, limiting the testing scenarios to mainly quasi-static tasks and hindering performance in dynamic tasks requiring rapid interactions. To address these limitations, this paper proposes HiRT, a Hierarchical Robot Transformer framework that enables flexible frequency and performance trade-off. HiRT keeps VLMs running at low frequencies to capture temporarily invariant features while enabling real-time interaction through a high-frequency vision-based policy guided by the slowly updated features. Experiment results in both simulation and real-world settings demonstrate significant improvements over baseline methods. Empirically, in static tasks, we double the control frequency and achieve comparable success rates. Additionally, on novel real-world dynamic ma nipulation tasks which are challenging for previous VLA models, HiRT improves the success rate from 48% to 75%.

arxiv情報

著者 Jianke Zhang,Yanjiang Guo,Xiaoyu Chen,Yen-Jen Wang,Yucheng Hu,Chengming Shi,Jianyu Chen
発行日 2024-10-21 06:50:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | HiRT: Enhancing Robotic Control with Hierarchical Robot Transformers はコメントを受け付けていません

PALMS: Plane-based Accessible Indoor Localization Using Mobile Smartphones

要約

本稿では、公開されているフロアプランを利用した、モバイルスマートフォン向けの革新的な屋内グローバルローカライゼーションおよび再ローカライゼーションシステムである PALMS を紹介します。
継続的な視覚入力を必要とするほとんどの視覚ベースの方法とは異なり、当社のシステムは、単一の瞬間的な観測データと走行距離データを考慮する動的な形式の位置特定を採用しています。
この研究の主な貢献は、主方向のマッチングとともに、確かに空の空間 (CES) 制約を利用するパーティクル フィルターの初期化メソッドの導入です。
このアプローチにより、デバイスの位置の空間確率分布が作成され、位置特定の精度が大幅に向上し、粒子フィルターの収束時間が短縮されます。
私たちの実験による評価では、PALMS が均一に初期化された粒子フィルターを使用する従来の方法よりも優れたパフォーマンスを示し、屋内ウェイファインディングにより効率的でアクセスしやすいアプローチを提供することが実証されました。
PALMS は、事前の環境フィンガープリンティングの必要性を排除することで、屋内ナビゲーションに対するスケーラブルで実用的なアプローチを提供します。

要約(オリジナル)

In this paper, we present PALMS, an innovative indoor global localization and relocalization system for mobile smartphones that utilizes publicly available floor plans. Unlike most vision-based methods that require constant visual input, our system adopts a dynamic form of localization that considers a single instantaneous observation and odometry data. The core contribution of this work is the introduction of a particle filter initialization method that leverages the Certainly Empty Space (CES) constraint along with principal orientation matching. This approach creates a spatial probability distribution of the device’s location, significantly improving localization accuracy and reducing particle filter convergence time. Our experimental evaluations demonstrate that PALMS outperforms traditional methods with uniformly initialized particle filters, providing a more efficient and accessible approach to indoor wayfinding. By eliminating the need for prior environmental fingerprinting, PALMS provides a scalable and practical approach to indoor navigation.

arxiv情報

著者 Yunqian Cheng,Roberto Manduchi
発行日 2024-10-21 07:05:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO, I.2.10 | PALMS: Plane-based Accessible Indoor Localization Using Mobile Smartphones はコメントを受け付けていません

Hierarchical Search-Based Cooperative Motion Planning

要約

マルチエージェント システム研究の重要な側面である協力的な経路計画は、軍事、農業、産業などのさまざまな分野で役に立ちます。
ただし、既存のアルゴリズムの多くには、単純化された運動学モデルや複数のグループ シナリオのサポートが不十分であるなど、特定の制限があります。
無人地上車両 (UGV) の非ホロノミック アッカーマン モデルに関連する計画問題に焦点を当て、リーダーのない階層的な検索ベースの協調運動計画 (SCMP) 手法を提案します。
高レベルではバイナリ競合検索ツリーを利用して実行時間を最小限に抑えますが、低レベルでは形状が制約された、運動学的に実現可能な衝突のないパスを作成します。
私たちのアルゴリズムは、形状が異なる複数のグループ、外れ値のエージェント、複雑な障害物を特徴とするシナリオに適応できます。
当社はアルゴリズムの比較、パフォーマンス テスト、シミュレーション、実世界テストを実施し、アルゴリズムの有効性と適用性を検証します。
私たちのメソッドの実装は、https://github.com/WYCUniverStar/SCMP でオープンソース化されます。

要約(オリジナル)

Cooperative path planning, a crucial aspect of multi-agent systems research, serves a variety of sectors, including military, agriculture, and industry. Many existing algorithms, however, come with certain limitations, such as simplified kinematic models and inadequate support for multiple group scenarios. Focusing on the planning problem associated with a nonholonomic Ackermann model for Unmanned Ground Vehicles (UGV), we propose a leaderless, hierarchical Search-Based Cooperative Motion Planning (SCMP) method. The high-level utilizes a binary conflict search tree to minimize runtime, while the low-level fabricates kinematically feasible, collision-free paths that are shape-constrained. Our algorithm can adapt to scenarios featuring multiple groups with different shapes, outlier agents, and elaborate obstacles. We conduct algorithm comparisons, performance testing, simulation, and real-world testing, verifying the effectiveness and applicability of our algorithm. The implementation of our method will be open-sourced at https://github.com/WYCUniverStar/SCMP.

arxiv情報

著者 Yuchen Wu,Yifan Yang,Gang Xu,Junjie Cao,Yansong Chen,Licheng Wen,Yong Liu
発行日 2024-10-21 07:31:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Hierarchical Search-Based Cooperative Motion Planning はコメントを受け付けていません

Efficient Non-Myopic Layered Bayesian Optimization For Large-Scale Bathymetric Informative Path Planning

要約

深浅地図作成に適用されたインフォマティブ パス プランニング (IPP) により、AUV は特徴が豊富なエリアに集中して不確実性を迅速に低減し、地図作成の効率を向上させることができます。
ガウス プロセス (GP) マップ上のベイズ最適化 (BO) に基づく既存の手法は、小規模なシナリオではうまく機能しますが、より大きな領域をマッピングする場合は近視眼的で計算量が多く、実際のアプリケーションでの展開が妨げられます。
これを克服するために、AUV の運動制約を尊重し、位置の不確実性を考慮しながら、大規模な確率的変分 GP マップ上でツリー探索方式で非近視的なリアルタイム計画を実行する 2 層 BO IPP 手法を提案します。
私たちのフレームワークは、実際の深浅地形を超える組み込みプラットフォームでの一連のハードウェア・イン・ザ・ループ (HIL) 実験における標準的な工業用芝刈りパターンと近視眼的なベースラインを上回ります。

要約(オリジナル)

Informative path planning (IPP) applied to bathymetric mapping allows AUVs to focus on feature-rich areas to quickly reduce uncertainty and increase mapping efficiency. Existing methods based on Bayesian optimization (BO) over Gaussian Process (GP) maps work well on small scenarios but they are short-sighted and computationally heavy when mapping larger areas, hindering deployment in real applications. To overcome this, we present a 2-layered BO IPP method that performs non-myopic, real-time planning in a tree search fashion over large Stochastic Variational GP maps, while respecting the AUV motion constraints and accounting for localization uncertainty. Our framework outperforms the standard industrial lawn-mowing pattern and a myopic baseline in a set of hardware in the loop (HIL) experiments in an embedded platform over real bathymetry.

arxiv情報

著者 Alexander Kiessling,Ignacio Torroba,Chelsea Rose Sidrane,Ivan Stenius,Jana Tumova,John Folkesson
発行日 2024-10-21 07:39:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Efficient Non-Myopic Layered Bayesian Optimization For Large-Scale Bathymetric Informative Path Planning はコメントを受け付けていません

MSGField: A Unified Scene Representation Integrating Motion, Semantics, and Geometry for Robotic Manipulation

要約

正確なジオメトリと豊富なセマンティクスを組み合わせると、言語ガイドによるロボット操作に非常に効果的であることが証明されています。
動的シーンの既存の方法は、リアルタイムでの更新に失敗するか、単純なシーン編集のために追加の深度センサーに依存するため、現実世界への適用性が制限されます。
この論文では、高品質の再構成のために 2D ガウスのコレクションを使用する表現である MSGField を紹介します。これは、セマンティック情報とモーション情報をエンコードするための属性でさらに強化されています。
特に、各プリミティブのモーションを限られたモーション ベースの組み合わせに分解することで、モーション フィールドをコンパクトに表現します。
ガウス スプラッティングの微分可能なリアルタイム レンダリングを活用することで、2 つのカメラ ビューのみからの画像監視により、複雑な非剛体の動きであっても、オブジェクトの動きを迅速に最適化できます。
さらに、オブジェクト事前分布を利用して、明確に定義されたセマンティクスを効率的に取得するパイプラインを設計しました。
柔軟で非常に小さなオブジェクトを含む当社の困難なデータセットにおいて、当社のメソッドは、言語ガイドによる操作の静的環境で 79.2%、動的環境で 63.3% の成功率を達成しました。
指定物体の把握においては、点群ベースの手法と同等の成功率90%を達成しています。
コードとデータセットは https://shengyu724.github.io/MSGField.github.io でリリースされます。

要約(オリジナル)

Combining accurate geometry with rich semantics has been proven to be highly effective for language-guided robotic manipulation. Existing methods for dynamic scenes either fail to update in real-time or rely on additional depth sensors for simple scene editing, limiting their applicability in real-world. In this paper, we introduce MSGField, a representation that uses a collection of 2D Gaussians for high-quality reconstruction, further enhanced with attributes to encode semantic and motion information. Specially, we represent the motion field compactly by decomposing each primitive’s motion into a combination of a limited set of motion bases. Leveraging the differentiable real-time rendering of Gaussian splatting, we can quickly optimize object motion, even for complex non-rigid motions, with image supervision from only two camera views. Additionally, we designed a pipeline that utilizes object priors to efficiently obtain well-defined semantics. In our challenging dataset, which includes flexible and extremely small objects, our method achieve a success rate of 79.2% in static and 63.3% in dynamic environments for language-guided manipulation. For specified object grasping, we achieve a success rate of 90%, on par with point cloud-based methods. Code and dataset will be released at:https://shengyu724.github.io/MSGField.github.io.

arxiv情報

著者 Yu Sheng,Runfeng Lin,Lidian Wang,Quecheng Qiu,YanYong Zhang,Yu Zhang,Bei Hua,Jianmin Ji
発行日 2024-10-21 07:46:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | MSGField: A Unified Scene Representation Integrating Motion, Semantics, and Geometry for Robotic Manipulation はコメントを受け付けていません

ATI-CTLO:Adaptive Temporal Interval-based Continuous-Time LiDAR-Only Odometry

要約

ロボットの激しい動きや地形の変化によって生じる LiDAR スキャンの動きの歪みは、3D LiDAR オドメトリの測位とマッピングのパフォーマンスに大きな影響を与えます。
既存の歪み補正ソリューションは、計算の複雑さと精度のバランスを取るのに苦労することがよくあります。
この研究では、単純かつ効率的な線形補間を利用した、適応時間間隔ベースの連続時間 LiDAR 専用オドメトリを提案します。
我々の手法は、運動のダイナミクスや環境特性に応じて、制御ノード間の時間間隔を柔軟に調整します。
この適応性により、さまざまな動作状態にわたるパフォーマンスが向上し、困難で機能が少ない環境での堅牢性が向上します。
当社では、さまざまなプラットフォームにわたる複数のデータセットで手法の有効性を検証し、最先端の LiDAR のみのオドメトリ手法に匹敵する精度を達成しています。
特に、激しい動きとまばらな特徴を含むシナリオでは、私たちの方法は既存のソリューションよりも優れたパフォーマンスを発揮します。

要約(オリジナル)

The motion distortion in LiDAR scans caused by aggressive robot motion and varying terrain features significantly impacts the positioning and mapping performance of 3D LiDAR odometry. Existing distortion correction solutions often struggle to balance computational complexity and accuracy. In this work, we propose an Adaptive Temporal Interval-based Continuous-Time LiDAR-only Odometry, utilizing straightforward and efficient linear interpolation. Our method flexibly adjusts the temporal intervals between control nodes according to the dynamics of motion and environmental characteristics. This adaptability enhances performance across various motion states and improves robustness in challenging, feature-sparse environments. We validate the effectiveness of our method on multiple datasets across different platforms, achieving accuracy comparable to state-of-the-art LiDAR-only odometry methods. Notably, in scenarios involving aggressive motion and sparse features, our method outperforms existing solutions.

arxiv情報

著者 Bo Zhou,Jiajie Wu,Yan Pan,Chuanzhao Lu
発行日 2024-10-21 08:16:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | ATI-CTLO:Adaptive Temporal Interval-based Continuous-Time LiDAR-Only Odometry はコメントを受け付けていません