要約
オープンワールドアプリケーションで動作するインテリジェントモバイルシステムのLIDARベースの認識の検証は、実際の環境条件のばらつきのため、依然として課題です。
仮想シミュレーションにより、制御された条件下で任意のシーンの生成が可能になりますが、強度応答や材料依存の効果などの物理センサーの特性がありません。
対照的に、実際のデータは真のセンサーのリアリズムを提供しますが、影響力のある要因に対する制御が少なくなり、十分な検証が妨げられます。
既存のアプローチは、シーン間でオブジェクトを転送することにより、実際のポイントクラウドデータの増強により、この問題に対処します。
ただし、これらの方法は検証を考慮せず、経験的データに依存しているため、制御可能性は限られたままです。
ポイントクラウドの組換えを提案することにより、これらの制限を解決します。これは、制御された実験室環境で測定された物理的ターゲットオブジェクトから取得したポイントクラウドを統合することにより、キャプチャされたポイントクラウドシーンを体系的に拡張します。
したがって、登録された3Dメッシュを使用した現象に認識された閉塞に関して、膨大な量の反復可能な物理的に正確なテストシーンの作成を可能にします。
OSTER OS1-128 REV7センサーを使用して、繰り返し可能なポジショニングのために、さまざまな衣服とポーズを特徴とするヒューマノイドターゲットを使用して、現実世界の都市および農村部のシーンの増強を実証します。
再結合されたシーンが実際のセンサーの出力に密接に一致し、ターゲットテスト、スケーラブルな障害分析、およびシステムの安全性の向上を可能にすることを示します。
制御されているがセンサーリアリックなデータを提供することにより、この方法により、アルゴリズムなど、化合物内の特定のセンサーの制限に関する信頼できる結論が可能になります。たとえば、オブジェクト検出。
要約(オリジナル)
The validation of LiDAR-based perception of intelligent mobile systems operating in open-world applications remains a challenge due to the variability of real environmental conditions. Virtual simulations allow the generation of arbitrary scenes under controlled conditions but lack physical sensor characteristics, such as intensity responses or material-dependent effects. In contrast, real-world data offers true sensor realism but provides less control over influencing factors, hindering sufficient validation. Existing approaches address this problem with augmentation of real-world point cloud data by transferring objects between scenes. However, these methods do not consider validation and remain limited in controllability because they rely on empirical data. We solve these limitations by proposing Point Cloud Recombination, which systematically augments captured point cloud scenes by integrating point clouds acquired from physical target objects measured in controlled laboratory environments. Thus enabling the creation of vast amounts and varieties of repeatable, physically accurate test scenes with respect to phenomena-aware occlusions with registered 3D meshes. Using the Ouster OS1-128 Rev7 sensor, we demonstrate the augmentation of real-world urban and rural scenes with humanoid targets featuring varied clothing and poses, for repeatable positioning. We show that the recombined scenes closely match real sensor outputs, enabling targeted testing, scalable failure analysis, and improved system safety. By providing controlled yet sensor-realistic data, our method enables trustworthy conclusions about the limitations of specific sensors in compound with their algorithms, e.g., object detection.
arxiv情報
著者 | Hubert Padusinski,Christian Steinhauser,Christian Scherl,Julian Gaal,Jacob Langner |
発行日 | 2025-05-05 09:00:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google