要約
特に視覚障害者のように限られた情報しか認識できない場合、ロボットは人間と同じように地図を想像したり生成したりできるのでしょうか?
この困難なタスクに対処するために、非常に限られた入力情報で点群マップを生成するロボット用の新しいグループ拡散モデル (GDM) ベースのアーキテクチャを提案します。視覚障害のある人間の自然な想像力または心のマップを生成する能力からインスピレーションを得た、提案された方法は、
視覚認識データや深度データを使用せずにマップを生成します。
視覚障害者が取得できる追加の接触ベースの位置情報など、限定された極度にまばらな空間位置データを追加すると、地図生成の品質をさらに向上させることができます。公開データセットでの実験が実施され、その結果は、私たちの方法が生成できることを示しています。
従来のマッピングアプローチと比較して、私たちの新しい方法はセンサー依存性を大幅に軽減し、ロボットが負担をかけずに基本的なマップを想像して生成できるようにします。
オンボードの感覚デバイス。
要約(オリジナル)
Can robots imagine or generate maps like humans do, especially when only limited information can be perceived like blind people? To address this challenging task, we propose a novel group diffusion model (GDM) based architecture for robots to generate point cloud maps with very limited input information.Inspired from the blind humans’ natural capability of imagining or generating mental maps, the proposed method can generate maps without visual perception data or depth data. With additional limited super-sparse spatial positioning data, like the extra contact-based positioning information the blind individuals can obtain, the map generation quality can be improved even more.Experiments on public datasets are conducted, and the results indicate that our method can generate reasonable maps solely based on path data, and produce even more refined maps upon incorporating exiguous LiDAR data.Compared to conventional mapping approaches, our novel method significantly mitigates sensor dependency, enabling the robots to imagine and generate elementary maps without heavy onboard sensory devices.
arxiv情報
著者 | Qijin Song,Weibang Bai |
発行日 | 2024-12-22 07:54:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google