Autonomous Exploration-Based Precise Mapping for Mobile Robots through Stepwise and Consistent Motions

要約

このペーパーでは、自律探査フレームワークを紹介します。
これは、レーザーの同時ローカリゼーションとマッピング(SLAM)を利用する屋内グラウンドモバイルロボット向けに設計されており、プロセスの完全性と正確なマッピング結果を確保します。
フロンティア検索のために、迅速にランダムな樹木(RRT)を複数回探索することに基づいたローカルグローバルサンプリングアーキテクチャが採用されています。
RRT拡張中のトラバース性チェックとマップの更新時のグローバルRRT剪定により、到達不能なフロンティアが排除され、潜在的な衝突やデッドロックが削減されます。
障害物の分布によって通知される適応サンプリング密度調整は、探査カバレッジの可能性を高めます。
フロンティアポイントナビゲーションの場合、段階的な一貫したモーション戦略が採用され、ロボットはポリラインパスのほぼ等距離ラインセグメントを厳密に駆動し、セグメントジャンクションで所定の位置に回転します。
この単純化された分離されたモーションパターンは、スキャンマッチングの安定性を改善し、マップドリフトを軽減します。
プロセス制御のために、フレームワークはフロンティアポイントの選択とナビゲーションをシリアル化し、従来の並列化されたプロセスの頻繁な目標変更によって引き起こされる振動を回避します。
ウェイポイントリトレースメカニズムが導入され、繰り返しの観測を生成し、グラフベースのスラムでループ閉鎖検出とバックエンドの最適化をトリガーし、それによりマップの一貫性と精度が向上します。
シミュレーションと現実世界の両方のシナリオでの実験により、フレームワークの有効性が検証されます。
ベースライン2D探査アルゴリズムと比較して、より困難な環境でマッピングカバレッジと精度が改善されます。
また、リソース制約のロボットプラットフォームをサポートし、さまざまなLIDARフィールドオブビュー(FOV)構成にわたってマッピングの一貫性を維持する際に堅牢性を示しています。

要約(オリジナル)

This paper presents an autonomous exploration framework. It is designed for indoor ground mobile robots that utilize laser Simultaneous Localization and Mapping (SLAM), ensuring process completeness and precise mapping results. For frontier search, the local-global sampling architecture based on multiple Rapidly Exploring Random Trees (RRTs) is employed. Traversability checks during RRT expansion and global RRT pruning upon map updates eliminate unreachable frontiers, reducing potential collisions and deadlocks. Adaptive sampling density adjustments, informed by obstacle distribution, enhance exploration coverage potential. For frontier point navigation, a stepwise consistent motion strategy is adopted, wherein the robot strictly drives straight on approximately equidistant line segments in the polyline path and rotates in place at segment junctions. This simplified, decoupled motion pattern improves scan-matching stability and mitigates map drift. For process control, the framework serializes frontier point selection and navigation, avoiding oscillation caused by frequent goal changes in conventional parallelized processes. The waypoint retracing mechanism is introduced to generate repeated observations, triggering loop closure detection and backend optimization in graph-based SLAM, thereby improving map consistency and precision. Experiments in both simulation and real-world scenarios validate the effectiveness of the framework. It achieves improved mapping coverage and precision in more challenging environments compared to baseline 2D exploration algorithms. It also shows robustness in supporting resource-constrained robot platforms and maintaining mapping consistency across various LiDAR field-of-view (FoV) configurations.

arxiv情報

著者 Muhua Zhang,Lei Ma,Ying Wu,Kai Shen,Yongkui Sun,Henry Leung
発行日 2025-03-21 10:10:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Autonomous Exploration-Based Precise Mapping for Mobile Robots through Stepwise and Consistent Motions はコメントを受け付けていません

Behavioral Conflict Avoidance Between Humans and Quadruped Robots in Shared Environments

要約

今日、ロボットは、人間と共有される環境でますます操作されており、人間とロボットの行動との対立が安全性を損なう可能性があります。
この論文では、ロボットの安全性を保証するだけでなく、人間の活動への干渉を最小限に抑える四足ロボットの傾向への適応の原則に基づいて、積極的な行動紛争回避フレームワークを紹介します。
ロボットが静止しているか動いているかにかかわらず、人間や他の動的なオブジェクトに近づくこととの潜在的な競合を積極的に回避できます。その後、紛争が落ち着くと迅速にタスクを再開します。
低コストのハイブリッドソリッドステートライダーを備えた振動ロボットプラットフォームでの正確なヒト検出と追跡を実現するために、強化されたアプローチが提案されています。
潜在的な競合が検出されると、ロボットは回避ポイントを選択し、タスクを再開する前に回避操作を実行します。
このアプローチは、目標主導型のままである従来の方法とは対照的であり、多くの場合、強制的に障害をバイパスしたり、紛争を引き起こしたり、デッドロックシナリオで立ち往生したりするなど、攻撃的な行動をもたらします。
回避ポイントの選択は、静的および動的な障害物を統合して潜在的なフィールドマップを生成することによって達成されます。
次に、ロボットはこのマップ内の実行可能な領域を検索し、評価関数を使用して最適な回避ポイントを決定します。
実験結果は、フレームワークが人間の活動への干渉を大幅に減らし、ロボットと人の両方の安全性を高めることを示しています。

要約(オリジナル)

Nowadays, robots are increasingly operated in environments shared with humans, where conflicts between human and robot behaviors may compromise safety. This paper presents a proactive behavioral conflict avoidance framework based on the principle of adaptation to trends for quadruped robots that not only ensures the robot’s safety but also minimizes interference with human activities. It can proactively avoid potential conflicts with approaching humans or other dynamic objects, whether the robot is stationary or in motion, then swiftly resume its tasks once the conflict subsides. An enhanced approach is proposed to achieve precise human detection and tracking on vibratory robot platform equipped with low-cost hybrid solid-state LiDAR. When potential conflict detected, the robot selects an avoidance point and executes an evasion maneuver before resuming its task. This approach contrasts with conventional methods that remain goal-driven, often resulting in aggressive behaviors, such as forcibly bypassing obstacles and causing conflicts or becoming stuck in deadlock scenarios. The selection of avoidance points is achieved by integrating static and dynamic obstacle to generate a potential field map. The robot then searches for feasible regions within this map and determines the optimal avoidance point using an evaluation function. Experimental results demonstrate that the framework significantly reduces interference with human activities, enhances the safety of both robots and persons.

arxiv情報

著者 Shuang Wei,Muhua Zhang,Yun Gan,Deqing Huang,Lei Ma,Chenguang Yang
発行日 2025-03-21 10:23:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Behavioral Conflict Avoidance Between Humans and Quadruped Robots in Shared Environments はコメントを受け付けていません

HAPI: A Model for Learning Robot Facial Expressions from Human Preferences

要約

固定された関節構成に基づいた手作りの方法が硬く不自然な行動をもたらすことが多いため、自動ロボット表現の生成は人間とロボットの相互作用に重要です。
最近の自動化された手法は、手動チューニングの必要性を低下させますが、自由度が限られており、知覚統合が不十分であるため、微妙で現実的な表現の欠乏において、人間の好みとモデルの予測のギャップを適切に埋めることができないことで不足する傾向があります。
この作業では、人間のフィードバックを活用してこの矛盾に対処し、ロボット面の表現力を高める新しいランク対策フレームワークを提案します。
具体的には、ペアワイズ比較アノテーションを実施して、人間の好みのデータを収集し、発現評価を改善するシャムランクネットベースのアプローチである人間の感情ペアワイズインプレッション(HAPI)モデルを開発します。
35 Dof Androidプラットフォームでのベイジアン最適化とオンライン表現調査を介して得られた結果は、私たちのアプローチが、ベースラインと専門家が設計した方法によって生成された方法よりも、怒り、幸福、驚きの非常に現実的で社会的に共鳴する表現を生み出すことを示しています。
これにより、私たちのフレームワークは、人間の好みとモデルの予測との間のギャップを効果的に橋渡ししながら、ロボットの表現生成を人間の感情的な反応と堅牢に整列させることを確認します。

要約(オリジナル)

Automatic robotic facial expression generation is crucial for human-robot interaction, as handcrafted methods based on fixed joint configurations often yield rigid and unnatural behaviors. Although recent automated techniques reduce the need for manual tuning, they tend to fall short by not adequately bridging the gap between human preferences and model predictions-resulting in a deficiency of nuanced and realistic expressions due to limited degrees of freedom and insufficient perceptual integration. In this work, we propose a novel learning-to-rank framework that leverages human feedback to address this discrepancy and enhanced the expressiveness of robotic faces. Specifically, we conduct pairwise comparison annotations to collect human preference data and develop the Human Affective Pairwise Impressions (HAPI) model, a Siamese RankNet-based approach that refines expression evaluation. Results obtained via Bayesian Optimization and online expression survey on a 35-DOF android platform demonstrate that our approach produces significantly more realistic and socially resonant expressions of Anger, Happiness, and Surprise than those generated by baseline and expert-designed methods. This confirms that our framework effectively bridges the gap between human preferences and model predictions while robustly aligning robotic expression generation with human affective responses.

arxiv情報

著者 Dongsheng Yang,Qianying Liu,Wataru Sato,Takashi Minato,Chaoran Liu,Shin’ya Nishida
発行日 2025-03-21 11:04:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.HC, cs.LG, cs.RO | HAPI: A Model for Learning Robot Facial Expressions from Human Preferences はコメントを受け付けていません

Exploring psychophysiological methods for human-robot collaboration in construction

要約

精神生理学的方法は、人間の労働者とロボットの間の相互コミュニケーションの強化と協力を促進するための有望なアプローチを提示します。
その可能性にもかかわらず、精神生理学的方法を効果的に統合して、建設における人間のロボコラボレーション(HRC)を改善する方法についての理解はまだ限られています。
このペーパーでは、コンセプトメソドロジー価値の哲学的枠組みを採用して、建設環境内でのHRCの精神生理学的方法の使用を批判的にレビューすることにより、このギャップに対処します。
分析では、脳波を使用して脳活動を測定することが最も広く使用されている方法であることが明らかになりましたが、ほとんどの作品は依然として概念実証段階にあり、経験的証拠がないことが明らかになりました。
3つの潜在的な研究方向が提案されました。多モーダルの精神生理学的信号の統合、より良い一般化のための既存の実験設定を充実させ、効果的な信号検出のための高度な生体適合性または非接触技術を活用します。
調査結果は、ロボットのより良い実装を可能にし、建設中のHRCをサポートするために、その後の精神生理学的方法の実用的なアプリケーションにその後の調査に役立つはずです。

要約(オリジナル)

Psychophysiological methods present a promising approach to fostering enhanced mutual communication and collaboration between human workers and robots. Despite their potential, there is still limited understanding of how to effectively integrate psychophysiological methods to improve human-robot collaboration (HRC) in construction. This paper addresses this gap by critically reviewing the use of psychophysiological methods for HRC within construction environments, employing a concept-methodology-value philosophical framework. The analysis reveals that measuring brain activity using electroencephalography is the most widely used method, while most of the works are still at the proof of concept stage and lack empirical evidence. Three potential research directions were proposed: the integration of multi-modal psychophysiological signals, enriching the existing experimental settings for better generalizability, and leveraging advanced biocompatible or contactless technologies for effective signal detection. The findings should benefit subsequent exploration and practical applications of psychophysiological methods to enable better implementation of robots and support HRC in construction.

arxiv情報

著者 Saika Wong,Zhentao Chen,Mi Pan,Miroslaw J. Skibniewski
発行日 2025-03-21 12:03:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.ET, cs.RO | Exploring psychophysiological methods for human-robot collaboration in construction はコメントを受け付けていません

GAA-TSO: Geometry-Aware Assisted Depth Completion for Transparent and Specular Objects

要約

透明で鏡面のオブジェクトは、日常生活、工場、研究所で頻繁に遭遇します。
ただし、ユニークな光学特性により、これらのオブジェクトの深さ情報は通常、不完全で不正確であり、下流のロボット工学タスクに大きな課題をもたらします。
したがって、透明性および鏡面オブジェクトの深さ情報を正確に復元することが重要です。
これらのオブジェクトの以前の深さ完了方法は、通常、深さ予測を実行するために深さ画像の追加チャネルとしてRGB情報を使用します。
透明性および鏡面オブジェクトのテクスチャの特性が低いため、色情報に大きく依存するこれらの方法は、構造のない深度予測を生成する傾向があります。
さらに、これらの2Dメソッドは、深度チャネルに隠された3D構造を効果的に探索することができず、深さのあいまいさをもたらします。
この目的のために、シーンの3D構造的キューの探索に焦点を当てた透明および鏡面オブジェクトのジオメトリアシストアシスト深度完了方法を提案します。
具体的には、RGB-D入力から2D機能を抽出することに加えて、入力深度をポイントクラウドにバックプロジェクトし、3Dブランチを構築して、階層シーンレベルの3D構造的特徴を抽出します。
3D幾何情報を活用するために、いくつかのゲート付きクロスモーダル融合モジュールを設計して、画像ブランチにマルチレベルの3D幾何学的特徴を効果的に伝播します。
さらに、対応する2D機能に3D機能を適切に割り当てるための適応相関集約戦略を提案します。
ClearGrasp、OOD、Transcg、およびSTDデータセットに関する広範な実験は、この方法が他の最先端の方法よりも優れていることを示しています。
さらに、この方法がダウンストリームロボットグラッシングタスクのパフォーマンスを大幅に向上させることを実証します。

要約(オリジナル)

Transparent and specular objects are frequently encountered in daily life, factories, and laboratories. However, due to the unique optical properties, the depth information on these objects is usually incomplete and inaccurate, which poses significant challenges for downstream robotics tasks. Therefore, it is crucial to accurately restore the depth information of transparent and specular objects. Previous depth completion methods for these objects usually use RGB information as an additional channel of the depth image to perform depth prediction. Due to the poor-texture characteristics of transparent and specular objects, these methods that rely heavily on color information tend to generate structure-less depth predictions. Moreover, these 2D methods cannot effectively explore the 3D structure hidden in the depth channel, resulting in depth ambiguity. To this end, we propose a geometry-aware assisted depth completion method for transparent and specular objects, which focuses on exploring the 3D structural cues of the scene. Specifically, besides extracting 2D features from RGB-D input, we back-project the input depth to a point cloud and build the 3D branch to extract hierarchical scene-level 3D structural features. To exploit 3D geometric information, we design several gated cross-modal fusion modules to effectively propagate multi-level 3D geometric features to the image branch. In addition, we propose an adaptive correlation aggregation strategy to appropriately assign 3D features to the corresponding 2D features. Extensive experiments on ClearGrasp, OOD, TransCG, and STD datasets show that our method outperforms other state-of-the-art methods. We further demonstrate that our method significantly enhances the performance of downstream robotic grasping tasks.

arxiv情報

著者 Yizhe Liu,Tong Jia,Da Cai,Hao Wang,Dongyue Chen
発行日 2025-03-21 12:46:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | GAA-TSO: Geometry-Aware Assisted Depth Completion for Transparent and Specular Objects はコメントを受け付けていません

Leveraging Language Models for Out-of-Distribution Recovery in Reinforcement Learning

要約

Deep Renection Learning(DRL)は、ロボット制御において強力なパフォーマンスを実証していますが、分散排出(OOD)状態の影響を受けやすく、しばしば信頼できないアクションとタスクの障害をもたらします。
以前の方法では、OODの発生の最小化または防止に焦点を当てていますが、エージェントがそのような状態に遭遇すると、回復をほとんど無視しています。
最新の研究では、エージェントが分配内の状態に戻ることでこれに対処しようとしましたが、不確実性の推定への依存は、複雑な環境でのスケーラビリティを妨げます。
この制限を克服するために、不確実性の推定に依存することなく回復学習を可能にする、分散除外回復(Lamour)の言語モデルを導入します。
Lamourは、エージェントを元のタスクを正常に実行できる状態に戻す密な報酬コードを生成し、画像の説明、論理的推論、およびコード生成でLVLMSの機能を活用します。
実験結果は、Lamourが多様な移動タスク全体の回復効率を大幅に向上させ、既存の方法が苦労しているヒューマノイド移動やモバイル操作など、複雑な環境に効果的に一般化することさえあることを示しています。
コードと補足資料は、\ href {https://lamour-rl.github.io/} {https://lamour-rl.github.io/}で入手できます。

要約(オリジナル)

Deep Reinforcement Learning (DRL) has demonstrated strong performance in robotic control but remains susceptible to out-of-distribution (OOD) states, often resulting in unreliable actions and task failure. While previous methods have focused on minimizing or preventing OOD occurrences, they largely neglect recovery once an agent encounters such states. Although the latest research has attempted to address this by guiding agents back to in-distribution states, their reliance on uncertainty estimation hinders scalability in complex environments. To overcome this limitation, we introduce Language Models for Out-of-Distribution Recovery (LaMOuR), which enables recovery learning without relying on uncertainty estimation. LaMOuR generates dense reward codes that guide the agent back to a state where it can successfully perform its original task, leveraging the capabilities of LVLMs in image description, logical reasoning, and code generation. Experimental results show that LaMOuR substantially enhances recovery efficiency across diverse locomotion tasks and even generalizes effectively to complex environments, including humanoid locomotion and mobile manipulation, where existing methods struggle. The code and supplementary materials are available at \href{https://lamour-rl.github.io/}{https://lamour-rl.github.io/}.

arxiv情報

著者 Chan Kim,Seung-Woo Seo,Seong-Woo Kim
発行日 2025-03-21 13:20:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Leveraging Language Models for Out-of-Distribution Recovery in Reinforcement Learning はコメントを受け付けていません

Global SLAM Using 5G ToA Integration: Performance Analysis with Unknown Base Stations and Loop Closure Alternatives

要約

このペーパーでは、5G到着時間(TOA)測定値をOrb-SLAM3に統合して、グローバルなローカリゼーションを有効にし、屋内ドローンナビゲーションのマッピング機能を強化する新しいアプローチを紹介します。
Orb-Slam3の最適化パイプラインを拡張して、システムバイアスを推定しなが​​ら、視覚および慣性測定とともに5GベースステーションからのTOAを共同処理します。
この統合は、本質的にローカルなスラムの推定値をグローバルに参照された軌跡に変換し、単眼構成のスケールのあいまいさを効果的に解決します。
私たちの方法は、RGB-Dカメラを備えたAerolab屋内データセットと、MATLABとQuadrigaを使用して28 GHzと78 GHzの周波数でのシミュレートされた5G TOA測定によって補完されるEuroc MAVベンチマークの両方を使用して評価されます。
複数のSLAM構成にわたる広範な実験では、TOA統合により、ローカルの精度を維持しながら、すべてのモードで一貫したグローバルな位置付けが可能になることが示されています。
単眼構成の場合、TOA統合はスケールのあいまいさを正常に解決し、一貫性を向上させます。
さらに、ベースステーションの不明な位置でシナリオを調査し、TOA測定がドリフト補正のためのループ閉鎖の代替として効果的に機能することを実証します。
また、ベースステーションの異なる幾何学的配置がスラムのパフォーマンスにどのように影響するかを分析します。
UWB-VOを含む最先端の方法との比較分析により、測定頻度が低く、ベースステーションの連続操作が低い場合でも、アプローチの堅牢性が確認されます。
結果は、5G TOA統合が、特に正確なポジショニングが重要な挑戦的な屋内環境で、グローバルなSLAMアプリケーションに大きな利点を提供することを検証しています。

要約(オリジナル)

This paper presents a novel approach that integrates 5G Time of Arrival (ToA) measurements into ORB-SLAM3 to enable global localization and enhance mapping capabilities for indoor drone navigation. We extend ORB-SLAM3’s optimization pipeline to jointly process ToA data from 5G base stations alongside visual and inertial measurements while estimating system biases. This integration transforms the inherently local SLAM estimates into globally referenced trajectories and effectively resolves scale ambiguity in monocular configurations. Our method is evaluated using both Aerolab indoor datasets with RGB-D cameras and the EuRoC MAV benchmark, complemented by simulated 5G ToA measurements at 28 GHz and 78 GHz frequencies using MATLAB and QuaDRiGa. Extensive experiments across multiple SLAM configurations demonstrate that ToA integration enables consistent global positioning across all modes while maintaining local accuracy. For monocular configurations, ToA integration successfully resolves scale ambiguity and improves consistency. We further investigate scenarios with unknown base station positions and demonstrate that ToA measurements can effectively serve as an alternative to loop closure for drift correction. We also analyze how different geometric arrangements of base stations impact SLAM performance. Comparative analysis with state-of-the-art methods, including UWB-VO, confirms our approach’s robustness even with lower measurement frequencies and sequential base station operation. The results validate that 5G ToA integration provides substantial benefits for global SLAM applications, particularly in challenging indoor environments where accurate positioning is critical.

arxiv情報

著者 Meisam Kabiri,Holger Voos
発行日 2025-03-21 13:48:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Global SLAM Using 5G ToA Integration: Performance Analysis with Unknown Base Stations and Loop Closure Alternatives はコメントを受け付けていません

Data-driven Camera and Lidar Simulation Models for Autonomous Driving: A Review from Generative Models to Volume Renderers

要約

知覚センサー、特にカメラとLIDARは、自律運転システム(ADS)の重要な要素であり、情報に基づいた運転と制御の決定に周囲を理解できるようにします。
したがって、これらのセンサーのリアルなシミュレーションモデルの開発は、ADの効果的なシミュレーションベースのテストを実施するために不可欠です。
さらに、ディープラーニングベースの認識モデルの上昇により、多様なトレーニングデータセットを合成するためのセンサーシミュレーションモデルの有用性が向上しました。
従来のセンサーシミュレーションモデルは、特にADSなどの複雑なシステムで、計算高価な物理ベースのアルゴリズムに依存しています。
したがって、現在の潜在能力は、高次元のデータ分布とボリュームレンダラーをキャプチャする際の深い生成モデルの例外的なパフォーマンスに促進され、シーンを正確に表現する際の深い生成モデルの例外的なパフォーマンスに支えられています。
このペーパーでは、現在の最先端のデータ駆動型カメラとLIDARシミュレーションモデルとその評価方法をレビューします。
生成モデルとボリュームレンダラーの新しい観点から、さまざまなモデルを探ります。
生成モデルは、入出力タイプの観点から議論され、ボリュームレンダラーは入力エンコーディングに基づいて分類されます。
最後に、この論文は、センサーシミュレーションモデルを評価するために一般的に使用される評価手法を示し、この地域の既存の研究ギャップを強調しています。

要約(オリジナル)

Perception sensors, particularly camera and Lidar, are key elements of Autonomous Driving Systems (ADS) that enable them to comprehend their surroundings to informed driving and control decisions. Therefore, developing realistic simulation models for these sensors is essential for conducting effective simulation-based testing of ADS. Moreover, the rise of deep learning-based perception models has increased the utility of sensor simulation models for synthesising diverse training datasets. The traditional sensor simulation models rely on computationally expensive physics-based algorithms, specifically in complex systems such as ADS. Hence, the current potential resides in data-driven approaches, fuelled by the exceptional performance of deep generative models in capturing high-dimensional data distribution and volume renderers in accurately representing scenes. This paper reviews the current state-of-the-art data-driven camera and Lidar simulation models and their evaluation methods. It explores a spectrum of models from the novel perspective of generative models and volume renderers. Generative models are discussed in terms of their input-output types, while volume renderers are categorised based on their input encoding. Finally, the paper illustrates commonly used evaluation techniques for assessing sensor simulation models and highlights the existing research gaps in the area.

arxiv情報

著者 Hamed Haghighi,Xiaomeng Wang,Hao Jing,Mehrdad Dianati
発行日 2025-03-21 14:13:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR, cs.LG, cs.RO | Data-driven Camera and Lidar Simulation Models for Autonomous Driving: A Review from Generative Models to Volume Renderers はコメントを受け付けていません

A Bayesian Modeling Framework for Estimation and Ground Segmentation of Cluttered Staircases

要約

複雑な環境での自律的なロボットナビゲーションには、オクルージョンなどの知覚的な課題やロボットの動きによって導入された不確実性のために、堅牢な知覚と高レベルのシーンの理解が必要です。
たとえば、散らかった階段を登るロボットは、散乱を一歩と誤解し、状態を誤って伝え、安全性を損なう可能性があります。
これには、不完全なセンサーデータからでも環境の根底にある構造を推測できる堅牢な状態推定方法が必要です。
この論文では、階段の堅牢な状態推定のための新しい方法を紹介します。
ロボットの観点から広がる閉塞された階段を知覚するという課題に対処するために、私たちのアプローチは、無限の幅の階段表現と有限のエンドポイント状態を組み合わせて、階段構造全体をキャプチャします。
この表現は、ベイジアン推論フレームワークに統合され、騒々しい測定値を融合し、部分的な観測と閉塞でも階段の位置を正確に推定できるようにします。
さらに、階段のない領域を正確に識別するために、階段推定パイプラインと組み合わせて機能するセグメンテーションアルゴリズムを提示します。
私たちの方法は、多様な階段全体で実際のロボットで広く評価されており、ベースラインアプローチと比較して推定精度とセグメンテーション性能の大幅な改善を示しています。

要約(オリジナル)

Autonomous robot navigation in complex environments requires robust perception as well as high-level scene understanding due to perceptual challenges, such as occlusions, and uncertainty introduced by robot movement. For example, a robot climbing a cluttered staircase can misinterpret clutter as a step, misrepresenting the state and compromising safety. This requires robust state estimation methods capable of inferring the underlying structure of the environment even from incomplete sensor data. In this paper, we introduce a novel method for robust state estimation of staircases. To address the challenge of perceiving occluded staircases extending beyond the robot’s field-of-view, our approach combines an infinite-width staircase representation with a finite endpoint state to capture the overall staircase structure. This representation is integrated into a Bayesian inference framework to fuse noisy measurements enabling accurate estimation of staircase location even with partial observations and occlusions. Additionally, we present a segmentation algorithm that works in conjunction with the staircase estimation pipeline to accurately identify clutter-free regions on a staircase. Our method is extensively evaluated on real robot across diverse staircases, demonstrating significant improvements in estimation accuracy and segmentation performance compared to baseline approaches.

arxiv情報

著者 Prasanna Sriganesh,Burhanuddin Shirose,Matthew Travers
発行日 2025-03-21 15:26:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | A Bayesian Modeling Framework for Estimation and Ground Segmentation of Cluttered Staircases はコメントを受け付けていません

Control the Soft Robot Arm with its Physical Twin

要約

ソフトロボットアームの準拠機能を活用するには、物理​​的な機能を活用できるコントローラーが必要です。
ループで人間を活用するテレオ操作は、より複雑な制御戦略を達成するための重要なステップです。
硬膜操作は剛性ロボットに広く使用されていますが、ソフトロボットの場合、全身の構成が考慮される視聴方法が必要です。
同一の「物理的な双子」、またはロボットのデモンストレーターを使用する方法を提案します。
この腱ロボットは、腱の長さが構成の知覚を提供し、外観の腱長さの直接マッピングを可能にするバック駆動型である可能性があります。
ロボットの構成全体にわたるこのテレオ操作により、ギャップに絞るなどの環境を活用する複雑な相互作用がどのように可能になるかを示します。
また、この方法は、物理的な双子よりも大規模なロボットにどのように一般化できるか、そして物理双子の剛性特性の調整性がその使用を簡素化する方法を示します。

要約(オリジナル)

To exploit the compliant capabilities of soft robot arms we require controller which can exploit their physical capabilities. Teleoperation, leveraging a human in the loop, is a key step towards achieving more complex control strategies. Whilst teleoperation is widely used for rigid robots, for soft robots we require teleoperation methods where the configuration of the whole body is considered. We propose a method of using an identical ‘physical twin’, or demonstrator of the robot. This tendon robot can be back-driven, with the tendon lengths providing configuration perception, and enabling a direct mapping of tendon lengths for the execture. We demonstrate how this teleoperation across the entire configuration of the robot enables complex interactions with exploit the envrionment, such as squeezing into gaps. We also show how this method can generalize to robots which are a larger scale that the physical twin, and how, tuneability of the stiffness properties of the physical twin simplify its use.

arxiv情報

著者 Qinghua Guan,Hung Hon Cheng,Benhui Dai,Josie Hughes
発行日 2025-03-21 15:30:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Control the Soft Robot Arm with its Physical Twin はコメントを受け付けていません