Transformation & Translation Occupancy Grid Mapping: 2-Dimensional Deep Learning Refined SLAM

要約

Slam(同時ローカリゼーションとマッピング)は、ロボットシステムの重要なコンポーネントであり、環境、現在の場所、ロボットの以前の軌跡を提供します。
3D Lidar Slamは近年注目すべき改善を受けていますが、2D Slamが遅れています。
匂い測定とポーズ推定の不正確さの漸進的なドリフトは、大規模な複雑な環境での最新の2Dライダーオドメトリアルゴリズムを妨げます。
固有の推定ベースのスラムプロセスと組み合わされた動的ロボットモーションは、ノイズとエラーを導入し、マップの品質を分解します。
占有グリッドマッピング(OGM)は、しばしば騒がしく不明確な結果を生成します。
これは、証拠に基づいたマッピングが不確実な観察に応じてマップを表すという事実によるものです。
これが、OGMが探索またはナビゲーションタスクで非常に人気がある理由です。
ただし、これにより、複雑なシーンでのフロアプランの作成など、特定のマッピングベースのタスクに対するOGMの有効性も制限されます。
これに対処するために、新しい変換と翻訳の占有グリッドマッピング(TT-GM)を提案します。
3D SLAMから2Dエラーの世界への正確で堅牢なポーズ推定技術を適応し、有効にし、生成敵対的ネットワーク(GAN)を使用してマップ品質を改善します。
Deep Renection Learning(DRL)を介して新しいデータ生成方法を導入して、SLAMエラー修正のためにGANをトレーニングするのに十分な大きさのデータセットを構築します。
Loughborough Universityで収集されたデータについてスラムをリアルタイムで実証します。
また、大規模な有名な2D占有マップのコレクションに関するさまざまな大規模な複雑な環境での一般化可能性を証明しています。
私たちの斬新なアプローチにより、複雑なシーンで高品質のOGMを作成することができ、品質、精度、信頼性の点で現在のスラムアルゴリズムの機能をはるかに上回ります。

要約(オリジナル)

SLAM (Simultaneous Localisation and Mapping) is a crucial component for robotic systems, providing a map of an environment, the current location and previous trajectory of a robot. While 3D LiDAR SLAM has received notable improvements in recent years, 2D SLAM lags behind. Gradual drifts in odometry and pose estimation inaccuracies hinder modern 2D LiDAR-odometry algorithms in large complex environments. Dynamic robotic motion coupled with inherent estimation based SLAM processes introduce noise and errors, degrading map quality. Occupancy Grid Mapping (OGM) produces results that are often noisy and unclear. This is due to the fact that evidence based mapping represents maps according to uncertain observations. This is why OGMs are so popular in exploration or navigation tasks. However, this also limits OGMs’ effectiveness for specific mapping based tasks such as floor plan creation in complex scenes. To address this, we propose our novel Transformation and Translation Occupancy Grid Mapping (TT-OGM). We adapt and enable accurate and robust pose estimation techniques from 3D SLAM to the world of 2D and mitigate errors to improve map quality using Generative Adversarial Networks (GANs). We introduce a novel data generation method via deep reinforcement learning (DRL) to build datasets large enough for training a GAN for SLAM error correction. We demonstrate our SLAM in real-time on data collected at Loughborough University. We also prove its generalisability on a variety of large complex environments on a collection of large scale well-known 2D occupancy maps. Our novel approach enables the creation of high quality OGMs in complex scenes, far surpassing the capabilities of current SLAM algorithms in terms of quality, accuracy and reliability.

arxiv情報

著者 Leon Davies,Baihua Li,Mohamad Saada,Simon Sølvsten,Qinggang Meng
発行日 2025-04-28 10:13:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Transformation & Translation Occupancy Grid Mapping: 2-Dimensional Deep Learning Refined SLAM はコメントを受け付けていません

An Incremental Sampling and Segmentation-Based Approach for Motion Planning Infeasibility

要約

運動学のモーション計画におけるプランの実行可能性を検出するために、シンプルで簡単に実現しやすいアルゴリズムを提示します。
私たちの方法では、ロボットの構成空間を個別の空間に近似します。そこでは、各自由度に有限の値のセットがあります。
障害物領域は、自由構成空間を異なる接続領域に分離します。
開始構成と目標構成の間にパスが存在するためには、自由空間の同じ接続された領域にある必要があります。
したがって、計画の実行可能性を確認するには、開始と目標を隔離する障害領域から適切なポイントをサンプリングする必要があります。
したがって、離散化された空間からサンプリングし、障害物領域を表すビットマップセルを更新することにより、構成空間を徐々に構築します。
その後、この部分的に構築された構成スペースを分割して、その中のさまざまな接続されたコンポーネントを識別し、開始セルと目標セルの接続を評価します。
この方法論を5つの異なるシナリオで説明し、最大5度(DOF)を持つ構成スペースを備えています。

要約(オリジナル)

We present a simple and easy-to-implement algorithm to detect plan infeasibility in kinematic motion planning. Our method involves approximating the robot’s configuration space to a discrete space, where each degree of freedom has a finite set of values. The obstacle region separates the free configuration space into different connected regions. For a path to exist between the start and goal configurations, they must lie in the same connected region of the free space. Thus, to ascertain plan infeasibility, we merely need to sample adequate points from the obstacle region that isolate start and goal. Accordingly, we progressively construct the configuration space by sampling from the discretized space and updating the bitmap cells representing obstacle regions. Subsequently, we partition this partially built configuration space to identify different connected components within it and assess the connectivity of the start and goal cells. We illustrate this methodology on five different scenarios with configuration spaces having up to 5 degree-of-freedom (DOF).

arxiv情報

著者 Antony Thomas,Fulvio Mastrogiovanni,Marco Baglietto
発行日 2025-04-28 10:19:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | An Incremental Sampling and Segmentation-Based Approach for Motion Planning Infeasibility はコメントを受け付けていません

CAIMAN: Causal Action Influence Detection for Sample-efficient Loco-manipulation

要約

脚のないロボットが非充実した局所操作を実行できるようにすることは、汎用性を高めるために重要です。
全身オブジェクトをプッシュするなどの学習行動には、多くの場合、特に構造化されていない環境で、洗練された計画戦略または広範なタスク固有の報酬形状が必要です。
この作業では、エージェントが環境内の他のエンティティを制御することを奨励する実用的な強化学習フレームワークであるCaimanを提示します。
Caimanは、因果関係の影響を本質的な動機付けの目的として活用し、脚のあるロボットがまばらなタスク報酬の下でもオブジェクトプッシュスキルを効率的に獲得できるようにします。
低レベルの移動モジュールと、タスク関連の速度コマンドを生成し、本質的な報酬を最大化するように訓練される高レベルのポリシーを組み合わせて、階層制御戦略を採用しています。
因果関係の影響を推定するために、トレーニング中にキネマティックな事前を収集したデータと統合することにより、環境のダイナミクスを学習します。私たちは、シミュレーションの多様なシナリオへのカイマンの優れたサンプル効率と適応性を経験的に実証します。

要約(オリジナル)

Enabling legged robots to perform non-prehensile loco-manipulation is crucial for enhancing their versatility. Learning behaviors such as whole-body object pushing often requires sophisticated planning strategies or extensive task-specific reward shaping, especially in unstructured environments. In this work, we present CAIMAN, a practical reinforcement learning framework that encourages the agent to gain control over other entities in the environment. CAIMAN leverages causal action influence as an intrinsic motivation objective, allowing legged robots to efficiently acquire object pushing skills even under sparse task rewards. We employ a hierarchical control strategy, combining a low-level locomotion module with a high-level policy that generates task-relevant velocity commands and is trained to maximize the intrinsic reward. To estimate causal action influence, we learn the dynamics of the environment by integrating a kinematic prior with data collected during training.We empirically demonstrate CAIMAN’s superior sample efficiency and adaptability to diverse scenarios in simulation, as well as its successful transfer to real-world systems without further fine-tuning.

arxiv情報

著者 Yuanchen Yuan,Jin Cheng,Núria Armengol Urpí,Stelian Coros
発行日 2025-04-28 10:57:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | CAIMAN: Causal Action Influence Detection for Sample-efficient Loco-manipulation はコメントを受け付けていません

GPA-RAM: Grasp-Pretraining Augmented Robotic Attention Mamba for Spatial Task Learning

要約

ほとんどの既存のロボット操作方法は、複雑な深いネットワークアーキテクチャを通じて知覚を強化することにより、タスク学習を優先します。
しかし、彼らはリアルタイムの衝突のない計画で課題に直面しています。
したがって、ロボットの注意Mamba(RAM)は、洗練された計画のために設計されています。
具体的には、MAMBAと並列シングルビューの注意を統合することにより、RAMはマルチビュービジョンとタスク関連の言語機能を調整し、線形複雑さと堅牢なリアルタイムパフォーマンスを備えた効率的な微細なタスク計画を確保します。
それにもかかわらず、それは高精度の把握と操作をさらに改善する可能性があります。
したがって、把握抑制増強(GPA)が考案され、把握ポーズ特徴抽出器は、タスク全体のデモンストから直接継承されたオブジェクトをつかむポーズを前提としています。
その後、抽出された把握機能は、RAMから注意ベースの事前訓練を受けた位置融合を介して空間的に整列した計画機能と融合し、グローバルな計画に関する過度の強盗によって隠された高解像度の把握キューを維持します。
要約すると、把握したロボットの注意マンバ(GPA-RAM)を把握することを提案し、スキル学習を計画するための空間タスク学習をRAMに分割し、スキル学習を把握するためのGPAを除算します。
GPA-RAMは、シミュレーションと現実世界で異なるカメラ構成を備えた3つのロボットシステムで優れたパフォーマンスを示しています。
以前の最先端の方法と比較して、RLBenchマルチタスクベンチマークで8.2%(79.3%から87.5%)、アロハバイマニュアルマニピュレーションタスクの12%(16%から56%)、12%(86%から98%)を改善します。
さらに、実験結果は、RAMとGPAの両方がタスク学習を強化することを示しており、GPAは、前処理された把握ポーズ特徴抽出器の異なるアーキテクチャに堅牢であることを証明しています。
ウェブサイトはhttps://logssim.github.io/gpa\_ram\_website/です。

要約(オリジナル)

Most existing robot manipulation methods prioritize task learning by enhancing perception through complex deep network architectures. However, they face challenges in real-time collision-free planning. Hence, Robotic Attention Mamba (RAM) is designed for refined planning. Specifically, by integrating Mamba and parallel single-view attention, RAM aligns multi-view vision and task-related language features, ensuring efficient fine-grained task planning with linear complexity and robust real-time performance. Nevertheless, it has the potential for further improvement in high-precision grasping and manipulation. Thus, Grasp-Pretraining Augmentation (GPA) is devised, with a grasp pose feature extractor pretrained utilizing object grasp poses directly inherited from whole-task demonstrations. Subsequently, the extracted grasp features are fused with the spatially aligned planning features from RAM through attention-based Pre-trained Location Fusion, preserving high-resolution grasping cues overshadowed by an overemphasis on global planning. To summarize, we propose Grasp-Pretraining Augmented Robotic Attention Mamba (GPA-RAM), dividing spatial task learning into RAM for planning skill learning and GPA for grasping skill learning. GPA-RAM demonstrates superior performance across three robot systems with distinct camera configurations in simulation and the real world. Compared with previous state-of-the-art methods, it improves the absolute success rate by 8.2% (from 79.3% to 87.5%) on the RLBench multi-task benchmark and 40\% (from 16% to 56%), 12% (from 86% to 98%) on the ALOHA bimanual manipulation tasks, while delivering notably faster inference. Furthermore, experimental results demonstrate that both RAM and GPA enhance task learning, with GPA proving robust to different architectures of pretrained grasp pose feature extractors. The website is: https://logssim.github.io/GPA\_RAM\_website/.

arxiv情報

著者 Juyi Sheng,Yangjun Liu,Sheng Xu,Zhixin Yang,Mengyuan Liu
発行日 2025-04-28 11:20:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | GPA-RAM: Grasp-Pretraining Augmented Robotic Attention Mamba for Spatial Task Learning はコメントを受け付けていません

Tensegrity-based Robot Leg Design with Variable Stiffness

要約

動物は、脚の剛性を細かく調節して、複雑な地形と相互作用し、突然の衝撃を吸収できます。
跳躍やスプリントなどの偉業では、動物は関節の剛性を積極的に調節する対立する筋肉ペアの洗練された相互作用を示しますが、腱と靭帯は生物学的スプリングを貯蔵および放出するエネルギーとして機能します。
脚のあるロボットは堅牢な運動において顕著な進歩を達成していますが、動物の運動制御に固有の洗練された適応性がまだ欠けています。
脚の剛性の積極的な制御を可能にするメカニズムを統合すると、より回復力のあるロボットシステムへの経路が提示されます。
このペーパーでは、柔軟性のあるケーブルと剛性要素を組み合わせて緊張と圧縮のバランスをとる構造的原理であるTensegrityに基づいて、コンプライアンスをロボット脚に統合するための新しい機械的設計を提案します。
TenseGrity構造は、自然に受動的コンプライアンスを可能にし、それらを衝撃を吸収し、多様な地形に適応するのに適しています。
私たちの設計は、テンセグリティジョイントを備えたロボット脚と、ケーブル作動システムの張力を調節することにより、ジョイントの回転剛性を制御するメカニズムを備えています。
ロボットの脚は、突然の衝撃の衝撃力を少なくとも34.7%減らし、剛性構成を調整することにより10.26 Nの負荷差で同様の脚の屈曲を達成できることを実証します。
結果は、Tensegrityベースの脚の設計が、より回復力があり、適応性のある脚のロボットに向かう可能性を秘めていることを示しています。

要約(オリジナル)

Animals can finely modulate their leg stiffness to interact with complex terrains and absorb sudden shocks. In feats like leaping and sprinting, animals demonstrate a sophisticated interplay of opposing muscle pairs that actively modulate joint stiffness, while tendons and ligaments act as biological springs storing and releasing energy. Although legged robots have achieved notable progress in robust locomotion, they still lack the refined adaptability inherent in animal motor control. Integrating mechanisms that allow active control of leg stiffness presents a pathway towards more resilient robotic systems. This paper proposes a novel mechanical design to integrate compliancy into robot legs based on tensegrity – a structural principle that combines flexible cables and rigid elements to balance tension and compression. Tensegrity structures naturally allow for passive compliance, making them well-suited for absorbing impacts and adapting to diverse terrains. Our design features a robot leg with tensegrity joints and a mechanism to control the joint’s rotational stiffness by modulating the tension of the cable actuation system. We demonstrate that the robot leg can reduce the impact forces of sudden shocks by at least 34.7 % and achieve a similar leg flexion under a load difference of 10.26 N by adjusting its stiffness configuration. The results indicate that tensegrity-based leg designs harbors potential towards more resilient and adaptable legged robots.

arxiv情報

著者 Erik Mortensen,Jan Petrs,Alexander Dittrich,Dario Floreano
発行日 2025-04-28 11:22:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Tensegrity-based Robot Leg Design with Variable Stiffness はコメントを受け付けていません

QuickGrasp: Lightweight Antipodal Grasp Planning with Point Clouds

要約

把握は、ロボットと環境の間の最終的なインターフェースを促進する上で長年の課題でした。
環境とタスクが複雑になるにつれて、周囲から推測してそれらに基づいて行動するためにより高い知性を埋め込む必要性が必要になりました。
ほとんどの方法は、6度のフリードーム空間での純粋なサンプリングベースのアプローチまたは学習問題として、問題を扱うことにより、把握ポーズを推定する手法を利用していますが、通常、ドメイン全体の一般化が不十分なため、実際の設定では失敗します。
さらに、非効率性と既存の把握計画アプローチの確率的性質をサンプリングするために、把握計画と再現性の欠如を生成するのにかかった時間は、実際のタスクでの適用を厳しく制限します。
このペーパーでは、ロボットグラスプランニング、特にアンチポーダルグラスクに対する軽量の分析的アプローチを提示します。
提案されている把握計画アルゴリズムは、エンド効果のポーズを直接推定するのではなく、オブジェクト表面の把握ポイントを推定するための最適化問題として定式化されます。
この程度まで、湾曲した表面の場合でも、効果的な平面セグメンテーションのために、ソフト領域成長アルゴリズムが提示されます。
次に、最適化ベースの品質メトリックを把握ポイントの評価に使用して、間接力の閉鎖を保証します。
提案された把握フレームワークは、複数のシミュレートされたオブジェクトのベースラインとして、既存の最先端の把握計画アプローチであるGrasp Pose Detection(GPD)と比較されます。
GPDと比較した提案されたアプローチの有効性は、ImageおよびPoint-Cloudデータを使用した実際の設定でも評価され、LobotiqグリッパーとUR5マニピュレーターを使用して計画されたグラスプが実行されます。

要約(オリジナル)

Grasping has been a long-standing challenge in facilitating the final interface between a robot and the environment. As environments and tasks become complicated, the need to embed higher intelligence to infer from the surroundings and act on them has become necessary. Although most methods utilize techniques to estimate grasp pose by treating the problem via pure sampling-based approaches in the six-degree-of-freedom space or as a learning problem, they usually fail in real-life settings owing to poor generalization across domains. In addition, the time taken to generate the grasp plan and the lack of repeatability, owing to sampling inefficiency and the probabilistic nature of existing grasp planning approaches, severely limits their application in real-world tasks. This paper presents a lightweight analytical approach towards robotic grasp planning, particularly antipodal grasps, with little to no sampling in the six-degree-of-freedom space. The proposed grasp planning algorithm is formulated as an optimization problem towards estimating grasp points on the object surface instead of directly estimating the end-effector pose. To this extent, a soft-region-growing algorithm is presented for effective plane segmentation, even in the case of curved surfaces. An optimization-based quality metric is then used for the evaluation of grasp points to ensure indirect force closure. The proposed grasp framework is compared with the existing state-of-the-art grasp planning approach, Grasp pose detection (GPD), as a baseline over multiple simulated objects. The effectiveness of the proposed approach in comparison to GPD is also evaluated in a real-world setting using image and point-cloud data, with the planned grasps being executed using a ROBOTIQ gripper and UR5 manipulator.

arxiv情報

著者 Navin Sriram Ravie,Keerthi Vasan M,Asokan Thondiyath,Bijo Sebastian
発行日 2025-04-28 12:09:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | QuickGrasp: Lightweight Antipodal Grasp Planning with Point Clouds はコメントを受け付けていません

Hector UI: A Flexible Human-Robot User Interface for (Semi-)Autonomous Rescue and Inspection Robots

要約

リモートヒトオペレーターのユーザーインターフェイス(UI)は、ロボットをオペレーターの認識とアクションの効率的な拡張にするための重要なリンクです。
救助アプリケーションでは、いくつかの研究が、主要なロボット工学競技またはフィールドの展開中の観察に基づいて、オペレーターインターフェイスの設計を調査しています。
この研究に基づいて、良好なインターフェイス設計のガイドラインが経験的に特定されました。
競争に参加するチームのUIに関する調査は、多くの場合、UIアプリケーション中の外部観測に基づいており、UIの柔軟性に関するいくつかの関連する要件を逃す可能性があります。
この作業では、確立されたガイドラインと車輪、追跡、およびウォーキングロボットの模範的な使用に基づいて、オープンソースと柔軟に構成可能なユーザーインターフェイスを提示します。
設計の決定を説明し、複数のロボット工学競技と評価で非常に成功したアプリケーションで得た洞察をカバーします。
提示されたUIは、ほとんど努力せずに他のロボットに適応でき、オープンソースとして利用できます。

要約(オリジナル)

The remote human operator’s user interface (UI) is an important link to make the robot an efficient extension of the operator’s perception and action. In rescue applications, several studies have investigated the design of operator interfaces based on observations during major robotics competitions or field deployments. Based on this research, guidelines for good interface design were empirically identified. The investigations on the UIs of teams participating in competitions are often based on external observations during UI application, which may miss some relevant requirements for UI flexibility. In this work, we present an open-source and flexibly configurable user interface based on established guidelines and its exemplary use for wheeled, tracked, and walking robots. We explain the design decisions and cover the insights we have gained during its highly successful applications in multiple robotics competitions and evaluations. The presented UI can also be adapted for other robots with little effort and is available as open source.

arxiv情報

著者 Stefan Fabian,Oskar von Stryk
発行日 2025-04-28 12:28:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | Hector UI: A Flexible Human-Robot User Interface for (Semi-)Autonomous Rescue and Inspection Robots はコメントを受け付けていません

UTTG_ A Universal Teleoperation Approach via Online Trajectory Generation

要約

遠隔操作は、危険な環境運用にとって重要であり、ロボット学習の専門家デモを収集するための重要なツールとして機能します。
ただし、既存の方法は、テレオ操作デバイスとロボットプラットフォーム間のロボットハードウェアの依存関係と制御周波数の不一致に直面しています。
私たちのアプローチは、Unified Robot説明形式(URDF)ファイルから運動学的パラメーターを自動的に抽出し、均一なインターフェイスを介して多様なロボット全体でプラグ可能な展開を可能にします。
提案された補間アルゴリズムは、オンライン連続軌道生成を通じて、低レートのヒト入力と高周波ロボット制御コマンドの間の周波数ギャップを橋渡しします。
軌道の滑らかさを高めるために、動きの品質を最適化する最小のストレッチスプラインを導入します。
このシステムは、さまざまなタスク要件に対応するために、精度と迅速なモードをさらに提供します。
デュアルアームのものを含むさまざまなロボットプラットフォームにわたる実験は、私たちの方法の一般性とスムーズな動作性能を示しています。
このコードは、Pythonインターフェイスを使用してC ++で開発され、https://github.com/irmv-manipulation-group/uttgで入手できます。

要約(オリジナル)

Teleoperation is crucial for hazardous environment operations and serves as a key tool for collecting expert demonstrations in robot learning. However, existing methods face robotic hardware dependency and control frequency mismatches between teleoperation devices and robotic platforms. Our approach automatically extracts kinematic parameters from unified robot description format (URDF) files, and enables pluggable deployment across diverse robots through uniform interfaces. The proposed interpolation algorithm bridges the frequency gap between low-rate human inputs and high-frequency robotic control commands through online continuous trajectory generation, \n{while requiring no access to the closed, bottom-level control loop}. To enhance trajectory smoothness, we introduce a minimum-stretch spline that optimizes the motion quality. The system further provides precision and rapid modes to accommodate different task requirements. Experiments across various robotic platforms including dual-arm ones demonstrate generality and smooth operation performance of our methods. The code is developed in C++ with python interface, and available at https://github.com/IRMV-Manipulation-Group/UTTG.

arxiv情報

著者 Shengjian Fang,Yixuan Zhou,Yu Zheng,Pengyu Jiang,Siyuan Liu,Hesheng Wang
発行日 2025-04-28 12:33:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | UTTG_ A Universal Teleoperation Approach via Online Trajectory Generation はコメントを受け付けていません

Fast algorithm for centralized multi-agent maze exploration

要約

ロボット工学の最近の進歩により、ロボットは、建物の燃焼、地震被害の構造、未知の洞窟、地雷原を横断する、犯罪に満ちた通りのパトロールなどの犠牲者を捜索するなど、危険な状況で人間を置き換える道を開いています。
これらの課題は、エージェントが未知の迷路を探索しなければならない問題として一般化することができます。
未知の迷路を調査し、固定ターゲットをローカライズするための自動モバイルエージェントの協力的なマルチエージェントシステムを提案します。
迷路探査用の熱方程式駆動型エリアカバレッジ(HEDAC)アルゴリズムは、迷路の探索を導く潜在的な分野を採用し、衝突回避、カバレッジ調整、経路計画などのエージェントの協力行動を統合します。
連続的な静的ドメインの以前のアプリケーションとは対照的に、拡大する直線グリッドの迷路にHEDACメソッドを適応させます。
提案されたアルゴリズムは、迷路全体の調査を保証し、衝突やデッドロックの回避を確実にすることができます。
さらに、これは、HEDACアルゴリズムの最初のアプリケーションであり、時間の経過とともに拡大するドメインです。
動的に変化するドメインに対処するために、標準的な直接および反復線形ソルバーと比較した場合、提示されたアルゴリズムの計算の複雑さを大幅に削減するため、成功した過剰緩和(SOR)反復線形ソルバーが適応および実装されています。
結果は、大幅な改善を強調し、さまざまな迷路のアルゴリズムの適用性を示しています。
彼らは、その堅牢性、適応性、スケーラビリティ、およびシンプルさを確認します。これにより、集中並列計算が迷路の複数のエージェント/ロボットを制御できます。

要約(オリジナル)

Recent advances in robotics have paved the way for robots to replace humans in perilous situations, such as searching for victims in burning buildings, in earthquake-damaged structures, in uncharted caves, traversing minefields or patrolling crime-ridden streets. These challenges can be generalized as problems where agents have to explore unknown mazes. We propose a cooperative multi-agent system of automated mobile agents for exploring unknown mazes and localizing stationary targets. The Heat Equation-Driven Area Coverage (HEDAC) algorithm for maze exploration employs a potential field to guide the exploration of the maze and integrates cooperative behaviors of the agents such as collision avoidance, coverage coordination, and path planning. In contrast to previous applications for continuous static domains, we adapt the HEDAC method for mazes on expanding rectilinear grids. The proposed algorithm guarantees the exploration of the entire maze and can ensure the avoidance of collisions and deadlocks. Moreover, this is the first application of the HEDAC algorithm to domains that expand over time. To cope with the dynamically changing domain, succesive over-relaxation (SOR) iterative linear solver has been adapted and implemented, which significantly reduced the computational complexity of the presented algorithm when compared to standard direct and iterative linear solvers. The results highlight significant improvements and show the applicability of the algorithm in different mazes. They confirm its robustness, adaptability, scalability and simplicity, which enables centralized parallel computation to control multiple agents/robots in the maze.

arxiv情報

著者 Bojan Crnković,Stefan Ivić,Mila Zovko
発行日 2025-04-28 12:55:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MA, cs.RO, math.OC | Fast algorithm for centralized multi-agent maze exploration はコメントを受け付けていません

RoTipBot: Robotic Handling of Thin and Flexible Objects using Rotatable Tactile Sensors

要約

このペーパーでは、薄くて柔軟なオブジェクトを処理するための新しいロボットシステムであるRotipbotを紹介します。
吸引カップやソフトグリッパーを使用してシングル化することに限定された以前の作品とは異なり、ロティップボットは複数のレイヤーをカウントしてから、単一の把握閉鎖で同時に把握できます。
具体的には、最初に、その先端の周りに連絡先情報を回転させて感知できるROTIPという名前の視覚ベースの触覚センサーを開発します。
2つのROTIPセンサーを装備したRotipbotロールと、指の間の中心に薄くて柔軟なオブジェクトの複数の層を供給し、効果的な把握を可能にします。
さらに、ROTIPのセンシング能力を使用して、両方の指がFRBオブジェクトの数を正確にカウントしながら、オブジェクトとの安全な接触を維持することを保証する触覚ベースの把握戦略を設計します。
広範な実験では、ROTIPセンサーとRotipbotアプローチの有効性が示されています。
結果は、Rotipbotがより高い成功率を達成するだけでなく、複数のレイヤーを同時に把握してカウントすることを示しています。これは、以前の方法では不可能です。
さらに、Rotipbotは、最新の方法よりも最大3倍高速で動作します。
Rotipbotの成功は、動員された触覚センサーを使用したオブジェクト操作の将来の研究への道を開きます。
このペーパーで使用されているすべての資料は、https://sites.google.com/view/rotipbotで入手できます。

要約(オリジナル)

This paper introduces RoTipBot, a novel robotic system for handling thin, flexible objects. Different from previous works that are limited to singulating them using suction cups or soft grippers, RoTipBot can count multiple layers and then grasp them simultaneously in a single grasp closure. Specifically, we first develop a vision-based tactile sensor named RoTip that can rotate and sense contact information around its tip. Equipped with two RoTip sensors, RoTipBot rolls and feeds multiple layers of thin, flexible objects into the centre between its fingers, enabling effective grasping. Moreover, we design a tactile-based grasping strategy that uses RoTip’s sensing ability to ensure both fingers maintain secure contact with the object while accurately counting the number of fed objects. Extensive experiments demonstrate the efficacy of the RoTip sensor and the RoTipBot approach. The results show that RoTipBot not only achieves a higher success rate but also grasps and counts multiple layers simultaneously — capabilities not possible with previous methods. Furthermore, RoTipBot operates up to three times faster than state-of-the-art methods. The success of RoTipBot paves the way for future research in object manipulation using mobilised tactile sensors. All the materials used in this paper are available at https://sites.google.com/view/rotipbot.

arxiv情報

著者 Jiaqi Jiang,Xuyang Zhang,Daniel Fernandes Gomes,Thanh-Toan Do,Shan Luo
発行日 2025-04-28 13:04:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | RoTipBot: Robotic Handling of Thin and Flexible Objects using Rotatable Tactile Sensors はコメントを受け付けていません