Insect-Computer Hybrid Speaker: Speaker using Chirp of the Cicada Controlled by Electrical Muscle Stimulation

要約

「昆虫コンピューターハイブリッドスピーカー」を提案します。これにより、コンピューターと昆虫の組み合わせから作られた音楽を作ることができます。
多くの研究により、昆虫を制御し、フィードバックを得るための方法とインターフェイスが提案されています。
しかし、第三者との相互作用のための昆虫の使用に関する研究は少ない。
この論文では、電気筋肉刺激(EMS)を使用してトリガーされるスピーカーとしてCICADAを使用する方法を提案します。
制御するチャープの適切な波形、適切な電圧範囲、およびCICADAがチャープできる最大ピッチを調査して調査しました。

要約(オリジナル)

We propose ‘Insect-Computer Hybrid Speaker’, which enables us to make musics made from combinations of computer and insects. Lots of studies have proposed methods and interfaces for controlling insects and obtaining feedback. However, there have been less research on the use of insects for interaction with third parties. In this paper, we propose a method in which cicadas are used as speakers triggered by using Electrical Muscle Stimulation (EMS). We explored and investigated the suitable waveform of chirp to be controlled, the appropriate voltage range, and the maximum pitch at which cicadas can chirp.

arxiv情報

著者 Yuga Tsukuda,Naoto Nishida,Jun Lu,Yoichi Ochiai
発行日 2025-04-23 07:04:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AR, cs.ET, cs.HC, cs.RO, cs.SD | Insect-Computer Hybrid Speaker: Speaker using Chirp of the Cicada Controlled by Electrical Muscle Stimulation はコメントを受け付けていません

ManipDreamer: Boosting Robotic Manipulation World Model with Action Tree and Visual Guidance

要約

ロボット操作のビデオ統合の最近の進歩は有望であることを示していますが、効果的な指導の公開を確保し、高い視覚品質を達成することには大きな課題が続いています。
RobodReamerのような最近の方法は、言語分解を利用して指示を別々の低レベルのプリミティブに分割し、これらのプリミティブの世界モデルを調整して組成の指導を達成します。
ただし、これらの個別のプリミティブは、それらの間に存在する関係を考慮していません。
さらに、最近の方法は、視覚品質を向上させるために重要な深さやセマンティックガイダンスを含む貴重な視覚ガイダンスを無視しています。
このペーパーでは、アクションツリーと視覚的なガイダンスに基づいた高度な世界モデルであるManipDreamerを紹介します。
命令プリミティブ間の関係をよりよく学ぶために、命令をアクションツリーとして表し、ツリーノードに埋め込みを割り当てると、各命令はアクションツリーをナビゲートすることで埋め込みを取得できます。
命令埋め込みは、世界モデルを導くために使用できます。
視覚品質を向上させるために、視覚的なガイダンスアダプターと世界モデルと互換性のある視覚的なガイダンスアダプターを導入することにより、深さとセマンティックのガイダンスを組み合わせます。
この視覚アダプターは、ビデオ生成の時間的および物理的な一貫性の両方を強化します。
アクションツリーと視覚的なガイダンスに基づいて、マニップドリーマーは、指導に満ちた能力と視覚的品質を大幅に向上させます。
ロボット操作ベンチマークに関する包括的な評価により、マニップドリーマーが見たタスクと目に見えないタスクの両方でビデオ品質メトリックの大幅な改善を達成することが明らかになり、PSNRは19.55から21.05に改善され、SSIMは0.7474に改善され、0.7982に改善され、最近のタスクに比べて3.506から3.506から3.506から3.506から3.501に流れが減少しました。
さらに、私たちの方法は、平均して6つのRLBenchタスクでロボット操作タスクの成功率を2.5%増加させます。

要約(オリジナル)

While recent advancements in robotic manipulation video synthesis have shown promise, significant challenges persist in ensuring effective instruction-following and achieving high visual quality. Recent methods, like RoboDreamer, utilize linguistic decomposition to divide instructions into separate lower-level primitives, conditioning the world model on these primitives to achieve compositional instruction-following. However, these separate primitives do not consider the relationships that exist between them. Furthermore, recent methods neglect valuable visual guidance, including depth and semantic guidance, both crucial for enhancing visual quality. This paper introduces ManipDreamer, an advanced world model based on the action tree and visual guidance. To better learn the relationships between instruction primitives, we represent the instruction as the action tree and assign embeddings to tree nodes, each instruction can acquire its embeddings by navigating through the action tree. The instruction embeddings can be used to guide the world model. To enhance visual quality, we combine depth and semantic guidance by introducing a visual guidance adapter compatible with the world model. This visual adapter enhances both the temporal and physical consistency of video generation. Based on the action tree and visual guidance, ManipDreamer significantly boosts the instruction-following ability and visual quality. Comprehensive evaluations on robotic manipulation benchmarks reveal that ManipDreamer achieves large improvements in video quality metrics in both seen and unseen tasks, with PSNR improved from 19.55 to 21.05, SSIM improved from 0.7474 to 0.7982 and reduced Flow Error from 3.506 to 3.201 in unseen tasks, compared to the recent RoboDreamer model. Additionally, our method increases the success rate of robotic manipulation tasks by 2.5% in 6 RLbench tasks on average.

arxiv情報

著者 Ying Li,Xiaobao Wei,Xiaowei Chi,Yuming Li,Zhongyu Zhao,Hao Wang,Ningning Ma,Ming Lu,Shanghang Zhang
発行日 2025-04-23 07:23:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | ManipDreamer: Boosting Robotic Manipulation World Model with Action Tree and Visual Guidance はコメントを受け付けていません

The Dodecacopter: a Versatile Multirotor System of Dodecahedron-Shaped Modules

要約

安全性と適応性の向上を約束して、モジュール式再構成不可能な弾薬車両は、複数のタイプのモノリシック車を一度に置き換える可能性を保持するユニークで多用途のプラットフォームとして提案されています。
最先端の硬質に組み立てられたモジュラー車両は、一般に、ローターがコプラナーであり、「フライトアレイ」の形状を想定する2次元構成です。
すべてのモジュールが通常のドデカヘドロンの形をとる新しいタイプのモジュラーロータークラフトであるドデカコプターを紹介し、フライトアレイを超えてより豊富な構成セットの作成を可能にします。
特に、選択したモジュール設計を使用して、3次元および完全に作動した構成を作成する方法を示します。
これらのタイプの構成の関連性を、さまざまなパフォーマンスインジケーターを使用した構造および作動特性の観点から正当化します。
提案された設計で達成できる幅広い構成と機能を考えると、構造および作動の制約を与えられた最適な構成を見つけるために、扱いやすい最適化プログラムを策定します。
最後に、そのような車両のプロトタイプが、複数の構成で実行されたフライトの結果とともに提示されます。

要約(オリジナル)

With the promise of greater safety and adaptability, modular reconfigurable uncrewed air vehicles have been proposed as unique, versatile platforms holding the potential to replace multiple types of monolithic vehicles at once. State-of-the-art rigidly assembled modular vehicles are generally two-dimensional configurations in which the rotors are coplanar and assume the shape of a ‘flight array’. We introduce the Dodecacopter, a new type of modular rotorcraft where all modules take the shape of a regular dodecahedron, allowing the creation of richer sets of configurations beyond flight arrays. In particular, we show how the chosen module design can be used to create three-dimensional and fully actuated configurations. We justify the relevance of these types of configurations in terms of their structural and actuation properties with various performance indicators. Given the broad range of configurations and capabilities that can be achieved with our proposed design, we formulate tractable optimization programs to find optimal configurations given structural and actuation constraints. Finally, a prototype of such a vehicle is presented along with results of performed flights in multiple configurations.

arxiv情報

著者 Kévin Garanger,Thanakorn Khamvilai,Jeremy Epps,Eric Feron
発行日 2025-04-23 07:38:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | The Dodecacopter: a Versatile Multirotor System of Dodecahedron-Shaped Modules はコメントを受け付けていません

Tightly-Coupled LiDAR-IMU-Wheel Odometry with an Online Neural Kinematic Model Learning via Factor Graph Optimization

要約

幾何学的特徴(トンネルや長いまっすぐな廊下など)を欠く環境は、ライダーポイント雲がそのような環境で縮退するため、Lidarベースの匂い測定アルゴリズムにとって困難です。
車輪付きロボットの場合、ホイールキネマティックモデル(つまり、ホイール匂い測定)は、臭気測定推定の信頼性を向上させることができます。
ただし、運動学的モデルは、特にこのロボットモデルが車輪を滑らせることによって回転するため、スキッドステアリングロボットの場合には、複雑な動き(たとえば、ホイールの滑り、横方向の動き)に苦しんでいます。
さらに、これらのエラーは、ホイールの滑りが大きく(ドリフト)、地形依存のパラメーターの影響を受けるときに非線形に変化します。
ポイントクラウドの変性と運動学モデルエラーに同時に取り組むために、私たちは、非線形性のあるホイールロボットの運動モデルを学習するニューラルネットワークのオンライントレーニングを組み込んだLidar-Imu-wheel odometryアルゴリズムを開発しました。
ロボット状態とともに、因子グラフでニューラルネットワークをオンラインでトレーニングすることを提案し、学習ベースの運動モデルが現在の地形状態に適応できるようにします。
提案された方法は、共同で統一因子グラフでニューラルネットワークとlidar-imu-wheel odometryのオンライントレーニングを解決し、これらすべての制約の一貫性を保持します。
実験を通じて、提案されたネットワークが変化する環境に適合し、異なる環境で正確な臭気測定の推定をもたらすことを最初に確認しました。
次に、提案された臭気測定推定アルゴリズムが、運動モデルのポイント雲の変性と非線形性(ドリフトによる大きなホイールスリッページ)に対して堅牢であることを確認しました。
要約ビデオは、https://www.youtube.com/watch?v=cvrvhdda7cwで入手できます

要約(オリジナル)

Environments lacking geometric features (e.g., tunnels and long straight corridors) are challenging for LiDAR-based odometry algorithms because LiDAR point clouds degenerate in such environments. For wheeled robots, a wheel kinematic model (i.e., wheel odometry) can improve the reliability of the odometry estimation. However, the kinematic model suffers from complex motions (e.g., wheel slippage, lateral movement) in the case of skid-steering robots particularly because this robot model rotates by skidding its wheels. Furthermore, these errors change nonlinearly when the wheel slippage is large (e.g., drifting) and are subject to terrain-dependent parameters. To simultaneously tackle point cloud degeneration and the kinematic model errors, we developed a LiDAR-IMU-wheel odometry algorithm incorporating online training of a neural network that learns the kinematic model of wheeled robots with nonlinearity. We propose to train the neural network online on a factor graph along with robot states, allowing the learning-based kinematic model to adapt to the current terrain condition. The proposed method jointly solves online training of the neural network and LiDAR-IMU-wheel odometry on a unified factor graph to retain the consistency of all those constraints. Through experiments, we first verified that the proposed network adapted to a changing environment, resulting in an accurate odometry estimation across different environments. We then confirmed that the proposed odometry estimation algorithm was robust against point cloud degeneration and nonlinearity (e.g., large wheel slippage by drifting) of the kinematic model. The summary video is available here: https://www.youtube.com/watch?v=CvRVhdda7Cw

arxiv情報

著者 Taku Okawara,Kenji Koide,Shuji Oishi,Masashi Yokozuka,Atsuhiko Banno,Kentaro Uno,Kazuya Yoshida
発行日 2025-04-23 08:01:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Tightly-Coupled LiDAR-IMU-Wheel Odometry with an Online Neural Kinematic Model Learning via Factor Graph Optimization はコメントを受け付けていません

Debiasing 6-DOF IMU via Hierarchical Learning of Continuous Bias Dynamics

要約

このホワイトペーパーでは、IMUジャイロスコープと加速度計のオンライン紛争に対する深い学習アプローチを開発します。
ほとんどの既存の方法は、生のIMUデータを補うためにバイアス用語を暗黙的に学習することに依存しています。
明示的なバイアス学習は、最近、より解釈可能で運動に依存しない代替品としての可能性を示しています。
ただし、それは未脱カッティングのままであり、特にめったに利用可能なグラウンドトゥルースバイアスデータの必要性に直面しています。
これに対処するために、連続バイアスダイナミクスを明示的にモデル化するニューラルの通常の微分方程式(ノード)フレームワークを提案します。
これは、階層的トレーニング戦略を使用して、IMU運動学のためにCanonical Node FrameworkをMatrix Lieグループに拡張することによって達成されます。
2つのパブリックデータセットと1つの実際の実験での検証は、IMU測定の大幅な精度の向上を示し、純粋なIMU統合と視覚慣性匂いの両方のエラーを減らします。

要約(オリジナル)

This paper develops a deep learning approach to the online debiasing of IMU gyroscopes and accelerometers. Most existing methods rely on implicitly learning a bias term to compensate for raw IMU data. Explicit bias learning has recently shown its potential as a more interpretable and motion-independent alternative. However, it remains underexplored and faces challenges, particularly the need for ground truth bias data, which is rarely available. To address this, we propose a neural ordinary differential equation (NODE) framework that explicitly models continuous bias dynamics, requiring only pose ground truth, often available in datasets. This is achieved by extending the canonical NODE framework to the matrix Lie group for IMU kinematics with a hierarchical training strategy. The validation on two public datasets and one real-world experiment demonstrates significant accuracy improvements in IMU measurements, reducing errors in both pure IMU integration and visual-inertial odometry.

arxiv情報

著者 Ben Liu,Tzu-Yuan Lin,Wei Zhang,Maani Ghaffari
発行日 2025-04-23 09:35:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Debiasing 6-DOF IMU via Hierarchical Learning of Continuous Bias Dynamics はコメントを受け付けていません

HERB: Human-augmented Efficient Reinforcement learning for Bin-packing

要約

オブジェクトを効率的に梱包することは、ロジスティクス、倉庫の自動化、ロボット工学の根本的な問題です。
従来の梱包ソリューションは幾何学的最適化に焦点を当てていますが、不規則な梱包では、3Dオブジェクトは、形状と安定性の変動により、重大な課題を提示します。
強化学習〜(RL)は、ロボットパッキングタスクで人気を博していますが、純粋にシミュレーションからのトレーニングは非効率的で計算上の高価です。
この作業では、不規則なオブジェクトを梱包するための人間が熟成したRLフレームワークであるハーブを提案します。
まず、人間のデモンストレーションを活用して、梱包するオブジェクトの最良のシーケンスを学習します。これは、明示的にモデル化するのが難しいスペースの最適化、安定性、オブジェクト関係などの潜在的な要因を組み込みます。
次に、視覚情報を使用して梱包容器内の最適なオブジェクトの位置を決定する配置アルゴリズムをトレーニングします。
私たちのアプローチは、広範なパフォーマンス評価を通じて検証され、梱包効率と遅延の両方を分析します。
最後に、ロボットシステムでの方法の実際の実現可能性を実証します。
実験結果は、私たちの方法が、人間の直感を活用し、梱包の堅牢性と適応性の両方を改善することにより、幾何学的および純粋にRLベースのアプローチよりも優れていることを示しています。
この作業は、人間の専門知識主導のRLを組み合わせて、ロボットシステムにおける複雑な現実世界の梱包の課題に取り組む可能性を強調しています。

要約(オリジナル)

Packing objects efficiently is a fundamental problem in logistics, warehouse automation, and robotics. While traditional packing solutions focus on geometric optimization, packing irregular, 3D objects presents significant challenges due to variations in shape and stability. Reinforcement Learning~(RL) has gained popularity in robotic packing tasks, but training purely from simulation can be inefficient and computationally expensive. In this work, we propose HERB, a human-augmented RL framework for packing irregular objects. We first leverage human demonstrations to learn the best sequence of objects to pack, incorporating latent factors such as space optimization, stability, and object relationships that are difficult to model explicitly. Next, we train a placement algorithm that uses visual information to determine the optimal object positioning inside a packing container. Our approach is validated through extensive performance evaluations, analyzing both packing efficiency and latency. Finally, we demonstrate the real-world feasibility of our method on a robotic system. Experimental results show that our method outperforms geometric and purely RL-based approaches by leveraging human intuition, improving both packing robustness and adaptability. This work highlights the potential of combining human expertise-driven RL to tackle complex real-world packing challenges in robotic systems.

arxiv情報

著者 Gojko Perovic,Nuno Ferreira Duarte,Atabak Dehban,Gonçalo Teixeira,Egidio Falotico,José Santos-Victor
発行日 2025-04-23 10:24:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | HERB: Human-augmented Efficient Reinforcement learning for Bin-packing はコメントを受け付けていません

Reactive Diffusion Policy: Slow-Fast Visual-Tactile Policy Learning for Contact-Rich Manipulation

要約

人間は、外部の変化に対する迅速な応答や接触力の適応制御などの非常に反応性のある機能を備えた、ビジョンとタッチを使用して複雑な接触豊富なタスクを達成できます。
ただし、これはロボットにとって挑戦的なままです。
既存の視覚的模倣学習(IL)アプローチは、複雑な動作をモデル化するためのアクションチャンキングに依存しています。
さらに、ほとんどのテレオ操作システムは、実行できるタスクの範囲を制限する微調整された触覚 /力のフィードバックを提供するのに苦労しています。
これらの課題に対処するために、拡張現実(AR)を介してリアルタイムの触覚フィードバックを提供する低コストの視聴システム(AR)と、接触豊富な操作スキルを学習するための新規遅い視覚視覚模倣学習アルゴリズムであるReactive拡散ポリシー(RDP)とともに、Tactarを紹介します。
RDPは、2レベルの階層を採用しています。(1)低周波数の潜在空間での高レベルのアクションチャンクを予測するための遅い潜在的拡散ポリシー、(2)高周波での閉ループ触覚フィードバック制御のための高速非対称トークネザー。
この設計により、統一されたフレームワーク内で複雑な軌跡モデリングと迅速な反応挙動の両方が可能になります。
3つの挑戦的な接触豊富なタスクにわたる広範な評価を通じて、RDPは最先端の視覚的なILベースラインと比較してパフォーマンスを大幅に向上させます。
さらに、実験では、RDPが異なる触覚 /力センサーに適用可能であることが示されています。
コードとビデオは、https://reative-diffusion-policy.github.ioで入手できます。

要約(オリジナル)

Humans can accomplish complex contact-rich tasks using vision and touch, with highly reactive capabilities such as fast response to external changes and adaptive control of contact forces; however, this remains challenging for robots. Existing visual imitation learning (IL) approaches rely on action chunking to model complex behaviors, which lacks the ability to respond instantly to real-time tactile feedback during the chunk execution. Furthermore, most teleoperation systems struggle to provide fine-grained tactile / force feedback, which limits the range of tasks that can be performed. To address these challenges, we introduce TactAR, a low-cost teleoperation system that provides real-time tactile feedback through Augmented Reality (AR), along with Reactive Diffusion Policy (RDP), a novel slow-fast visual-tactile imitation learning algorithm for learning contact-rich manipulation skills. RDP employs a two-level hierarchy: (1) a slow latent diffusion policy for predicting high-level action chunks in latent space at low frequency, (2) a fast asymmetric tokenizer for closed-loop tactile feedback control at high frequency. This design enables both complex trajectory modeling and quick reactive behavior within a unified framework. Through extensive evaluation across three challenging contact-rich tasks, RDP significantly improves performance compared to state-of-the-art visual IL baselines. Furthermore, experiments show that RDP is applicable across different tactile / force sensors. Code and videos are available on https://reactive-diffusion-policy.github.io.

arxiv情報

著者 Han Xue,Jieji Ren,Wendi Chen,Gu Zhang,Yuan Fang,Guoying Gu,Huazhe Xu,Cewu Lu
発行日 2025-04-23 10:45:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Reactive Diffusion Policy: Slow-Fast Visual-Tactile Policy Learning for Contact-Rich Manipulation はコメントを受け付けていません

PP-Tac: Paper Picking Using Tactile Feedback in Dexterous Robotic Hands

要約

ロボットは、人間の仲間としてますます想定されており、しばしば変形可能なオブジェクトを操作することを伴う日常のタスクを支援しています。
ロボットハードウェアと具体化されたAIの最近の進歩により機能が拡大していますが、現在のシステムは、紙や布などの薄くて平らで、変形可能なオブジェクトの処理に苦労しています。
この制限は、多様なオブジェクトの外観の下での堅牢な状態推定に適した知覚技術の欠如と、適切な把握動作を生成するための計画技術がないことから生じます。
これらのギャップを埋めるために、このペーパーでは、紙のようなオブジェクトを拾うためのロボットシステムであるPP-TACを紹介します。
PP-TACは、高解像度の全方向性触覚センサー\ Sensornameを備えたマルチフィンガーのロボットハンドを備えています。
このハードウェア構成により、リアルタイムのスリップ検出と、そのようなスリップを軽減するオンライン摩擦力制御が可能になります。
さらに、把握モーション生成は、最初に指のピンチモーションのデータセットを構築する軌道合成パイプラインを通じて達成されます。
このデータセットに基づいて、拡散ベースのポリシーは、ハンドアームロボットシステムを制御するためにトレーニングされています。
実験は、PP-TACがさまざまな材料、厚さ、剛性の紙のようなオブジェクトを効果的に把握し、87.5 \%の全体的な成功率を達成できることを示しています。
私たちの知る限り、この作品は、触覚の器用な手を使用して紙のような変形可能なオブジェクトを把握する最初の試みです。
当社のプロジェクトWebページは、https://peilin-666.github.io/projects/pp-tac/にあります。

要約(オリジナル)

Robots are increasingly envisioned as human companions, assisting with everyday tasks that often involve manipulating deformable objects. Although recent advances in robotic hardware and embodied AI have expanded their capabilities, current systems still struggle with handling thin, flat, and deformable objects such as paper and fabric. This limitation arises from the lack of suitable perception techniques for robust state estimation under diverse object appearances, as well as the absence of planning techniques for generating appropriate grasp motions. To bridge these gaps, this paper introduces PP-Tac, a robotic system for picking up paper-like objects. PP-Tac features a multi-fingered robotic hand with high-resolution omnidirectional tactile sensors \sensorname. This hardware configuration enables real-time slip detection and online frictional force control that mitigates such slips. Furthermore, grasp motion generation is achieved through a trajectory synthesis pipeline, which first constructs a dataset of finger’s pinching motions. Based on this dataset, a diffusion-based policy is trained to control the hand-arm robotic system. Experiments demonstrate that PP-Tac can effectively grasp paper-like objects of varying material, thickness, and stiffness, achieving an overall success rate of 87.5\%. To our knowledge, this work is the first attempt to grasp paper-like deformable objects using a tactile dexterous hand. Our project webpage can be found at: https://peilin-666.github.io/projects/PP-Tac/

arxiv情報

著者 Pei Lin,Yuzhe Huang,Wanlin Li,Jianpeng Ma,Chenxi Xiao,Ziyuan Jiao
発行日 2025-04-23 12:10:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | PP-Tac: Paper Picking Using Tactile Feedback in Dexterous Robotic Hands はコメントを受け付けていません

Nav-SCOPE: Swarm Robot Cooperative Perception and Coordinated Navigation

要約

このペーパーでは、分散化された協同組合の認識を備えたマルチロボット調整ナビゲーションのための軽量の体系的なソリューションを提案します。
情報フローは、信頼性の低いアドホックネットワーク上のリアルタイムの観察共有を促進するために最初に作成されます。
次に、各ロボットの環境不確実性は、補完的な情報を提供する相互作用フィールドによって削減されます。
最後に、パスの最適化が達成され、効果的な収束、発散、および衝突回避との自己組織化された調整が可能になります。
私たちの方法は完全に解釈可能で、ギャップなしで展開する準備ができています。
包括的なシミュレーションと現実世界の実験は、パス冗長性の低下、さまざまなタスクにわたる堅牢なパフォーマンス、および計算と通信に関する最小限の要求を示しています。

要約(オリジナル)

This paper proposes a lightweight systematic solution for multi-robot coordinated navigation with decentralized cooperative perception. An information flow is first created to facilitate real-time observation sharing over unreliable ad-hoc networks. Then, the environmental uncertainties of each robot are reduced by interaction fields that deliver complementary information. Finally, path optimization is achieved, enabling self-organized coordination with effective convergence, divergence, and collision avoidance. Our method is fully interpretable and ready for deployment without gaps. Comprehensive simulations and real-world experiments demonstrate reduced path redundancy, robust performance across various tasks, and minimal demands on computation and communication.

arxiv情報

著者 Chenxi Li,Weining Lu,Qingquan Lin,Litong Meng,Haolu Li,Bin Liang
発行日 2025-04-23 12:12:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Nav-SCOPE: Swarm Robot Cooperative Perception and Coordinated Navigation はコメントを受け付けていません

The MRS UAV System: Pushing the Frontiers of Reproducible Research, Real-world Deployment, and Education with Autonomous Unmanned Aerial Vehicles

要約

現実的なシミュレーションと現実世界の実験を通じて複製可能な研究をサポートするためのマルチローター無人航空機制御(UAV)と推定システムを紹介します。
複数のセンサーを同時に使用して、さまざまな参照フレームでUAVの状態を推定するためのユニークなマルチフレームローカリゼーションパラダイムを提案します。
このシステムは、GNSSおよびGNSSによる環境での複雑なミッションを可能にします。これには、屋外の屋外遷移や、信頼できないローカリゼーションソースをバックアップするための冗長推定器の実行が含まれます。
2つのフィードバックコントロール設計が提示されています。1つは正確で攻撃的な操作用、もう1つは騒々しい状態の推定値を備えた安定した滑らかな飛行用です。
提案された制御および推定パイプラインは、3Dの方向のオイラー/TAIT-ブライアン角表現を使用せずに構築されます。
代わりに、標準的なマルチローターヘリコプターの3Dでの1つの自由な回転度を表すために、回転行列と新しい見出しベースのコンベンションに依存しています。
UAV、センサー、ローカリゼーションシステムの現実的なシミュレーションなど、積極的に維持され、十分に文書化されたオープンソースの実装を提供します。
提案されたシステムは、マルチロボットシステム、空中群れ、空中操作、モーション計画、およびリモートセンシングに関する長年の応用研究の産物です。
私たちの結果はすべて、システムをここに示す形式に形作る現実世界のシステム展開によってサポートされています。
さらに、このシステムは、名誉あるMBZIRC 2017および2020ロボティクスコンペティションのプラハにあるCTUからのチームの参加中に、またDARPA Subt Challengeで利用されました。
毎回、私たちのチームは世界中から最高の競合他社の中で最高の場所を確保することができました。
各機会に、課題はチームがシステムを改善し、厳しい締め切りの中で大量の高品質のエクスペリエンスを獲得するように動機付けました。

要約(オリジナル)

We present a multirotor Unmanned Aerial Vehicle control (UAV) and estimation system for supporting replicable research through realistic simulations and real-world experiments. We propose a unique multi-frame localization paradigm for estimating the states of a UAV in various frames of reference using multiple sensors simultaneously. The system enables complex missions in GNSS and GNSS-denied environments, including outdoor-indoor transitions and the execution of redundant estimators for backing up unreliable localization sources. Two feedback control designs are presented: one for precise and aggressive maneuvers, and the other for stable and smooth flight with a noisy state estimate. The proposed control and estimation pipeline are constructed without using the Euler/Tait-Bryan angle representation of orientation in 3D. Instead, we rely on rotation matrices and a novel heading-based convention to represent the one free rotational degree-of-freedom in 3D of a standard multirotor helicopter. We provide an actively maintained and well-documented open-source implementation, including realistic simulation of UAV, sensors, and localization systems. The proposed system is the product of years of applied research on multi-robot systems, aerial swarms, aerial manipulation, motion planning, and remote sensing. All our results have been supported by real-world system deployment that shaped the system into the form presented here. In addition, the system was utilized during the participation of our team from the CTU in Prague in the prestigious MBZIRC 2017 and 2020 robotics competitions, and also in the DARPA SubT challenge. Each time, our team was able to secure top places among the best competitors from all over the world. On each occasion, the challenges has motivated the team to improve the system and to gain a great amount of high-quality experience within tight deadlines.

arxiv情報

著者 Tomas Baca,Matej Petrlik,Matous Vrba,Vojtech Spurny,Robert Penicka,Daniel Hert,Martin Saska
発行日 2025-04-23 13:12:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | The MRS UAV System: Pushing the Frontiers of Reproducible Research, Real-world Deployment, and Education with Autonomous Unmanned Aerial Vehicles はコメントを受け付けていません