HiRT: Enhancing Robotic Control with Hierarchical Robot Transformers

要約

強力な事前トレーニング済みビジョン言語モデル (VLM) バックエンドを活用する大規模ビジョン言語アクション (VLA) モデルは、その優れた汎化能力によりロボット制御において有望であることが示されています。
ただし、成功には代償が伴います。
数十億のパラメータを備えた VLM バックエンドへの依存により、高い計算コストと推論遅延が発生し、テスト シナリオが主に準静的タスクに制限され、迅速な対話が必要な動的タスクのパフォーマンスが妨げられます。
これらの制限に対処するために、この文書では、周波数とパフォーマンスの柔軟なトレードオフを可能にする階層型ロボット トランスフォーマー フレームワークである HiRT を提案します。
HiRT は、VLM を低頻度で実行し続けて、一時的に不変の特徴をキャプチャすると同時に、ゆっくりと更新される特徴によって導かれる高頻度のビジョンベースのポリシーを通じてリアルタイムの対話を可能にします。
シミュレーションと現実世界の両方の設定での実験結果は、ベースライン手法に比べて大幅な改善を示しています。
経験的に、静的タスクでは制御頻度を 2 倍にし、同等の成功率を達成します。
さらに、以前の VLA モデルでは困難であった新しい現実世界の動的操作タスクにおいて、HiRT は成功率を 48% から 75% に向上させます。

要約(オリジナル)

Large Vision-Language-Action (VLA) models, leveraging powerful pre trained Vision-Language Models (VLMs) backends, have shown promise in robotic control due to their impressive generalization ability. However, the success comes at a cost. Their reliance on VLM backends with billions of parameters leads to high computational costs and inference latency, limiting the testing scenarios to mainly quasi-static tasks and hindering performance in dynamic tasks requiring rapid interactions. To address these limitations, this paper proposes HiRT, a Hierarchical Robot Transformer framework that enables flexible frequency and performance trade-off. HiRT keeps VLMs running at low frequencies to capture temporarily invariant features while enabling real-time interaction through a high-frequency vision-based policy guided by the slowly updated features. Experiment results in both simulation and real-world settings demonstrate significant improvements over baseline methods. Empirically, in static tasks, we double the control frequency and achieve comparable success rates. Additionally, on novel real-world dynamic ma nipulation tasks which are challenging for previous VLA models, HiRT improves the success rate from 48% to 75%.

arxiv情報

著者 Jianke Zhang,Yanjiang Guo,Xiaoyu Chen,Yen-Jen Wang,Yucheng Hu,Chengming Shi,Jianyu Chen
発行日 2024-10-21 06:50:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | HiRT: Enhancing Robotic Control with Hierarchical Robot Transformers はコメントを受け付けていません

PALMS: Plane-based Accessible Indoor Localization Using Mobile Smartphones

要約

本稿では、公開されているフロアプランを利用した、モバイルスマートフォン向けの革新的な屋内グローバルローカライゼーションおよび再ローカライゼーションシステムである PALMS を紹介します。
継続的な視覚入力を必要とするほとんどの視覚ベースの方法とは異なり、当社のシステムは、単一の瞬間的な観測データと走行距離データを考慮する動的な形式の位置特定を採用しています。
この研究の主な貢献は、主方向のマッチングとともに、確かに空の空間 (CES) 制約を利用するパーティクル フィルターの初期化メソッドの導入です。
このアプローチにより、デバイスの位置の空間確率分布が作成され、位置特定の精度が大幅に向上し、粒子フィルターの収束時間が短縮されます。
私たちの実験による評価では、PALMS が均一に初期化された粒子フィルターを使用する従来の方法よりも優れたパフォーマンスを示し、屋内ウェイファインディングにより効率的でアクセスしやすいアプローチを提供することが実証されました。
PALMS は、事前の環境フィンガープリンティングの必要性を排除することで、屋内ナビゲーションに対するスケーラブルで実用的なアプローチを提供します。

要約(オリジナル)

In this paper, we present PALMS, an innovative indoor global localization and relocalization system for mobile smartphones that utilizes publicly available floor plans. Unlike most vision-based methods that require constant visual input, our system adopts a dynamic form of localization that considers a single instantaneous observation and odometry data. The core contribution of this work is the introduction of a particle filter initialization method that leverages the Certainly Empty Space (CES) constraint along with principal orientation matching. This approach creates a spatial probability distribution of the device’s location, significantly improving localization accuracy and reducing particle filter convergence time. Our experimental evaluations demonstrate that PALMS outperforms traditional methods with uniformly initialized particle filters, providing a more efficient and accessible approach to indoor wayfinding. By eliminating the need for prior environmental fingerprinting, PALMS provides a scalable and practical approach to indoor navigation.

arxiv情報

著者 Yunqian Cheng,Roberto Manduchi
発行日 2024-10-21 07:05:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO, I.2.10 | PALMS: Plane-based Accessible Indoor Localization Using Mobile Smartphones はコメントを受け付けていません

Hierarchical Search-Based Cooperative Motion Planning

要約

マルチエージェント システム研究の重要な側面である協力的な経路計画は、軍事、農業、産業などのさまざまな分野で役に立ちます。
ただし、既存のアルゴリズムの多くには、単純化された運動学モデルや複数のグループ シナリオのサポートが不十分であるなど、特定の制限があります。
無人地上車両 (UGV) の非ホロノミック アッカーマン モデルに関連する計画問題に焦点を当て、リーダーのない階層的な検索ベースの協調運動計画 (SCMP) 手法を提案します。
高レベルではバイナリ競合検索ツリーを利用して実行時間を最小限に抑えますが、低レベルでは形状が制約された、運動学的に実現可能な衝突のないパスを作成します。
私たちのアルゴリズムは、形状が異なる複数のグループ、外れ値のエージェント、複雑な障害物を特徴とするシナリオに適応できます。
当社はアルゴリズムの比較、パフォーマンス テスト、シミュレーション、実世界テストを実施し、アルゴリズムの有効性と適用性を検証します。
私たちのメソッドの実装は、https://github.com/WYCUniverStar/SCMP でオープンソース化されます。

要約(オリジナル)

Cooperative path planning, a crucial aspect of multi-agent systems research, serves a variety of sectors, including military, agriculture, and industry. Many existing algorithms, however, come with certain limitations, such as simplified kinematic models and inadequate support for multiple group scenarios. Focusing on the planning problem associated with a nonholonomic Ackermann model for Unmanned Ground Vehicles (UGV), we propose a leaderless, hierarchical Search-Based Cooperative Motion Planning (SCMP) method. The high-level utilizes a binary conflict search tree to minimize runtime, while the low-level fabricates kinematically feasible, collision-free paths that are shape-constrained. Our algorithm can adapt to scenarios featuring multiple groups with different shapes, outlier agents, and elaborate obstacles. We conduct algorithm comparisons, performance testing, simulation, and real-world testing, verifying the effectiveness and applicability of our algorithm. The implementation of our method will be open-sourced at https://github.com/WYCUniverStar/SCMP.

arxiv情報

著者 Yuchen Wu,Yifan Yang,Gang Xu,Junjie Cao,Yansong Chen,Licheng Wen,Yong Liu
発行日 2024-10-21 07:31:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Hierarchical Search-Based Cooperative Motion Planning はコメントを受け付けていません

Efficient Non-Myopic Layered Bayesian Optimization For Large-Scale Bathymetric Informative Path Planning

要約

深浅地図作成に適用されたインフォマティブ パス プランニング (IPP) により、AUV は特徴が豊富なエリアに集中して不確実性を迅速に低減し、地図作成の効率を向上させることができます。
ガウス プロセス (GP) マップ上のベイズ最適化 (BO) に基づく既存の手法は、小規模なシナリオではうまく機能しますが、より大きな領域をマッピングする場合は近視眼的で計算量が多く、実際のアプリケーションでの展開が妨げられます。
これを克服するために、AUV の運動制約を尊重し、位置の不確実性を考慮しながら、大規模な確率的変分 GP マップ上でツリー探索方式で非近視的なリアルタイム計画を実行する 2 層 BO IPP 手法を提案します。
私たちのフレームワークは、実際の深浅地形を超える組み込みプラットフォームでの一連のハードウェア・イン・ザ・ループ (HIL) 実験における標準的な工業用芝刈りパターンと近視眼的なベースラインを上回ります。

要約(オリジナル)

Informative path planning (IPP) applied to bathymetric mapping allows AUVs to focus on feature-rich areas to quickly reduce uncertainty and increase mapping efficiency. Existing methods based on Bayesian optimization (BO) over Gaussian Process (GP) maps work well on small scenarios but they are short-sighted and computationally heavy when mapping larger areas, hindering deployment in real applications. To overcome this, we present a 2-layered BO IPP method that performs non-myopic, real-time planning in a tree search fashion over large Stochastic Variational GP maps, while respecting the AUV motion constraints and accounting for localization uncertainty. Our framework outperforms the standard industrial lawn-mowing pattern and a myopic baseline in a set of hardware in the loop (HIL) experiments in an embedded platform over real bathymetry.

arxiv情報

著者 Alexander Kiessling,Ignacio Torroba,Chelsea Rose Sidrane,Ivan Stenius,Jana Tumova,John Folkesson
発行日 2024-10-21 07:39:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Efficient Non-Myopic Layered Bayesian Optimization For Large-Scale Bathymetric Informative Path Planning はコメントを受け付けていません

MSGField: A Unified Scene Representation Integrating Motion, Semantics, and Geometry for Robotic Manipulation

要約

正確なジオメトリと豊富なセマンティクスを組み合わせると、言語ガイドによるロボット操作に非常に効果的であることが証明されています。
動的シーンの既存の方法は、リアルタイムでの更新に失敗するか、単純なシーン編集のために追加の深度センサーに依存するため、現実世界への適用性が制限されます。
この論文では、高品質の再構成のために 2D ガウスのコレクションを使用する表現である MSGField を紹介します。これは、セマンティック情報とモーション情報をエンコードするための属性でさらに強化されています。
特に、各プリミティブのモーションを限られたモーション ベースの組み合わせに分解することで、モーション フィールドをコンパクトに表現します。
ガウス スプラッティングの微分可能なリアルタイム レンダリングを活用することで、2 つのカメラ ビューのみからの画像監視により、複雑な非剛体の動きであっても、オブジェクトの動きを迅速に最適化できます。
さらに、オブジェクト事前分布を利用して、明確に定義されたセマンティクスを効率的に取得するパイプラインを設計しました。
柔軟で非常に小さなオブジェクトを含む当社の困難なデータセットにおいて、当社のメソッドは、言語ガイドによる操作の静的環境で 79.2%、動的環境で 63.3% の成功率を達成しました。
指定物体の把握においては、点群ベースの手法と同等の成功率90%を達成しています。
コードとデータセットは https://shengyu724.github.io/MSGField.github.io でリリースされます。

要約(オリジナル)

Combining accurate geometry with rich semantics has been proven to be highly effective for language-guided robotic manipulation. Existing methods for dynamic scenes either fail to update in real-time or rely on additional depth sensors for simple scene editing, limiting their applicability in real-world. In this paper, we introduce MSGField, a representation that uses a collection of 2D Gaussians for high-quality reconstruction, further enhanced with attributes to encode semantic and motion information. Specially, we represent the motion field compactly by decomposing each primitive’s motion into a combination of a limited set of motion bases. Leveraging the differentiable real-time rendering of Gaussian splatting, we can quickly optimize object motion, even for complex non-rigid motions, with image supervision from only two camera views. Additionally, we designed a pipeline that utilizes object priors to efficiently obtain well-defined semantics. In our challenging dataset, which includes flexible and extremely small objects, our method achieve a success rate of 79.2% in static and 63.3% in dynamic environments for language-guided manipulation. For specified object grasping, we achieve a success rate of 90%, on par with point cloud-based methods. Code and dataset will be released at:https://shengyu724.github.io/MSGField.github.io.

arxiv情報

著者 Yu Sheng,Runfeng Lin,Lidian Wang,Quecheng Qiu,YanYong Zhang,Yu Zhang,Bei Hua,Jianmin Ji
発行日 2024-10-21 07:46:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | MSGField: A Unified Scene Representation Integrating Motion, Semantics, and Geometry for Robotic Manipulation はコメントを受け付けていません

ATI-CTLO:Adaptive Temporal Interval-based Continuous-Time LiDAR-Only Odometry

要約

ロボットの激しい動きや地形の変化によって生じる LiDAR スキャンの動きの歪みは、3D LiDAR オドメトリの測位とマッピングのパフォーマンスに大きな影響を与えます。
既存の歪み補正ソリューションは、計算の複雑さと精度のバランスを取るのに苦労することがよくあります。
この研究では、単純かつ効率的な線形補間を利用した、適応時間間隔ベースの連続時間 LiDAR 専用オドメトリを提案します。
我々の手法は、運動のダイナミクスや環境特性に応じて、制御ノード間の時間間隔を柔軟に調整します。
この適応性により、さまざまな動作状態にわたるパフォーマンスが向上し、困難で機能が少ない環境での堅牢性が向上します。
当社では、さまざまなプラットフォームにわたる複数のデータセットで手法の有効性を検証し、最先端の LiDAR のみのオドメトリ手法に匹敵する精度を達成しています。
特に、激しい動きとまばらな特徴を含むシナリオでは、私たちの方法は既存のソリューションよりも優れたパフォーマンスを発揮します。

要約(オリジナル)

The motion distortion in LiDAR scans caused by aggressive robot motion and varying terrain features significantly impacts the positioning and mapping performance of 3D LiDAR odometry. Existing distortion correction solutions often struggle to balance computational complexity and accuracy. In this work, we propose an Adaptive Temporal Interval-based Continuous-Time LiDAR-only Odometry, utilizing straightforward and efficient linear interpolation. Our method flexibly adjusts the temporal intervals between control nodes according to the dynamics of motion and environmental characteristics. This adaptability enhances performance across various motion states and improves robustness in challenging, feature-sparse environments. We validate the effectiveness of our method on multiple datasets across different platforms, achieving accuracy comparable to state-of-the-art LiDAR-only odometry methods. Notably, in scenarios involving aggressive motion and sparse features, our method outperforms existing solutions.

arxiv情報

著者 Bo Zhou,Jiajie Wu,Yan Pan,Chuanzhao Lu
発行日 2024-10-21 08:16:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | ATI-CTLO:Adaptive Temporal Interval-based Continuous-Time LiDAR-Only Odometry はコメントを受け付けていません

Flow Matching Imitation Learning for Multi-Support Manipulation

要約

ヒューマノイドロボットは、上半身をサポート接触に使用することで、作業スペース、安定性、および接触の多い作業や押す作業を実行する能力を強化することで恩恵を受ける可能性があります。
この論文では、最適化ベースの多接触全身コントローラーと、模倣学習用のマルチモーダル軌道分布を生成できる最近導入された手法であるフロー マッチングを組み合わせた統合アプローチを提案します。
シミュレーションでは、フロー マッチングが拡散や従来の動作クローン作成よりもロボット工学に適していることを示します。
実際のフルサイズの人型ロボット (Talos) を使用して、私たちのアプローチが全身を使って掴みにくい箱を押すタスクを学習できること、およびロボットがバランスを取るために必要なときに空いた手で接触を追加することで食器洗い機の引き出しを閉めることができることを実証しました。
また、遠隔操作支援のための共有自律モードも導入し、デモンストレーションでカバーされていないタスクの自動連絡先配置を提供します。
完全な実験ビデオは、https://hucebot.github.io/flow_multisupport_website/ から入手できます。

要約(オリジナル)

Humanoid robots could benefit from using their upper bodies for support contacts, enhancing their workspace, stability, and ability to perform contact-rich and pushing tasks. In this paper, we propose a unified approach that combines an optimization-based multi-contact whole-body controller with Flow Matching, a recently introduced method capable of generating multi-modal trajectory distributions for imitation learning. In simulation, we show that Flow Matching is more appropriate for robotics than Diffusion and traditional behavior cloning. On a real full-size humanoid robot (Talos), we demonstrate that our approach can learn a whole-body non-prehensile box-pushing task and that the robot can close dishwasher drawers by adding contacts with its free hand when needed for balance. We also introduce a shared autonomy mode for assisted teleoperation, providing automatic contact placement for tasks not covered in the demonstrations. Full experimental videos are available at: https://hucebot.github.io/flow_multisupport_website/

arxiv情報

著者 Quentin Rouxel,Andrea Ferrari,Serena Ivaldi,Jean-Baptiste Mouret
発行日 2024-10-21 08:34:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Flow Matching Imitation Learning for Multi-Support Manipulation はコメントを受け付けていません

Generalizing Motion Planners with Mixture of Experts for Autonomous Driving

要約

大規模な現実世界の運転データセットは、自動運転のためのデータ駆動型モーション プランナーのさまざまな側面に関する重要な研究を引き起こしました。
これらには、データ拡張、モデル アーキテクチャ、報酬設計、トレーニング戦略、プランナー パイプラインが含まれます。
これらのプランナーは、複雑でショット数が少ないケースに対して、以前の方法よりも優れた一般化を約束します。
ただし、実験結果では、これらのアプローチの多くは、過度に複雑な設計やトレーニング パラダイムにより、計画パフォーマンスの一般化能力が限られていることが示されています。
このペーパーでは、一般化に焦点を当てて以前の方法をレビューし、ベンチマークします。
実験結果は、モデルが適切にスケーリングされると、多くの設計要素が冗長になることを示しています。
StateTransformer-2 (STR2) は、Vision Transformer (ViT) エンコーダーと Mixed of Experts (MoE) 因果的 Transformer アーキテクチャを使用する、スケーラブルなデコーダー専用モーション プランナーです。
MoE バックボーンは、トレーニング中のエキスパート ルーティングによるモダリティの崩壊と報酬のバランスに対処します。
NuPlan データセットに対する広範な実験により、私たちの方法がさまざまなテスト セットや閉ループ シミュレーションにわたって以前のアプローチよりも一般化できることがわかりました。
さらに、何十億もの実際の都市部の運転シナリオでそのスケーラビリティを評価し、データとモデルのサイズの両方が増大するにつれて一貫して精度が向上することを実証しました。

要約(オリジナル)

Large real-world driving datasets have sparked significant research into various aspects of data-driven motion planners for autonomous driving. These include data augmentation, model architecture, reward design, training strategies, and planner pipelines. These planners promise better generalizations on complicated and few-shot cases than previous methods. However, experiment results show that many of these approaches produce limited generalization abilities in planning performance due to overly complex designs or training paradigms. In this paper, we review and benchmark previous methods focusing on generalizations. The experimental results indicate that as models are appropriately scaled, many design elements become redundant. We introduce StateTransformer-2 (STR2), a scalable, decoder-only motion planner that uses a Vision Transformer (ViT) encoder and a mixture-of-experts (MoE) causal Transformer architecture. The MoE backbone addresses modality collapse and reward balancing by expert routing during training. Extensive experiments on the NuPlan dataset show that our method generalizes better than previous approaches across different test sets and closed-loop simulations. Furthermore, we assess its scalability on billions of real-world urban driving scenarios, demonstrating consistent accuracy improvements as both data and model size grow.

arxiv情報

著者 Qiao Sun,Huimin Wang,Jiahao Zhan,Fan Nie,Xin Wen,Leimeng Xu,Kun Zhan,Peng Jia,Xianpeng Lang,Hang Zhao
発行日 2024-10-21 08:36:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Generalizing Motion Planners with Mixture of Experts for Autonomous Driving はコメントを受け付けていません

WildOcc: A Benchmark for Off-Road 3D Semantic Occupancy Prediction

要約

3D セマンティック占有予測は自動運転に不可欠な部分であり、シーンの幾何学的詳細をキャプチャすることに重点を置いています。
オフロード環境には幾何学的情報が豊富であるため、そのようなシーンを再構成する 3D セマンティック占有予測タスクに適しています。
ただし、ほとんどの研究はオンロード環境に集中しており、関連するデータセットやベンチマークが不足しているため、オフロード 3D セマンティック占有予測用に設計された方法はほとんどありません。
このギャップに対応して、私たちの知る限り、オフロード 3D セマンティック占有予測タスクに高密度占有アノテーションを提供する最初のベンチマークである WildOcc を導入しました。
この論文では、より現実的な結果を達成するために粗いものから細かいものへの再構成を採用するグランド トゥルース生成パイプラインを提案します。
さらに、マルチフレーム画像と点群からの時空間情報をボクセルレベルで融合する、マルチモーダル 3D セマンティック占有予測フレームワークを導入します。
さらに、点群から画像特徴に幾何学的知識を転送するクロスモダリティ蒸留機能が導入されています。

要約(オリジナル)

3D semantic occupancy prediction is an essential part of autonomous driving, focusing on capturing the geometric details of scenes. Off-road environments are rich in geometric information, therefore it is suitable for 3D semantic occupancy prediction tasks to reconstruct such scenes. However, most of researches concentrate on on-road environments, and few methods are designed for off-road 3D semantic occupancy prediction due to the lack of relevant datasets and benchmarks. In response to this gap, we introduce WildOcc, to our knowledge, the first benchmark to provide dense occupancy annotations for off-road 3D semantic occupancy prediction tasks. A ground truth generation pipeline is proposed in this paper, which employs a coarse-to-fine reconstruction to achieve a more realistic result. Moreover, we introduce a multi-modal 3D semantic occupancy prediction framework, which fuses spatio-temporal information from multi-frame images and point clouds at voxel level. In addition, a cross-modality distillation function is introduced, which transfers geometric knowledge from point clouds to image features.

arxiv情報

著者 Heng Zhai,Jilin Mei,Chen Min,Liang Chen,Fangzhou Zhao,Yu Hu
発行日 2024-10-21 09:02:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | WildOcc: A Benchmark for Off-Road 3D Semantic Occupancy Prediction はコメントを受け付けていません

Design of a Flexible Robot Arm for Safe Aerial Physical Interaction

要約

この論文では、空中物理的相互作用のための軽量性とエネルギー散逸を組み合わせた新しい準拠メカニズムを紹介します。
離陸時の重量は 400g で、この機構は体前方に作動し、力の相互作用やその他のさまざまな空中操作タスクの正確な位置制御を可能にします。
閉ループ運動チェーンとして構造化されたロボット アームは、移送された 2 つのサーボモーターを使用します。
各関節は単一の腱で作動し、エンドエフェクターでのアームの圧縮におけるアクティブな動作制御を実現します。
弾性機械設計により重量が軽減され、柔軟性がもたらされるため、モーターの完全性に影響を与えることなくパッシブ準拠の相互作用が可能になります。
特に、アームの減衰は、提案された内部摩擦バルジに基づいて調整できます。
実験的アプリケーションは、自由飛行と物理的相互作用の両方における航空システムのパフォーマンスを示します。
提示された研究は、対話中に摂動を受ける実際の環境において \ac{MAV} のより安全なアプリケーションを開く可能性があります。

要約(オリジナル)

This paper introduces a novel compliant mechanism combining lightweight and energy dissipation for aerial physical interaction. Weighting 400~g at take-off, the mechanism is actuated in the forward body direction, enabling precise position control for force interaction and various other aerial manipulation tasks. The robotic arm, structured as a closed-loop kinematic chain, employs two deported servomotors. Each joint is actuated with a single tendon for active motion control in compression of the arm at the end-effector. Its elasto-mechanical design reduces weight and provides flexibility, allowing passive-compliant interactions without impacting the motors’ integrity. Notably, the arm’s damping can be adjusted based on the proposed inner frictional bulges. Experimental applications showcase the aerial system performance in both free-flight and physical interaction. The presented work may open safer applications for \ac{MAV} in real environments subject to perturbations during interaction.

arxiv情報

著者 Julien Mellet,Andrea Berra,Achilleas Santi Seisa,Viswa Sankaranarayanan,Udayanga G. W. K. N. Gamage,Miguel Angel Trujillo Soto,Guillermo Heredia,George Nikolakopoulos,Vincenzo Lippiello,Fabio Ruggiero
発行日 2024-10-21 09:08:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Design of a Flexible Robot Arm for Safe Aerial Physical Interaction はコメントを受け付けていません