Adaptive Electronic Skin Sensitivity for Safe Human-Robot Interaction

要約

完全なロボットボディを覆う人工電子スキンは、物理的な人間とロボットのコラボレーションを安全にして可能にすることができます。
共同ロボットの基準(例:ISO/TS 15066)は、人体との接触中の許容力と圧力を規定しています。
衝突のこれらの特性は、衝突ロボットリンクの速度だけでなく、その有効質量にも依存します。
したがって、電力と力制限(PFL)共同体制に準拠する連絡先を保証するには、同時に生産性を最大化するために、保護皮膚のしきい値をロボットボディのさまざまな部分に対して個別に設定し、実行中は動的に設定する必要があります。
ここでは、4つのシナリオを提示し、経験的に評価します。(a)静的および均一な皮膚全体の固定しきい値、(b)ロボットボディ部分の静的ですが異なる設定、(c)すべてのリンク速度に基づいて動的に設定されています。
シミュレーションの実験と、11の個々のパッドで構成される敏感肌(エアスキン)で完全に覆われた実際の6軸コラボレーションロボットアーム(UR10E)で実験を行います。
ロボットボディの部分と2つの衝突反応(停止と回避)との一時的な衝突を伴う模擬ピックアンドプレイスシナリオでは、皮膚閾値(a)の最も保守的な設定から最も適応性のある設定(D)への生産性の向上を示します。
すべてのスキンパッドのしきい値設定は、25 Hzの周波数に適合しています。
この作業は、より多くの自由度とより大きな皮膚カバレッジ(ヒューマノイド)を備えたプラットフォームや、ロボットとの接触が通信に使用される社会的人間とロボットの相互作用シナリオのために簡単に拡張できます。

要約(オリジナル)

Artificial electronic skins covering complete robot bodies can make physical human-robot collaboration safe and hence possible. Standards for collaborative robots (e.g., ISO/TS 15066) prescribe permissible forces and pressures during contacts with the human body. These characteristics of the collision depend on the speed of the colliding robot link but also on its effective mass. Thus, to warrant contacts complying with the Power and Force Limiting (PFL) collaborative regime but at the same time maximizing productivity, protective skin thresholds should be set individually for different parts of the robot bodies and dynamically on the run. Here we present and empirically evaluate four scenarios: (a) static and uniform – fixed thresholds for the whole skin, (b) static but different settings for robot body parts, (c) dynamically set based on every link velocity, (d) dynamically set based on effective mass of every robot link. We perform experiments in simulation and on a real 6-axis collaborative robot arm (UR10e) completely covered with sensitive skin (AIRSKIN) comprising eleven individual pads. On a mock pick-and-place scenario with transient collisions with the robot body parts and two collision reactions (stop and avoid), we demonstrate the boost in productivity in going from the most conservative setting of the skin thresholds (a) to the most adaptive setting (d). The threshold settings for every skin pad are adapted with a frequency of 25 Hz. This work can be easily extended for platforms with more degrees of freedom and larger skin coverage (humanoids) and to social human-robot interaction scenarios where contacts with the robot will be used for communication.

arxiv情報

著者 Lukas Rustler,Matej Misar,Matej Hoffmann
発行日 2025-03-07 10:58:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Adaptive Electronic Skin Sensitivity for Safe Human-Robot Interaction はコメントを受け付けていません

METDrive: Multi-modal End-to-end Autonomous Driving with Temporal Guidance

要約

マルチモーダルエンドツーエンドの自律運転は、最近の研究で有望な進歩を示しています。
より多くのモダリティをエンドツーエンドのネットワークに埋め込むことにより、運転環境の静的な側面と動的な側面の両方についてのシステムの理解が強化され、それによって自律運転の安全性が向上します。
この論文では、回転角、ステアリング、スロットル信号、ウェイポイントベクターなど、自我状態の埋め込み時系列の特徴からの時間的ガイダンスを活用するエンドツーエンドのシステムであるMetDriveを紹介します。
知覚センサーデータから派生した幾何学的特徴とエゴ状態データの時系列機能は、提案された時間ガイダンス損失関数とウェイポイント予測を共同で導きます。
Carla Leaderboard BenchmarksでMetDriveを評価し、70%の運転スコア、94%のルート完了スコア、および違反スコア0.78を達成しました。

要約(オリジナル)

Multi-modal end-to-end autonomous driving has shown promising advancements in recent work. By embedding more modalities into end-to-end networks, the system’s understanding of both static and dynamic aspects of the driving environment is enhanced, thereby improving the safety of autonomous driving. In this paper, we introduce METDrive, an end-to-end system that leverages temporal guidance from the embedded time series features of ego states, including rotation angles, steering, throttle signals, and waypoint vectors. The geometric features derived from perception sensor data and the time series features of ego state data jointly guide the waypoint prediction with the proposed temporal guidance loss function. We evaluated METDrive on the CARLA leaderboard benchmarks, achieving a driving score of 70%, a route completion score of 94%, and an infraction score of 0.78.

arxiv情報

著者 Ziang Guo,Xinhao Lin,Zakhar Yagudin,Artem Lykov,Yong Wang,Yanqiang Li,Dzmitry Tsetserukou
発行日 2025-03-07 11:31:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | METDrive: Multi-modal End-to-end Autonomous Driving with Temporal Guidance はコメントを受け付けていません

LLM-as-BT-Planner: Leveraging LLMs for Behavior Tree Generation in Robot Task Planning

要約

ロボットアセンブリタスクは、長い地平線の性質と複雑な部分関係のために、オープンな挑戦のままです。
動作ツリー(BTS)は、モジュール性と柔軟性のためにロボットタスク計画でますます使用されていますが、手動でそれらを作成することは努力集約的です。
大規模な言語モデル(LLM)は最近、アクションシーケンスを生成するためのロボットタスク計画に適用されていますが、BTSを生成する能力は完全に調査されていません。
この目的のために、LLM-As-BT-Plannerを提案します。これは、ロボットアセンブリタスク計画におけるBT生成にLLMを活用する新しいフレームワークです。
BT形式でタスク計画を作成するためにLLMの自然言語処理と推論機能を利用するために、4つのコンテキスト学習方法が導入され、堅牢性と包括性を確保しながら手動の努力を削減します。
さらに、同じタスクで微調整された小型LLMのパフォーマンスを評価します。
シミュレートされた設定と実世界の両方の設定での実験は、私たちのフレームワークがLLMSのBTSを生成する能力を高め、コンテキスト内学習と監視された微調整を通じて成功率を向上させることを示しています。

要約(オリジナル)

Robotic assembly tasks remain an open challenge due to their long horizon nature and complex part relations. Behavior trees (BTs) are increasingly used in robot task planning for their modularity and flexibility, but creating them manually can be effort-intensive. Large language models (LLMs) have recently been applied to robotic task planning for generating action sequences, yet their ability to generate BTs has not been fully investigated. To this end, we propose LLM-as-BT-Planner, a novel framework that leverages LLMs for BT generation in robotic assembly task planning. Four in-context learning methods are introduced to utilize the natural language processing and inference capabilities of LLMs for producing task plans in BT format, reducing manual effort while ensuring robustness and comprehensibility. Additionally, we evaluate the performance of fine-tuned smaller LLMs on the same tasks. Experiments in both simulated and real-world settings demonstrate that our framework enhances LLMs’ ability to generate BTs, improving success rate through in-context learning and supervised fine-tuning.

arxiv情報

著者 Jicong Ao,Fan Wu,Yansong Wu,Abdalla Swikir,Sami Haddadin
発行日 2025-03-07 11:32:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | LLM-as-BT-Planner: Leveraging LLMs for Behavior Tree Generation in Robot Task Planning はコメントを受け付けていません

Bridging Text and Vision: A Multi-View Text-Vision Registration Approach for Cross-Modal Place Recognition

要約

モバイルロボットは、場所を正確に識別し、パッケージ配信などのタスクを実行するために、高度な自然言語理解機能を必要とします。
ただし、従来の視覚的な場所認識(VPR)方法は、シングルビューの視覚情報のみに依存しており、人間の言語の説明を解釈することはできません。
この課題を克服するために、場所認識タスクのためにText4VPRと呼ばれるマルチビュー(360 {\ deg}ビュー)Text-Vision登録アプローチを提案することにより、テキストとビジョンを橋渡しします。
Text4VPRは、凍結したT5言語モデルを採用して、グローバルなテキスト埋め込みを抽出します。
さらに、温度係数を備えたSinkhornアルゴリズムを使用して、それぞれのクラスターにローカルトークンを割り当て、画像から視覚的記述子を集約します。
トレーニング段階では、Text4VPRは、正確なテキスト説明のために、個々のテキスト画像ペア間のアラインメントを強調します。
推論の段階では、Text4VPRはカスケードされたクロスアテナントCOSINEアライメント(CCCA)を使用して、テキストグループと画像グループ間の内部の不一致に対処します。
その後、Text4VPRは、テキストイメージグループの説明に基づいて正確に一致することを実行します。
Street360Locで、作成した最初のテキストVPRデータセットであるText4VPRは、堅牢なベースラインを構築し、57%の主要なトップ1精度とテストセットの5メートル半径内で92%のトップ10精度を達成します。

要約(オリジナル)

Mobile robots necessitate advanced natural language understanding capabilities to accurately identify locations and perform tasks such as package delivery. However, traditional visual place recognition (VPR) methods rely solely on single-view visual information and cannot interpret human language descriptions. To overcome this challenge, we bridge text and vision by proposing a multiview (360{\deg} views of the surroundings) text-vision registration approach called Text4VPR for place recognition task, which is the first method that exclusively utilizes textual descriptions to match a database of images. Text4VPR employs the frozen T5 language model to extract global textual embeddings. Additionally, it utilizes the Sinkhorn algorithm with temperature coefficient to assign local tokens to their respective clusters, thereby aggregating visual descriptors from images. During the training stage, Text4VPR emphasizes the alignment between individual text-image pairs for precise textual description. In the inference stage, Text4VPR uses the Cascaded Cross-Attention Cosine Alignment (CCCA) to address the internal mismatch between text and image groups. Subsequently, Text4VPR performs precisely place match based on the descriptions of text-image groups. On Street360Loc, the first text to image VPR dataset we created, Text4VPR builds a robust baseline, achieving a leading top-1 accuracy of 57% and a leading top-10 accuracy of 92% within a 5-meter radius on the test set, which indicates that localization from textual descriptions to images is not only feasible but also holds significant potential for further advancement, as shown in Figure 1.

arxiv情報

著者 Tianyi Shang,Zhenyu Li,Pengjie Xu,Jinwei Qiao,Gang Chen,Zihan Ruan,Weijun Hu
発行日 2025-03-07 12:30:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Bridging Text and Vision: A Multi-View Text-Vision Registration Approach for Cross-Modal Place Recognition はコメントを受け付けていません

CrowdSurfer: Sampling Optimization Augmented with Vector-Quantized Variational AutoEncoder for Dense Crowd Navigation

要約

密集した群衆の間のナビゲーションは、依然としてモバイルロボットにとって課題です。
環境のレイアウトが変更され、以前の計算されたグローバルプランが実行不可能になると、複雑さがさらに増加し​​ます。
この論文では、地元のプランナーを改善するだけで、群衆のナビゲーションを劇的に強化することが可能であることを示しています。
私たちのアプローチでは、生成モデリングと推論時間最適化を組み合わせて、洗練された長期のローカルプランをインタラクティブレートで生成します。
より具体的には、ベクトル量子化された変動自動エンコーダーをトレーニングして、知覚入力を条件にした専門家の軌跡分布を超えて学習します。
実行時には、これはサンプリングベースのオプティマイザーの初期化として使用され、さらなる改良のために使用されます。
私たちのアプローチでは、動的障害の洗練された予測は必要ありませんが、最先端のパフォーマンスを提供します。
特に、最近のDRL-VOアプローチと比較して、成功率の40%の改善と移動時間の6%の改善を示しています。

要約(オリジナル)

Navigation amongst densely packed crowds remains a challenge for mobile robots. The complexity increases further if the environment layout changes, making the prior computed global plan infeasible. In this paper, we show that it is possible to dramatically enhance crowd navigation by just improving the local planner. Our approach combines generative modelling with inference time optimization to generate sophisticated long-horizon local plans at interactive rates. More specifically, we train a Vector Quantized Variational AutoEncoder to learn a prior over the expert trajectory distribution conditioned on the perception input. At run-time, this is used as an initialization for a sampling-based optimizer for further refinement. Our approach does not require any sophisticated prediction of dynamic obstacles and yet provides state-of-the-art performance. In particular, we compare against the recent DRL-VO approach and show a 40% improvement in success rate and a 6% improvement in travel time.

arxiv情報

著者 Naman Kumar,Antareep Singha,Laksh Nanwani,Dhruv Potdar,Tarun R,Fatemeh Rastgar,Simon Idoko,Arun Kumar Singh,K. Madhava Krishna
発行日 2025-03-07 12:41:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, math.OC | CrowdSurfer: Sampling Optimization Augmented with Vector-Quantized Variational AutoEncoder for Dense Crowd Navigation はコメントを受け付けていません

SP-VIO: Robust and Efficient Filter-Based Visual Inertial Odometry with State Transformation Model and Pose-Only Visual Description

要約

高い計算効率と小さなメモリ要件の利点により、フィルターベースの視覚慣性臭気(VIO)は、小型化およびペイロード制約の組み込みシステムに適したアプリケーションの見通しを持っています。
ただし、フィルターベースの方法には、精度が不十分な問題があります。
この目的のために、州と測定モデルを再構築し、さらなる視覚的奪取条件を考慮することにより、国家の変革とポーズのみのVIO(SP-VIO)を提案します。
詳細には、最初に二重状態変換拡張カルマンフィルター(DST-EKF)を提案して、システムの一貫性を改善するために標準の拡張カルマンフィルター(STD-EKF)を置き換え、次に3D機能推定によって引き起こされる線形化誤差を回避するためにポーズのみの(PO)視覚的説明を採用しました。
包括的な観測可能性分析は、SP-Vioにはより安定した観察不可能な部分空間があることを示しています。
さらに、視覚的中断中にモーション軌跡を最適化するために、強化された二重状態変換Rauch-Tung-Striebel(DST-RTS)バックトラッキング方法を提案します。
モンテカルロシミュレーションと現実世界の実験は、SP-Vioが最先端の(SOTA)Vioアルゴリズムよりも精度と効率が優れており、視覚的奪取条件下での堅牢性が高いことを示しています。

要約(オリジナル)

Due to the advantages of high computational efficiency and small memory requirements, filter-based visual inertial odometry (VIO) has a good application prospect in miniaturized and payload-constrained embedded systems. However, the filter-based method has the problem of insufficient accuracy. To this end, we propose the State transformation and Pose-only VIO (SP-VIO) by rebuilding the state and measurement models, and considering further visual deprived conditions. In detail, we first proposed the double state transformation extended Kalman filter (DST-EKF) to replace the standard extended Kalman filter (Std-EKF) for improving the system’s consistency, and then adopt pose-only (PO) visual description to avoid the linearization error caused by 3D feature estimation. The comprehensive observability analysis shows that SP-VIO has a more stable unobservable subspace, which can better avoid the inconsistency problem caused by spurious information. Moreover, we propose an enhanced double state transformation Rauch-Tung-Striebel (DST-RTS) backtracking method to optimize motion trajectories during visual interruption. Monte-Carlo simulations and real-world experiments show that SP-VIO has better accuracy and efficiency than state-of-the-art (SOTA) VIO algorithms, and has better robustness under visual deprived conditions.

arxiv情報

著者 Xueyu Du,Lilian Zhang,Chengjun Ji,Xinchan Luo,Huaiyi Zhang,Maosong Wang,Wenqi Wu,Jun Mao
発行日 2025-03-07 13:02:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SP-VIO: Robust and Efficient Filter-Based Visual Inertial Odometry with State Transformation Model and Pose-Only Visual Description はコメントを受け付けていません

Self-Modeling Robots by Photographing

要約

セルフモデリングにより、ロボットは、最小限の人間の介入と以前の情報を使用して、自動的に収集できるデータに基づいて、形態と運動学のタスクに依存しないモデルを構築し、それにより機械の知能を高めることができます。
最近の研究では、ロボットの形態と運動学のモデル化におけるデータ駆動型技術の可能性を強調しています。
ただし、既存のセルフモデリング方法は、モデリングの品質が低いか、過剰なデータ収集コストのいずれかに悩まされています。
形態と運動学を超えて、テクスチャはロボットの重要な要素でもあり、モデルをモデル化するのが難しく、未開拓のままです。
この作業では、ロボットセルフモデリングには高品質、テクスチャアウェア、リンクレベルのメソッドが提案されています。
ロボットの静的な形態とテクスチャーを表すために3次元(3D)ガウス人を利用し、3Dガウスをクラスターして神経楕円体の骨を構築します。
3Dガウスおよび運動学的ニューラルネットワークは、深さ情報のない関節角、カメラパラメーター、マルチビュー画像で構成されるデータペアを使用してトレーニングされています。
キネマティックニューラルネットワークにジョイントアングルを供給することにより、よく訓練されたモデルを利用して、リンクレベルでのロボットの対応する形態、運動学、テクスチャーを記述し、3Dガウシアンスプラッティングの助けを借りて異なる視点からロボット画像をレンダリングできます。
さらに、確立されたモデルを悪用して、モーション計画や逆運動学などの下流タスクを実行できることを実証します。

要約(オリジナル)

Self-modeling enables robots to build task-agnostic models of their morphology and kinematics based on data that can be automatically collected, with minimal human intervention and prior information, thereby enhancing machine intelligence. Recent research has highlighted the potential of data-driven technology in modeling the morphology and kinematics of robots. However, existing self-modeling methods suffer from either low modeling quality or excessive data acquisition costs. Beyond morphology and kinematics, texture is also a crucial component of robots, which is challenging to model and remains unexplored. In this work, a high-quality, texture-aware, and link-level method is proposed for robot self-modeling. We utilize three-dimensional (3D) Gaussians to represent the static morphology and texture of robots, and cluster the 3D Gaussians to construct neural ellipsoid bones, whose deformations are controlled by the transformation matrices generated by a kinematic neural network. The 3D Gaussians and kinematic neural network are trained using data pairs composed of joint angles, camera parameters and multi-view images without depth information. By feeding the kinematic neural network with joint angles, we can utilize the well-trained model to describe the corresponding morphology, kinematics and texture of robots at the link level, and render robot images from different perspectives with the aid of 3D Gaussian splatting. Furthermore, we demonstrate that the established model can be exploited to perform downstream tasks such as motion planning and inverse kinematics.

arxiv情報

著者 Kejun Hu,Peng Yu,Ning Tan
発行日 2025-03-07 13:21:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Self-Modeling Robots by Photographing はコメントを受け付けていません

Contact-conditioned learning of multi-gait locomotion policies

要約

このホワイトペーパーでは、脚のロボットのマルチゲートポリシー学習設定のパフォーマンスと一般化に対する目標表現の影響を調べます。
この問題を単独で研究するために、複数の歩行を生成できるモデル予測コントローラーを模倣して、ポリシー学習問題をキャストします。
将来の連絡先スイッチに関する学習ポリシーを条件付けすることは、さまざまな歩行を生成できる単一のポリシーを学習するための適切な目標表現であると仮定します。
私たちの理論的根拠は、連絡先情報に条件付けられたポリシーが異なる歩行間で共有構造を活用できるということです。
私たちの広範なシミュレーション結果は、二足歩行と四葉型ロボットで複数の歩行を学ぶための私たちの仮説の妥当性を示しています。
最も興味深いことに、我々の結果は、トレーニングデータの分布外でロボットがテストされたときに、文献の他の一般的な目標表現よりも連絡先に条件付けされたポリシーがはるかに優れていることを示しています。

要約(オリジナル)

In this paper, we examine the effects of goal representation on the performance and generalization in multi-gait policy learning settings for legged robots. To study this problem in isolation, we cast the policy learning problem as imitating model predictive controllers that can generate multiple gaits. We hypothesize that conditioning a learned policy on future contact switches is a suitable goal representation for learning a single policy that can generate a variety of gaits. Our rationale is that policies conditioned on contact information can leverage the shared structure between different gaits. Our extensive simulation results demonstrate the validity of our hypothesis for learning multiple gaits on a bipedal and a quadrupedal robot. Most interestingly, our results show that contact-conditioned policies generalize much better than other common goal representations in the literature, when the robot is tested outside the distribution of the training data.

arxiv情報

著者 Michal Ciebielski,Federico Burgio,Majid Khadiv
発行日 2025-03-07 13:31:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Contact-conditioned learning of multi-gait locomotion policies はコメントを受け付けていません

LiDAR-enhanced 3D Gaussian Splatting Mapping

要約

このペーパーでは、LIGSMを紹介します。LigSMは、Lidarデータを統合して3Dシーンマッピングの精度と堅牢性を向上させる、Lidarが強化した3Dガウススプラッティング(3DGS)マッピングフレームワークを紹介します。
LIGSMは、画像とライダーポイント雲からの関節損失を構築して、ポーズを推定してそれらの外因性パラメーターを最適化し、センサーアライメントの変動に動的に適応することを可能にします。
さらに、LIDARポイントクラウドを活用して3DGSを初期化し、まばらなSFMポイントと比較してより密度の高い信頼性の高い出発点を提供します。
シーンレンダリングでは、フレームワークは、LIDAR投影から生成された深度マップを使用して、標準の画像ベースの監督を強化し、ジオメトリと測光の両方で正確なシーン表現を確保します。
公的および自己収集されたデータセットでの実験は、LIGSMがポーズ追跡とシーンのレンダリングの比較方法を上回ることを示しています。

要約(オリジナル)

This paper introduces LiGSM, a novel LiDAR-enhanced 3D Gaussian Splatting (3DGS) mapping framework that improves the accuracy and robustness of 3D scene mapping by integrating LiDAR data. LiGSM constructs joint loss from images and LiDAR point clouds to estimate the poses and optimize their extrinsic parameters, enabling dynamic adaptation to variations in sensor alignment. Furthermore, it leverages LiDAR point clouds to initialize 3DGS, providing a denser and more reliable starting points compared to sparse SfM points. In scene rendering, the framework augments standard image-based supervision with depth maps generated from LiDAR projections, ensuring an accurate scene representation in both geometry and photometry. Experiments on public and self-collected datasets demonstrate that LiGSM outperforms comparative methods in pose tracking and scene rendering.

arxiv情報

著者 Jian Shen,Huai Yu,Ji Wu,Wen Yang,Gui-Song Xia
発行日 2025-03-07 13:51:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | LiDAR-enhanced 3D Gaussian Splatting Mapping はコメントを受け付けていません

PACC: A Passive-Arm Approach for High-Payload Collaborative Carrying with Quadruped Robots Using Model Predictive Control

要約

このホワイトペーパーでは、ロボットロボットと四足込んでいるロボットとの持ち運びのために、本質的なインピーダンスで受動的なアーム構造を使用するという概念を紹介します。
この概念は、リーダーフォロワータスクを対象としており、ロボットの移動機能を損なうことなく、ロボットのペイロード機能を活用し、エネルギー消費を削減することに焦点を当てたミニマリストのアプローチを採用しています。
予備のアームの機械設計を紹介し、その関節置換術を使用してロボットの動きを導く方法を説明します。
ロボットの移動を制御するために、ARMダイナミクスの近似と共同運搬からの外力の推定を組み込んだ分散型モデル予測コントローラーを提案します。
階段のような障害と荒れた地形を運ぶロボット – ロボットと人間のロボットの両方のコラボレーションを実行することにより、システム全体を実験的に検証します。

要約(オリジナル)

In this paper, we introduce the concept of using passive arm structures with intrinsic impedance for robot-robot and human-robot collaborative carrying with quadruped robots. The concept is meant for a leader-follower task and takes a minimalist approach that focuses on exploiting the robots’ payload capabilities and reducing energy consumption, without compromising the robot locomotion capabilities. We introduce a preliminary arm mechanical design and describe how to use its joint displacements to guide the robot’s motion. To control the robot’s locomotion, we propose a decentralized Model Predictive Controller that incorporates an approximation of the arm dynamics and the estimation of the external forces from the collaborative carrying. We validate the overall system experimentally by performing both robot-robot and human-robot collaborative carrying on a stair-like obstacle and on rough terrain.

arxiv情報

著者 Giulio Turrisi,Lucas Schulze,Vivian S. Medeiros,Claudio Semini,Victor Barasuol
発行日 2025-03-07 14:41:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | PACC: A Passive-Arm Approach for High-Payload Collaborative Carrying with Quadruped Robots Using Model Predictive Control はコメントを受け付けていません