HOVER: Versatile Neural Whole-Body Controller for Humanoid Robots

要約

ヒューマノイド全身制御では、ナビゲーション、局所操作、卓上操作などの多様なタスクに適応する必要があり、それぞれが異なる制御モードを必要とします。
たとえば、ナビゲーションはルート速度追跡に依存していますが、卓上操作は上半身の関節角追跡を優先します。
通常、既存のアプローチは、特定のコマンドスペースに合わせて調整された個々のポリシーをトレーニングし、モード全体で転送可能性を制限します。
フルボディのキネマティックモーション模倣は、これらすべてのタスクの共通の抽象化として機能し、全身制御の複数のモードを学習するための汎用運動能力を提供できるという重要な洞察を提示します。
これに基づいて、多様なコントロールモードを統一ポリシーに統合するマルチモードポリシー蒸留フレームワークであるHover(Humanoid Versatile Controller)を提案します。
ホバーは、それぞれの明確な利点を維持しながら、制御モード間のシームレスな遷移を可能にし、幅広いモードにわたってヒューマノイド制御のための堅牢でスケーラブルなソリューションを提供します。
各制御モードのポリシー再訓練の必要性を排除することにより、当社のアプローチは将来のヒューマノイドアプリケーションの効率と柔軟性を向上させます。

要約(オリジナル)

Humanoid whole-body control requires adapting to diverse tasks such as navigation, loco-manipulation, and tabletop manipulation, each demanding a different mode of control. For example, navigation relies on root velocity tracking, while tabletop manipulation prioritizes upper-body joint angle tracking. Existing approaches typically train individual policies tailored to a specific command space, limiting their transferability across modes. We present the key insight that full-body kinematic motion imitation can serve as a common abstraction for all these tasks and provide general-purpose motor skills for learning multiple modes of whole-body control. Building on this, we propose HOVER (Humanoid Versatile Controller), a multi-mode policy distillation framework that consolidates diverse control modes into a unified policy. HOVER enables seamless transitions between control modes while preserving the distinct advantages of each, offering a robust and scalable solution for humanoid control across a wide range of modes. By eliminating the need for policy retraining for each control mode, our approach improves efficiency and flexibility for future humanoid applications.

arxiv情報

著者 Tairan He,Wenli Xiao,Toru Lin,Zhengyi Luo,Zhenjia Xu,Zhenyu Jiang,Jan Kautz,Changliu Liu,Guanya Shi,Xiaolong Wang,Linxi Fan,Yuke Zhu
発行日 2025-03-06 07:50:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | HOVER: Versatile Neural Whole-Body Controller for Humanoid Robots はコメントを受け付けていません

SPIBOT: A Drone-Tethered Mobile Gripper for Robust Aerial Object Retrieval in Dynamic Environments

要約

現実世界のフィールドオペレーションでは、空中把握システムは、強い風、表面の変化、重い負荷を処理する必要性のために、動的環境で大きな課題に直面しています。
特に重い物体を扱うとき、ドローンの強力なプロペラは、ターゲットオブジェクトが近づくと不注意に吹き飛ばされ、タスクをさらに困難にすることができます。
これらの課題に対処するために、堅牢で安定した自律ターゲット検索のために設計された新しいドローンテザー付きモバイルグリッパーシステムであるSpibotを紹介します。
Spibotは、クモのようにテザーを介して動作し、ドローンがターゲットから安全な距離を維持できるようにします。
安定した機動性と安全な把握能力の両方を確保するために、Spibotにはロボットとミッションの状態を推定するために、6本の脚とセンサーが装備されています。
他のヘキサポッドロボットと比較して体積と重量を減らして設計されているため、ドローンの下に簡単に収納され、必要に応じて巻き込まれます。
2024 MBZIRC Maritime Grand Challenge向けに設計されたSpibotは、船の移動デッキの非常に動的な条件で1kgのターゲットオブジェクトを取得するために構築されています。
このシステムは、ミッションの目標と環境条件に近いことに基づいてロボットのアクションを動的に調整するリアルタイムアクション選択アルゴリズムを統合し、迅速かつ堅牢なミッション実行を可能にします。
湖のポンツーン、草原、沿岸砂のゴムマットなど、さまざまな地形の実験結果は、ターゲットを効率的かつ確実に回収するSpibotの能力を示しています。
Spibotは、不規則な初期状態やドローンによって導入された騒々しい情報を扱っている場合でも、ターゲットに迅速に収束し、そのミッションを完了します。

要約(オリジナル)

In real-world field operations, aerial grasping systems face significant challenges in dynamic environments due to strong winds, shifting surfaces, and the need to handle heavy loads. Particularly when dealing with heavy objects, the powerful propellers of the drone can inadvertently blow the target object away as it approaches, making the task even more difficult. To address these challenges, we introduce SPIBOT, a novel drone-tethered mobile gripper system designed for robust and stable autonomous target retrieval. SPIBOT operates via a tether, much like a spider, allowing the drone to maintain a safe distance from the target. To ensure both stable mobility and secure grasping capabilities, SPIBOT is equipped with six legs and sensors to estimate the robot’s and mission’s states. It is designed with a reduced volume and weight compared to other hexapod robots, allowing it to be easily stowed under the drone and reeled in as needed. Designed for the 2024 MBZIRC Maritime Grand Challenge, SPIBOT is built to retrieve a 1kg target object in the highly dynamic conditions of the moving deck of a ship. This system integrates a real-time action selection algorithm that dynamically adjusts the robot’s actions based on proximity to the mission goal and environmental conditions, enabling rapid and robust mission execution. Experimental results across various terrains, including a pontoon on a lake, a grass field, and rubber mats on coastal sand, demonstrate SPIBOT’s ability to efficiently and reliably retrieve targets. SPIBOT swiftly converges on the target and completes its mission, even when dealing with irregular initial states and noisy information introduced by the drone.

arxiv情報

著者 Gyuree Kang,Ozan Güneş,Seungwook Lee,Maulana Bisyir Azhari,David Hyunchul Shim
発行日 2025-03-06 09:12:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SPIBOT: A Drone-Tethered Mobile Gripper for Robust Aerial Object Retrieval in Dynamic Environments はコメントを受け付けていません

Don’t Shake the Wheel: Momentum-Aware Planning in End-to-End Autonomous Driving

要約

エンドツーエンドの自律運転フレームワークは、知覚と計画のシームレスな統合を可能にしますが、多くの場合、ワンショットの軌跡予測に依存しているため、単一フレームの知覚における不安定な制御と咬合に対する脆弱性につながる可能性があります。
これに対処するために、運動式運転(MOMAD)フレームワークを提案します。これにより、軌道の勢いと知覚の運動量が導入され、軌跡の予測を安定させ、改良します。
MOMADは2つのコアコンポーネントで構成されています。(1)トポロジー軌道マッチング(TTM)は、Hausdorff距離を使用して、以前のパスと整合する最適な計画クエリを選択して、コヒーレンスを確保するための最適な計画クエリを選択します。
この充実したクエリは、長期の軌跡を再生し、衝突リスクを減らすのに役立ちます。
動的環境と検出エラーから生じるノイズを緩和するために、トレーニング中に堅牢なインスタンス除去を導入し、計画モデルが重要な信号に焦点を合わせ、その堅牢性を向上させることができます。
また、計画の安定性を定量的に評価するために、新しい軌道予測の一貫性(TPC)メトリックを提案します。
Nuscenesデータセットの実験は、MomadがSOTAメソッドと比較して優れた長期一貫性(> = 3S)を達成することを示しています。
さらに、キュレーションされた回転nusceneの評価は、MOMADが衝突率を26%減らし、6S予測期間でTPCを0.97m(33.45%)改善することを示していますが、Bench2Driveのscroboopは成功率の最大16.3%の改善を示しています。

要約(オリジナル)

End-to-end autonomous driving frameworks enable seamless integration of perception and planning but often rely on one-shot trajectory prediction, which may lead to unstable control and vulnerability to occlusions in single-frame perception. To address this, we propose the Momentum-Aware Driving (MomAD) framework, which introduces trajectory momentum and perception momentum to stabilize and refine trajectory predictions. MomAD comprises two core components: (1) Topological Trajectory Matching (TTM) employs Hausdorff Distance to select the optimal planning query that aligns with prior paths to ensure coherence;(2) Momentum Planning Interactor (MPI) cross-attends the selected planning query with historical queries to expand static and dynamic perception files. This enriched query, in turn, helps regenerate long-horizon trajectory and reduce collision risks. To mitigate noise arising from dynamic environments and detection errors, we introduce robust instance denoising during training, enabling the planning model to focus on critical signals and improve its robustness. We also propose a novel Trajectory Prediction Consistency (TPC) metric to quantitatively assess planning stability. Experiments on the nuScenes dataset demonstrate that MomAD achieves superior long-term consistency (>=3s) compared to SOTA methods. Moreover, evaluations on the curated Turning-nuScenes shows that MomAD reduces the collision rate by 26% and improves TPC by 0.97m (33.45%) over a 6s prediction horizon, while closedloop on Bench2Drive demonstrates an up to 16.3% improvement in success rate.

arxiv情報

著者 Ziying Song,Caiyan Jia,Lin Liu,Hongyu Pan,Yongchang Zhang,Junming Wang,Xingyu Zhang,Shaoqing Xu,Lei Yang,Yadan Luo
発行日 2025-03-06 09:53:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Don’t Shake the Wheel: Momentum-Aware Planning in End-to-End Autonomous Driving はコメントを受け付けていません

Towards Autonomous Reinforcement Learning for Real-World Robotic Manipulation with Large Language Models

要約

大規模な言語モデル(LLMS)および視覚言語モデル(VLM)の最近の進歩は、ロボット工学に大きな影響を与え、高レベルのセマンティックモーションプランニングアプリケーションを可能にします。
補完的なパラダイムである強化学習(RL)は、エージェントが相互作用と報酬シグナルを通じて複雑な動作を自律的に最適化することを可能にします。
ただし、RLの効果的な報酬機能の設計は、特にまばらな報酬が不十分で密集した報酬が必要な実世界のタスクでは、精巧な設計が必要です。
この作業では、自然言語のタスクの説明から直接報酬機能を生成するために、訓練を受けたLLMであるGPT-4をレバレッジする監視なしのパイプラインである複雑なヒト形成環境(Archie)の自律強化学習を提案します。
報酬は、シミュレートされた環境でRLエージェントをトレーニングするために使用されます。この環境では、実現可能性を高めるために報酬生成プロセスを形式化します。
さらに、GPT-4は、タスクの成功基準のコーディングを自動化し、人間が読みやすいテキストを展開可能なロボットスキルに変換するための完全に自動化されたワンショット手順を作成します。
私たちのアプローチは、ABBユミの共同ロボットを使用した単一腕および双方数の操作タスクに関する広範なシミュレーション実験を通じて検証され、その実用性と有効性を強調しています。
実際のロボットのセットアップでタスクが実証されています。

要約(オリジナル)

Recent advancements in Large Language Models (LLMs) and Visual Language Models (VLMs) have significantly impacted robotics, enabling high-level semantic motion planning applications. Reinforcement Learning (RL), a complementary paradigm, enables agents to autonomously optimize complex behaviors through interaction and reward signals. However, designing effective reward functions for RL remains challenging, especially in real-world tasks where sparse rewards are insufficient and dense rewards require elaborate design. In this work, we propose Autonomous Reinforcement learning for Complex HumanInformed Environments (ARCHIE), an unsupervised pipeline leveraging GPT-4, a pre-trained LLM, to generate reward functions directly from natural language task descriptions. The rewards are used to train RL agents in simulated environments, where we formalize the reward generation process to enhance feasibility. Additionally, GPT-4 automates the coding of task success criteria, creating a fully automated, one-shot procedure for translating human-readable text into deployable robot skills. Our approach is validated through extensive simulated experiments on single-arm and bi-manual manipulation tasks using an ABB YuMi collaborative robot, highlighting its practicality and effectiveness. Tasks are demonstrated on the real robot setup.

arxiv情報

著者 Niccolò Turcato,Matteo Iovino,Aris Synodinos,Alberto Dalla Libera,Ruggero Carli,Pietro Falco
発行日 2025-03-06 10:08:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Towards Autonomous Reinforcement Learning for Real-World Robotic Manipulation with Large Language Models はコメントを受け付けていません

Adaptive Collision Sensitivity for Efficient and Safe Human-Robot Collaboration

要約

物理的なヒトロボットコラボレーション(HRC)中にロボットオペレーターが安全であると考えられるものは、対応するHRC標準(ISO/TS 15066など)で指定されています。
動くロボットとオペレーターの間の衝突を許可する体制は、電力と力制限(PFL)と呼ばれ、許容される接触力を制限します。
ロボット表面全体で同じ固定接触しきい値を使用すると、衝撃力が制限内であってもロボットが停止する必要があるため、重要かつ不必要な生産性の損失が発生します。
ここでは、各ロボットリンクの有効質量とリンク速度に基づいて、ロボットがロボット本体のさまざまな部分と動的に計算された推定衝突力に基づいて、ロボットが中断するか、モーションを中断するか継続するかを決定するフレームワークを提示します。
衝突検出と分離のために、敏感肌(エアスキン)を使用したシミュレートされたリアル6軸コラボレーションロボットアーム(UR10E)の実験を実施しました。
私たちの方法の一般性を実証するために、シミュレートされたKuka LBR IIWAロボットに関する実験を追加しました。そこでは、衝突検出と分離が関節のトルクセンシングに引き寄せられます。
過渡的および準静的衝突の両方を備えた模擬ピックアンドプレイスシナリオでは、衝突に対する感度がタスクのパフォーマンスとストップの数にどのように影響するかを示します。
衝突ごとにタスクを中断する標準的なアプローチを使用して、生産性の45%を超える上昇を示しています。
サイクル時間と中断の数を短縮しながら、私たちのフレームワークは人間のオペレーターの安全性も保証します。
この方法は、有効質量を計算できるロボットに適用できます。

要約(オリジナル)

What is considered safe for a robot operator during physical human-robot collaboration (HRC) is specified in corresponding HRC standards (e.g., ISO/TS 15066). The regime that allows collisions between the moving robot and the operator, called Power and Force Limiting (PFL), restricts the permissible contact forces. Using the same fixed contact thresholds on the entire robot surface results in significant and unnecessary productivity losses, as the robot needs to stop even when impact forces are within limits. Here we present a framework that decides whether the robot should interrupt or continue its motion based on estimated collision force computed individually for different parts of the robot body and dynamically on the fly, based on the effective mass of each robot link and the link velocity. We performed experiments on simulated and real 6-axis collaborative robot arm (UR10e) with sensitive skin (AIRSKIN) for collision detection and isolation. To demonstrate the generality of our method, we added experiments on the simulated KUKA LBR iiwa robot, where collision detection and isolation draws on joint torque sensing. On a mock pick-and-place scenario with both transient and quasi-static collisions, we demonstrate how sensitivity to collisions influences the task performance and number of stops. We show an increase in productivity over 45% from using the standard approach that interrupts the tasks during every collision. While reducing the cycle time and the number of interruptions, our framework also ensures the safety of human operators. The method is applicable to any robot for which the effective mass can be calculated.

arxiv情報

著者 Lukas Rustler,Matej Misar,Matej Hoffmann
発行日 2025-03-06 10:21:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Adaptive Collision Sensitivity for Efficient and Safe Human-Robot Collaboration はコメントを受け付けていません

Manipulation of Elasto-Flexible Cables with Single or Multiple UAVs

要約

この作業では、変形可能なケーブルと拡張可能なケーブルを操作する複数の四角体で構成される大規模なクラスのシステムを考慮しています。
ケーブルは離散化された表現を介して説明されており、それはひとまとたんのパッシブ球体関節を介して相互接続された線形スプリングに分解します。
システムにはフラット出力のセットが見つかります。
数値シミュレーションは、平坦性ベースの軌跡に依存しているケーブル操作を示すことにより、調査結果をサポートしています。
最終的に、2ロボットの例では、提案された離散ケーブルモデルの有効性の実験的検証を提示します。
さらに、特定されたモデルに基づいて、ケーブル出力フィードバックを使用した閉ループコントローラーが実験的にテストされています。

要約(オリジナル)

This work considers a large class of systems composed of multiple quadrotors manipulating deformable and extensible cables. The cable is described via a discretized representation, which decomposes it into linear springs interconnected through lumped-mass passive spherical joints. Sets of flat outputs are found for the systems. Numerical simulations support the findings by showing cable manipulation relying on flatness-based trajectories. Eventually, we present an experimental validation of the effectiveness of the proposed discretized cable model for a two-robot example. Moreover, a closed-loop controller based on the identified model and using cable-output feedback is experimentally tested.

arxiv情報

著者 Chiara Gabellieri,Lars Teeuwen,Yaolei Shen,Antonio Franchi
発行日 2025-03-06 10:43:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Manipulation of Elasto-Flexible Cables with Single or Multiple UAVs はコメントを受け付けていません

Shaken, Not Stirred: A Novel Dataset for Visual Understanding of Glasses in Human-Robot Bartending Tasks

要約

オブジェクト検出のためのデータセットは、透明で反射的な特性のため、十分な種類のメガネを考慮しないことがよくあります。
具体的には、具体化されたロボット剤で広く使用されているオープンボキャブラリーオブジェクト検出器は、メガネのサブクラスを区別できません。
この科学的ギャップは、検出、計画、および行動の実行の間の誤りの蓄積に苦しむロボットアプリケーションに問題を提起します。
このペーパーでは、人間の努力を最小限に抑えるRGB-Dセンサーから実際のデータを取得するための新しい方法を紹介します。
深度測定に基づいて、すべての取得したフレームのラベルを生成する自動ラベルパイプラインを提案します。
ヒューマノイドロボットプラットフォームであるNeuro-Inspired Collaborator(Nicol)で収集された新しい実世界のガラスオブジェクトデータセットを提供します。
データセットは、5つの異なるカメラから記録された7850の画像で構成されています。
訓練されたベースラインモデルが、最先端のオープンボキャブラリーアプローチよりも優れていることを示しています。
さらに、ニコルプラットフォームに具体化されたエージェントアプローチにベースラインモデルを展開し、その上で人間のロボットバーテンダーシナリオで81%の成功率を達成します。

要約(オリジナル)

Datasets for object detection often do not account for enough variety of glasses, due to their transparent and reflective properties. Specifically, open-vocabulary object detectors, widely used in embodied robotic agents, fail to distinguish subclasses of glasses. This scientific gap poses an issue to robotic applications that suffer from accumulating errors between detection, planning, and action execution. The paper introduces a novel method for the acquisition of real-world data from RGB-D sensors that minimizes human effort. We propose an auto-labeling pipeline that generates labels for all the acquired frames based on the depth measurements. We provide a novel real-world glass object dataset that was collected on the Neuro-Inspired COLlaborator (NICOL), a humanoid robot platform. The data set consists of 7850 images recorded from five different cameras. We show that our trained baseline model outperforms state-of-the-art open-vocabulary approaches. In addition, we deploy our baseline model in an embodied agent approach to the NICOL platform, on which it achieves a success rate of 81% in a human-robot bartending scenario.

arxiv情報

著者 Lukáš Gajdošech,Hassan Ali,Jan-Gerrit Habekost,Martin Madaras,Matthias Kerzel,Stefan Wermter
発行日 2025-03-06 10:51:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T40, cs.CV, cs.RO, I.2.9 | Shaken, Not Stirred: A Novel Dataset for Visual Understanding of Glasses in Human-Robot Bartending Tasks はコメントを受け付けていません

Robust Deterministic Policy Gradient for Disturbance Attenuation and Its Application to Quadrotor Control

要約

実用的な制御システムは、システムモデルの不確実性と外部障害のために、最適な制御ポリシーを特定する上で重要な課題をもたらします。
$ h_ \ infty $制御手法は、一般的に乱れの効果を軽減する堅牢なコントローラーを設計するために使用されますが、これらの方法は複雑で計算集約的な計算を必要とすることがよくあります。
この問題に対処するために、このペーパーでは、2プレイヤーのゼロサムダイナミックゲームとして$ h_ \ infty $コントロールの問題を定式化する堅牢な決定論的ポリシー勾配(RDPG)と呼ばれる強化学習アルゴリズムを提案します。
この策定では、1人のプレイヤー(ユーザー)がコストを最小限に抑えることを目指していますが、他のプレイヤー(敵)はそれを最大化しようとします。
次に、決定論的政策勾配(DPG)とその深い強化学習のカウンターパートを使用して、効果的な妨害減衰を伴う堅牢な制御ポリシーを訓練します。
特に、実用的な実装のために、深いニューラルネットワークアーキテクチャを採用し、双子に耐えられた深い決定論的ポリシー勾配(TD3)の技術を統合して安定性と学習効率を高めるための技術を統合する、実用的な実装のために、堅牢な深い決定論的ポリシー勾配(RDDPG)を紹介します。
提案されたアルゴリズムを評価するために、妨害が発生しやすい環境で事前に定義されたパスに従うことを担当する無人航空機(UAV)に実装します。
実験結果は、提案された方法が、乱れに対する堅牢性の観点から他の制御アプローチを上回ることを示しており、深刻な妨害条件下でも移動ターゲットの正確なリアルタイム追跡を可能にします。

要約(オリジナル)

Practical control systems pose significant challenges in identifying optimal control policies due to uncertainties in the system model and external disturbances. While $H_\infty$ control techniques are commonly used to design robust controllers that mitigate the effects of disturbances, these methods often require complex and computationally intensive calculations. To address this issue, this paper proposes a reinforcement learning algorithm called Robust Deterministic Policy Gradient (RDPG), which formulates the $H_\infty$ control problem as a two-player zero-sum dynamic game. In this formulation, one player (the user) aims to minimize the cost, while the other player (the adversary) seeks to maximize it. We then employ deterministic policy gradient (DPG) and its deep reinforcement learning counterpart to train a robust control policy with effective disturbance attenuation. In particular, for practical implementation, we introduce an algorithm called robust deep deterministic policy gradient (RDDPG), which employs a deep neural network architecture and integrates techniques from the twin-delayed deep deterministic policy gradient (TD3) to enhance stability and learning efficiency. To evaluate the proposed algorithm, we implement it on an unmanned aerial vehicle (UAV) tasked with following a predefined path in a disturbance-prone environment. The experimental results demonstrate that the proposed method outperforms other control approaches in terms of robustness against disturbances, enabling precise real-time tracking of moving targets even under severe disturbance conditions.

arxiv情報

著者 Taeho Lee,Donghwan Lee
発行日 2025-03-06 11:02:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Robust Deterministic Policy Gradient for Disturbance Attenuation and Its Application to Quadrotor Control はコメントを受け付けていません

Energy Consumption of Robotic Arm with the Local Reduction Method

要約

ロボットアームのエネルギー消費は、運用コストの上昇と環境への影響により、産業の自動化において大きな懸念事項です。
この研究では、パフォーマンスを損なうことなく、ロボットシステムのエネルギー効率を最適化するためのローカル削減方法の使用を調査しています。
このアプローチは、動きのパラメーターを改良し、精度と運用上の信頼性を維持しながらエネルギー使用を最小限に抑えます。
3ジョイントロボットアームモデルは、ピックアンドプレイスや軌道にフォローする操作を含むさまざまなタスクで、30秒間のシミュレーションを使用してテストされました。
結果は、局所削減方法により、モデル予測制御(MPC)や遺伝的アルゴリズム(GA)などの従来の技術と比較して、エネルギー消費量が最大25%減少することが明らかになりました。
重要な計算リソースを必要とするMPCと、収束率が遅いGAとは異なり、ローカル削減方法は、リアルタイムアプリケーションで優れた適応性と計算効率を実証しました。
この研究では、ローカル削減アプローチのスケーラビリティとシンプルさを強調しているため、持続可能で費用対効果の高いソリューションを求める産業にとって魅力的な選択肢となっています。
さらに、この方法では、人工知能(AI)などの新しいテクノロジーとシームレスに統合し、動的および複雑な環境でのアプリケーションをさらに強化できます。
この研究では、ロボットアーム操作を最適化し、エネルギー需要を削減し、産業自動化の持続可能性に貢献するための実用的なツールとして、ローカル削減方法の可能性を強調しています。
将来の作業は、実際のシナリオへのアプローチを拡張し、より動的な適応性のためのAI駆動型調整を組み込むことに焦点を当てます。

要約(オリジナル)

Energy consumption in robotic arms is a significant concern in industrial automation due to rising operational costs and environmental impact. This study investigates the use of a local reduction method to optimize energy efficiency in robotic systems without compromising performance. The approach refines movement parameters, minimizing energy use while maintaining precision and operational reliability. A three-joint robotic arm model was tested using simulation over a 30-second period for various tasks, including pick-and-place and trajectory-following operations. The results revealed that the local reduction method reduced energy consumption by up to 25% compared to traditional techniques such as Model Predictive Control (MPC) and Genetic Algorithms (GA). Unlike MPC, which requires significant computational resources, and GA, which has slow convergence rates, the local reduction method demonstrated superior adaptability and computational efficiency in real-time applications. The study highlights the scalability and simplicity of the local reduction approach, making it an attractive option for industries seeking sustainable and cost-effective solutions. Additionally, this method can integrate seamlessly with emerging technologies like Artificial Intelligence (AI), further enhancing its application in dynamic and complex environments. This research underscores the potential of the local reduction method as a practical tool for optimizing robotic arm operations, reducing energy demands, and contributing to sustainability in industrial automation. Future work will focus on extending the approach to real-world scenarios and incorporating AI-driven adjustments for more dynamic adaptability.

arxiv情報

著者 Halima Ibrahim Kure,Jishna Retnakumari,Lucian Nita,Saeed Sharif,Hamed Balogun,Augustine O. Nwajana
発行日 2025-03-06 11:37:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Energy Consumption of Robotic Arm with the Local Reduction Method はコメントを受け付けていません

A Backbone for Long-Horizon Robot Task Understanding

要約

特に長老のタスクでは、エンドツーエンドのロボット学習は、予測不可能な結果と一般化の不十分な結果をもたらすことがよくあります。
これらの課題に対処するために、ロボットシステムの解釈可能性、データ効率、および一般化を強化するための基本構造として、新しいTherbligベースのバックボーンフレームワーク(TBBF)を提案します。
TBBFは、Therbligレベルのタスク分解を可能にし、効率的なアクションオブジェクトマッピングを促進し、新しいシナリオの適応軌跡を生成するために、専門家のデモンストレーションを利用します。
このアプローチは、オフライントレーニングとオンラインテストの2つの段階で構成されています。
オフライントレーニング段階で、さまざまなタスクで正確なTherBligセグメンテーションのために、メタRGATE SynerFusion(MGSF)ネットワークを開発しました。
オンラインテスト段階では、新しいタスクのワンショットデモンストレーションが収集された後、MGSFネットワークは高レベルの知識を抽出し、アクション登録(ActionREG)を使用して画像にエンコードされます。
さらに、視覚補正のための大規模な言語モデル(LLM) – 整列ポリシー(LAP-VC)が採用され、正確なアクション登録を確保し、新しいロボットシナリオでの軌道転送を促進します。
実験結果は、これらの方法を検証し、それぞれシンプルで複雑なシナリオの現実世界のオンラインロボットテストで、94.4%と80%のTherbligセグメンテーションと成功率で94.37%のリコールを達成します。
補足資料は、https://sites.google.com/view/therbligsbasedbackbone/homeで入手できます

要約(オリジナル)

End-to-end robot learning, particularly for long-horizon tasks, often results in unpredictable outcomes and poor generalization. To address these challenges, we propose a novel Therblig-Based Backbone Framework (TBBF) as a fundamental structure to enhance interpretability, data efficiency, and generalization in robotic systems. TBBF utilizes expert demonstrations to enable therblig-level task decomposition, facilitate efficient action-object mapping, and generate adaptive trajectories for new scenarios. The approach consists of two stages: offline training and online testing. During the offline training stage, we developed the Meta-RGate SynerFusion (MGSF) network for accurate therblig segmentation across various tasks. In the online testing stage, after a one-shot demonstration of a new task is collected, our MGSF network extracts high-level knowledge, which is then encoded into the image using Action Registration (ActionREG). Additionally, Large Language Model (LLM)-Alignment Policy for Visual Correction (LAP-VC) is employed to ensure precise action registration, facilitating trajectory transfer in novel robot scenarios. Experimental results validate these methods, achieving 94.37% recall in therblig segmentation and success rates of 94.4% and 80% in real-world online robot testing for simple and complex scenarios, respectively. Supplementary material is available at: https://sites.google.com/view/therbligsbasedbackbone/home

arxiv情報

著者 Xiaoshuai Chen,Wei Chen,Dongmyoung Lee,Yukun Ge,Nicolas Rojas,Petar Kormushev
発行日 2025-03-06 11:59:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.HC, cs.RO | A Backbone for Long-Horizon Robot Task Understanding はコメントを受け付けていません