AI-based Framework for Robust Model-Based Connector Mating in Robotic Wire Harness Installation

要約

自動車アセンブリにおける産業ロボットが広く採用されているにもかかわらず、正確で柔軟な操作が必要であるため、ワイヤーハーネスの設置は主に手動プロセスのままです。
この課題に対処するために、フォースコントロールと深い視覚操作学習を統合することにより、ケーブルコネクタの交尾を自動化する新しいAIベースのフレームワークを設計します。
当社のシステムは、視覚、触覚、および固有受容データでトレーニングされたマルチモーダルトランスアーキテクチャにおける一次最適化を使用して、検索と挿入戦略を最適化します。
さらに、機械学習の専門知識の必要性を最小限に抑える、新しい自動化されたデータ収集と最適化パイプラインを設計します。
このフレームワークは、標準的な産業コントローラーをネイティブに実行するロボットプログラムを最適化し、人間の専門家が監査および認定を許可します。
センターコンソールアセンブリタスクの実験的検証は、従来のロボットプログラミングアプローチと比較して、サイクル時間と堅牢性の大幅な改善を示しています。
ビデオはhttps://claudius-kienle.github.io/appmuttで入手できます。

要約(オリジナル)

Despite the widespread adoption of industrial robots in automotive assembly, wire harness installation remains a largely manual process, as it requires precise and flexible manipulation. To address this challenge, we design a novel AI-based framework that automates cable connector mating by integrating force control with deep visuotactile learning. Our system optimizes search-and-insertion strategies using first-order optimization over a multimodal transformer architecture trained on visual, tactile, and proprioceptive data. Additionally, we design a novel automated data collection and optimization pipeline that minimizes the need for machine learning expertise. The framework optimizes robot programs that run natively on standard industrial controllers, permitting human experts to audit and certify them. Experimental validations on a center console assembly task demonstrate significant improvements in cycle times and robustness compared to conventional robot programming approaches. Videos are available under https://claudius-kienle.github.io/AppMuTT.

arxiv情報

著者 Claudius Kienle,Benjamin Alt,Finn Schneider,Tobias Pertlwieser,Rainer Jäkel,Rania Rayyes
発行日 2025-06-09 10:41:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T40, cs.AI, cs.CE, cs.LG, cs.RO, I.2 | AI-based Framework for Robust Model-Based Connector Mating in Robotic Wire Harness Installation はコメントを受け付けていません

Blending Participatory Design and Artificial Awareness for Trustworthy Autonomous Vehicles

要約

自動運転車(AVS)やドローンなどの現在のロボットエージェントは、適切な状況認識(SA)、リスク認識、調整、意思決定を備えた不確実な現実世界環境に対処する必要があります。
Symawareプロジェクトは、マルチエージェントシステムで人為的な認識のためのアーキテクチャを設計し、自動運転車とドローンの安全なコラボレーションを可能にすることにより、この問題に対処するよう努めています。
ただし、これらのエージェントは、人間のユーザー(ドライバー、歩行者、ドローンオペレーター)とやり取りする必要があります。これは、相互作用シナリオで人間をモデル化する方法と、エージェントと人間の間の信頼と透明性を促進する方法を理解する必要があります。
この作業では、SAアーキテクチャに統合するために、人間のドライバーのデータ駆動型モデルを作成し、信頼できる人員相互作用の原則に基づいて研究を根拠とすることを目指しています。
モデルの作成に必要なデータを収集するために、AVの透明性とユーザーの動作との相互作用を調査する人間とAVの相互作用に関する大規模なユーザー中心の研究を実施しました。
この論文の貢献は2つあります。1つ目は、人間とその発見とその発見を詳細に示し、第二に、研究のデータから計算された人間のドライバーのマルコフ連鎖モデルを提示します。
私たちの結果は、AVの透明性、シナリオの環境、およびユーザーの人口統計に応じて、モデルの遷移に大きな違いを得ることができることを示しています。

要約(オリジナル)

Current robotic agents, such as autonomous vehicles (AVs) and drones, need to deal with uncertain real-world environments with appropriate situational awareness (SA), risk awareness, coordination, and decision-making. The SymAware project strives to address this issue by designing an architecture for artificial awareness in multi-agent systems, enabling safe collaboration of autonomous vehicles and drones. However, these agents will also need to interact with human users (drivers, pedestrians, drone operators), which in turn requires an understanding of how to model the human in the interaction scenario, and how to foster trust and transparency between the agent and the human. In this work, we aim to create a data-driven model of a human driver to be integrated into our SA architecture, grounding our research in the principles of trustworthy human-agent interaction. To collect the data necessary for creating the model, we conducted a large-scale user-centered study on human-AV interaction, in which we investigate the interaction between the AV’s transparency and the users’ behavior. The contributions of this paper are twofold: First, we illustrate in detail our human-AV study and its findings, and second we present the resulting Markov chain models of the human driver computed from the study’s data. Our results show that depending on the AV’s transparency, the scenario’s environment, and the users’ demographics, we can obtain significant differences in the model’s transitions.

arxiv情報

著者 Ana Tanevska,Ananthapathmanabhan Ratheesh Kumar,Arabinda Ghosh,Ernesto Casablanca,Ginevra Castellano,Sadegh Soudjani
発行日 2025-06-09 11:00:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Blending Participatory Design and Artificial Awareness for Trustworthy Autonomous Vehicles はコメントを受け付けていません

Fast ECoT: Efficient Embodied Chain-of-Thought via Thoughts Reuse

要約

具体化されたチェーンオブオブチーズ(ECOT)推論は、中間推論ステップを通じてパフォーマンスと解釈性を向上させることにより、ビジョン言語アクション(VLA)モデルを強化します。
ただし、その連続した自動脱体トークンの生成は、リアルタイムの展開を制限し、重要な推論潜時をもたらします。
ECOTの構造化された繰り返しの性質を(1)タイムステップ全体で高レベルの推論を再利用し、(2)モジュール式推論ステップの生成を並列化する推論時間加速方法である高速ECOTを提案します。
さらに、アクションデコードから推論を切り離し、応答性をさらに高める非同期スケジューラを導入します。
高速ECOTには、モデルの変更も追加のトレーニングも必要ありません。既存のVLAパイプラインに簡単に統合します。
シミュレーション(Libero)と実際のロボットタスクの両方での実験は、匹敵するまたは改善されたタスクの成功率と忠実さの推論により、レイテンシが7.5%減少し、ECOTポリシーが実際のリアルタイムの展開に近づきます。

要約(オリジナル)

Embodied Chain-of-Thought (ECoT) reasoning enhances vision-language-action (VLA) models by improving performance and interpretability through intermediate reasoning steps. However, its sequential autoregressive token generation introduces significant inference latency, limiting real-time deployment. We propose Fast ECoT, an inference-time acceleration method that exploits the structured and repetitive nature of ECoT to (1) cache and reuse high-level reasoning across timesteps and (2) parallelise the generation of modular reasoning steps. Additionally, we introduce an asynchronous scheduler that decouples reasoning from action decoding, further boosting responsiveness. Fast ECoT requires no model changes or additional training and integrates easily into existing VLA pipelines. Experiments in both simulation (LIBERO) and real-world robot tasks show up to a 7.5% reduction in latency with comparable or improved task success rate and reasoning faithfulness, bringing ECoT policies closer to practical real-time deployment.

arxiv情報

著者 Zhekai Duan,Yuan Zhang,Shikai Geng,Gaowen Liu,Joschka Boedecker,Chris Xiaoxuan Lu
発行日 2025-06-09 11:04:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Fast ECoT: Efficient Embodied Chain-of-Thought via Thoughts Reuse はコメントを受け付けていません

Scene Exploration by Vision-Language Models

要約

アクティブな知覚により、ロボットは視点を調整することにより情報を動的に収集できます。これは、複雑で部分的に観察可能な環境と相互作用するための重要な能力です。
この論文では、アクティブな知覚とビジョン言語モデル(VLM)を組み合わせてロボット探査とセマンティッククエリに答える新しいフレームワークであるAP-VLMを紹介します。
AP-VLMは、シーンとオリエンテーションの調整でオーバーレイされた3D仮想グリッドを使用して、ロボットマニピュレーターが最適な視点と方向をインテリジェントに選択して、閉塞または傾斜した位置のオブジェクトを識別するなどの挑戦的なタスクを解決できるようにします。
オブジェクト構成が異なるさまざまなシーンで、7ドフランカパンダと6ドフのUR5の2つのロボットプラットフォームでシステムを評価します。
我々の結果は、AP-VLMが、特に固定カメラビューが不十分なシナリオで、接地された常識推論(TGCSR)に向けて、受動的知覚方法とベースラインモデルを大幅に上回ることを示しています。
現実世界の設定におけるAP-VLMの適応性は、複雑な環境のロボットシステムの理解を強化し、高レベルのセマンティック推論と低レベルの制御の間のギャップを埋めることを期待しています。

要約(オリジナル)

Active perception enables robots to dynamically gather information by adjusting their viewpoints, a crucial capability for interacting with complex, partially observable environments. In this paper, we present AP-VLM, a novel framework that combines active perception with a Vision-Language Model (VLM) to guide robotic exploration and answer semantic queries. Using a 3D virtual grid overlaid on the scene and orientation adjustments, AP-VLM allows a robotic manipulator to intelligently select optimal viewpoints and orientations to resolve challenging tasks, such as identifying objects in occluded or inclined positions. We evaluate our system on two robotic platforms: a 7-DOF Franka Panda and a 6-DOF UR5, across various scenes with differing object configurations. Our results demonstrate that AP-VLM significantly outperforms passive perception methods and baseline models, including Toward Grounded Common Sense Reasoning (TGCSR), particularly in scenarios where fixed camera views are inadequate. The adaptability of AP-VLM in real-world settings shows promise for enhancing robotic systems’ understanding of complex environments, bridging the gap between high-level semantic reasoning and low-level control.

arxiv情報

著者 Venkatesh Sripada,Samuel Carter,Frank Guerin,Amir Ghalamzan
発行日 2025-06-09 11:32:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Scene Exploration by Vision-Language Models はコメントを受け付けていません

Splatting Physical Scenes: End-to-End Real-to-Sim from Imperfect Robot Data

要約

現実世界のロボットモーションから直接正確で物理的なシミュレーションを作成すると、安全でスケーラブルで手頃なロボット学習に大きな価値がありますが、非常に挑戦的なままです。
実際のロボットデータには、閉塞、ノイズの多いカメラのポーズ、動的なシーン要素に苦しんでおり、目に見えないオブジェクトの幾何学的に正確で光選挙的なデジタル双子の作成を妨げます。
これらすべての課題に一度に取り組む新しいリアルからシムのフレームワークを紹介します。
私たちの重要な洞察は、単一の表現内の物理シミュレーションに適した明示的なオブジェクトメッシュと3Dガウスのスプラッティングのフォトリアリスティックなレンダリングをマージするハイブリッドシーン表現です。
ムホコ内で微分可能なレンダリングと微分物理学を活用して、オブジェクトのジオメトリと外観からロボットのポーズや物理的パラメーターまで、生および不正確なロボットのトレーズから直接、すべてのシーンコンポーネントを共同で改良するエンドツーエンドの最適化パイプラインを提案します。
この統一された最適化により、同時に高忠実度オブジェクトメッシュの再構築を実現し、光リアリスティックな新規ビューを生成し、注釈のないロボットポーズキャリブレーションを実行することができます。
シミュレーションと、Aloha 2の双方向マニピュレーターを使用した現実世界のシーケンスに挑戦するアプローチの有効性を実証し、より実用的で堅牢な現実からシミュレーションパイプラインを可能にします。

要約(オリジナル)

Creating accurate, physical simulations directly from real-world robot motion holds great value for safe, scalable, and affordable robot learning, yet remains exceptionally challenging. Real robot data suffers from occlusions, noisy camera poses, dynamic scene elements, which hinder the creation of geometrically accurate and photorealistic digital twins of unseen objects. We introduce a novel real-to-sim framework tackling all these challenges at once. Our key insight is a hybrid scene representation merging the photorealistic rendering of 3D Gaussian Splatting with explicit object meshes suitable for physics simulation within a single representation. We propose an end-to-end optimization pipeline that leverages differentiable rendering and differentiable physics within MuJoCo to jointly refine all scene components – from object geometry and appearance to robot poses and physical parameters – directly from raw and imprecise robot trajectories. This unified optimization allows us to simultaneously achieve high-fidelity object mesh reconstruction, generate photorealistic novel views, and perform annotation-free robot pose calibration. We demonstrate the effectiveness of our approach both in simulation and on challenging real-world sequences using an ALOHA 2 bi-manual manipulator, enabling more practical and robust real-to-simulation pipelines.

arxiv情報

著者 Ben Moran,Mauro Comi,Arunkumar Byravan,Steven Bohez,Tom Erez,Zhibin Li,Leonard Hasenclever
発行日 2025-06-09 11:42:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.GR, cs.RO | Splatting Physical Scenes: End-to-End Real-to-Sim from Imperfect Robot Data はコメントを受け付けていません

Towards Autonomous Reinforcement Learning for Real-World Robotic Manipulation with Large Language Models

要約

大規模な言語モデル(LLMS)および視覚言語モデル(VLM)の最近の進歩は、ロボット工学に大きな影響を与え、高レベルのセマンティックモーションプランニングアプリケーションを可能にします。
補完的なパラダイムである強化学習(RL)は、エージェントが相互作用と報酬シグナルを通じて複雑な動作を自律的に最適化することを可能にします。
ただし、RLの効果的な報酬機能の設計は、特にまばらな報酬が不十分で密集した報酬が必要な実世界のタスクでは、精巧な設計が必要です。
この作業では、自然言語のタスクの説明から直接報酬機能を生成するために、訓練を受けたLLMであるGPT-4をレバレッジしている監視されていないパイプラインである複雑な人間に基づいた環境(Archie)の自律強化学習を提案します。
報酬は、シミュレートされた環境でRLエージェントをトレーニングするために使用されます。この環境では、実現可能性を高めるために報酬生成プロセスを形式化します。
さらに、GPT-4は、タスクの成功基準のコーディングを自動化し、人間が読みやすいテキストを展開可能なロボットスキルに変換するための完全に自動化されたワンショット手順を作成します。
私たちのアプローチは、ABBユミの共同ロボットを使用した単一腕および双方数の操作タスクに関する広範なシミュレーション実験を通じて検証され、その実用性と有効性を強調しています。
実際のロボットのセットアップでタスクが実証されています。

要約(オリジナル)

Recent advancements in Large Language Models (LLMs) and Visual Language Models (VLMs) have significantly impacted robotics, enabling high-level semantic motion planning applications. Reinforcement Learning (RL), a complementary paradigm, enables agents to autonomously optimize complex behaviors through interaction and reward signals. However, designing effective reward functions for RL remains challenging, especially in real-world tasks where sparse rewards are insufficient and dense rewards require elaborate design. In this work, we propose Autonomous Reinforcement learning for Complex Human-Informed Environments (ARCHIE), an unsupervised pipeline leveraging GPT-4, a pre-trained LLM, to generate reward functions directly from natural language task descriptions. The rewards are used to train RL agents in simulated environments, where we formalize the reward generation process to enhance feasibility. Additionally, GPT-4 automates the coding of task success criteria, creating a fully automated, one-shot procedure for translating human-readable text into deployable robot skills. Our approach is validated through extensive simulated experiments on single-arm and bi-manual manipulation tasks using an ABB YuMi collaborative robot, highlighting its practicality and effectiveness. Tasks are demonstrated on the real robot setup.

arxiv情報

著者 Niccolò Turcato,Matteo Iovino,Aris Synodinos,Alberto Dalla Libera,Ruggero Carli,Pietro Falco
発行日 2025-06-09 12:23:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Towards Autonomous Reinforcement Learning for Real-World Robotic Manipulation with Large Language Models はコメントを受け付けていません

A Communication-Latency-Aware Co-Simulation Platform for Safety and Comfort Evaluation of Cloud-Controlled ICVs

要約

クラウド制御されたインテリジェント接続車両(I​​CV)のテストには、車両の動作と現実的な通信レイテンシの両方を忠実にエミュレートするシミュレーション環境が必要です。
このホワイトペーパーでは、実際の車両からクラウド(V2C)のレイテンシ条件下での安全性と快適性を評価するために、カーメルメーカーとVissimを統合する潜在的な認識共産プラットフォームを提案します。
中国とハンガリーの経験的な5G測定から導出された2つの通信潜伏モデルが組み込まれ、ガンマ分布を使用して統計的にモデル化されています。
バックグラウンド車両を動的に制御し、安全性が批判的なシナリオを生成するために、プロアクティブな競合モジュール(PCM)が提案されています。
このプラットフォームは、2つのPCMモード(有効/無効)と3つのレイテンシ条件(なし、中国、ハンガリー)を組み合わせた6つのテスト条件にわたる模範的なシステム(SUT)を含む実験を通じて検証されます。
安全性と快適性は、衝突率、距離の前進、包括後の時間、縦方向の加速のスペクトル特性を含むメトリックを使用して評価されます。
結果は、PCMが運転環境の重大度を効果的に増加させ、V2Cの遅延が主に乗り心地に影響を与えることを示しています。
これらの調査結果は、多様なテスト条件下でクラウド制御のICVを体系的に評価する際のプラットフォームの有効性を確認しています。

要約(オリジナル)

Testing cloud-controlled intelligent connected vehicles (ICVs) requires simulation environments that faithfully emulate both vehicle behavior and realistic communication latencies. This paper proposes a latency-aware co-simulation platform integrating CarMaker and Vissim to evaluate safety and comfort under real-world vehicle-to-cloud (V2C) latency conditions. Two communication latency models, derived from empirical 5G measurements in China and Hungary, are incorporated and statistically modeled using Gamma distributions. A proactive conflict module (PCM) is proposed to dynamically control background vehicles and generate safety-critical scenarios. The platform is validated through experiments involving an exemplary system under test (SUT) across six testing conditions combining two PCM modes (enabled/disabled) and three latency conditions (none, China, Hungary). Safety and comfort are assessed using metrics including collision rate, distance headway, post-encroachment time, and the spectral characteristics of longitudinal acceleration. Results show that the PCM effectively increases driving environment criticality, while V2C latency primarily affects ride comfort. These findings confirm the platform’s effectiveness in systematically evaluating cloud-controlled ICVs under diverse testing conditions.

arxiv情報

著者 Yongqi Zhao,Xinrui Zhang,Tomislav Mihalj,Martin Schabauer,Luis Putzer,Erik Reichmann-Blaga,Ádám Boronyák,András Rövid,Gábor Soós,Peizhi Zhang,Lu Xiong,Jia Hu,Arno Eichberger
発行日 2025-06-09 12:35:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | A Communication-Latency-Aware Co-Simulation Platform for Safety and Comfort Evaluation of Cloud-Controlled ICVs はコメントを受け付けていません

Graph-Assisted Stitching for Offline Hierarchical Reinforcement Learning

要約

既存のオフライン階層強化学習方法は、サブゴールシーケンスを生成するために高レベルのポリシー学習に依存しています。
しかし、タスクの範囲が増加するにつれて効率が低下し、異なる軌跡にわたって有用な状態遷移を縫うための効果的な戦略が欠けています。
グラフアシストステッチ(GAS)を提案します。これは、明示的な高レベルポリシーを学習するのではなく、グラフ検索問題としてサブゴール選択を策定する新しいフレームワークです。
状態を時間距離表現(TDR)空間に埋め込むことにより、ガスクラスターは異なる軌道から統一グラフノードに意味的に類似した状態を統合し、効率的な遷移ステッチを可能にします。
次に、最短パスアルゴリズムが適用され、グラフ内のサブゴールシーケンスが選択され、低レベルのポリシーがサブゴールに到達することを学びます。
グラフの品質を向上させるために、騒がしい遷移状態または非効率的な遷移状態を除去し、タスクのパフォーマンスを大幅に向上させる時間的効率(TE)メトリックを導入します。
ガスは、移動、ナビゲーション、操作タスク全体で、オフラインの以前のHRLメソッドよりも優れています。
特に、最もステッチ批判的なタスクでは、88.3のスコアを達成し、以前の最新スコア1.0を劇的に超えています。
ソースコードは、https://github.com/qortmdgh4141/gasで入手できます。

要約(オリジナル)

Existing offline hierarchical reinforcement learning methods rely on high-level policy learning to generate subgoal sequences. However, their efficiency degrades as task horizons increase, and they lack effective strategies for stitching useful state transitions across different trajectories. We propose Graph-Assisted Stitching (GAS), a novel framework that formulates subgoal selection as a graph search problem rather than learning an explicit high-level policy. By embedding states into a Temporal Distance Representation (TDR) space, GAS clusters semantically similar states from different trajectories into unified graph nodes, enabling efficient transition stitching. A shortest-path algorithm is then applied to select subgoal sequences within the graph, while a low-level policy learns to reach the subgoals. To improve graph quality, we introduce the Temporal Efficiency (TE) metric, which filters out noisy or inefficient transition states, significantly enhancing task performance. GAS outperforms prior offline HRL methods across locomotion, navigation, and manipulation tasks. Notably, in the most stitching-critical task, it achieves a score of 88.3, dramatically surpassing the previous state-of-the-art score of 1.0. Our source code is available at: https://github.com/qortmdgh4141/GAS.

arxiv情報

著者 Seungho Baek,Taegeon Park,Jongchan Park,Seungjun Oh,Yusung Kim
発行日 2025-06-09 13:26:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Graph-Assisted Stitching for Offline Hierarchical Reinforcement Learning はコメントを受け付けていません

An Overview of the Burer-Monteiro Method for Certifiable Robot Perception

要約

このペーパーでは、ロボット認識の問題をリアルタイムで実証可能な最適性に解決するために適用された手法であるBurer-Monteiro Method(BM)の概要を説明します。
BMは、多くの場合、セミディナイトプログラミングリラクゼーションを解決するために使用されます。これは、非凸認識の問題のグローバルな最適化を実行するために使用できます。
具体的には、BMは、典型的な半定光度プログラムの低ランク構造を活用して、最適化の計算コストを劇的に削減します。
このペーパーでは、BMについて認証可能な認識で説明します。(i)文献からの情報を統一されたプレゼンテーションに統合すること、(ii)線形独立制約資格(LICQ)の役割を解明するための3つの主要な目的について説明します。
私たちの一般的な目的は、BMを認証可能な認識に適用するための実用的な入門書を提供することです。

要約(オリジナル)

This paper presents an overview of the Burer-Monteiro method (BM), a technique that has been applied to solve robot perception problems to certifiable optimality in real-time. BM is often used to solve semidefinite programming relaxations, which can be used to perform global optimization for non-convex perception problems. Specifically, BM leverages the low-rank structure of typical semidefinite programs to dramatically reduce the computational cost of performing optimization. This paper discusses BM in certifiable perception, with three main objectives: (i) to consolidate information from the literature into a unified presentation, (ii) to elucidate the role of the linear independence constraint qualification (LICQ), a concept not yet well-covered in certifiable perception literature, and (iii) to share practical considerations that are discussed among practitioners but not thoroughly covered in the literature. Our general aim is to offer a practical primer for applying BM towards certifiable perception.

arxiv情報

著者 Alan Papalia,Yulun Tian,David M. Rosen,Jonathan P. How,John J. Leonard
発行日 2025-06-09 13:32:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 49, 68, cs.CV, cs.LG, cs.RO, I.4.0 | An Overview of the Burer-Monteiro Method for Certifiable Robot Perception はコメントを受け付けていません

Deep Equivariant Multi-Agent Control Barrier Functions

要約

複雑な環境でマルチエージェントシステムが自律的に大規模に展開されているため、データ駆動型ポリシーの安全性が重要であることが重要です。
制御バリア機能は、安全上の制約を実施するための効果的なツールとして浮上していますが、システムの固有の幾何学的構造を見落とすため、既存の学習ベースの方法がスケーラビリティ、一般化、サンプリング効率に欠けていることがよくあります。
このギャップに対処するために、学習可能なグラフベースの安全証明書に固有の対称性の満足度を実施して、対称化された分散制御バリア関数を導入します。
CBFとポリシーの等縁5パラメーター化の必要性を理論的に動機付け、互換性のあるグループアクションを介してそのような等縁分グループモジュラーネットワークを構築するためのシンプルでありながら効率的で適応性のある方法論を提案します。
このアプローチは、分散されたデータ効率の良い方法で安全制限をエンコードし、より大きな密度の高い群れにゼロショットの一般化を可能にします。
マルチロボットナビゲーションタスクに関する広範なシミュレーションを通じて、私たちの方法は、安全性、スケーラビリティ、およびタスクの成功率の観点から最先端のベースラインよりも優れていることを実証し、安全な分散ニューラルポリシーに対称性を埋め込むことの重要性を強調しています。

要約(オリジナル)

With multi-agent systems increasingly deployed autonomously at scale in complex environments, ensuring safety of the data-driven policies is critical. Control Barrier Functions have emerged as an effective tool for enforcing safety constraints, yet existing learning-based methods often lack in scalability, generalization and sampling efficiency as they overlook inherent geometric structures of the system. To address this gap, we introduce symmetries-infused distributed Control Barrier Functions, enforcing the satisfaction of intrinsic symmetries on learnable graph-based safety certificates. We theoretically motivate the need for equivariant parametrization of CBFs and policies, and propose a simple, yet efficient and adaptable methodology for constructing such equivariant group-modular networks via the compatible group actions. This approach encodes safety constraints in a distributed data-efficient manner, enabling zero-shot generalization to larger and denser swarms. Through extensive simulations on multi-robot navigation tasks, we demonstrate that our method outperforms state-of-the-art baselines in terms of safety, scalability, and task success rates, highlighting the importance of embedding symmetries in safe distributed neural policies.

arxiv情報

著者 Nikolaos Bousias,Lars Lindemann,George Pappas
発行日 2025-06-09 13:37:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MA, cs.RO, cs.SY, eess.SY | Deep Equivariant Multi-Agent Control Barrier Functions はコメントを受け付けていません