A Roadside Unit for Infrastructure Assisted Intersection Control of Autonomous Vehicles

要約

自律的な車両技術とセルラーネットワークの最近の進歩により、車両からすべての(V2X)通信の開発が動機付けられます。
交通安全機能の向上と燃料効率の向上は、将来の輸送システムのV2Xの背後にある動機の一部です。
適応的な交差制御システムは、アイドル時間を最小限に抑え、短期的な将来の交通条件を予測することにより、これらの目標を達成するかなりの可能性を秘めています。
V2Xをトラフィック管理システムに統合すると、すべてのユーザーにとって道路をより安全にするために必要なインフラストラクチャを導入し、よりインテリジェントで接続された都市へのシフトを開始します。
コントロールアルゴリズムを実証するために、2つの自動運転電気自動車、道端のユニット(RSU)、および信号機を使用した4ウェイの交差点と横断歩道シナリオのシミュレートされた現実世界表現と現実世界の表現の両方を実装します。
当社のアーキテクチャは、加速と交差点のブレーキを最大75.35%減らします。これは、ガス車両の燃料消費量を最小限に抑えることが示されています。
インテリジェントで接続された交差制御に対する費用対効果の高いソリューションを提案し、継続的な研究開発の基礎として適切な概念モデルとして機能します。
このプロジェクトのコードは、https://github.com/mmachado05/reu-2024で入手できます。

要約(オリジナル)

Recent advances in autonomous vehicle technologies and cellular network speeds motivate developments in vehicle-to-everything (V2X) communications. Enhanced road safety features and improved fuel efficiency are some of the motivations behind V2X for future transportation systems. Adaptive intersection control systems have considerable potential to achieve these goals by minimizing idle times and predicting short-term future traffic conditions. Integrating V2X into traffic management systems introduces the infrastructure necessary to make roads safer for all users and initiates the shift towards more intelligent and connected cities. To demonstrate our control algorithm, we implement both a simulated and real-world representation of a 4-way intersection and crosswalk scenario with 2 self-driving electric vehicles, a roadside unit (RSU), and a traffic light. Our architecture reduces acceleration and braking through intersections by up to 75.35%, which has been shown to minimize fuel consumption in gas vehicles. We propose a cost-effective solution to intelligent and connected intersection control to serve as a proof-of-concept model suitable as the basis for continued research and development. Code for this project is available at https://github.com/MMachado05/REU-2024.

arxiv情報

著者 Michael Evans,Marcial Machado,Rickey Johnson,Anna Vadella,Luis Escamilla,Beñat Froemming-Aldanondo,Tatiana Rastoskueva,Milan Jostes,Devson Butani,Ryan Kaddis,Chan-Jin Chung,Joshua Siegel
発行日 2025-03-04 14:44:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | A Roadside Unit for Infrastructure Assisted Intersection Control of Autonomous Vehicles はコメントを受け付けていません

Self-Mixing Laser Interferometry for Robotic Tactile Sensing

要約

セルフミキシング干渉法(SMI)は、マイクロバイブ化を検出する際の感度で賞賛されていますが、ターゲットとの物理的接触は必要ありません。
ロボット工学では、マイクロバイブレーションは伝統的にオブジェクトスリップのマーカーとして解釈されており、最近は外因性接触の顕著な指標として解釈されてきました。
SMIをスリップおよび外因性接触センシングに使用する最初のロボットの指先を提示します。
この設計は、指先パッケージの読み出し回路を包む前後の両方で、制御された振動源の測定を通じて検証されます。
次に、SMI指先は4つの実験を通じて音響センシングと比較されます。
結果は、技術決定マップに蒸留されます。
SMIは、微妙なスリップイベントに対してより敏感であり、周囲のノイズに対して非常に回復力があることがわかりました。
ロボットの指先にSMIを統合すると、ロボット工学における触覚センシングの新しい新しい枝を提供すると結論付けています。
設計およびデータファイルは、https://github.com/remkopr/icra2025-smi-tactile-sensingで入手できます。

要約(オリジナル)

Self-mixing interferometry (SMI) has been lauded for its sensitivity in detecting microvibrations, while requiring no physical contact with its target. In robotics, microvibrations have traditionally been interpreted as a marker for object slip, and recently as a salient indicator of extrinsic contact. We present the first-ever robotic fingertip making use of SMI for slip and extrinsic contact sensing. The design is validated through measurement of controlled vibration sources, both before and after encasing the readout circuit in its fingertip package. Then, the SMI fingertip is compared to acoustic sensing through four experiments. The results are distilled into a technology decision map. SMI was found to be more sensitive to subtle slip events and significantly more resilient against ambient noise. We conclude that the integration of SMI in robotic fingertips offers a new, promising branch of tactile sensing in robotics. Design and data files are available at https://github.com/RemkoPr/icra2025-SMI-tactile-sensing.

arxiv情報

著者 Remko Proesmans,Ward Goossens,Lowiek Van den Stockt,Lowie Christiaen,Francis wyffels
発行日 2025-03-04 15:11:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Self-Mixing Laser Interferometry for Robotic Tactile Sensing はコメントを受け付けていません

FlowPlan: Zero-Shot Task Planning with LLM Flow Engineering for Robotic Instruction Following

要約

タスクに続くロボット命令では、視覚認識、タスク計画、ターゲットのローカリゼーション、およびモーション実行のシームレスな統合が必要です。
ただし、既存のタスク計画のフォローするための既存のタスク計画方法は、運用上の制約の下で実用的な計画に長い指示を接地するのが難しいため、ゼロショットシナリオのデータ駆動型またはパフォーマンスのいずれかです。
これに対処するために、ゼロショットパイプラインを高め、ゼロショットとデータ駆動型のコンテキスト学習方法のパフォーマンスギャップを橋渡しする構造化されたマルチステージLLMワークフローであるFlowPlanを提案します。
計画プロセスをモジュラーステージに分解することにより、情報検索、言語レベルの推論、シンボリックレベルの計画、および論理評価 – フロープランは、正確なインスタンスレベルのターゲットローカライズのための運用上の制約を順守し、コンテキストガイダンスをさらに抽出しながら、論理的に一貫したアクションシーケンスを生成します。
Alfredに基づいて実世界のアプリケーションで検証されたこの方法は、データ駆動型のコンテキスト学習方法と比較して競争力のあるパフォーマンスを達成し、多様な環境で適応性を実証します。
この作業は、ラベル付きデータに依存せずにロボットシステムでゼロショットタスク計画を進めます。
プロジェクトWebサイト:https://instruction-following-project.github.io/。

要約(オリジナル)

Robotic instruction following tasks require seamless integration of visual perception, task planning, target localization, and motion execution. However, existing task planning methods for instruction following are either data-driven or underperform in zero-shot scenarios due to difficulties in grounding lengthy instructions into actionable plans under operational constraints. To address this, we propose FlowPlan, a structured multi-stage LLM workflow that elevates zero-shot pipeline and bridges the performance gap between zero-shot and data-driven in-context learning methods. By decomposing the planning process into modular stages–task information retrieval, language-level reasoning, symbolic-level planning, and logical evaluation–FlowPlan generates logically coherent action sequences while adhering to operational constraints and further extracts contextual guidance for precise instance-level target localization. Benchmarked on the ALFRED and validated in real-world applications, our method achieves competitive performance relative to data-driven in-context learning methods and demonstrates adaptability across diverse environments. This work advances zero-shot task planning in robotic systems without reliance on labeled data. Project website: https://instruction-following-project.github.io/.

arxiv情報

著者 Zijun Lin,Chao Tang,Hanjing Ye,Hong Zhang
発行日 2025-03-04 15:14:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | FlowPlan: Zero-Shot Task Planning with LLM Flow Engineering for Robotic Instruction Following はコメントを受け付けていません

Multi-Strategy Enhanced COA for Path Planning in Autonomous Navigation

要約

自律的なナビゲーションは、複雑な環境で効率的で安全な動きを可能にすることにより、人々の生活のさまざまなドメインを再構築しています。
信頼できるナビゲーションには、タスク固有の制約を満たし、障害物の回避を確保しながら、最適またはほぼ最適な軌跡を計算するアルゴリズムアプローチが必要です。
ただし、既存の方法は、特に複雑な環境では、ゆっくりとした収束と準最適なソリューションと闘い、実際の適用性を制限しています。
これらの制限に対処するために、このペーパーでは、マルチ戦略強化ザリガニ最適化アルゴリズム(MCOA)、3つの重要な戦略を統合する新しいアプローチを紹介します。
品質。
経験的評価は、3D無人航空機(UAV)と2Dモバイルロボットパス計画の両方におけるMCOAの驚くべき計画速度と驚くべきソリューション品質を強調しています。
11のベースラインアルゴリズムに対して、MCOAは計算時間を69.2%削減し、3D UAVシナリオの全体的なパスコストを最小化する16.7%の改善を達成しました。
さらに、2Dパス計画では、MCOAはベースラインアプローチを平均44%上回り、最大60*60グリッド設定では75.6%の優位性を高めました。
これらの調査結果は、MCOAを複雑な環境で自律的なナビゲーションを最適化するための強力なツールとして検証しています。
ソースコードは、https://github.com/coedv-hub/mcoaで入手できます。

要約(オリジナル)

Autonomous navigation is reshaping various domains in people’s life by enabling efficient and safe movement in complex environments. Reliable navigation requires algorithmic approaches that compute optimal or near-optimal trajectories while satisfying task-specific constraints and ensuring obstacle avoidance. However, existing methods struggle with slow convergence and suboptimal solutions, particularly in complex environments, limiting their real-world applicability. To address these limitations, this paper presents the Multi-Strategy Enhanced Crayfish Optimization Algorithm (MCOA), a novel approach integrating three key strategies: 1) Refractive Opposition Learning, enhancing population diversity and global exploration, 2) Stochastic Centroid-Guided Exploration, balancing global and local search to prevent premature convergence, and 3) Adaptive Competition-Based Selection, dynamically adjusting selection pressure for faster convergence and improved solution quality. Empirical evaluations underscore the remarkable planning speed and the amazing solution quality of MCOA in both 3D Unmanned Aerial Vehicle (UAV) and 2D mobile robot path planning. Against 11 baseline algorithms, MCOA achieved a 69.2% reduction in computational time and a 16.7% improvement in minimizing overall path cost in 3D UAV scenarios. Furthermore, in 2D path planning, MCOA outperformed baseline approaches by 44% on average, with an impressive 75.6% advantage in the largest 60*60 grid setting. These findings validate MCOA as a powerful tool for optimizing autonomous navigation in complex environments. The source code is available at: https://github.com/coedv-hub/MCOA.

arxiv情報

著者 Yifei Wang,Jacky Keung,Haohan Xu,Yuchen Cao,Zhenyu Mao
発行日 2025-03-04 15:17:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Multi-Strategy Enhanced COA for Path Planning in Autonomous Navigation はコメントを受け付けていません

UniGraspTransformer: Simplified Policy Distillation for Scalable Dexterous Robotic Grasping

要約

スケーラビリティとパフォーマンスを向上させながらトレーニングを簡素化する器用なロボット把握のためのユニバーサルトランスベースのネットワークであるUnigrasptransformerを紹介します。
複雑なマルチステップトレーニングパイプラインを必要とするUnidexGrasp ++などの以前の方法とは異なり、Unigrasptransformerは合理化されたプロセスに従います。最初に、専用のポリシーネットワークは、補強学習を使用して成功した把握軌跡を生成するために個々のオブジェクト向けにトレーニングされます。
次に、これらの軌跡は単一の普遍的なネットワークに蒸留されます。
私たちのアプローチにより、Unigrasptransformerは効果的にスケーリングでき、多様なポーズを使用して何千ものオブジェクトを処理するために最大12の自己触媒ブロックを組み込むことができます。
さらに、州ベースの設定とビジョンベースの設定で評価された理想化された入力と現実世界の両方の入力によく一般化されています。
特に、Unigrasptransformerは、さまざまな形状や方向のオブジェクトの幅広い範囲の把握ポーズを生成し、より多様な把握戦略をもたらします。
実験結果は、さまざまなオブジェクトカテゴリにわたって最先端のアート、ユニデクスグラス++にわたって大幅な改善を示し、視覚ベースの設定で、見られたカテゴリ内の3.5%、7.7%、および10.1%、見られたカテゴリ内のオブジェクト、および完全に目に見えないオブジェクトでそれぞれ3.5%、7.7%、および10.1%を達成します。
プロジェクトページ:https://dexhand.github.io/unigrasptransformer。

要約(オリジナル)

We introduce UniGraspTransformer, a universal Transformer-based network for dexterous robotic grasping that simplifies training while enhancing scalability and performance. Unlike prior methods such as UniDexGrasp++, which require complex, multi-step training pipelines, UniGraspTransformer follows a streamlined process: first, dedicated policy networks are trained for individual objects using reinforcement learning to generate successful grasp trajectories; then, these trajectories are distilled into a single, universal network. Our approach enables UniGraspTransformer to scale effectively, incorporating up to 12 self-attention blocks for handling thousands of objects with diverse poses. Additionally, it generalizes well to both idealized and real-world inputs, evaluated in state-based and vision-based settings. Notably, UniGraspTransformer generates a broader range of grasping poses for objects in various shapes and orientations, resulting in more diverse grasp strategies. Experimental results demonstrate significant improvements over state-of-the-art, UniDexGrasp++, across various object categories, achieving success rate gains of 3.5%, 7.7%, and 10.1% on seen objects, unseen objects within seen categories, and completely unseen objects, respectively, in the vision-based setting. Project page: https://dexhand.github.io/UniGraspTransformer.

arxiv情報

著者 Wenbo Wang,Fangyun Wei,Lei Zhou,Xi Chen,Lin Luo,Xiaohan Yi,Yizhong Zhang,Yaobo Liang,Chang Xu,Yan Lu,Jiaolong Yang,Baining Guo
発行日 2025-03-04 15:26:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | UniGraspTransformer: Simplified Policy Distillation for Scalable Dexterous Robotic Grasping はコメントを受け付けていません

Scalable Multi-Robot Task Allocation and Coordination under Signal Temporal Logic Specifications

要約

衝突回避やゴールリーチなどの単純な目的を備えたモーション計画は、最新のプランナーを使用して効率的に解決できます。
ただし、これらのプランナーの許可されたタスクの複雑さは限られています。
一方、信号時間論理(STL)は複雑な要件を指定できますが、STLベースのモーションプランニングおよび制御アルゴリズムは、特に複雑なダイナミクスを備えた大規模なマルチロボットシステムでスケーラビリティの問題に直面することがよくあります。
この論文では、2つの世界の最高を活用するアルゴリズムを提案します。
最初にシングルロボットモーションプランナーを使用して、各ロボットの代替参照パスのセットを効率的に生成します。
次に、調整要件がSTLを使用して指定されます。STLは、それらのパスに沿ったパスとロボットの進行の割り当てで定義されます。
混合整数線形プログラム(MILP)を使用して、STL仕様が満たされるように、タスクの割り当てとロボットの進行ターゲットを長期にわたって計算します。
最後に、ターゲットの進行状況を追跡するためにローカルコントローラーを使用します。
シミュレーションは、この方法で、複雑な制約とスケールを備えたタスクを大規模なマルチロボットチームと複雑なタスク割り当てシナリオに処理できることを示しています。

要約(オリジナル)

Motion planning with simple objectives, such as collision-avoidance and goal-reaching, can be solved efficiently using modern planners. However, the complexity of the allowed tasks for these planners is limited. On the other hand, signal temporal logic (STL) can specify complex requirements, but STL-based motion planning and control algorithms often face scalability issues, especially in large multi-robot systems with complex dynamics. In this paper, we propose an algorithm that leverages the best of the two worlds. We first use a single-robot motion planner to efficiently generate a set of alternative reference paths for each robot. Then coordination requirements are specified using STL, which is defined over the assignment of paths and robots’ progress along those paths. We use a Mixed Integer Linear Program (MILP) to compute task assignments and robot progress targets over time such that the STL specification is satisfied. Finally, a local controller is used to track the target progress. Simulations demonstrate that our method can handle tasks with complex constraints and scales to large multi-robot teams and intricate task allocation scenarios.

arxiv情報

著者 Wenliang Liu,Nathalie Majcherczyk,Federico Pecora
発行日 2025-03-04 15:33:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.FL, cs.RO, cs.SY, eess.SY | Scalable Multi-Robot Task Allocation and Coordination under Signal Temporal Logic Specifications はコメントを受け付けていません

ImpedanceGPT: VLM-driven Impedance Control of Swarm of Mini-drones for Intelligent Navigation in Dynamic Environment

要約

Swarm Roboticsは、動的で予測不可能な環境で自律的な操作を可能にする上で重要な役割を果たします。
しかし、大きな課題は、動的な生きた(例えば、人間)と動的な無生物(例えば、生きていないオブジェクト)の障害の両方で満たされた環境での安全で効率的なナビゲーションを確保することを保証しています。
このホワイトペーパーでは、視覚言語モデル(VLM)と検索生成(RAG)を組み合わせて、複雑な環境でのミニドローンスワームの適応ナビゲーションのリアルタイム推論を可能にする新しいシステムであるImpedanceGPTを提案します。
ImpedanceGptの重要な革新は、VLMとRAGの統合にあり、ドローンに周囲の意味的理解が向上します。
これにより、システムは障害物の種類と環境条件に応じてインピーダンス制御パラメーターを動的に調整できます。
私たちのアプローチは、安全で正確なナビゲーションを保証するだけでなく、群れのドローン間の調整を改善します。
実験的評価は、システムの有効性を示しています。
VLM-RAGフレームワークは、最適な照明の下で80%の障害物検出と検索精度を達成しました。
静的環境では、ドローンは1.4 m/sで動的な無生物障害をナビゲートしましたが、人間の周りの分離が増加して0.7 m/sに減速しました。
動的環境では、速度は1.0 m/sに近い硬い障害物に調整され、人間の動きを安全に避けるために高い偏向で0.6 m/sに減少します。

要約(オリジナル)

Swarm robotics plays a crucial role in enabling autonomous operations in dynamic and unpredictable environments. However, a major challenge remains ensuring safe and efficient navigation in environments filled with both dynamic alive (e.g., humans) and dynamic inanimate (e.g., non-living objects) obstacles. In this paper, we propose ImpedanceGPT, a novel system that combines a Vision-Language Model (VLM) with retrieval-augmented generation (RAG) to enable real-time reasoning for adaptive navigation of mini-drone swarms in complex environments. The key innovation of ImpedanceGPT lies in the integration of VLM and RAG, which provides the drones with enhanced semantic understanding of their surroundings. This enables the system to dynamically adjust impedance control parameters in response to obstacle types and environmental conditions. Our approach not only ensures safe and precise navigation but also improves coordination between drones in the swarm. Experimental evaluations demonstrate the effectiveness of the system. The VLM-RAG framework achieved an obstacle detection and retrieval accuracy of 80 % under optimal lighting. In static environments, drones navigated dynamic inanimate obstacles at 1.4 m/s but slowed to 0.7 m/s with increased separation around humans. In dynamic environments, speed adjusted to 1.0 m/s near hard obstacles, while reducing to 0.6 m/s with higher deflection to safely avoid moving humans.

arxiv情報

著者 Faryal Batool,Malaika Zafar,Yasheerah Yaqoot,Roohan Ahmed Khan,Muhammad Haris Khan,Aleksey Fedoseev,Dzmitry Tsetserukou
発行日 2025-03-04 15:41:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | ImpedanceGPT: VLM-driven Impedance Control of Swarm of Mini-drones for Intelligent Navigation in Dynamic Environment はコメントを受け付けていません

Variable-Friction In-Hand Manipulation for Arbitrary Objects via Diffusion-Based Imitation Learning

要約

任意のオブジェクトの手元の操作(IHM)は、豊富で微妙な接触プロセスのために挑戦的です。
可変摩擦操作は、器用性への代替アプローチであり、以前は2つのシングルジョイントフィンガーしかない堅牢で汎用性の高い2D IHM機能を実証していました。
ただし、可変摩擦手のハードコード化された操作方法は、通常のポリゴンオブジェクトと限られたターゲットポーズに制限されており、各オブジェクトに合わせてポリシーを調整する必要があります。
このペーパーでは、エンドツーエンドの学習ベースの操作方法を提案して、実際のハードウェアでのターゲットポーズの任意のオブジェクト操作を実現し、エンジニアリングの取り組みとデータ収集を最小限に抑えます。
この方法は、シミュレーションからの共同トレーニングと少量の実際のデータを備えた拡散ポリシーベースの模倣学習方法を特徴としています。
提案されたフレームワークにより、ポリゴンや非ポリゴンを含む任意のオブジェクトは、A100 GPUでのトレーニングから2時間以内に任意の目標ポーズに到達し、1時間の実際のデータ収集に到達するために正確に操作できます。
精度は以前のカスタマイズされたオブジェクト固有のポリシーよりも高く、平均ポーズエラーは2.676 mmおよび1.902度で、平均成功率は71.3%です。

要約(オリジナル)

Dexterous in-hand manipulation (IHM) for arbitrary objects is challenging due to the rich and subtle contact process. Variable-friction manipulation is an alternative approach to dexterity, previously demonstrating robust and versatile 2D IHM capabilities with only two single-joint fingers. However, the hard-coded manipulation methods for variable friction hands are restricted to regular polygon objects and limited target poses, as well as requiring the policy to be tailored for each object. This paper proposes an end-to-end learning-based manipulation method to achieve arbitrary object manipulation for any target pose on real hardware, with minimal engineering efforts and data collection. The method features a diffusion policy-based imitation learning method with co-training from simulation and a small amount of real-world data. With the proposed framework, arbitrary objects including polygons and non-polygons can be precisely manipulated to reach arbitrary goal poses within 2 hours of training on an A100 GPU and only 1 hour of real-world data collection. The precision is higher than previous customized object-specific policies, achieving an average success rate of 71.3% with average pose error being 2.676 mm and 1.902 degrees.

arxiv情報

著者 Qiyang Yan,Zihan Ding,Xin Zhou,Adam J. Spiers
発行日 2025-03-04 15:57:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Variable-Friction In-Hand Manipulation for Arbitrary Objects via Diffusion-Based Imitation Learning はコメントを受け付けていません

Bridging VLM and KMP: Enabling Fine-grained robotic manipulation via Semantic Keypoints Representation

要約

Early Movement Primitive(MP)テクニックから最新の視覚言語モデル(VLM)まで、自律操作はロボット工学の極めて重要なトピックであり続けています。
VLMベースの方法は、2つの極端なものとして、ゼロショットと適応操作を強調していますが、きめ細かい計画に苦労しています。
対照的に、MPベースのアプローチは正確な軌跡の一般化に優れていますが、意思決定能力がありません。
2つのフレームワークの強みを活用するために、VL-MPを提案します。これは、低耐性の意思決定情報転送ブリッジを介してVLMをカーネル化された動きのプリミティブ(KMP)と統合し、あいまいな状況下で細粒のロボット操作を可能にします。
VL-MPの1つの鍵は、セマンティックキーポイントの制約を介したタスク決定パラメーターの正確な表現であり、より正確なタスクパラメーター生成につながります。
さらに、VL-MPをサポートするためにローカル軌道機能が強化されたKMPを導入し、それにより複雑な軌跡の形状保存を達成します。
複雑な現実世界環境で実施された広範な実験は、適応型および細かい操作に対するVL-MPの有効性を検証します。

要約(オリジナル)

From early Movement Primitive (MP) techniques to modern Vision-Language Models (VLMs), autonomous manipulation has remained a pivotal topic in robotics. As two extremes, VLM-based methods emphasize zero-shot and adaptive manipulation but struggle with fine-grained planning. In contrast, MP-based approaches excel in precise trajectory generalization but lack decision-making ability. To leverage the strengths of the two frameworks, we propose VL-MP, which integrates VLM with Kernelized Movement Primitives (KMP) via a low-distortion decision information transfer bridge, enabling fine-grained robotic manipulation under ambiguous situations. One key of VL-MP is the accurate representation of task decision parameters through semantic keypoints constraints, leading to more precise task parameter generation. Additionally, we introduce a local trajectory feature-enhanced KMP to support VL-MP, thereby achieving shape preservation for complex trajectories. Extensive experiments conducted in complex real-world environments validate the effectiveness of VL-MP for adaptive and fine-grained manipulation.

arxiv情報

著者 Junjie Zhu,Huayu Liu,Jin Wang,Bangrong Wen,Kaixiang Huang,Xiaofei Li,Haiyun Zhan,Guodong Lu
発行日 2025-03-04 16:14:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Bridging VLM and KMP: Enabling Fine-grained robotic manipulation via Semantic Keypoints Representation はコメントを受け付けていません

Digital Model-Driven Genetic Algorithm for Optimizing Layout and Task Allocation in Human-Robot Collaborative Assemblies

要約

このペーパーでは、物理的な展開前の人間のロボット共同作業セルの最適化について説明します。
ほとんどの場合、このような環境はシステムインテグレーターの経験に基づいて設計されており、多くの場合、最適下のソリューションにつながります。
ロボットセルの正確なシミュレータは、人間の存在も説明しており、今日利用可能であり、展開前に使用できます。
ワークセルのデジタルモデルが遺伝的アルゴリズムに基づいて更新される反復最適化スキームを提案します。
方法論は、レイアウトの最適化とタスク割り当てに焦点を当て、遺伝的アルゴリズムによって処理される設計変数で両方の問題を同時にエンコードし、タスクのスケジューリング問題は上位レベルの結果に依存します。
最終的なソリューションは、フィットネス関数の矛盾する目的のバランスをとり、ベースラインに対する目標の影響を示すために検証されます。これは、人間の判断に基づいて選択された初期選択を表します。

要約(オリジナル)

This paper addresses the optimization of human-robot collaborative work-cells before their physical deployment. Most of the times, such environments are designed based on the experience of the system integrators, often leading to sub-optimal solutions. Accurate simulators of the robotic cell, accounting for the presence of the human as well, are available today and can be used in the pre-deployment. We propose an iterative optimization scheme where a digital model of the work-cell is updated based on a genetic algorithm. The methodology focuses on the layout optimization and task allocation, encoding both the problems simultaneously in the design variables handled by the genetic algorithm, while the task scheduling problem depends on the result of the upper-level one. The final solution balances conflicting objectives in the fitness function and is validated to show the impact of the objectives with respect to a baseline, which represents possible initial choices selected based on the human judgment.

arxiv情報

著者 Christian Cella,Matteo Bruce Robin,Marco Faroni,Andrea Maria Zanchettin,Paolo Rocco
発行日 2025-03-04 16:44:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Digital Model-Driven Genetic Algorithm for Optimizing Layout and Task Allocation in Human-Robot Collaborative Assemblies はコメントを受け付けていません