Survival of the fastest — algorithm-guided evolution of light-powered underwater microrobots

要約

複数のパラメーターに応じて、ソフトロボットは数値的にモデル化するのが難しいさまざまな移動モードを示すことができます。
その結果、複数のエアロおよび流体力学的プロセスが動きに影響を与える場合、特に低いレイノルズ数を特徴とする小規模システムでは、パフォーマンスの向上は複雑です。
この作業では、実験結果(測定された水泳速度)を2つの進化アルゴリズムのフィットネス関数として適用することにより、光力発電ミリメートルの水中スイマーの移動を最適化します:粒子群最適化と遺伝的アルゴリズム。
さまざまな特性(表現型)を備えたこれらの柔らかく駆動型のロボットを迅速に製造できるため、多くの競合するロボットを使用して連続した世代の水泳速度を改善するための最適化実験のための優れたプラットフォームを提供します。
興味深いことに、自然の進化と同様に、予期しない遺伝子の組み合わせは、速度の8倍の増加や自己展開の水中運動モードの発見など、驚くほど良い結果をもたらしました。

要約(オリジナル)

Depending on multiple parameters, soft robots can exhibit different modes of locomotion that are difficult to model numerically. As a result, improving their performance is complex, especially in small-scale systems characterized by low Reynolds numbers, when multiple aero- and hydrodynamical processes influence their movement. In this work, we optimize light-powered millimetre-scale underwater swimmer locomotion by applying experimental results – measured swimming speed – as the fitness function in two evolutionary algorithms: particle swarm optimization and genetic algorithm. As these soft, light-powered robots with different characteristics (phenotypes) can be fabricated quickly, they provide a great platform for optimisation experiments, using many competing robots to improve swimming speed over consecutive generations. Interestingly, just like in natural evolution, unexpected gene combinations led to surprisingly good results, including eight-fold increase in speed or the discovery of a self-oscillating underwater locomotion mode.

arxiv情報

著者 Mikołaj Rogóż,Zofia Dziekan,Piotr Wasylczyk
発行日 2025-05-28 22:39:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.mtrl-sci, cs.RO | Survival of the fastest — algorithm-guided evolution of light-powered underwater microrobots はコメントを受け付けていません

CoordField: Coordination Field for Agentic UAV Task Allocation In Low-altitude Urban Scenarios

要約

都市環境で複雑なタスクを実行するために不均一な無人航空機(UAV)の群れに対する需要の増加に伴い、システム設計は現在、効率的なセマンティック理解、柔軟なタスク計画、および環境条件の進化と継続的に変化するタスク要件に応じて調整戦略を動的に調整する能力など、主要な課題に直面しています。
既存のアプローチの制限に対処するために、このペーパーでは、複雑な都市シナリオで不均一なUAV群を調整するための調整フィールドエージェントシステムを提案しています。
このシステムでは、大規模な言語モデル(LLMS)は、高レベルの人間の指示を解釈し、パトロールやターゲット追跡などのUAVスウォームの実行可能コマンドに変換する責任があります。
その後、UAVのモーションとタスクの選択をガイドし、緊急タスクの分散化された適応割り当てを可能にするための調整フィールドメカニズムが提案されます。
2Dシミュレーションスペースの異なるモデルで合計50ラウンドの比較テストが行​​われ、パフォーマンスを評価しました。
実験結果は、提案されたシステムが、タスクカバレッジ、応答時間、および動的変化に対する適応性の点で優れたパフォーマンスを達成することを示しています。

要約(オリジナル)

With the increasing demand for heterogeneous Unmanned Aerial Vehicle (UAV) swarms to perform complex tasks in urban environments, system design now faces major challenges, including efficient semantic understanding, flexible task planning, and the ability to dynamically adjust coordination strategies in response to evolving environmental conditions and continuously changing task requirements. To address the limitations of existing approaches, this paper proposes coordination field agentic system for coordinating heterogeneous UAV swarms in complex urban scenarios. In this system, large language models (LLMs) is responsible for interpreting high-level human instructions and converting them into executable commands for the UAV swarms, such as patrol and target tracking. Subsequently, a Coordination field mechanism is proposed to guide UAV motion and task selection, enabling decentralized and adaptive allocation of emergent tasks. A total of 50 rounds of comparative testing were conducted across different models in a 2D simulation space to evaluate their performance. Experimental results demonstrate that the proposed system achieves superior performance in terms of task coverage, response time, and adaptability to dynamic changes.

arxiv情報

著者 Tengchao Zhang,Yonglin Tian,Fei Lin,Jun Huang,Patrik P. Süli,Rui Qin,Fei-Yue Wang
発行日 2025-05-28 23:31:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | CoordField: Coordination Field for Agentic UAV Task Allocation In Low-altitude Urban Scenarios はコメントを受け付けていません

Learning coordinated badminton skills for legged manipulators

要約

下肢と上肢の間の動きを調整し、手足の制御を認識と調整することは、特に動的環境でのロボット工学における大きな課題です。
この目的のために、脚のあるモバイルマニピュレーターがバドミントンを再生できるようにするためのアプローチを紹介します。これは、知覚、移動、腕の揺れの正確な調整を必要とするタスクです。
私たちは、効果的なシャトルコックの追跡と打撃を達成するために、すべての自由度を含む全身視覚運動スキルのための統一された強化学習ベースの制御ポリシーを提案します。
このポリシーは、実際のカメラデータを利用する知覚ノイズモデルによって通知され、シミュレーションと展開の間に一貫した知覚エラーレベルが可能になり、学習したアクティブな知覚行動を促進します。
私たちの方法には、シャトルコック予測モデル、堅牢なモーション制御のための制約された強化学習、展開の準備を強化するための統合システム識別技術が含まれます。
さまざまな環境での広範な実験結果は、シャットルコックの軌跡を予測し、サービスエリアを効果的にナビゲートし、人間のプレイヤーに対する正確なストライクを実行するロボットの機能を検証し、複雑で動的なスポーツシナリオで足のあるモバイルマニピュレーターを使用する可能性を実証します。

要約(オリジナル)

Coordinating the motion between lower and upper limbs and aligning limb control with perception are substantial challenges in robotics, particularly in dynamic environments. To this end, we introduce an approach for enabling legged mobile manipulators to play badminton, a task that requires precise coordination of perception, locomotion, and arm swinging. We propose a unified reinforcement learning-based control policy for whole-body visuomotor skills involving all degrees of freedom to achieve effective shuttlecock tracking and striking. This policy is informed by a perception noise model that utilizes real-world camera data, allowing for consistent perception error levels between simulation and deployment and encouraging learned active perception behaviors. Our method includes a shuttlecock prediction model, constrained reinforcement learning for robust motion control, and integrated system identification techniques to enhance deployment readiness. Extensive experimental results in a variety of environments validate the robot’s capability to predict shuttlecock trajectories, navigate the service area effectively, and execute precise strikes against human players, demonstrating the feasibility of using legged mobile manipulators in complex and dynamic sports scenarios.

arxiv情報

著者 Yuntao Ma,Andrei Cramariuc,Farbod Farshidian,Marco Hutter
発行日 2025-05-29 01:26:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T40, 93C85, cs.LG, cs.RO, I.2.6 | Learning coordinated badminton skills for legged manipulators はコメントを受け付けていません

Structural Abstraction and Selective Refinement for Formal Verification

要約

ロボットアプリケーションの安全検証は、ロボットが通常動作する環境の複雑さのために非常に困難です。モデルチェックによる正式な検証は保証を提供しますが、環境の複雑なモデルには長すぎるか失敗することさえあります。
通常のソリューションアプローチは、抽象化であり、より正確には行動的な抽象化です。
私たちの新しいアプローチでは、代わりに構造的抽象化を導入します。これは、ロボット環境のボクセル表現のコンテキストで調査しました。
この種の抽象化は、抽象的なボクセルにつながります。
また、ロボットアプリケーションの既存の方法論に基づいた完全で自動化された検証ワークフローを提案し、カウンターエクサムガイド付き抽象化洗練(CEGAR)の背後にある重要なアイデアに触発され、最初の抽象化を実行し、モデルの走行と絡み合ったカウンターエクサムに基づいて洗練を連続的に導入します。
したがって、私たちのアプローチは、構造抽象化の選択的改良を使用して、モデルチェックのランタイム効率を改善します。
私たちのアプローチの完全に自動化された実装は、数分でかなり高い(最大)解像度を備えた現実的なシナリオでカウンターエクササイズが見つかったため、その実行可能性を示しました。

要約(オリジナル)

Safety verification of robot applications is extremely challenging due to the complexity of the environment that a robot typically operates in. Formal verification with model-checking provides guarantees but it may often take too long or even fail for complex models of the environment. A usual solution approach is abstraction, more precisely behavioral abstraction. Our new approach introduces structural abstraction instead, which we investigated in the context of voxel representation of the robot environment. This kind of abstraction leads to abstract voxels. We also propose a complete and automated verification workflow, which is based on an already existing methodology for robot applications, and inspired by the key ideas behind counterexample-guided abstraction refinement (CEGAR) – performing an initial abstraction and successively introducing refinements based on counterexamples, intertwined with model-checker runs. Hence, our approach uses selective refinement of structural abstractions to improve the runtime efficiency of model-checking. A fully-automated implementation of our approach showed its feasibility, since counterexamples have been found for a realistic scenario with a fairly high (maximal) resolution in a few minutes, while direct model-checker runs led to a crash after a couple of days.

arxiv情報

著者 Christoph Luckeneder,Ralph Hoch,Hermann Kaindl
発行日 2025-05-29 01:44:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SE | Structural Abstraction and Selective Refinement for Formal Verification はコメントを受け付けていません

Stairway to Success: Zero-Shot Floor-Aware Object-Goal Navigation via LLM-Driven Coarse-to-Fine Exploration

要約

オブジェクトゴールナビゲーション(OGN)は、現実世界の複数床環境およびオープンボキャブラリーオブジェクトの説明の下で依然として挑戦的です。
HM3DやMP3Dなどの広く使用されているベンチマークのほとんどのエピソードには、複数床の建物が含まれており、多くのエピソードが明示的な床遷移を必要としています。
ただし、既存の方法は、多くの場合、単一階の設定または事前定義されたオブジェクトカテゴリに限定されます。
これらの制限に対処するために、2つの重要な課題に取り組みます。(1)効率的なクロスレベルの計画と(2)エージェントが事前の露出なしに新しいオブジェクトの説明を解釈する必要があるゼロショットオブジェクトゴールナビゲーション(ZS-ogn)。
Ascentを提案します。これは、階層的なセマンティックマッピング用の多階空間抽象モジュールと、新しいオブジェクトセマンティクスまたは機関車データに関する追加のトレーニングを必要とせずに、コンテキスト対応の探索用の大規模な言語モデル(LLMS)を活用する粗からファインのフロンティア推論モジュールを組み合わせたものです。
私たちの方法は、効率的なマルチフロアナビゲーションを有効にしながら、HM3DおよびMP3Dベンチマークで最先端のZS-GONGアプローチよりも優れています。
さらに、象限のロボットでの現実世界の展開を通じてその実用性を検証し、目に見えない床でオブジェクトの探索を成功させます。

要約(オリジナル)

Object-Goal Navigation (OGN) remains challenging in real-world, multi-floor environments and under open-vocabulary object descriptions. We observe that most episodes in widely used benchmarks such as HM3D and MP3D involve multi-floor buildings, with many requiring explicit floor transitions. However, existing methods are often limited to single-floor settings or predefined object categories. To address these limitations, we tackle two key challenges: (1) efficient cross-level planning and (2) zero-shot object-goal navigation (ZS-OGN), where agents must interpret novel object descriptions without prior exposure. We propose ASCENT, a framework that combines a Multi-Floor Spatial Abstraction module for hierarchical semantic mapping and a Coarse-to-Fine Frontier Reasoning module leveraging Large Language Models (LLMs) for context-aware exploration, without requiring additional training on new object semantics or locomotion data. Our method outperforms state-of-the-art ZS-OGN approaches on HM3D and MP3D benchmarks while enabling efficient multi-floor navigation. We further validate its practicality through real-world deployment on a quadruped robot, achieving successful object exploration across unseen floors.

arxiv情報

著者 Zeying Gong,Rong Li,Tianshuai Hu,Ronghe Qiu,Lingdong Kong,Lingfeng Zhang,Yiyi Ding,Leying Zhang,Junwei Liang
発行日 2025-05-29 03:00:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Stairway to Success: Zero-Shot Floor-Aware Object-Goal Navigation via LLM-Driven Coarse-to-Fine Exploration はコメントを受け付けていません

Learning from Suboptimal Data in Continuous Control via Auto-Regressive Soft Q-Network

要約

継続的な制御のための強化学習(RL)には、多くの場合、大量のオンラインインタラクションデータが必要です。
価値ベースのRLメソッドは、比較的高いサンプル効率を提供することにより、この負担を軽減できます。
一部の研究では、オフラインのデモデータを「キックスタート」トレーニングに組み込み、継続的な制御で有望な結果を達成することにより、サンプル効率をさらに向上させます。
ただし、通常、アクションディメンションごとにQ機能を個別に計算し、相互依存関係を無視し、トレーニングプロセス中の非専門家のデモやオンラインで収集されたデータなど、最適でないデータから学習するときに最適なアクションを特定するのが難しくなります。
これらの問題に対処するために、Q値を粗から財政、自動回帰的な方法でモデル化する価値ベースのRLアルゴリズムである自動回帰ソフトQラーニング(ARSQ)を提案します。
まず、ARSQは連続アクション空間を粗から微細な階層内の離散空間に分解し、細粒の連続制御タスクのサンプル効率を高めます。
次に、各決定ステップ内の次元のアクションの利点を自動的に予測し、継続的な制御タスクでより効果的な意思決定を可能にします。
ARSQを2つの連続制御ベンチマーク、RLBenchとD4RLで評価し、デモデータをオンライントレーニングに統合します。
Expert以外のデモンストレーションを含むD4RLでは、ARSQはSOTA価値ベースのベースラインよりも平均$ 1.62 \ Times $のパフォーマンス改善を達成しています。
専門家のデモンストレーションを組み込んだRLBenchでは、ARSQはさまざまなベースラインを超えており、最適ではないオンラインで収集されたデータからの学習における有効性を示しています。
プロジェクトページはhttps://sites.google.com/view/ar-soft-qにあります

要約(オリジナル)

Reinforcement learning (RL) for continuous control often requires large amounts of online interaction data. Value-based RL methods can mitigate this burden by offering relatively high sample efficiency. Some studies further enhance sample efficiency by incorporating offline demonstration data to ‘kick-start’ training, achieving promising results in continuous control. However, they typically compute the Q-function independently for each action dimension, neglecting interdependencies and making it harder to identify optimal actions when learning from suboptimal data, such as non-expert demonstration and online-collected data during the training process. To address these issues, we propose Auto-Regressive Soft Q-learning (ARSQ), a value-based RL algorithm that models Q-values in a coarse-to-fine, auto-regressive manner. First, ARSQ decomposes the continuous action space into discrete spaces in a coarse-to-fine hierarchy, enhancing sample efficiency for fine-grained continuous control tasks. Next, it auto-regressively predicts dimensional action advantages within each decision step, enabling more effective decision-making in continuous control tasks. We evaluate ARSQ on two continuous control benchmarks, RLBench and D4RL, integrating demonstration data into online training. On D4RL, which includes non-expert demonstrations, ARSQ achieves an average $1.62\times$ performance improvement over SOTA value-based baseline. On RLBench, which incorporates expert demonstrations, ARSQ surpasses various baselines, demonstrating its effectiveness in learning from suboptimal online-collected data. Project page is at https://sites.google.com/view/ar-soft-q

arxiv情報

著者 Jijia Liu,Feng Gao,Qingmin Liao,Chao Yu,Yu Wang
発行日 2025-05-29 03:49:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Learning from Suboptimal Data in Continuous Control via Auto-Regressive Soft Q-Network はコメントを受け付けていません

M3Bench: Benchmarking Whole-body Motion Generation for Mobile Manipulation in 3D Scenes

要約

モバイル操作タスクにおける全身モーション生成のための新しいベンチマークであるM3Benchを提案します。
3Dシーンのコンテキストを考えると、M3Benchは、オブジェクト再配置の調整された全身運動軌跡を生成するために、その構成、環境制約、およびタスクの目的について推論するために具体化されたエージェントを必要とします。
M3Benchは、119の多様なシーンで30,000のオブジェクト再配置タスクを備えており、新しく開発されたM3Benchmakerによって生成された専門家のデモンストレーションを提供します。これは、基本的なシーンとロボット情報のみを使用して、高レベルのタスク命令から全身の動き軌跡を生成する自動データ生成ツールです。
私たちのベンチマークには、さまざまな次元にわたって一般化を評価するためのさまざまなタスクスプリットが含まれ、軌跡評価のために現実的な物理シミュレーションをレバレッジします。
広範な評価分析により、最先端のモデルは、環境およびタスク固有の制約を順守しながら、基本腕の動きの調整と闘い、このギャップを埋めるための新しいモデルの必要性を強調していることが明らかになりました。
M3BenchとM3BenchMakerをリリースすることにより、多様で現実世界の環境におけるより適応性があり、能力のあるモバイル操作に向けてロボット工学の研究を進めることを目指しています。

要約(オリジナル)

We propose M3Bench, a new benchmark for whole-body motion generation in mobile manipulation tasks. Given a 3D scene context, M3Bench requires an embodied agent to reason about its configuration, environmental constraints, and task objectives to generate coordinated whole-body motion trajectories for object rearrangement. M3Bench features 30,000 object rearrangement tasks across 119 diverse scenes, providing expert demonstrations generated by our newly developed M3BenchMaker, an automatic data generation tool that produces whole-body motion trajectories from high-level task instructions using only basic scene and robot information. Our benchmark includes various task splits to evaluate generalization across different dimensions and leverages realistic physics simulation for trajectory assessment. Extensive evaluation analysis reveals that state-of-the-art models struggle with coordinating base-arm motion while adhering to environmental and task-specific constraints, underscoring the need for new models to bridge this gap. By releasing M3Bench and M3BenchMaker we aim to advance robotics research toward more adaptive and capable mobile manipulation in diverse, real-world environments.

arxiv情報

著者 Zeyu Zhang,Sixu Yan,Muzhi Han,Zaijin Wang,Xinggang Wang,Song-Chun Zhu,Hangxin Liu
発行日 2025-05-29 04:19:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | M3Bench: Benchmarking Whole-body Motion Generation for Mobile Manipulation in 3D Scenes はコメントを受け付けていません

A Constructed Response: Designing and Choreographing Robot Arm Movements in Collaborative Dance Improvisation

要約

ダンサーはしばしば、即興と振り付け中に自分自身または互いに動きをプロトタイプすることがよくあります。
物理的に操作可能なテクノロジーが創造的なプロセスに導入されると、これらの相互作用はどのように変化しますか?
ダンサーが非ヒューマノイドの動きが可能な楽器を使用しながら動きを設計および即興する方法を理解するために、私たちはワークショップでダンサーを1つの人間から1つのロボット、3つの人間から1つのロボットの設定でロボットアームと共同作成するように協力しました。
ダンサーは、1対1のシナリオでより多くの流体の動きを生み出し、共同ダンサーとしてロボットとのより強いつながりと存在感を経験することがわかりました。
3対1のシナリオでは、ダンサーは人間のダンサーとロボットの間で注意を分けて、スペースの使用とより多くのストップアンドゴーの動きの増加をもたらし、ロボットをステージの背景の一部として認識しました。
この作品は、テクノロジーが物理的な楽器に協力する新しい方法に適応し、非ヒューマノイドエージェントとの芸術的コラボレーションをサポートするデザインの洞察に貢献する動きのアーティストの創造性を促進する方法を強調しています。

要約(オリジナル)

Dancers often prototype movements themselves or with each other during improvisation and choreography. How are these interactions altered when physically manipulable technologies are introduced into the creative process? To understand how dancers design and improvise movements while working with instruments capable of non-humanoid movements, we engaged dancers in workshops to co-create movements with a robot arm in one-human-to-one-robot and three-human-to-one-robot settings. We found that dancers produced more fluid movements in one-to-one scenarios, experiencing a stronger sense of connection and presence with the robot as a co-dancer. In three-to-one scenarios, the dancers divided their attention between the human dancers and the robot, resulting in increased perceived use of space and more stop-and-go movements, perceiving the robot as part of the stage background. This work highlights how technologies can drive creativity in movement artists adapting to new ways of working with physical instruments, contributing design insights supporting artistic collaborations with non-humanoid agents.

arxiv情報

著者 Xiaoyu Chang,Fan Zhang,Kexue Fu,Carla Diana,Wendy Ju,Ray LC
発行日 2025-05-29 04:51:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | A Constructed Response: Designing and Choreographing Robot Arm Movements in Collaborative Dance Improvisation はコメントを受け付けていません

Redundancy Parameterization of the ABB YuMi Robot Arm

要約

Abb Yumiは、複雑で冗長な運動学的構造を備えた7-Dof Collaborative Robot Armです。
ユミのパス計画は、特に共同制限が考慮されているため、挑戦的です。
冗長な自由度は、ABBによってアームアングルと呼ばれる肩省エルボ​​ライスト(SEW)角度によってパラメーター化されますが、正確な定義はRobotStudioシミュレーターの外側のパス計画で知られている必要があります。
ユミに使用されるSEW角の最初の完全かつ検証された定義を提供します。
これは、4番目の関節軸の方向として選択された肩甲骨方向を備えた従来の縫い角度の定式化に従います。
私たちの定義はまた、肩の位置を指定し、参照ベクトルの選択肢と互換性があります。
SEW角を定義する以前の試みは文献に存在しますが、それは不完全であり、RobotStudioで観察された行動から逸脱しています。
私たちの定式化は一般的なSEW角のフレームワーク内に適合するため、すべてのアルゴリズム特異性のSEW角ヤコビアンおよび完全な数値条件の式も取得します。
最後に、2D検索を使用してすべてのIKソリューションを見つけるために、サブ問題分解に基づいて逆運動学(IK)ソルバーであるIK-GEOを使用して実証します。
コードの例は、公開可能なリポジトリで入手できます。

要約(オリジナル)

The ABB YuMi is a 7-DOF collaborative robot arm with a complex, redundant kinematic structure. Path planning for the YuMi is challenging, especially with joint limits considered. The redundant degree of freedom is parameterized by the Shoulder-Elbow-Wrist (SEW) angle, called the arm angle by ABB, but the exact definition must be known for path planning outside the RobotStudio simulator. We provide the first complete and validated definition of the SEW angle used for the YuMi. It follows the conventional SEW angle formulation with the shoulder-elbow direction chosen to be the direction of the fourth joint axis. Our definition also specifies the shoulder location, making it compatible with any choice of reference vector. A previous attempt to define the SEW angle exists in the literature, but it is incomplete and deviates from the behavior observed in RobotStudio. Because our formulation fits within the general SEW angle framework, we also obtain the expression for the SEW angle Jacobian and complete numerical conditions for all algorithmic singularities. Finally, we demonstrate using IK-Geo, our inverse kinematics (IK) solver based on subproblem decomposition, to find all IK solutions using 2D search. Code examples are available in a publicly accessible repository.

arxiv情報

著者 Alexander J. Elias,John T. Wen
発行日 2025-05-29 05:26:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Redundancy Parameterization of the ABB YuMi Robot Arm はコメントを受け付けていません

System Identification for Virtual Sensor-Based Model Predictive Control: Application to a 2-DoF Direct-Drive Robotic Arm

要約

非線形モデル予測制御(NMPC)は、複雑な非線形システムを制御するための強力なアプローチを提供しますが、2つの重要な課題に直面しています。
まず、非線形ダイナミクスの正確なモデリングは依然として困難です。
第二に、制御目標に直接関連する変数は、操作中に直接測定できないことがよくあります。
高コストのセンサーはモデル開発中にこれらの変数を取得できますが、実際の展開での使用は通常実行不可能です。
これらの制限を克服するために、モデリングフェーズ中に一時的な高コストセンサーを活用してNMPC実装の仮想センサーを作成する予測仮想センサー識別(PVSID)フレームワークを提案します。
複雑なジョイント相互作用を備えた2度(2-DOF)ダイレクトドライブロボットアームでPVSIDを検証し、モデリング中にモーションキャプチャを介して先端位置をキャプチャし、NMPCの慣性測定ユニット(IMU)を利用します。
実験結果は、識別された仮想センサーを使用したNMPCが、動作中にモーションキャプチャシステムを必要とせずに正確なチップ軌道追跡を実現することを示しています。
PVSIDは、主要な変数の測定がコストまたは運用上の制限によって制約される非線形システムに最適な制御を実装するための実用的なソリューションを提供します。

要約(オリジナル)

Nonlinear Model Predictive Control (NMPC) offers a powerful approach for controlling complex nonlinear systems, yet faces two key challenges. First, accurately modeling nonlinear dynamics remains difficult. Second, variables directly related to control objectives often cannot be directly measured during operation. Although high-cost sensors can acquire these variables during model development, their use in practical deployment is typically infeasible. To overcome these limitations, we propose a Predictive Virtual Sensor Identification (PVSID) framework that leverages temporary high-cost sensors during the modeling phase to create virtual sensors for NMPC implementation. We validate PVSID on a Two-Degree-of-Freedom (2-DoF) direct-drive robotic arm with complex joint interactions, capturing tip position via motion capture during modeling and utilize an Inertial Measurement Unit (IMU) in NMPC. Experimental results show our NMPC with identified virtual sensors achieves precise tip trajectory tracking without requiring the motion capture system during operation. PVSID offers a practical solution for implementing optimal control in nonlinear systems where the measurement of key variables is constrained by cost or operational limitations.

arxiv情報

著者 Kosei Tsuji,Ichiro Maruta,Kenji Fujimoto,Tomoyuki Maeda,Yoshihisa Tamase,Tsukasa Shinohara
発行日 2025-05-29 06:25:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | System Identification for Virtual Sensor-Based Model Predictive Control: Application to a 2-DoF Direct-Drive Robotic Arm はコメントを受け付けていません