Force-Driven Validation for Collaborative Robotics in Automated Avionics Testing

要約

Artoは、共同ロボット(コボット)と人工知能(AI)を組み合わせて、民間および軍事航空機の認証のための機能的テスト手順を自動化するプロジェクトです。
このホワイトペーパーでは、ディープラーニング(DL)および説明可能なAI(XAI)アプローチを提案し、Artoに相互作用分析機能を装備して、コックピットコンポーネントの操作を検証および検証します。
これらの相互作用中、力、トルク、エンドエフェクターのポーズが記録され、低性能コントローラーと埋め込み力トルクセンサー(FTS)によって引き起こされる障害をフィルタリングするために前処理されます。
畳み込みニューラルネットワーク(CNNS)は、失敗の原因を特定して報告すると同時に、コボットアクションを成功または失敗として分類します。
解釈可能性を向上させるために、視覚的な説明のためのXAIテクニックであるGrad Camが統合され、モデルの意思決定プロセスに関する洞察を提供します。
このアプローチは、自動化されたテストシステムの信頼性と信頼性を高め、テスト中に発生する可能性のあるエラーの診断と修正を促進します。

要約(オリジナル)

ARTO is a project combining collaborative robots (cobots) and Artificial Intelligence (AI) to automate functional test procedures for civilian and military aircraft certification. This paper proposes a Deep Learning (DL) and eXplainable AI (XAI) approach, equipping ARTO with interaction analysis capabilities to verify and validate the operations on cockpit components. During these interactions, forces, torques, and end effector poses are recorded and preprocessed to filter disturbances caused by low performance force controllers and embedded Force Torque Sensors (FTS). Convolutional Neural Networks (CNNs) then classify the cobot actions as Success or Fail, while also identifying and reporting the causes of failure. To improve interpretability, Grad CAM, an XAI technique for visual explanations, is integrated to provide insights into the models decision making process. This approach enhances the reliability and trustworthiness of the automated testing system, facilitating the diagnosis and rectification of errors that may arise during testing.

arxiv情報

著者 Pietro Dardano,Paolo Rocco,David Frisini
発行日 2025-05-15 12:32:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Quad-LCD: Layered Control Decomposition Enables Actuator-Feasible Quadrotor Trajectory Planning

要約

この作業では、モーター飽和制約を備えた四肢装置システムのデータ駆動型軌道生成に関する以前の作業からの貢献を専門としています。
モーターが四角体システムで飽和すると、クラッシュにつながる車両の「制御されていないドリフト」があります。
飽和に取り組むために、コントロール分解を適用し、低、中、高コストの参照軌跡で構成されるシミュレーションデータから追跡ペナルティを学びます。
私たちのアプローチは、シミュレーションの積極的な操作のベースラインと比較して、クラッシュ率を約49ドル\%$減らします。
CrazyFlieハードウェアプラットフォームでは、フライトの成功につながる実験を通じて実現可能性を示しています。
データ駆動型の方法に対する関心が高まっていることに動機付けられ、四肢装置計画への関心が高まって、ハードウェアプラットフォームの使いやすい抽象化を備えたオープンソースの軽量コードを提供します。

要約(オリジナル)

In this work, we specialize contributions from prior work on data-driven trajectory generation for a quadrotor system with motor saturation constraints. When motors saturate in quadrotor systems, there is an “uncontrolled drift’ of the vehicle that results in a crash. To tackle saturation, we apply a control decomposition and learn a tracking penalty from simulation data consisting of low, medium and high-cost reference trajectories. Our approach reduces crash rates by around $49\%$ compared to baselines on aggressive maneuvers in simulation. On the Crazyflie hardware platform, we demonstrate feasibility through experiments that lead to successful flights. Motivated by the growing interest in data-driven methods to quadrotor planning, we provide open-source lightweight code with an easy-to-use abstraction of hardware platforms.

arxiv情報

著者 Anusha Srikanthan,Hanli Zhang,Spencer Folk,Vijay Kumar,Nikolai Matni
発行日 2025-05-15 12:37:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Context-aware collaborative pushing of heavy objects using skeleton-based intention prediction

要約

物理的な人間とロボットの相互作用では、フォースフィードバックは、人間の意図をロボットに伝えるための最も一般的なセンシングモダリティでした。
人間がロボットを指示できるようにするために、アドミタンス制御で広く使用されています。
ただし、操作されたオブジェクトには必ずしも力センサーが装備されていないため、直接力フィードバックが利用できないシナリオでは使用できません。
この作業では、そのようなシナリオの1つを研究します。摩擦面での重い物体のプッシュと引っ張り、産業環境で一般的なタスクです。
人間がそれをするとき、彼らは口頭および非言語的な手がかりを通してコミュニケーションを取り、そこで体がポーズをとり、動きはしばしば言葉以上のものを伝えます。
指示されたグラフニューラルネットワークを使用して、非言語的協力的な物理的操作の人間の動きの意図を予測するために、時空間の人間の姿勢データを分析するための新しいコンテキスト対応アプローチを提案します。
私たちの実験は、ロボットの支援が人間の努力を大幅に減らし、タスクの効率を向上させることを示しています。
結果は、強制センシングの代わりに、またはロボットの意思決定と制御効率を向上させる、またはそれと一緒に、または代替として姿勢ベースのコンテキスト認識を組み込むことを示しています。

要約(オリジナル)

In physical human-robot interaction, force feedback has been the most common sensing modality to convey the human intention to the robot. It is widely used in admittance control to allow the human to direct the robot. However, it cannot be used in scenarios where direct force feedback is not available since manipulated objects are not always equipped with a force sensor. In this work, we study one such scenario: the collaborative pushing and pulling of heavy objects on frictional surfaces, a prevalent task in industrial settings. When humans do it, they communicate through verbal and non-verbal cues, where body poses, and movements often convey more than words. We propose a novel context-aware approach using Directed Graph Neural Networks to analyze spatio-temporal human posture data to predict human motion intention for non-verbal collaborative physical manipulation. Our experiments demonstrate that robot assistance significantly reduces human effort and improves task efficiency. The results indicate that incorporating posture-based context recognition, either together with or as an alternative to force sensing, enhances robot decision-making and control efficiency.

arxiv情報

著者 Gokhan Solak,Gustavo J. G. Lahr,Idil Ozdamar,Arash Ajoudani
発行日 2025-05-15 12:53:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

SRT-H: A Hierarchical Framework for Autonomous Surgery via Language Conditioned Imitation Learning

要約

自律的なロボット手術に関する研究は、主に制御された環境での単純なタスクの自動化に焦点を当てています。
ただし、実際の外科的応用には、長時間の時間スケールにわたって器用な操作が必要でありながら、ヒト組織の多様な変動全体の一般化を要求します。
これらの課題は、既存のロジックベースまたは従来のエンドツーエンドの学習戦略を使用して対処することは依然として困難です。
このギャップを埋めるために、器用で長老の外科用タスクの階層的なフレームワークを提案します。
私たちの方法は、タスク計画のための高レベルのポリシーと、手術ロボットのタスク空間制御を生成するための低レベルのポリシーを採用しています。
高レベルのプランナーは、言語を使用したタスクを計画し、ロボットを粗いレベルで導くタスク固有または是正命令を作成します。
計画のモダリティとして言語を活用すると、直感的で一般化可能なインターフェイスが提供され、経験豊富な外科医が処置中にどのように電車に指示するかを反映しています。
複雑な低侵襲手術、胆嚢摘出術、および主要な設計の選択肢を評価するためのアブレーション研究を実施した、ex-vivo実験におけるフレームワークを検証します。
私たちのアプローチは、n = 8の異なる元生ビボ胆嚢にわたって100%の成功率を達成し、人間の介入なしで完全に自律的に動作します。
階層的アプローチは、現実的な外科的応用の非常に動的な環境で避けられない最適でない状態から回復するポリシーの能力を大幅に改善します。
この研究は、ステップレベルの自律性の最初の実証を表しており、臨床研究のための自律外科システムに対する重要なマイルストーンをマークしています。
外科的ロボット工学の一般化可能な自律性を進めることにより、私たちのアプローチは、現実の展開に近い分野をもたらします。

要約(オリジナル)

Research on autonomous robotic surgery has largely focused on simple task automation in controlled environments. However, real-world surgical applications require dexterous manipulation over extended time scales while demanding generalization across diverse variations in human tissue. These challenges remain difficult to address using existing logic-based or conventional end-to-end learning strategies. To bridge this gap, we propose a hierarchical framework for dexterous, long-horizon surgical tasks. Our method employs a high-level policy for task planning and a low-level policy for generating task-space controls for the surgical robot. The high-level planner plans tasks using language, producing task-specific or corrective instructions that guide the robot at a coarse level. Leveraging language as a planning modality offers an intuitive and generalizable interface, mirroring how experienced surgeons instruct traineers during procedures. We validate our framework in ex-vivo experiments on a complex minimally invasive procedure, cholecystectomy, and conduct ablative studies to assess key design choices. Our approach achieves a 100% success rate across n=8 different ex-vivo gallbladders, operating fully autonomously without human intervention. The hierarchical approach greatly improves the policy’s ability to recover from suboptimal states that are inevitable in the highly dynamic environment of realistic surgical applications. This work represents the first demonstration of step-level autonomy, marking a critical milestone toward autonomous surgical systems for clinical studies. By advancing generalizable autonomy in surgical robotics, our approach brings the field closer to real-world deployment.

arxiv情報

著者 Ji Woong Kim,Juo-Tung Chen,Pascal Hansen,Lucy X. Shi,Antony Goldenberg,Samuel Schmidgall,Paul Maria Scheikl,Anton Deguet,Brandon M. White,De Ru Tsai,Richard Cha,Jeffrey Jopling,Chelsea Finn,Axel Krieger
発行日 2025-05-15 13:04:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

pc-dbCBS: Kinodynamic Motion Planning of Physically-Coupled Robot Teams

要約

散らかった環境での物理的に結合されたマルチロボットシステムのモーション計画の問題は、その高次元のために困難です。
サンプリングベースのプランナーと軌道最適化を組み合わせた既存の方法は、最適ではない結果を生み出し、理論的保証がありません。
不連続に結合したCBSを厳格に結合したシステムに拡張する、いつでも運動力学的モーションプランナーである物理的に結合された不連続に結合された競合ベースの検索(PC-DBCBS)を提案します。
私たちのアプローチは、ロボット間の物理的な結合を含むTRIレベルの競合の検出と解像度のフレームワークを提案しています。
さらに、PC-DBCBは状態空間表現間で繰り返し交互に行われ、それにより、単一ロボットモーションプリミティブのみに依存しながら、確率的完全性と漸近最適性を維持します。
PC-DBCBSは、ケーブルが懸濁したペイロードとリジッドロッドにリンクされた微分駆動ロボットを運ぶマルチローターを含む25のシミュレーションと6つの現実世界の問題にわたって、最先端のベースラインと、順序の順序で計画時間を拡大しながら50〜60%高速なプランの旅行よりも最大92%多くのインスタンスを解きます。

要約(オリジナル)

Motion planning problems for physically-coupled multi-robot systems in cluttered environments are challenging due to their high dimensionality. Existing methods combining sampling-based planners with trajectory optimization produce suboptimal results and lack theoretical guarantees. We propose Physically-coupled discontinuity-bounded Conflict-Based Search (pc-dbCBS), an anytime kinodynamic motion planner, that extends discontinuity-bounded CBS to rigidly-coupled systems. Our approach proposes a tri-level conflict detection and resolution framework that includes the physical coupling between the robots. Moreover, pc-dbCBS alternates iteratively between state space representations, thereby preserving probabilistic completeness and asymptotic optimality while relying only on single-robot motion primitives. Across 25 simulated and six real-world problems involving multirotors carrying a cable-suspended payload and differential-drive robots linked by rigid rods, pc-dbCBS solves up to 92% more instances than a state-of-the-art baseline and plans trajectories that are 50-60% faster while reducing planning time by an order of magnitude.

arxiv情報

著者 Khaled Wahba,Wolfgang Hönig
発行日 2025-05-15 14:46:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MA, cs.RO, cs.SY, eess.SY | コメントする

NVSPolicy: Adaptive Novel-View Synthesis for Generalizable Language-Conditioned Policy Learning

要約

深い生成モデルの最近の進歩は、前例のないゼロショット一般化機能を示しており、構造化されていない環境でのロボット操作の大きな可能性を提供します。
シーンの部分的な観察を考えると、深い生成モデルは目に見えない領域を生成し、したがってより多くのコンテキストを提供し、目に見えない環境全体でロボットの能力を高めることができます。
ただし、生成された画像の視覚的アーティファクトとポリシー学習におけるマルチモーダル機能の非効率的な統合により、この方向は未解決の課題のままです。
適応性のあるノベルビュー合成モジュールを階層ポリシーネットワークと結びつける一般化可能な言語条件付きポリシー学習方法であるNVSpolicyを紹介します。
入力画像が与えられた場合、nvSpolicyは有益な視点を動的に選択し、視覚的コンテキストを豊かにするための適応型の視点画像を合成します。
不完全な合成画像の影響を緩和するために、視覚機能をセマンティック機能と残りの機能に解き放つサイクル一貫性のあるVAEメカニズムを採用します。
2つの機能は、それぞれ階層ポリシーネットワークに供給されます。セマンティック機能は、高レベルのメタスキル選択を通知し、残りの機能は低レベルのアクションの推定をガイドします。
さらに、提案された方法を効率的にするためのいくつかの実用的なメカニズムを提案します。
カルバンに関する広範な実験は、私たちの方法の最先端のパフォーマンスを示しています。
具体的には、すべてのタスクで平均成功率が90.4 \%であり、最近の方法を大きく上回っています。
アブレーション研究は、私たちの適応斬新視野合成パラダイムの重要性を確認しています。
さらに、実際のロボットプラットフォームでNVSpolicyを評価して、その実用的な適用性を実証します。

要約(オリジナル)

Recent advances in deep generative models demonstrate unprecedented zero-shot generalization capabilities, offering great potential for robot manipulation in unstructured environments. Given a partial observation of a scene, deep generative models could generate the unseen regions and therefore provide more context, which enhances the capability of robots to generalize across unseen environments. However, due to the visual artifacts in generated images and inefficient integration of multi-modal features in policy learning, this direction remains an open challenge. We introduce NVSPolicy, a generalizable language-conditioned policy learning method that couples an adaptive novel-view synthesis module with a hierarchical policy network. Given an input image, NVSPolicy dynamically selects an informative viewpoint and synthesizes an adaptive novel-view image to enrich the visual context. To mitigate the impact of the imperfect synthesized images, we adopt a cycle-consistent VAE mechanism that disentangles the visual features into the semantic feature and the remaining feature. The two features are then fed into the hierarchical policy network respectively: the semantic feature informs the high-level meta-skill selection, and the remaining feature guides low-level action estimation. Moreover, we propose several practical mechanisms to make the proposed method efficient. Extensive experiments on CALVIN demonstrate the state-of-the-art performance of our method. Specifically, it achieves an average success rate of 90.4\% across all tasks, greatly outperforming the recent methods. Ablation studies confirm the significance of our adaptive novel-view synthesis paradigm. In addition, we evaluate NVSPolicy on a real-world robotic platform to demonstrate its practical applicability.

arxiv情報

著者 Le Shi,Yifei Shi,Xin Xu,Tenglong Liu,Junhua Xi,Chengyuan Chen
発行日 2025-05-15 14:51:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Internal State Estimation in Groups via Active Information Gathering

要約

人格特性や行動パターンなどの人間の内部状態を正確に推定することは、特にグループ設定での人間とロボットの相互作用の有効性を高めるために重要です。
これらの洞察は、社会的ナビゲーションから自閉症診断に至るまでのアプリケーションの重要です。
ただし、以前の方法はスケーラビリティと受動的観測によって制限されているため、複雑で多人の設定でのリアルタイムの推定が困難になります。
この作業では、自閉症スペクトラム障害(ASD)に関連する用途に焦点を当てた、グループでの積極的な人格推定の実用的な方法を提案します。
私たちの方法は、Eysenck 3-Factor理論に基づいた人格条件付きの行動モデルと、後退する馬のプランナーを通して人間の行動を引き起こすアクティブなロボット情報収集ポリシーを組み合わせています。
人間の人格についてのロボットの信念は、ベイジアン推論によって更新されます。
シミュレーション、典型的な成人を使用したユーザー研究、およびASDの参加者を含む予備実験を通じて、アプローチの有効性を実証します。
私たちの結果は、私たちの方法が数十人の人間にスケーリングし、人格予測の誤差を29.2%、不確実性をシミュレーションで79.9%減らすことができることを示しています。
典型的な大人を対象としたユーザー研究は、複雑な性格分布全体で一般化する方法の能力を確認しています。
さらに、自閉症関連のシナリオでの応用を調査し、この方法が神経型と自閉症の行動の違いを特定し、ASDの診断の可能性を強調できることを示しています。
結果は、私たちのフレームワークが将来のASD固有の介入の基盤として機能することを示唆しています。

要約(オリジナル)

Accurately estimating human internal states, such as personality traits or behavioral patterns, is critical for enhancing the effectiveness of human-robot interaction, particularly in group settings. These insights are key in applications ranging from social navigation to autism diagnosis. However, prior methods are limited by scalability and passive observation, making real-time estimation in complex, multi-human settings difficult. In this work, we propose a practical method for active human personality estimation in groups, with a focus on applications related to Autism Spectrum Disorder (ASD). Our method combines a personality-conditioned behavior model, based on the Eysenck 3-Factor theory, with an active robot information gathering policy that triggers human behaviors through a receding-horizon planner. The robot’s belief about human personality is then updated via Bayesian inference. We demonstrate the effectiveness of our approach through simulations, user studies with typical adults, and preliminary experiments involving participants with ASD. Our results show that our method can scale to tens of humans and reduce personality prediction error by 29.2% and uncertainty by 79.9% in simulation. User studies with typical adults confirm the method’s ability to generalize across complex personality distributions. Additionally, we explore its application in autism-related scenarios, demonstrating that the method can identify the difference between neurotypical and autistic behavior, highlighting its potential for diagnosing ASD. The results suggest that our framework could serve as a foundation for future ASD-specific interventions.

arxiv情報

著者 Xuebo Ji,Zherong Pan,Xifeng Gao,Lei Yang,Xinxin Du,Kaiyun Li,Yongjin Liu,Wenping Wang,Changhe Tu,Jia Pan
発行日 2025-05-15 15:35:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

AORRTC: Almost-Surely Asymptotically Optimal Planning with RRT-Connect

要約

高品質のソリューションを迅速に見つけることは、モーション計画における重要な目的です。
これは、高度のロボットに特に当てはまります。
満足のいくプランナーは伝統的に実行可能なソリューションを迅速に発見していましたが、最適性について保証は提供されませんが、ほぼ漸近的に最適な(A.S.A.O.)プランナーは、最適なソリューションへの収束に確率的保証を持っていますが、より計算的に高価です。
このペーパーでは、AO-Xメタアルゴリズムを使用して、満足のいくRRTコネクトプランナーを最適な計画に拡張します。
結果として得られる漸近的に最適なRRTコネクト(AORRTC)は、RRTコネクトと同様の時間で初期ソリューションを見つけ、追加の計画時間を使用していつでも最適なソリューションに向かって収束します。
確率的に完全であり、A.S.A.O。
Aorrtcは、MotionBenchMaker DatasetでPanda(7 DOF)とFetch(8 DOF)ロボットアームでテストされました。
これらの実験は、AORRTCがRRT接続と同じくらい速く、テストした最先端のA.S.A.O.
より良いソリューションに収束しながら、より速いアルゴリズム。
Aorrtcは、他のA.S.A.O.
プランナーは、一貫して数秒でソリューションを見つけることができませんでした。
このパフォーマンスは、単一命令/複数のデータ(SIMD)加速の両方で実証されました。

要約(オリジナル)

Finding high-quality solutions quickly is an important objective in motion planning. This is especially true for high-degree-of-freedom robots. Satisficing planners have traditionally found feasible solutions quickly but provide no guarantees on their optimality, while almost-surely asymptotically optimal (a.s.a.o.) planners have probabilistic guarantees on their convergence towards an optimal solution but are more computationally expensive. This paper uses the AO-x meta-algorithm to extend the satisficing RRT-Connect planner to optimal planning. The resulting Asymptotically Optimal RRT-Connect (AORRTC) finds initial solutions in similar times as RRT-Connect and uses any additional planning time to converge towards the optimal solution in an anytime manner. It is proven to be probabilistically complete and a.s.a.o. AORRTC was tested with the Panda (7 DoF) and Fetch (8 DoF) robotic arms on the MotionBenchMaker dataset. These experiments show that AORRTC finds initial solutions as fast as RRT-Connect and faster than the tested state-of-the-art a.s.a.o. algorithms while converging to better solutions faster. AORRTC finds solutions to difficult high-DoF planning problems in milliseconds where the other a.s.a.o. planners could not consistently find solutions in seconds. This performance was demonstrated both with and without single instruction/multiple data (SIMD) acceleration.

arxiv情報

著者 Tyler Wilson,Wil Thomason,Zachary Kingston,Jonathan Gammell
発行日 2025-05-15 17:53:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Loop closure grasping: Topological transformations enable strong, gentle, and versatile grasps

要約

把握メカニズムは、安全で効果的なオブジェクトの操作を可能にする握りを作成し、その後把握する必要があります。
既存のメカニズムは、単一の形態を使用して作成のさまざまな機能要件と把握保持のさまざまな機能要件に対処していますが、多くのアプリケーションに必要な同時強度、優しさ、および汎用性をまだ達成していません。
オープンループと閉ループの形態の間のトポロジカル変換を通じてこれらの異なる機能要件に対処するロボット把握のクラスである「ループクロージャーグラッティング」を提示します。
これらの形態を把握し、ループクロージャーグラスピング方法を定式化し、柔らかく成長している膨張ビーム、ウィンチ、クランプを使用して実装する原理とデザインアーキテクチャを提示します。
メカニズムの最初のオープンループトポロジは、妨げられていないチップの動きを介して汎用性の高い把握の作成を可能にし、ループを閉じることで、効果的に無限の曲げコンプライアンスで強力で穏やかな保持を可能にします。
ループ閉鎖の把握は、単一モーフォロジーデザインのトレードオフを回避し、歴史的に挑戦的なオブジェクト、環境、および構成を含む握りを可能にします。

要約(オリジナル)

Grasping mechanisms must both create and subsequently hold grasps that permit safe and effective object manipulation. Existing mechanisms address the different functional requirements of grasp creation and grasp holding using a single morphology, but have yet to achieve the simultaneous strength, gentleness, and versatility needed for many applications. We present ‘loop closure grasping’, a class of robotic grasping that addresses these different functional requirements through topological transformations between open-loop and closed-loop morphologies. We formalize these morphologies for grasping, formulate the loop closure grasping method, and present principles and a design architecture that we implement using soft growing inflated beams, winches, and clamps. The mechanisms’ initial open-loop topology enables versatile grasp creation via unencumbered tip movement, and closing the loop enables strong and gentle holding with effectively infinite bending compliance. Loop closure grasping circumvents the tradeoffs of single-morphology designs, enabling grasps involving historically challenging objects, environments, and configurations.

arxiv情報

著者 Kentaro Barhydt,O. Godson Osele,Sreela Kodali,Cosima du Pasquier,Chase M. Hartquist,H. Harry Asada,Allison M. Okamura
発行日 2025-05-15 17:58:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

From Uncertain to Safe: Conformal Fine-Tuning of Diffusion Models for Safe PDE Control

要約

部分微分方程式(PDE)に制約された制御のための深い学習の適用は、注目を集めています。
ただし、既存の方法は、現実世界のアプリケーションでは安全要件が重要であるとは考えられません。
この制限に対処するために、PDE制御の安全な拡散モデル(SafeDiffCon)を提案します。これにより、モデルの不確実性の定量化として不確実性分位が導入され、トレーニング後の段階と推論段階の両方を通じて安全制約の下で最適な制御を実現します。
第一に、私たちのアプローチは、事前に訓練された拡散モデルを導き出し、適合予測を使用して推定された不確実性分位を組み込んだ、再重量化された拡散損失を介して改善された制御目標を達成しながら、安全性の制約をよりよく満たす制御シーケンスを生成します。
第二に、推論中、拡散モデルは、推定された不確実性分位を同時に統合しながら、コントロールターゲットに条件付けられた、反復ガイダンスと微調整を通じて、その生成プロセスとパラメーターの両方を動的に調整します。
SafeDiffConを3つの制御タスクで評価します:1Dハンバーガーの方程式、2D非圧縮性液、および制御された核融合問題。
結果は、SafediffConがすべての安全上の制約を満たす唯一の方法であることを示していますが、他の古典的および深い学習ベースラインは失敗します。
さらに、安全上の制約を順守しながら、SafeDiffConは最高の制御パフォーマンスを達成します。

要約(オリジナル)

The application of deep learning for partial differential equation (PDE)-constrained control is gaining increasing attention. However, existing methods rarely consider safety requirements crucial in real-world applications. To address this limitation, we propose Safe Diffusion Models for PDE Control (SafeDiffCon), which introduce the uncertainty quantile as model uncertainty quantification to achieve optimal control under safety constraints through both post-training and inference phases. Firstly, our approach post-trains a pre-trained diffusion model to generate control sequences that better satisfy safety constraints while achieving improved control objectives via a reweighted diffusion loss, which incorporates the uncertainty quantile estimated using conformal prediction. Secondly, during inference, the diffusion model dynamically adjusts both its generation process and parameters through iterative guidance and fine-tuning, conditioned on control targets while simultaneously integrating the estimated uncertainty quantile. We evaluate SafeDiffCon on three control tasks: 1D Burgers’ equation, 2D incompressible fluid, and controlled nuclear fusion problem. Results demonstrate that SafeDiffCon is the only method that satisfies all safety constraints, whereas other classical and deep learning baselines fail. Furthermore, while adhering to safety constraints, SafeDiffCon achieves the best control performance.

arxiv情報

著者 Peiyan Hu,Xiaowei Qian,Wenhao Deng,Rui Wang,Haodong Feng,Ruiqi Feng,Tao Zhang,Long Wei,Yue Wang,Zhi-Ming Ma,Tailin Wu
発行日 2025-05-15 15:00:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | コメントする