I-CTRL: Imitation to Control Humanoid Robots Through Constrained Reinforcement Learning

要約

ヒューマノイドロボットは、視覚的な忠実度を高い視力で人間の動きを模倣する可能性がありますが、これらの動きを実用的で物理的な実行に変換することは依然として重要な課題です。
グラフィックスコミュニティの既存の手法は、物理ベースの実現可能性よりも視覚的な忠実度を優先し、実用的なアプリケーションに二足歩行システムを展開するための重要な課題を提起します。
このペーパーでは、これらの問題は、基準のある人間の軌跡を正常に追跡しながら運動の類似性を高める脚のヒューマノイドロボットに物理ベースの高品質運動模倣を生成するために、境界のある残留補強学習を通じて対処します。
私たちのフレームワークは、境界残留補強学習(I-CTRL)を介してヒューマノイドロボットを制御するための模倣により、非物理ベースのリターゲティング運動に対する制約のある洗練として動きの模倣を再定式化します。
i-Ctrlは、5つのロボットに一般化するシンプルでユニークな報酬で動きの模倣に優れています。
さらに、当社のフレームワークでは、多様な動きを介して統一されたRLポリシーを効率的にトレーニングする際に、大規模なモーションデータセットを管理する自動優先スケジューラを導入します。
提案されたアプローチは、二足歩行ロボットの制御を進める上で重要な前進を意味し、成功する運動模倣のために視覚的および身体的リアリズムを調整することの重要性を強調します。

要約(オリジナル)

Humanoid robots have the potential to mimic human motions with high visual fidelity, yet translating these motions into practical, physical execution remains a significant challenge. Existing techniques in the graphics community often prioritize visual fidelity over physics-based feasibility, posing a significant challenge for deploying bipedal systems in practical applications. This paper addresses these issues through bounded residual reinforcement learning to produce physics-based high-quality motion imitation onto legged humanoid robots that enhance motion resemblance while successfully following the reference human trajectory. Our framework, Imitation to Control Humanoid Robots Through Bounded Residual Reinforcement Learning (I-CTRL), reformulates motion imitation as a constrained refinement over non-physics-based retargeted motions. I-CTRL excels in motion imitation with simple and unique rewards that generalize across five robots. Moreover, our framework introduces an automatic priority scheduler to manage large-scale motion datasets when efficiently training a unified RL policy across diverse motions. The proposed approach signifies a crucial step forward in advancing the control of bipedal robots, emphasizing the importance of aligning visual and physical realism for successful motion imitation.

arxiv情報

著者 Yashuai Yan,Esteve Valls Mascaro,Tobias Egle,Dongheui Lee
発行日 2025-02-17 14:32:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | I-CTRL: Imitation to Control Humanoid Robots Through Constrained Reinforcement Learning はコメントを受け付けていません

Stonefish: Supporting Machine Learning Research in Marine Robotics

要約

シミュレーションは、海洋ロボット工学で非常に価値があり、水中および表面操作の困難な条件でテストするための費用対効果の高い制御環境を提供します。
現実世界の試験の高いコストと物流上の困難を考えると、海底環境の運用条件をキャプチャできるシミュレーターは、遠隔操作および自律的な水中車両のアルゴリズムの開発と改良の鍵となっています。
このペーパーでは、海洋ロボティクスソリューションの開発とテストをサポートする高度なオープンソースプラットフォームであるStonefish Simulatorの最近の機能強化を強調しています。
キーの更新には、イベントベースのカメラ、サーマルカメラ、光フローカメラなどの追加のセンサーのスイート、視覚的な光通信、テザー操作のサポート、改善されたスラスタモデリング、より柔軟な流体力学、強化
ソナーの精度。
これらの開発と自動化された注釈ツールは、特に既知のグラウンドトゥルースを備えたトレーニングデータを収集するのが難しいか不可能な機械学習の分野で、海洋ロボット工学研究におけるストーンフィッシュの役割を大幅に強化します。

要約(オリジナル)

Simulations are highly valuable in marine robotics, offering a cost-effective and controlled environment for testing in the challenging conditions of underwater and surface operations. Given the high costs and logistical difficulties of real-world trials, simulators capable of capturing the operational conditions of subsea environments have become key in developing and refining algorithms for remotely-operated and autonomous underwater vehicles. This paper highlights recent enhancements to the Stonefish simulator, an advanced open-source platform supporting development and testing of marine robotics solutions. Key updates include a suite of additional sensors, such as an event-based camera, a thermal camera, and an optical flow camera, as well as, visual light communication, support for tethered operations, improved thruster modelling, more flexible hydrodynamics, and enhanced sonar accuracy. These developments and an automated annotation tool significantly bolster Stonefish’s role in marine robotics research, especially in the field of machine learning, where training data with a known ground truth is hard or impossible to collect.

arxiv情報

著者 Michele Grimaldi,Patryk Cieslak,Eduardo Ochoa,Vibhav Bharti,Hayat Rajani,Ignacio Carlucho,Maria Koskinopoulou,Yvan R. Petillot,Nuno Gracias
発行日 2025-02-17 15:13:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, cs.SY, eess.SY | Stonefish: Supporting Machine Learning Research in Marine Robotics はコメントを受け付けていません

1 A formal implementation of Behavior Trees to act in robotics

要約

行動ツリー(BT)は、自律的なロボットシステムの作用コンポーネントとして非常に人気があります。
これらのBTが実行される間にランタイム検証と同様に、BTで書かれたプログラムの検証を実行できるようにする正式な言語にそれらを変換することにより、BTに正式なセマンティクスを定義することを提案します。
これにより、BTプログラマーが正式な言語を習得することを要求することなく、モジュール性、柔軟性、および再利用性などの最も貴重な機能を侵害することなく、BT正確性を正式に検証できます。
使用する正式なフレームワークを紹介します。
Tina、そのモデルチェックツールとHippo、ランタイム検証エンジン。
次に、BTからFiacreへの翻訳が自動的にどのように行われるか、オフラインで確認できる正式なLTLおよびCTLプロパティのタイプ、および通常のBTエンジンの代わりにオンラインで正式なモデルを実行する方法を示します。
2つのRoboticsアプリケーションでアプローチを説明し、FAIARの正式なフレームワーク(状態変数、時間など)で利用可能な他の機能にBTがどのように利益をもたらすことができるかを示します。

要約(オリジナル)

Behavior Trees (BT) are becoming quite popular as an Acting component of autonomous robotic systems. We propose to define a formal semantics to BT by translating them to a formal language which enables us to perform verification of programs written with BT, as well as runtime verification while these BT execute. This allows us to formally verify BT correctness without requiring BT programmers to master formal language and without compromising BT most valuable features: modularity, flexibility and reusability. We present the formal framework we use: Fiacre, its langage and the produced TTS model; Tina, its model checking tools and Hippo, its runtime verification engine. We then show how the translation from BT to Fiacre is automatically done, the type of formal LTL and CTL properties we can check offline and how to execute the formal model online in place of a regular BT engine. We illustrate our approach on two robotics applications, and show how BT could benefit of other features available in the Fiacre formal framework (state variables, time, etc).

arxiv情報

著者 Felix Ingrand
発行日 2025-02-17 15:26:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | 1 A formal implementation of Behavior Trees to act in robotics はコメントを受け付けていません

RoboMNIST: A Multimodal Dataset for Multi-Robot Activity Recognition Using WiFi Sensing, Video, and Audio

要約

WiFiチャネル状態情報(CSI)、ビデオ、およびオーディオデータを統合する2つのロボットアームを使用して、マルチロボットアクティビティ認識(MRAR)の新しいデータセットを紹介します。
このマルチモーダルデータセットは、機会の信号を利用して、既存のWiFiインフラストラクチャを活用して、追加のセンサー展開なしで詳細な屋内環境センシングを提供します。
2つのフランカエミカロボットアームを使用してデータを収集し、3つのカメラ、3つのWiFiスニファーでCSIを収集し、3つのマイクを補完し、明確でありながら補完的なオーディオデータストリームをキャプチャしました。
CSI、視覚、聴覚データの組み合わせは、MRARの堅牢性と精度を高めることができます。
この包括的なデータセットにより、ロボット環境の全体的な理解が可能になり、人間のような知覚と相互作用を模倣する高度な自律操作が促進されます。
環境センシングのためのユビキタスなWiFi信号を再利用することにより、このデータセットは、ロボットの認識と自律システムを進めることを目的とした重要な潜在的な潜在的な潜在を提供します。
動的環境で洗練された意思決定と適応機能を開発するための貴重なリソースを提供します。

要約(オリジナル)

We introduce a novel dataset for multi-robot activity recognition (MRAR) using two robotic arms integrating WiFi channel state information (CSI), video, and audio data. This multimodal dataset utilizes signals of opportunity, leveraging existing WiFi infrastructure to provide detailed indoor environmental sensing without additional sensor deployment. Data were collected using two Franka Emika robotic arms, complemented by three cameras, three WiFi sniffers to collect CSI, and three microphones capturing distinct yet complementary audio data streams. The combination of CSI, visual, and auditory data can enhance robustness and accuracy in MRAR. This comprehensive dataset enables a holistic understanding of robotic environments, facilitating advanced autonomous operations that mimic human-like perception and interaction. By repurposing ubiquitous WiFi signals for environmental sensing, this dataset offers significant potential aiming to advance robotic perception and autonomous systems. It provides a valuable resource for developing sophisticated decision-making and adaptive capabilities in dynamic environments.

arxiv情報

著者 Kian Behzad,Rojin Zandi,Elaheh Motamedi,Hojjat Salehinejad,Milad Siami
発行日 2025-02-17 15:27:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SP, eess.SY | RoboMNIST: A Multimodal Dataset for Multi-Robot Activity Recognition Using WiFi Sensing, Video, and Audio はコメントを受け付けていません

VLP: Vision-Language Preference Learning for Embodied Manipulation

要約

報酬エンジニアリングは、強化学習(RL)の重要な課題の1つです。
選好ベースのRLは、人間のフィードバックから学習することにより、この問題に効果的に対処します。
ただし、人間の好みラベルを収集するのは時間がかかり、費用がかかります。
この論文では、新規\ textbf {v} ision- \ textbf {l} anguage \ textbf {p}参照学習フレームワークを提案します。
具体化された操作タスク。
これを達成するために、3種類の言語条件付き設定を定義し、人間の注釈なしで多用途の暗黙的優先順序を含むビジョン言語設定データセットを構築します。
優先モデルは、言語関連の機能を抽出することを学び、その後、さまざまな下流タスクで優先アノテーターとして機能します。
ポリシーは、報酬学習または直接的なポリシーの最適化を介して、注釈付きの選好に従って学ぶことができます。
シミュレートされた具体化された操作タスクに関する広範な経験的結果は、私たちの方法が正確な好みを提供し、目に見えないタスクと目に見えない言語指示に一般化し、ベースラインを大きなマージンで上回ることを示しています。

要約(オリジナル)

Reward engineering is one of the key challenges in Reinforcement Learning (RL). Preference-based RL effectively addresses this issue by learning from human feedback. However, it is both time-consuming and expensive to collect human preference labels. In this paper, we propose a novel \textbf{V}ision-\textbf{L}anguage \textbf{P}reference learning framework, named \textbf{VLP}, which learns a vision-language preference model to provide preference feedback for embodied manipulation tasks. To achieve this, we define three types of language-conditioned preferences and construct a vision-language preference dataset, which contains versatile implicit preference orders without human annotations. The preference model learns to extract language-related features, and then serves as a preference annotator in various downstream tasks. The policy can be learned according to the annotated preferences via reward learning or direct policy optimization. Extensive empirical results on simulated embodied manipulation tasks demonstrate that our method provides accurate preferences and generalizes to unseen tasks and unseen language instructions, outperforming the baselines by a large margin.

arxiv情報

著者 Runze Liu,Chenjia Bai,Jiafei Lyu,Shengjie Sun,Yali Du,Xiu Li
発行日 2025-02-17 15:32:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | VLP: Vision-Language Preference Learning for Embodied Manipulation はコメントを受け付けていません

The Dynamic Model of the UR10 Robot and its ROS2 Integration

要約

このペーパーでは、UR10 Industrial Robotの完全な動的モデルを紹介します。
マニピュレーターの動的係数を推定するために、トリプルステージ識別アプローチが採用されています。
まず、線形パラメーターは、標準の線形回帰アルゴリズムを使用して計算されます。
その後、非線形摩擦パラメーターは、S字型モデルに従って推定されます。
最後に、推定された関節電流をトルクにマッピングするために、モータードライブのゲインが考案されます。
添付されたROS2ソフトウェアは、一般的なペイロードを考慮して簡単に再構成できるため、全体的に特定されたモデルを制御と計画の両方に使用できます。
推定ロボットモデルは、一連のエキサイティングな軌跡に対して実験的に検証され、同じマニピュレーターの最先端モデルと比較され、より高い電流予測精度(4.43倍まで)とより正確なモーターゲインを達成します。
関連するソフトウェアは、https://codeocean.com/capsule/8515919/tree/v2で入手できます。

要約(オリジナル)

This paper presents the full dynamic model of the UR10 industrial robot. A triple-stage identification approach is adopted to estimate the manipulator’s dynamic coefficients. First, linear parameters are computed using a standard linear regression algorithm. Subsequently, nonlinear friction parameters are estimated according to a sigmoidal model. Lastly, motor drive gains are devised to map estimated joint currents to torques. The overall identified model can be used for both control and planning purposes, as the accompanied ROS2 software can be easily reconfigured to account for a generic payload. The estimated robot model is experimentally validated against a set of exciting trajectories and compared to the state-of-the-art model for the same manipulator, achieving higher current prediction accuracy (up to a factor of 4.43) and more precise motor gains. The related software is available at https://codeocean.com/capsule/8515919/tree/v2.

arxiv情報

著者 Vincenzo Petrone,Enrico Ferrentino,Pasquale Chiacchio
発行日 2025-02-17 15:51:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | The Dynamic Model of the UR10 Robot and its ROS2 Integration はコメントを受け付けていません

Robotic CBCT Meets Robotic Ultrasound

要約

マルチモダリティイメージングシステムは、コンピューター断層撮影 – 針挿入のための超音波(CT-US)ガイダンスなど、最新の臨床慣行における安全で正確な介入のための最適な融合画像を提供します。
ただし、現在のイメージングデバイスの限られた器用さとモビリティは、標準化されたワークフローへの統合と、完全に自律的な介入システムへの進歩を妨げています。
この論文では、ロボットコーンビームコンピューター断層撮影(CBCT)とロボットUSが事前に調整され、動的に共登録されている新しい臨床セットアップを紹介し、新しい臨床アプリケーションを可能にします。
このセットアップにより、登録のない剛性登録が可能になり、組織の変形がない場合のマルチモーダルガイド手順が促進されます。
まず、システム間で1回限りのプリキャリブレーションが実行されます。
ドップラー信号を自律的に生成されたプロンプトとして使用して、3D CBCTの重要な血管系を強調することにより、Bモード画像からSAM2セグメント容器を強調することにより、安全な挿入経路を確保するために。
登録に基づいて、ドップラー画像またはセグメント化された容器マスクがCBCTにマッピングされ、包括的な詳細を備えた最適な融合画像が作成されます。
システムを検証するために、特別に設計されたファントムを使用しました。これは、シミュレートされた移動流を備えたrib骨と複数の血管で覆われた病変を特徴としています。
米国とCBCTの間のマッピングエラーにより、平均偏差は1.72+-0.62 mmになりました。
ユーザー調査では、針挿入ガイダンスに対するCBCT-US融合の有効性が実証され、時間の効率、精度、成功率の大幅な改善が示されました。
針の介入性能は、従来の米国誘導ワークフローと比較して約50%向上しました。
臨床アプリケーションを導くために設計された最初のロボットデュアルモダリティイメージングシステムを紹介します。
結果は、従来の手動介入と比較して、大幅なパフォーマンスの改善を示しています。

要約(オリジナル)

The multi-modality imaging system offers optimal fused images for safe and precise interventions in modern clinical practices, such as computed tomography – ultrasound (CT-US) guidance for needle insertion. However, the limited dexterity and mobility of current imaging devices hinder their integration into standardized workflows and the advancement toward fully autonomous intervention systems. In this paper, we present a novel clinical setup where robotic cone beam computed tomography (CBCT) and robotic US are pre-calibrated and dynamically co-registered, enabling new clinical applications. This setup allows registration-free rigid registration, facilitating multi-modal guided procedures in the absence of tissue deformation. First, a one-time pre-calibration is performed between the systems. To ensure a safe insertion path by highlighting critical vasculature on the 3D CBCT, SAM2 segments vessels from B-mode images, using the Doppler signal as an autonomously generated prompt. Based on the registration, the Doppler image or segmented vessel masks are then mapped onto the CBCT, creating an optimally fused image with comprehensive detail. To validate the system, we used a specially designed phantom, featuring lesions covered by ribs and multiple vessels with simulated moving flow. The mapping error between US and CBCT resulted in an average deviation of 1.72+-0.62 mm. A user study demonstrated the effectiveness of CBCT-US fusion for needle insertion guidance, showing significant improvements in time efficiency, accuracy, and success rate. Needle intervention performance improved by approximately 50% compared to the conventional US-guided workflow. We present the first robotic dual-modality imaging system designed to guide clinical applications. The results show significant performance improvements compared to traditional manual interventions.

arxiv情報

著者 Feng Li,Yuan Bi,Dianye Huang,Zhongliang Jiang,Nassir Navab
発行日 2025-02-17 16:53:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, eess.IV | Robotic CBCT Meets Robotic Ultrasound はコメントを受け付けていません

AAM-SEALS: Developing Aerial-Aquatic Manipulators in SEa, Air, and Land Simulator

要約

現在のモバイルマニピュレーターと高忠実度のシミュレータには、海、空気、土地にまたがる統合された環境全体でシームレスに動作およびシミュレートする能力がありません。
このギャップに対処するために、AAMがこれらの多様な環境で動作して学習するために設計された包括的で光リアリスティックなシミュレーターである海、空気、およびランドシミュレーター(SEALS)に航空水生マニピュレーター(AAM)を紹介します。
AAMシールの開発は、飛行、水泳、操作のための統合コントローラーの作成、航空ダイナミクスの高忠実度シミュレーションや粒子ベースの流体力学を活用する流体力学など、いくつかの重要な課題に取り組んでいます。
私たちの評価は、滑らかな動作と、空気、水、およびそれらのインターフェイスを介した光エリアスティックな遷移を示しています。
現実世界とシミュレートされたシステム間の位置追跡エラーを比較することにより、粒子ベースの流体力学の忠実度を定量的に検証します。
AAMシールは、ロボット学習、空中ロボット工学、水中ロボット工学、モバイル操作、ロボットシミュレーターなど、幅広いロボットコミュニティに利益をもたらします。
これらの分野での研究の進歩を促進するために、コードとデータをオープンソーシングします。
概要ビデオは、https://youtu.be/mbqiiryvr78で入手できます。
詳細については、プロジェクトWebサイトhttps://aam-seals.umd.eduをご覧ください。

要約(オリジナル)

Current mobile manipulators and high-fidelity simulators lack the ability to seamlessly operate and simulate across integrated environments spanning sea, air, and land. To address this gap, we introduce Aerial-Aquatic Manipulators (AAMs) in SEa, Air, and Land Simulator (SEALS), a comprehensive and photorealistic simulator designed for AAMs to operate and learn in these diverse environments. The development of AAM-SEALS tackles several significant challenges, including the creation of integrated controllers for flying, swimming, and manipulation, and the high-fidelity simulation of aerial dynamics and hydrodynamics leveraging particle-based hydrodynamics. Our evaluation demonstrates smooth operation and photorealistic transitions across air, water, and their interfaces. We quantitatively validate the fidelity of particle-based hydrodynamics by comparing position-tracking errors across real-world and simulated systems. AAM-SEALS benefits a broad range of robotics communities, including robot learning, aerial robotics, underwater robotics, mobile manipulation, and robotic simulators. We will open-source our code and data to foster the advancement of research in these fields. The overview video is available at https://youtu.be/MbqIIrYvR78. Visit our project website at https://aam-seals.umd.edu for more details.

arxiv情報

著者 William Yang,Karthikeya Kona,Yashveer Jain,Tomer Atzili,Abhinav Bhamidipati,Xiaomin Lin,Yantian Zha
発行日 2025-02-17 17:51:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | AAM-SEALS: Developing Aerial-Aquatic Manipulators in SEa, Air, and Land Simulator はコメントを受け付けていません

Bandwidth-Adaptive Spatiotemporal Correspondence Identification for Collaborative Perception

要約

対応識別(COID)は、マルチロボットの共同認識における重要な機能であり、ロボットのグループがそれぞれの視野内の同じオブジェクトを一貫して参照できるようにします。
接続された自律運転などの現実世界のアプリケーションでは、車両は、通信帯域幅が限られているため、生の観察を直接共有する際に課題に直面しています。
この課題に対処するために、共同認識において帯域幅に適応する時空の共同体のための新しいアプローチを提案します。
このアプローチにより、ロボットは部分的な時空の観測を徐々に選択し、他の人と共有することができ、時間の経過とともに動的に変化するコミュニケーションの制約に適応することができます。
接続された自律運転シミュレーションのさまざまなシナリオにわたってアプローチを評価します。
実験結果は、私たちのアプローチがコイドを有効にし、動的通信帯域幅の変化に適応することを検証します。
さらに、私たちのアプローチは、コイドとデータ共有効率のための共同オブジェクトの検索に関して、8%〜56%の全体的な改善を達成し、以前の手法を上回り、最先端のパフォーマンスを達成します。
詳細については、https://gaopeng5.github.io/acoidをご覧ください。

要約(オリジナル)

Correspondence identification (CoID) is an essential capability in multi-robot collaborative perception, which enables a group of robots to consistently refer to the same objects within their respective fields of view. In real-world applications, such as connected autonomous driving, vehicles face challenges in directly sharing raw observations due to limited communication bandwidth. In order to address this challenge, we propose a novel approach for bandwidth-adaptive spatiotemporal CoID in collaborative perception. This approach allows robots to progressively select partial spatiotemporal observations and share with others, while adapting to communication constraints that dynamically change over time. We evaluate our approach across various scenarios in connected autonomous driving simulations. Experimental results validate that our approach enables CoID and adapts to dynamic communication bandwidth changes. In addition, our approach achieves 8%-56% overall improvements in terms of covisible object retrieval for CoID and data sharing efficiency, which outperforms previous techniques and achieves the state-of-the-art performance. More information is available at: https://gaopeng5.github.io/acoid.

arxiv情報

著者 Peng Gao,Williard Joshua Jose,Hao Zhang
発行日 2025-02-17 18:18:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Bandwidth-Adaptive Spatiotemporal Correspondence Identification for Collaborative Perception はコメントを受け付けていません

Sharp-PINNs: staggered hard-constrained physics-informed neural networks for phase field modelling of corrosion

要約

物理学に基づいたニューラルネットワークは、多様な科学分野で部分的な微分方程式(PDE)を解く際に重要な可能性を示しています。
ただし、複雑で強く結合したソリューションでPDEに対処すると、パフォーマンスが悪化することがよくあります。
この作業では、複雑な位相腐食の問題に取り組むための新しいシャープピンフレームワークを紹介します。
Sharp-Pinnsは、すべての管理PDE残差を同時に最小限に抑える代わりに、腐食システムを管理するアレンカーンとカーンヒリアード方程式の残差を交互に最小化するずらしたトレーニングスキームを導入します。
その効率と精度をさらに向上させるために、ランダムフーリエ機能を調整埋め込みとして統合し、修正された多層パーセプトロンを主要なバックボーンとして採用し、出力層のハード制約を強制する高度なニューラルネットワークアーキテクチャを設計します。
このフレームワークは、複数のピットを使用した腐食問題のシミュレーションを通じてベンチマークされています。そこでは、驚異的なトレーニングスキームとネットワークアーキテクチャがPINNの効率と精度の両方を大幅に改善します。
さらに、3次元の場合、私たちのアプローチは、競争の精度を維持しながら、従来の有限要素方法よりも5〜10倍高速であり、腐食予測における実際のエンジニアリングアプリケーションの可能性を示しています。

要約(オリジナル)

Physics-informed neural networks have shown significant potential in solving partial differential equations (PDEs) across diverse scientific fields. However, their performance often deteriorates when addressing PDEs with intricate and strongly coupled solutions. In this work, we present a novel Sharp-PINN framework to tackle complex phase field corrosion problems. Instead of minimizing all governing PDE residuals simultaneously, the Sharp-PINNs introduce a staggered training scheme that alternately minimizes the residuals of Allen-Cahn and Cahn-Hilliard equations, which govern the corrosion system. To further enhance its efficiency and accuracy, we design an advanced neural network architecture that integrates random Fourier features as coordinate embeddings, employs a modified multi-layer perceptron as the primary backbone, and enforces hard constraints in the output layer. This framework is benchmarked through simulations of corrosion problems with multiple pits, where the staggered training scheme and network architecture significantly improve both the efficiency and accuracy of PINNs. Moreover, in three-dimensional cases, our approach is 5-10 times faster than traditional finite element methods while maintaining competitive accuracy, demonstrating its potential for real-world engineering applications in corrosion prediction.

arxiv情報

著者 Nanxi Chen,Chuanjie Cui,Rujin Ma,Airong Chen,Sifan Wang
発行日 2025-02-17 15:56:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.comp-ph | Sharp-PINNs: staggered hard-constrained physics-informed neural networks for phase field modelling of corrosion はコメントを受け付けていません