Co-Design of Soft Gripper with Neural Physics

要約

ロボット操作の場合、コントローラーとエンドエフェクターの両方の設計が重要です。
ソフトグリッパーは、さまざまなジオメトリに変形することで一般化できますが、そのようなグリッパーを設計し、その把握ポーズを見つけることは依然として困難です。
この論文では、シミュレーションで訓練された神経物理学モデルを使用して、最適化されたソフトグリッパーのブロックごとの剛性分布とその把握ポーズを生成する共同設計フレームワークを提案します。
曲げベースのソフトフィンガーの均一な圧力腱モデルを導き出し、グリッパーのポーズと設計パラメーターの両方をランダム化することにより、多様なデータセットを生成しました。
ニューラルネットワークは、この前方シミュレーションを近似するように訓練されており、高速で微分可能な代理を生み出します。
その代理をエンドツーエンドの最適化ループに埋め込み、理想的な剛性構成と最適なポーズを最適化しました。
最後に、構造パラメーターを変更することにより、さまざまな剛性の最適化されたグリッパーを3Dプリントします。
共同設計のグリッパーは、シミュレーション実験とハードウェア実験の両方でベースライン設計を大幅に上回ることを実証します。

要約(オリジナル)

For robot manipulation, both the controller and end-effector design are crucial. Soft grippers are generalizable by deforming to different geometries, but designing such a gripper and finding its grasp pose remains challenging. In this paper, we propose a co-design framework that generates an optimized soft gripper’s block-wise stiffness distribution and its grasping pose, using a neural physics model trained in simulation. We derived a uniform-pressure tendon model for a flexure-based soft finger, then generated a diverse dataset by randomizing both gripper pose and design parameters. A neural network is trained to approximate this forward simulation, yielding a fast, differentiable surrogate. We embed that surrogate in an end-to-end optimization loop to optimize the ideal stiffness configuration and best grasp pose. Finally, we 3D-print the optimized grippers of various stiffness by changing the structural parameters. We demonstrate that our co-designed grippers significantly outperform baseline designs in both simulation and hardware experiments.

arxiv情報

著者 Sha Yi,Xueqian Bai,Adabhav Singh,Jianglong Ye,Michael T Tolley,Xiaolong Wang
発行日 2025-05-30 01:41:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Co-Design of Soft Gripper with Neural Physics はコメントを受け付けていません

Learning Dynamics under Environmental Constraints via Measurement-Induced Bundle Structures

要約

環境(または外部)制約の下で未知のダイナミクスを学習することは、多くのフィールド(最新のロボット工学など)の基本であり、制約情報がローカルで利用可能で不確実な場合に特に挑戦的です。
グローバルな制約を必要とする既存のアプローチ、または確率的フィルタリングを使用することは、局所測定に固有の幾何学的構造を完全に活用していません(センサーなどを使用する)と制約。
このホワイトペーパーでは、測定、制約、および状態空間上のファイバーバンドル構造を介したダイナミクス学習を統合する幾何学的フレームワークを紹介します。
この自然に誘導された幾何学的構造により、局所センシング(または測定)条件に適応する測定対象制御バリア機能が可能になります。
ニューラルODを統合することにより、私たちのフレームワークは、幾何学的制約を維持しながら連続時間のダイナミクスを学習し、学習の収束と制約の質に依存する制約の満足度を学習することを保証します。
幾何学的なフレームワークは、効率的なダイナミクス学習を可能にするだけでなく、強化学習アプローチとの統合のための有望な方向性を示唆しています。
大規模なシミュレーションは、特に限られた不確実なセンシング条件下で、従来の方法よりも学習効率と制約満足度の両方の大幅な改善を示しています。

要約(オリジナル)

Learning unknown dynamics under environmental (or external) constraints is fundamental to many fields (e.g., modern robotics), particularly challenging when constraint information is only locally available and uncertain. Existing approaches requiring global constraints or using probabilistic filtering fail to fully exploit the geometric structure inherent in local measurements (by using, e.g., sensors) and constraints. This paper presents a geometric framework unifying measurements, constraints, and dynamics learning through a fiber bundle structure over the state space. This naturally induced geometric structure enables measurement-aware Control Barrier Functions that adapt to local sensing (or measurement) conditions. By integrating Neural ODEs, our framework learns continuous-time dynamics while preserving geometric constraints, with theoretical guarantees of learning convergence and constraint satisfaction dependent on sensing quality. The geometric framework not only enables efficient dynamics learning but also suggests promising directions for integration with reinforcement learning approaches. Extensive simulations demonstrate significant improvements in both learning efficiency and constraint satisfaction over traditional methods, especially under limited and uncertain sensing conditions.

arxiv情報

著者 Dongzhe Zheng,Wenjie Mei
発行日 2025-05-30 01:41:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SY | Learning Dynamics under Environmental Constraints via Measurement-Induced Bundle Structures はコメントを受け付けていません

Fast Convergence of Softmax Policy Mirror Ascent

要約

Natural Policy Gradient(NPG)は、一般的なポリシー最適化アルゴリズムであり、確率の空間での鏡の上昇と見なすことができます。
最近、Vaswani et al。
[2021]は、ロジットの二重空間での上昇を鏡に対応するポリシーグラデーション法を導入しました。
このアルゴリズムを改良し、アクション全体で正規化の必要性を削除し、結果の方法(SPMAと呼ばれる)を分析します。
表形式のMDPの場合、一定のステップサイズのSPMAがNPGの線形収束と一致し、一定のステップサイズ(加速)ソフトマックスポリシー勾配よりも速い収束を達成することを証明します。
大きな状態アクションスペースを処理するために、SPMAを拡張して、対数線形ポリシーパラメーター化を使用します。
NPGの場合とは異なり、SPMAを線形関数近似(FA)設定に一般化するには、互換性のある関数近似は必要ありません。
NPGの実用的な一般化であるMDPOとは異なり、線形FAを使用したSPMAには、凸型ソフトマックス分類の問題を解く必要があります。
SPMAが最適な値関数の近傍への線形収束を達成することを証明します。
SPMAを拡張して非線形FAを処理し、ムホコとアタリのベンチマークでの経験的パフォーマンスを評価します。
我々の結果は、SPMAがMDPO、PPO、TRPOと比較して、一貫して同様のパフォーマンスを達成していることを示しています。

要約(オリジナル)

Natural policy gradient (NPG) is a common policy optimization algorithm and can be viewed as mirror ascent in the space of probabilities. Recently, Vaswani et al. [2021] introduced a policy gradient method that corresponds to mirror ascent in the dual space of logits. We refine this algorithm, removing its need for a normalization across actions and analyze the resulting method (referred to as SPMA). For tabular MDPs, we prove that SPMA with a constant step-size matches the linear convergence of NPG and achieves a faster convergence than constant step-size (accelerated) softmax policy gradient. To handle large state-action spaces, we extend SPMA to use a log-linear policy parameterization. Unlike that for NPG, generalizing SPMA to the linear function approximation (FA) setting does not require compatible function approximation. Unlike MDPO, a practical generalization of NPG, SPMA with linear FA only requires solving convex softmax classification problems. We prove that SPMA achieves linear convergence to the neighbourhood of the optimal value function. We extend SPMA to handle non-linear FA and evaluate its empirical performance on the MuJoCo and Atari benchmarks. Our results demonstrate that SPMA consistently achieves similar or better performance compared to MDPO, PPO and TRPO.

arxiv情報

著者 Reza Asad,Reza Babanezhad,Issam Laradji,Nicolas Le Roux,Sharan Vaswani
発行日 2025-05-30 01:46:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Fast Convergence of Softmax Policy Mirror Ascent はコメントを受け付けていません

Towards a Generalizable Bimanual Foundation Policy via Flow-based Video Prediction

要約

一般化可能な二近操作ポリシーを学ぶことは、大きなアクションスペースと調整された腕の動きの必要性により、具体化されたエージェントにとって非常に困難です。
既存のアプローチは、ビジョン言語アクション(VLA)モデルに依存して、双方向のポリシーを獲得します。
ただし、主に両腕のデータが不足しているため、単一腕と双方の操作の基本的な違いにより、単一の腕のデータセットまたは事前に訓練されたVLAモデルからの知識を転送することは、効果的に一般化できないことがよくあります。
この論文では、ロボットの軌跡を予測し、アクション生成のための軽量拡散ポリシーをトレーニングするために、主要なテキストからビデオへの主要なビデオモデルを微調整することにより、新しい双方向の基礎政策を提案します。
テキスト間モデルに具体化された知識がないことを考えると、事前に訓練されたテキスト間モデルから派生した独立したテキストからフローとフローツービデオモデルを微調整する2段階のパラダイムを導入します。
具体的には、光学フローは中間変数として機能し、画像間の微妙な動きの簡潔な表現を提供します。
テキストからフローモデルは、言語指示の意図を具体化する光学フローを予測し、フローからビデオへのモデルはこのフローを活用して、細粒のビデオ予測を行います。
私たちの方法は、単一段階のテキストからビデオへの予測における言語の曖昧さを軽減し、低レベルのアクションの直接使用を回避することにより、ロボットデータの要件を大幅に削減します。
実験では、実際のデュアルアームロボットの高品質の操作データを収集し、シミュレーションと実際の実験の結果は、方法の有効性を示しています。

要約(オリジナル)

Learning a generalizable bimanual manipulation policy is extremely challenging for embodied agents due to the large action space and the need for coordinated arm movements. Existing approaches rely on Vision-Language-Action (VLA) models to acquire bimanual policies. However, transferring knowledge from single-arm datasets or pre-trained VLA models often fails to generalize effectively, primarily due to the scarcity of bimanual data and the fundamental differences between single-arm and bimanual manipulation. In this paper, we propose a novel bimanual foundation policy by fine-tuning the leading text-to-video models to predict robot trajectories and training a lightweight diffusion policy for action generation. Given the lack of embodied knowledge in text-to-video models, we introduce a two-stage paradigm that fine-tunes independent text-to-flow and flow-to-video models derived from a pre-trained text-to-video model. Specifically, optical flow serves as an intermediate variable, providing a concise representation of subtle movements between images. The text-to-flow model predicts optical flow to concretize the intent of language instructions, and the flow-to-video model leverages this flow for fine-grained video prediction. Our method mitigates the ambiguity of language in single-stage text-to-video prediction and significantly reduces the robot-data requirement by avoiding direct use of low-level actions. In experiments, we collect high-quality manipulation data for real dual-arm robot, and the results of simulation and real-world experiments demonstrate the effectiveness of our method.

arxiv情報

著者 Chenyou Fan,Fangzheng Yan,Chenjia Bai,Jiepeng Wang,Chi Zhang,Zhen Wang,Xuelong Li
発行日 2025-05-30 03:01:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Towards a Generalizable Bimanual Foundation Policy via Flow-based Video Prediction はコメントを受け付けていません

MSC-LIO: An MSCKF-Based LiDAR-Inertial Odometry with Same-Plane Cluster Tracking

要約

マルチステート制約カルマンフィルター(MSCKF)は、同様の精度で視覚ベースの匂い測定のグラフ最適化よりも効率的であることが証明されています。
ただし、LIDARベースの匂いについては、適切に考慮されていても研究されていません。
この論文では、MSC-Lioという名前のMSCKFフレームワークに基づいた、めくらに密着したLidar-inertial odometryを提案します。
明示的な特徴抽出なしの効率的なLIDAR同一平面クラスター(LSPC)追跡方法は、フレーム間データの関連付けに存在します。
追跡されたLSPCは、マルチステート制約を構築するLSPC測定モデルを構築するために使用されます。
その上、提案されたLSPC追跡方法から導出される効果的なポイント速度ベースのLidar-Imu Time-Delay(LITD)推定法を提案します。
提案された方法の有効性と堅牢性を検証するために、パブリックデータセットと実際の環境の両方で広範な実験を実施しました。
結果は、提案されたMSC-LIOが最先端の方法と比較してより高い精度と効率をもたらすことを示しています。
アブレーション実験は、LSPC追跡によりデータ関連効率がほぼ3倍改善され、提案されたLITD推定方法がLITDを効果的かつ正確に推定できることを示しています。
その上、MSC-LioはEdgeデバイスに実装され、優れたリアルタイムパフォーマンスを実証しました。

要約(オリジナル)

The multi-state constraint Kalman filter (MSCKF) has been proven to be more efficient than graph optimization for visual-based odometry while with similar accuracy. However, it has not been adequately considered and studied for LiDAR-based odometry. In this paper, we propose a novel tightly-coupled LiDAR-inertial odometry based on the MSCKF framework, named MSC-LIO. An efficient LiDAR same-plane cluster (LSPC) tracking method, without explicit feature extraction, is present for frame-to-frame data associations. The tracked LSPC is used to build an LSPC measurement model that constructs multi-state constraints. Besides, we propose an effective point-velocity-based LiDAR-IMU time-delay (LITD) estimation method, which is derived from the proposed LSPC tracking method. To validate the effectiveness and robustness of the proposed method, we conducted extensive experiments on both public datasets and real-world environments. The results demonstrate that the proposed MSC-LIO yields higher accuracy and efficiency compared to the state-of-the-art methods. Ablation experiments indicate that the data-association efficiency is improved by nearly 3 times with the LSPC tracking, and the proposed LITD estimation method can effectively and accurately estimate the LITD. Besides, MSC-LIO was implemented on an edge device and demonstrated excellent real-time performance.

arxiv情報

著者 Tisheng Zhang,Man Yuan,Linfu Wei,Hailiang Tang,Xiaoji Niu
発行日 2025-05-30 03:23:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | MSC-LIO: An MSCKF-Based LiDAR-Inertial Odometry with Same-Plane Cluster Tracking はコメントを受け付けていません

Behavioral Safety Assessment towards Large-scale Deployment of Autonomous Vehicles

要約

自動運転車(AV)は近年、現実世界の展開において大幅に進歩していますが、安全性は引き続き広範な採用の重要な障壁です。
主に車両中心の観点からAVハードウェアおよびソフトウェアシステムの信頼性、堅牢性、および妥当性を検証する従来の機能的安全性アプローチは、周囲の交通環境に対するAVのより広い相互作用と行動的影響に十分に対処しません。
この制限を克服するために、交通環境内のAV応答と相互作用の評価に焦点を当てた包括的なアプローチである行動安全へのパラダイムシフトを提案します。
行動の安全性を体系的に評価するために、ドライバーライセンステストと運転インテリジェンステストの2つの補完的評価コンポーネントで構成されるサードパーティAV安全評価フレームワークを紹介します。
ドライバーライセンステストは、制御されたシナリオでAVのリアクティブな動作を評価し、基本的な行動能力を確保します。
対照的に、運転インテリジェンステストでは、自然主義的な交通条件内でのAVのインタラクティブな動作を評価し、安全性クリティカルなイベントの頻度を定量化して、大規模な展開前に統計的に意味のある安全メトリックを提供します。
オープンソースレベル4 AVである\ texttt {autoware.universe}を使用して、提案されたフレームワークを検証しました。
結果は、\ texttt {autoware.universe}が14のシナリオのうち6つを通過し、平均人間のドライバークラッシュ率よりも約1,000倍高い3.01E-3クラッシュのクラッシュ率を示したことを示しています。
テスト中に、\ texttt {autoware.universe}のいくつかの未知の安全でないシナリオも発見しました。
これらの調査結果は、広範囲にわたる公共展開の前にAVの安全性能を向上させるための行動安全評価の必要性を強調しています。

要約(オリジナル)

Autonomous vehicles (AVs) have significantly advanced in real-world deployment in recent years, yet safety continues to be a critical barrier to widespread adoption. Traditional functional safety approaches, which primarily verify the reliability, robustness, and adequacy of AV hardware and software systems from a vehicle-centric perspective, do not sufficiently address the AV’s broader interactions and behavioral impact on the surrounding traffic environment. To overcome this limitation, we propose a paradigm shift toward behavioral safety, a comprehensive approach focused on evaluating AV responses and interactions within traffic environment. To systematically assess behavioral safety, we introduce a third-party AV safety assessment framework comprising two complementary evaluation components: Driver Licensing Test and Driving Intelligence Test. The Driver Licensing Test evaluates AV’s reactive behaviors under controlled scenarios, ensuring basic behavioral competency. In contrast, the Driving Intelligence Test assesses AV’s interactive behaviors within naturalistic traffic conditions, quantifying the frequency of safety-critical events to deliver statistically meaningful safety metrics before large-scale deployment. We validated our proposed framework using \texttt{Autoware.Universe}, an open-source Level 4 AV, tested both in simulated environments and on the physical test track at the University of Michigan’s Mcity Testing Facility. The results indicate that \texttt{Autoware.Universe} passed 6 out of 14 scenarios and exhibited a crash rate of 3.01e-3 crashes per mile, approximately 1,000 times higher than average human driver crash rate. During the tests, we also uncovered several unknown unsafe scenarios for \texttt{Autoware.Universe}. These findings underscore the necessity of behavioral safety evaluations for improving AV safety performance prior to widespread public deployment.

arxiv情報

著者 Henry X. Liu,Xintao Yan,Haowei Sun,Tinghan Wang,Zhijie Qiao,Haojie Zhu,Shengyin Shen,Shuo Feng,Greg Stevens,Greg McGuire
発行日 2025-05-30 04:11:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SE | Behavioral Safety Assessment towards Large-scale Deployment of Autonomous Vehicles はコメントを受け付けていません

Learning Gentle Humanoid Locomotion and End-Effector Stabilization Control

要約

あなたのヒューマノイドは、滴をこぼさずに、あなたにビールを一杯手渡すことができますか?
ヒューマノイドは、踊り、パッケージの配信、荒れた地形の移動、運動中のきめの細かい制御などの派手なデモでますます紹介されていますが、依然として大きな課題です。
特に、タスクのダイナミクスの基本的な不一致のために、歩行中に充填エンドエフェクター(EE)を安定化することは解決にはほど遠いものです。Locomotionは、速い速度で堅牢な制御を要求しますが、EEの安定化には迅速で高度の高度の修正が必要です。
これに対処するために、softaを提案します。ソレッカは、上半身と下半身のコントロールを異なる周波数および異なる報酬で動作する別々のエージェントに切り離す遅い速い2つの2つのフレームワークであると提案します。
この時間的および客観的な分離は、ポリシーの干渉を軽減し、調整された全身行動を可能にします。
Softaは、正確なEEコントロールの場合は100 Hzで上半身のアクションを実行し、堅牢な歩行では50 Hzで下半身のアクションを実行します。
ベースラインと比較してEE加速度を2〜5倍減らし、人間レベルの安定性にはるかに近いことで、ほぼフルカップを運ぶ、移動中の安定したビデオのキャプチャ、EEの安定性による乱れの拒絶などの繊細なタスクを可能にします。

要約(オリジナル)

Can your humanoid walk up and hand you a full cup of beer, without spilling a drop? While humanoids are increasingly featured in flashy demos like dancing, delivering packages, traversing rough terrain, fine-grained control during locomotion remains a significant challenge. In particular, stabilizing a filled end-effector (EE) while walking is far from solved, due to a fundamental mismatch in task dynamics: locomotion demands slow-timescale, robust control, whereas EE stabilization requires rapid, high-precision corrections. To address this, we propose SoFTA, a Slow-Fast TwoAgent framework that decouples upper-body and lower-body control into separate agents operating at different frequencies and with distinct rewards. This temporal and objective separation mitigates policy interference and enables coordinated whole-body behavior. SoFTA executes upper-body actions at 100 Hz for precise EE control and lower-body actions at 50 Hz for robust gait. It reduces EE acceleration by 2-5x relative to baselines and performs much closer to human-level stability, enabling delicate tasks such as carrying nearly full cups, capturing steady video during locomotion, and disturbance rejection with EE stability.

arxiv情報

著者 Yitang Li,Yuanhang Zhang,Wenli Xiao,Chaoyi Pan,Haoyang Weng,Guanqi He,Tairan He,Guanya Shi
発行日 2025-05-30 04:18:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Learning Gentle Humanoid Locomotion and End-Effector Stabilization Control はコメントを受け付けていません

Bayesian Inferential Motion Planning Using Heavy-Tailed Distributions

要約

ロボットは、さまざまなタスクを実行しながら安全かつ効率的にナビゲートするためのモーション計画に依存しています。
この論文では、ベイジアン推論を通じてモーション計画を調査します。ここでは、計画の目標と制約に基づいてモーション計画が推測されます。
ただし、既存のベイジアンモーション計画方法は、高品質の計画が存在する可能性のある計画空間の低確率領域を探求するのに苦労することがよくあります。
この制限に対処するために、モーションプランの確率的推論検索を強化するために、重度のテール分布、具体的には学生の$ t $分布を使用することを提案します。
学生の$ T $分布をモンテカルロサンプリングと統合する新しいシングルパススムージングアプローチを開発します。
このアプローチの特別なケースは、アンサンブルカルマンスムージングです。これは、短尾のガウス分布に依存します。
自律的な車両モーション計画のシミュレーションを通じて提案されたアプローチを検証し、アンサンブルカルマンスムージングと比較して、計画、サンプリング効率、および制約満足度の優れたパフォーマンスを実証します。
モーションプランニングに焦点を当てている間、この作業は、ロボット工学における確率的意思決定を強化する上で、重尾の分布のより広範な可能性を示しています。

要約(オリジナル)

Robots rely on motion planning to navigate safely and efficiently while performing various tasks. In this paper, we investigate motion planning through Bayesian inference, where motion plans are inferred based on planning objectives and constraints. However, existing Bayesian motion planning methods often struggle to explore low-probability regions of the planning space, where high-quality plans may reside. To address this limitation, we propose the use of heavy-tailed distributions — specifically, Student’s-$t$ distributions — to enhance probabilistic inferential search for motion plans. We develop a novel sequential single-pass smoothing approach that integrates Student’s-$t$ distribution with Monte Carlo sampling. A special case of this approach is ensemble Kalman smoothing, which depends on short-tailed Gaussian distributions. We validate the proposed approach through simulations in autonomous vehicle motion planning, demonstrating its superior performance in planning, sampling efficiency, and constraint satisfaction compared to ensemble Kalman smoothing. While focused on motion planning, this work points to the broader potential of heavy-tailed distributions in enhancing probabilistic decision-making in robotics.

arxiv情報

著者 Ali Vaziri,Iman Askari,Huazhen Fang
発行日 2025-05-30 04:27:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, math.OC, math.PR | Bayesian Inferential Motion Planning Using Heavy-Tailed Distributions はコメントを受け付けていません

Safety-Aware Robust Model Predictive Control for Robotic Arms in Dynamic Environments

要約

ロボットマニピュレーターは、正確な産業用ピックアンドプレイス操作に不可欠ですが、センサーノイズや時変遅延などの不確実性のため、動的環境での衝突のない軌道を計画することは依然として困難です。
従来の制御方法は、これらの条件下で失敗することが多く、制約締め付けを伴う堅牢なMPC(RMPC)戦略の開発をやる気にさせます。
この論文では、フェーズベースの公称制御を堅牢な安全モードと統合し、安全な操作と公称操作の間のスムーズな遷移を可能にする新しいRMPCフレームワークを提案します。
私たちのアプローチは、動く障害物のリアルタイム予測に基づいて制約を動的に調整します\ Textemdash人、ロボット、またはその他の動的オブジェクト\ Textemdashして、継続的で衝突のない操作を保証します。
シミュレーション研究は、コントローラーがモーションの自然性と安全性の両方を改善し、従来の方法よりも速いタスク完了を達成することを実証しています。

要約(オリジナル)

Robotic manipulators are essential for precise industrial pick-and-place operations, yet planning collision-free trajectories in dynamic environments remains challenging due to uncertainties such as sensor noise and time-varying delays. Conventional control methods often fail under these conditions, motivating the development of Robust MPC (RMPC) strategies with constraint tightening. In this paper, we propose a novel RMPC framework that integrates phase-based nominal control with a robust safety mode, allowing smooth transitions between safe and nominal operations. Our approach dynamically adjusts constraints based on real-time predictions of moving obstacles\textemdash whether human, robot, or other dynamic objects\textemdash thus ensuring continuous, collision-free operation. Simulation studies demonstrate that our controller improves both motion naturalness and safety, achieving faster task completion than conventional methods.

arxiv情報

著者 Sanghyeon Nam,Dongmin Kim,Seung-Hwan Choi,Chang-Hyun Kim,Hyoeun Kwon,Hiroaki Kawamoto,Suwoong Lee
発行日 2025-05-30 04:41:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Safety-Aware Robust Model Predictive Control for Robotic Arms in Dynamic Environments はコメントを受け付けていません

ManiSkill3: GPU Parallelized Robotics Simulation and Rendering for Generalizable Embodied AI

要約

シミュレーションにより、ロボット学習に対する前例のない計算可能なアプローチが可能になりました。
ただし、多くの既存のシミュレーションフレームワークは通常、狭い範囲のシーン/タスクをサポートしており、一般化可能なロボット工学とSIM2realをスケーリングするために重要な機能が欠けています。
最速の状態視覚的GPU GPUであるManiskill3を紹介し、オープンソースManiskill3を紹介し、一般化可能な操作をターゲットにした接触豊富な物理学を備えたロボティクスシミュレーターを並べ替えます。
Maniskill3は、シミュレーション+レンダリング、不均一なシミュレーション、PointClouds/ボクセルの視覚入力など、多くの側面のGPU並列化をサポートしています。
Maniskill3でのレンダリングを使用したシミュレーションは、他のプラットフォームよりも2〜3倍少ないGPUメモリ使用量で10〜1000倍速く実行でき、システムでの最小限のPython/Pytorchオーバーヘッド、GPUのシミュレーション、およびSapien Parallal Renderingシステムの使用により、ベンチマーク環境で最大30,000以上のFPSを達成できます。
トレーニングに何時間もかかっていたタスクは数分かかることがあります。
さらに、アーティストや現実世界のデジタル双子によって設計された現実的なシーンでの描画、ヒューマノイド、器用な操作などのモバイル操作を含むが、これらに限定されない、12の異なるドメインにまたがる最も包括的な範囲の並列化された環境/タスクを提供します。
さらに、数百万のデモンストレーションフレームがモーションプランニング、RL、および操作から提供されています。
Maniskill3は、人気のあるRLと学習からの学習アルゴリズムにまたがる包括的なベースラインのセットも提供します。

要約(オリジナル)

Simulation has enabled unprecedented compute-scalable approaches to robot learning. However, many existing simulation frameworks typically support a narrow range of scenes/tasks and lack features critical for scaling generalizable robotics and sim2real. We introduce and open source ManiSkill3, the fastest state-visual GPU parallelized robotics simulator with contact-rich physics targeting generalizable manipulation. ManiSkill3 supports GPU parallelization of many aspects including simulation+rendering, heterogeneous simulation, pointclouds/voxels visual input, and more. Simulation with rendering on ManiSkill3 can run 10-1000x faster with 2-3x less GPU memory usage than other platforms, achieving up to 30,000+ FPS in benchmarked environments due to minimal python/pytorch overhead in the system, simulation on the GPU, and the use of the SAPIEN parallel rendering system. Tasks that used to take hours to train can now take minutes. We further provide the most comprehensive range of GPU parallelized environments/tasks spanning 12 distinct domains including but not limited to mobile manipulation for tasks such as drawing, humanoids, and dextrous manipulation in realistic scenes designed by artists or real-world digital twins. In addition, millions of demonstration frames are provided from motion planning, RL, and teleoperation. ManiSkill3 also provides a comprehensive set of baselines that span popular RL and learning-from-demonstrations algorithms.

arxiv情報

著者 Stone Tao,Fanbo Xiang,Arth Shukla,Yuzhe Qin,Xander Hinrichsen,Xiaodi Yuan,Chen Bao,Xinsong Lin,Yulin Liu,Tse-kai Chan,Yuan Gao,Xuanlin Li,Tongzhou Mu,Nan Xiao,Arnav Gurha,Viswesh Nagaswamy Rajesh,Yong Woo Choi,Yen-Ru Chen,Zhiao Huang,Roberto Calandra,Rui Chen,Shan Luo,Hao Su
発行日 2025-05-30 05:49:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | ManiSkill3: GPU Parallelized Robotics Simulation and Rendering for Generalizable Embodied AI はコメントを受け付けていません