Constraint-Aware Diffusion Guidance for Robotics: Real-Time Obstacle Avoidance for Autonomous Racing

要約

拡散モデルは、複雑で高次元のデータ分布をキャプチャする能力により、ロボット工学の大きな可能性を秘めています。
ただし、制約の認識が不足しているため、安全性の高いアプリケーションでの展開が制限されます。
制約対応の拡散ガイダンス(CODIG)を提案します。これは、バリア関数を除去プロセスに統合するデータ効率の良い汎用フレームワークであり、制約に満足する出力に向けてサンプリングをガイドすることを提案します。
CODIGは、限られたトレーニングデータでも制約の満足度を可能にし、タスク全体で一般化します。
リアルタイムの障害物回避が不可欠なミニチュア自律レースの挑戦的な設定でフレームワークを評価します。
実際の実験は、CODIGが動的条件下で安全な出力を効率的に生成し、より広範なロボットアプリケーションの可能性を強調することを示しています。
デモビデオはhttps://youtu.be/knystdtdxouで入手できます。

要約(オリジナル)

Diffusion models hold great potential in robotics due to their ability to capture complex, high-dimensional data distributions. However, their lack of constraint-awareness limits their deployment in safety-critical applications. We propose Constraint-Aware Diffusion Guidance (CoDiG), a data-efficient and general-purpose framework that integrates barrier functions into the denoising process, guiding diffusion sampling toward constraint-satisfying outputs. CoDiG enables constraint satisfaction even with limited training data and generalizes across tasks. We evaluate our framework in the challenging setting of miniature autonomous racing, where real-time obstacle avoidance is essential. Real-world experiments show that CoDiG generates safe outputs efficiently under dynamic conditions, highlighting its potential for broader robotic applications. A demonstration video is available at https://youtu.be/KNYsTdtdxOU.

arxiv情報

著者 Hao Ma,Sabrina Bodmer,Andrea Carron,Melanie Zeilinger,Michael Muehlebach
発行日 2025-05-19 14:00:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Constraint-Aware Diffusion Guidance for Robotics: Real-Time Obstacle Avoidance for Autonomous Racing はコメントを受け付けていません

Infinigen-Sim: Procedural Generation of Articulated Simulation Assets

要約

ユーザーが多様で現実的な明確なオブジェクトの手続き型ジェネレーターを作成できるツールキットであるInfinigen-SIMを紹介します。
これらのツールは、Blenderで明確な資産を作成するための高レベルのユーティリティで構成されており、結果の資産を共通のロボットシミュレーターに統合するためのエクスポートパイプラインです。
5つの一般的な明確なオブジェクトカテゴリの手続き型ジェネレーターを作成することにより、システムを実証します。
実験では、これらのジェネレーターからサンプリングされた資産は、可動オブジェクトセグメンテーション、一般化可能な強化学習ポリシーのトレーニング、および模倣学習ポリシーのSIMからリアルへの転送に役立つことが示されています。

要約(オリジナル)

We introduce Infinigen-Sim, a toolkit which enables users to create diverse and realistic articulated object procedural generators. These tools are composed of high-level utilities for use creating articulated assets in Blender, as well as an export pipeline to integrate the resulting assets into common robotics simulators. We demonstrate our system by creating procedural generators for 5 common articulated object categories. Experiments show that assets sampled from these generators are useful for movable object segmentation, training generalizable reinforcement learning policies, and sim-to-real transfer of imitation learning policies.

arxiv情報

著者 Abhishek Joshi,Beining Han,Jack Nugent,Yiming Zuo,Jonathan Liu,Hongyu Wen,Stamatis Alexandropoulos,Tao Sun,Alexander Raistrick,Gaowen Liu,Yi Shao,Jia Deng
発行日 2025-05-19 14:08:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.GR, cs.RO | Infinigen-Sim: Procedural Generation of Articulated Simulation Assets はコメントを受け付けていません

Temporal Distance-aware Transition Augmentation for Offline Model-based Reinforcement Learning

要約

オフライン強化学習(RL)の目標は、固定データセットから高性能ポリシーを抽出し、分散分布(OOD)サンプルによるパフォーマンスの低下を最小限に抑えることです。
オフラインモデルベースのRL(MBRL)は、学習したダイナミクスモデルを介して合成された増強で状態アクション遷移を濃縮することにより、OODの問題を改善する有望なアプローチです。
残念ながら、独創的なオフラインのMBRLメソッドは、しばしばまばらな報酬の長い様子のタスクで苦労しています。
この作業では、生の状態空間ではなく、一時的に構造化された潜在空間で拡張遷移を生成する、時間的距離認識遷移増強(TempData)と呼ばれる新しいMBRLフレームワークを導入します。
長老の動作をモデル化するために、Tempdataは、状態空間の軌跡レベルと遷移レベルの両方からの時間的距離をキャプチャする潜在的な抽象化を学びます。
私たちの実験では、TempDataが以前のオフラインMBRLメソッドを上回り、D4RL Antmaze、Frankakitchen、Calvin、およびPixelベースのフランクカイチェンでの拡散ベースの軌跡の増強とゴールコンディショニングRLのパフォーマンスを一致または上回ることを確認しています。

要約(オリジナル)

The goal of offline reinforcement learning (RL) is to extract a high-performance policy from the fixed datasets, minimizing performance degradation due to out-of-distribution (OOD) samples. Offline model-based RL (MBRL) is a promising approach that ameliorates OOD issues by enriching state-action transitions with augmentations synthesized via a learned dynamics model. Unfortunately, seminal offline MBRL methods often struggle in sparse-reward, long-horizon tasks. In this work, we introduce a novel MBRL framework, dubbed Temporal Distance-Aware Transition Augmentation (TempDATA), that generates augmented transitions in a temporally structured latent space rather than in raw state space. To model long-horizon behavior, TempDATA learns a latent abstraction that captures a temporal distance from both trajectory and transition levels of state space. Our experiments confirm that TempDATA outperforms previous offline MBRL methods and achieves matching or surpassing the performance of diffusion-based trajectory augmentation and goal-conditioned RL on the D4RL AntMaze, FrankaKitchen, CALVIN, and pixel-based FrankaKitchen.

arxiv情報

著者 Dongsu Lee,Minhae Kwon
発行日 2025-05-19 14:11:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Temporal Distance-aware Transition Augmentation for Offline Model-based Reinforcement Learning はコメントを受け付けていません

Quantization-Free Autoregressive Action Transformer

要約

現在の変圧器ベースの模倣学習アプローチは、個別のアクション表現を導入し、結果として生じる潜在コードで自己回帰トランスデコーダーを訓練します。
ただし、初期の量子化により、アクション空間の連続構造が破損し、生成モデルの機能が制限されます。
代わりに、発生的な無限のボキャブラリー変圧器(GIVT)を、自己回帰変圧器の直接的な継続的な政策パラメーター化として活用する量子化のない方法を提案します。
これにより、模倣学習パイプラインが簡素化され、さまざまな人気のあるシミュレートされたロボットタスクで最先端のパフォーマンスを実現します。
サンプリングアルゴリズムを慎重に研究し、結果をさらに改善することにより、ポリシーの展開を強化します。

要約(オリジナル)

Current transformer-based imitation learning approaches introduce discrete action representations and train an autoregressive transformer decoder on the resulting latent code. However, the initial quantization breaks the continuous structure of the action space thereby limiting the capabilities of the generative model. We propose a quantization-free method instead that leverages Generative Infinite-Vocabulary Transformers (GIVT) as a direct, continuous policy parametrization for autoregressive transformers. This simplifies the imitation learning pipeline while achieving state-of-the-art performance on a variety of popular simulated robotics tasks. We enhance our policy roll-outs by carefully studying sampling algorithms, further improving the results.

arxiv情報

著者 Ziyad Sheebaelhamd,Michael Tschannen,Michael Muehlebach,Claire Vernade
発行日 2025-05-19 14:12:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Quantization-Free Autoregressive Action Transformer はコメントを受け付けていません

Interpretable Robotic Friction Learning via Symbolic Regression

要約

ロボットジョイントの摩擦トルクを正確にモデリングすることは、堅牢な数学的説明を要求するため、長い間困難でした。
従来のモデルベースのアプローチは、多くの場合、労働集約的であり、広範な実験と専門知識が必要であり、新しいシナリオや依存関係に適応することは困難です。
一方、ニューラルネットワークに基づいたデータ駆動型の方法は実装が容易ですが、多くの場合、堅牢性、解釈可能性、信頼性を欠いています。ロボットハードウェアの重要な考慮事項、および人間とロボットの相互作用などの安全性が批判的なアプリケーションです。
両方のアプローチの制限に対処するために、摩擦トルクを推定するためにシンボリック回帰(SR)の使用を提案します。
SRは、さまざまな動的効果と依存関係に対応するために柔軟になりながら、モデルベースの方法によって生成されるものと同様の解釈可能なシンボリック式を生成します。
この作業では、SRアルゴリズムを適用して、Kuka LWR-IV+ロボットから収集されたデータを使用して摩擦トルクを近似します。
我々の結果は、SRがモデルベースのアプローチに匹敵する複雑さを持つ式を生成するだけでなく、より高い精度を達成することを示しています。
さらに、SR由来の式は、負荷依存関係やその他の動的要因を含むようにシームレスに拡張できます。

要約(オリジナル)

Accurately modeling the friction torque in robotic joints has long been challenging due to the request for a robust mathematical description. Traditional model-based approaches are often labor-intensive, requiring extensive experiments and expert knowledge, and they are difficult to adapt to new scenarios and dependencies. On the other hand, data-driven methods based on neural networks are easier to implement but often lack robustness, interpretability, and trustworthiness–key considerations for robotic hardware and safety-critical applications such as human-robot interaction. To address the limitations of both approaches, we propose the use of symbolic regression (SR) to estimate the friction torque. SR generates interpretable symbolic formulas similar to those produced by model-based methods while being flexible to accommodate various dynamic effects and dependencies. In this work, we apply SR algorithms to approximate the friction torque using collected data from a KUKA LWR-IV+ robot. Our results show that SR not only yields formulas with comparable complexity to model-based approaches but also achieves higher accuracy. Moreover, SR-derived formulas can be seamlessly extended to include load dependencies and other dynamic factors.

arxiv情報

著者 Philipp Scholl,Alexander Dietrich,Sebastian Wolf,Jinoh Lee,Alin-Albu Schäffer,Gitta Kutyniok,Maged Iskandar
発行日 2025-05-19 14:44:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Interpretable Robotic Friction Learning via Symbolic Regression はコメントを受け付けていません

Investigating Active Sampling for Hardness Classification with Vision-Based Tactile Sensors

要約

人間とロボットがタッチを通して知覚する最も重要なオブジェクト特性の1つは硬度です。
このペーパーでは、視力ベースの触覚センサーを使用したサンプル効率の高い硬度分類のための情報理論的アクティブサンプリング戦略を調査します。
ロボットのセットアップと、ヒトテスターが収集したサンプルの以前に公開されたデータセットで、3つの確率的分類モデルと2つのモデル不確実性ベースのサンプリング戦略を評価します。
私たちの調査結果は、不確実性メトリックによって駆動されるアクティブなサンプリングアプローチが、精度と安定性の観点からランダムなサンプリングベースラインを上回ることを示しています。
さらに、私たちの人間の研究では、参加者は平均精度48.00%を達成しますが、当社の最良のアプローチは、同じオブジェクトのセットで平均精度88.78%を達成し、オブジェクト硬度分類のための視覚ベースの触覚センサーの有効性を実証します。

要約(オリジナル)

One of the most important object properties that humans and robots perceive through touch is hardness. This paper investigates information-theoretic active sampling strategies for sample-efficient hardness classification with vision-based tactile sensors. We evaluate three probabilistic classifier models and two model-uncertainty-based sampling strategies on a robotic setup as well as on a previously published dataset of samples collected by human testers. Our findings indicate that the active sampling approaches, driven by uncertainty metrics, surpass a random sampling baseline in terms of accuracy and stability. Additionally, while in our human study, the participants achieve an average accuracy of 48.00%, our best approach achieves an average accuracy of 88.78% on the same set of objects, demonstrating the effectiveness of vision-based tactile sensors for object hardness classification.

arxiv情報

著者 Junyi Chen,Alap Kshirsagar,Frederik Heller,Mario Gómez Andreu,Boris Belousov,Tim Schneider,Lisa P. Y. Lin,Katja Doerschner,Knut Drewing,Jan Peters
発行日 2025-05-19 15:15:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Investigating Active Sampling for Hardness Classification with Vision-Based Tactile Sensors はコメントを受け付けていません

FlightBench: Benchmarking Learning-based Methods for Ego-vision-based Quadrotors Navigation

要約

散らかった環境での自我ビジョンベースのナビゲーションは、モバイルシステム、特にアジャイル象限にとって重要です。
学習ベースの方法は最近有望であることが示されていますが、最先端の最適化ベースのアプローチとの真正な比較は不足しているため、どこでどの程度まで優れているかという問題が明らかになります。
このペーパーでは、エゴビジョンベースのナビゲーションのためのさまざまな学習ベースの方法を実装し、幅広いパフォーマンスメトリックを使用して主流の最適化ベースのベースラインに対してそれらを評価する最初の包括的なベンチマークであるFlightBenchを紹介します。
さらに重要なことは、これらの基準に基づいて異なるレベルの難易度にまたがるシナリオの難易度と設計テストケースを評価するための一連の基準を開発することです。
私たちの結果は、学習ベースの方法が高速飛行とより速い推論で優れている一方で、鋭い角や視聴のような挑戦的なシナリオに苦労していることを示しています。
分析実験では、難易度の基準と飛行性能との相関関係を検証します。
さらに、フルパイプラインとループインザループの実験を通じて、実際の環境内の飛行性能の傾向を検証します。
このベンチマークと、これらの基準が、自我ビジョン四つのQuadrotorsの学習ベースのナビゲーションの将来の進歩を促進することを願っています。
コードとドキュメントは、https://github.com/thu-uav/flightbenchで入手できます。

要約(オリジナル)

Ego-vision-based navigation in cluttered environments is crucial for mobile systems, particularly agile quadrotors. While learning-based methods have shown promise recently, head-to-head comparisons with cutting-edge optimization-based approaches are scarce, leaving open the question of where and to what extent they truly excel. In this paper, we introduce FlightBench, the first comprehensive benchmark that implements various learning-based methods for ego-vision-based navigation and evaluates them against mainstream optimization-based baselines using a broad set of performance metrics. More importantly, we develop a suite of criteria to assess scenario difficulty and design test cases that span different levels of difficulty based on these criteria. Our results show that while learning-based methods excel in high-speed flight and faster inference, they struggle with challenging scenarios like sharp corners or view occlusion. Analytical experiments validate the correlation between our difficulty criteria and flight performance. Moreover, we verify the trend in flight performance within real-world environments through full-pipeline and hardware-in-the-loop experiments. We hope this benchmark and these criteria will drive future advancements in learning-based navigation for ego-vision quadrotors. Code and documentation are available at https://github.com/thu-uav/FlightBench.

arxiv情報

著者 Shu-Ang Yu,Chao Yu,Feng Gao,Yi Wu,Yu Wang
発行日 2025-05-19 15:31:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | FlightBench: Benchmarking Learning-based Methods for Ego-vision-based Quadrotors Navigation はコメントを受け付けていません

Composing Dextrous Grasping and In-hand Manipulation via Scoring with a Reinforcement Learning Critic

要約

手の操作と把握は基本的ですが、多くの場合、ロボット工学のタスクに個別に対処されています。
手元の操作ポリシーを導き出すために、補強学習は最近大きな成功を示しています。
ただし、派生したコントローラーは、実世界のシナリオではまだ有用ではありません。これは、適切な初期(グラズピン)状態にオブジェクトを配置するためにヒトオペレーターが必要なことが多いためです。
望ましい手元の操作目標を促進する安定した握りを見つけることは、オープンな問題です。
この作業では、最初の握りを選択して選択するために訓練された強化学習エージェントの批評家ネットワークを活用することにより、このギャップを埋める方法を提案します。
私たちの実験は、この方法が追加のトレーニングを必要とせずに、手の操作の成功率を大幅に上げることを示しています。
また、現実世界のシステムで完全な操作操作パイプラインの実装を提示し、扱いにくいオブジェクトでさえ自律的な把握と方向転換を可能にします。

要約(オリジナル)

In-hand manipulation and grasping are fundamental yet often separately addressed tasks in robotics. For deriving in-hand manipulation policies, reinforcement learning has recently shown great success. However, the derived controllers are not yet useful in real-world scenarios because they often require a human operator to place the objects in suitable initial (grasping) states. Finding stable grasps that also promote the desired in-hand manipulation goal is an open problem. In this work, we propose a method for bridging this gap by leveraging the critic network of a reinforcement learning agent trained for in-hand manipulation to score and select initial grasps. Our experiments show that this method significantly increases the success rate of in-hand manipulation without requiring additional training. We also present an implementation of a full grasp manipulation pipeline on a real-world system, enabling autonomous grasping and reorientation even of unwieldy objects.

arxiv情報

著者 Lennart Röstel,Dominik Winkelbauer,Johannes Pitz,Leon Sievers,Berthold Bäuml
発行日 2025-05-19 15:36:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Composing Dextrous Grasping and In-hand Manipulation via Scoring with a Reinforcement Learning Critic はコメントを受け付けていません

Policy Contrastive Decoding for Robotic Foundation Models

要約

ロボットファンデーションモデル、またはジェネラリストのロボットポリシーは、柔軟で汎用的で器用なロボットシステムを可能にする計り知れない可能性を保持しています。
彼らの進歩にもかかわらず、私たちの経験的実験は、既存のロボットポリシーがトレーニング前の軌跡から偽の相関関係を学ぶ傾向があり、トレーニングデータを超えて一般化能力に悪影響を与えることを明らかにしています。
これに取り組むために、新しいポリシーコントラストデコード(PCD)アプローチを提案します。これは、元の視覚入力とオブジェクトマスクされた視覚入力から派生したアクション確率分布を対比することにより、オブジェクト関連の視覚的手がかりに対するロボットポリシーの焦点をリダイレクトします。
トレーニングなしの方法として、当社のPCDは、モデルの重みを微調整またはアクセスする必要なく、さまざまな種類のロボットポリシーを改善するためのプラグインとして使用できます。
オートレーフレフなポリシーOpenVLAや拡散ベースのポリシーOCTOおよび$ \ PI_0 $など、3つのオープンソースロボットポリシーに加えて広範な実験を実施しています。
シミュレーションと現実世界の両方の環境で得られた結果は、PCDの柔軟性と有効性を証明します。たとえば、PCDは、シミュレーション環境で最先端のポリシー$ \ PI_0 $を8%、実際の環境で108%強化します。
コードとデモは、https://koorye.github.io/proj/pcdで公開されています。

要約(オリジナル)

Robotic foundation models, or generalist robot policies, hold immense potential to enable flexible, general-purpose and dexterous robotic systems. Despite their advancements, our empirical experiments reveal that existing robot policies are prone to learning spurious correlations from pre-training trajectories, adversely affecting their generalization capabilities beyond the training data. To tackle this, we propose a novel Policy Contrastive Decoding (PCD) approach, which redirects the robot policy’s focus toward object-relevant visual clues by contrasting action probability distributions derived from original and object-masked visual inputs. As a training-free method, our PCD can be used as a plugin to improve different types of robot policies without needing to finetune or access model weights. We conduct extensive experiments on top of three open-source robot policies, including the autoregressive policy OpenVLA and the diffusion-based policies Octo and $\pi_0$. The obtained results in both simulation and real-world environments prove PCD’s flexibility and effectiveness, e.g., PCD enhances the state-of-the-art policy $\pi_0$ by 8% in the simulation environment and by 108% in the real-world environment. Code and demos are publicly available at: https://Koorye.github.io/proj/PCD.

arxiv情報

著者 Shihan Wu,Ji Zhang,Xu Luo,Junlin Xie,Jingkuan Song,Heng Tao Shen,Lianli Gao
発行日 2025-05-19 15:39:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Policy Contrastive Decoding for Robotic Foundation Models はコメントを受け付けていません

Rapid and Inexpensive Inertia Tensor Estimation from a Single Object Throw

要約

慣性テンソルは多くのエンジニアリング分野で重要なパラメーターですが、測定することは面倒で、複数の実験または正確で高価な機器を伴う場合があります。
ジャイロスコープ、加速度計、反応ホイールで構成される小さくて安価なスタンドアロン測定デバイスを取り付けることにより、単一の回転スローからの剛体の慣性テンソルのモーメントを測定する方法を提案します。
この方法には、測定デバイスを身体に追加するための慣性モーメントの増加に対する補償が含まれ、さらに中間結果として身体の重心の位置を取得します。
既知の剛体で行われた実験は、平均精度が約2%であることを示しています。

要約(オリジナル)

The inertia tensor is an important parameter in many engineering fields, but measuring it can be cumbersome and involve multiple experiments or accurate and expensive equipment. We propose a method to measure the moment of inertia tensor of a rigid body from a single spinning throw, by attaching a small and inexpensive stand-alone measurement device consisting of a gyroscope, accelerometer and a reaction wheel. The method includes a compensation for the increase of moment of inertia due to adding the measurement device to the body, and additionally obtains the location of the centre of gravity of the body as an intermediate result. Experiments performed with known rigid bodies show that the mean accuracy is around 2%.

arxiv情報

著者 Till M. Blaha,Mike M. Kuijper,Radu Pop,Ewoud J. J. Smeur
発行日 2025-05-19 15:59:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Rapid and Inexpensive Inertia Tensor Estimation from a Single Object Throw はコメントを受け付けていません