LTLDoG: Satisfying Temporally-Extended Symbolic Constraints for Safe Diffusion-based Planning

要約

人と対話し、人々の周囲で動作するロボットを安全かつ成功裏に展開するには、指定された制約を遵守しながら複雑な環境で効果的に動作することが重要です。
この作業では、テスト時に新しい静的および時間的に拡張された制約/命令に従う長期軌道の生成に焦点を当てます。
我々は、有限線形時相論理 ($\text{LTL}_f$) を使用して指定された命令が与えられた場合に、逆プロセスの推論ステップを変更する、データ駆動型拡散ベースのフレームワーク LTLDoG を提案します。
LTLDoG は、$\text{LTL}_f$ の満足度値関数を活用し、その勾配フィールドを使用してサンプリング ステップをガイドします。
この値関数は、トレーニング中に観察されなかった新しい命令に一般化するようにトレーニングすることもできるため、テスト時の柔軟な適応性が可能になります。
ロボットのナビゲーションと操作の実験では、この方法が障害物の回避と訪問シーケンスを指定する公式を満たす軌道を生成できることが示されています。
コードと補足資料は、https://github.com/clear-nus/ltldog からオンラインで入手できます。

要約(オリジナル)

Operating effectively in complex environments while complying with specified constraints is crucial for the safe and successful deployment of robots that interact with and operate around people. In this work, we focus on generating long-horizon trajectories that adhere to novel static and temporally-extended constraints/instructions at test time. We propose a data-driven diffusion-based framework, LTLDoG, that modifies the inference steps of the reverse process given an instruction specified using finite linear temporal logic ($\text{LTL}_f$). LTLDoG leverages a satisfaction value function on $\text{LTL}_f$ and guides the sampling steps using its gradient field. This value function can also be trained to generalize to new instructions not observed during training, enabling flexible test-time adaptability. Experiments in robot navigation and manipulation illustrate that the method is able to generate trajectories that satisfy formulae that specify obstacle avoidance and visitation sequences. Code and supplementary material are available online at https://github.com/clear-nus/ltldog.

arxiv情報

著者 Zeyu Feng,Hao Luan,Pranav Goyal,Harold Soh
発行日 2024-09-30 08:42:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク