Zero-shot Safety Prediction for Autonomous Robots with Foundation World Models

要約

ワールドモデルは、システムの内部力学モデルを学習することにより、コントローラを訓練し、安全違反を予測するための代理ワールドを作成します。しかし、既存のワールドモデルは、アクションに応答して観測がどのように変化するかの統計的な学習のみに依存しており、代理のダイナミクスがどの程度正確であるかの正確な定量化が欠けているため、セーフティ・クリティカルなシステムにおいて大きな課題となっている。この課題に対処するため、我々は、観測を意味のある因果潜在的な表現に埋め込む基礎世界モデルを提案する。これにより、訓練不要の大規模言語モデルを活用することで、サロゲートダイナミクスが因果的な将来の状態を直接予測できるようになる。つの共通のベンチマークにおいて、この新しいモデルは、安全性予測タスクにおいて標準的なワールドモデルを凌駕し、データを用いないにもかかわらず教師あり学習に匹敵する性能を持つ。観測全体の誤差を集計する代わりに、推定された状態を比較することで、より専門的でシステムに関連した指標を用いて性能を評価する。

要約(オリジナル)

A world model creates a surrogate world to train a controller and predict safety violations by learning the internal dynamic model of systems. However, the existing world models rely solely on statistical learning of how observations change in response to actions, lacking precise quantification of how accurate the surrogate dynamics are, which poses a significant challenge in safety-critical systems. To address this challenge, we propose foundation world models that embed observations into meaningful and causally latent representations. This enables the surrogate dynamics to directly predict causal future states by leveraging a training-free large language model. In two common benchmarks, this novel model outperforms standard world models in the safety prediction task and has a performance comparable to supervised learning despite not using any data. We evaluate its performance with a more specialized and system-relevant metric by comparing estimated states instead of aggregating observation-wide error.

arxiv情報

著者 Zhenjiang Mao,Siqi Dai,Yuang Geng,Ivan Ruchkin
発行日 2024-05-02 19:18:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.RO パーマリンク