Zero-shot Safety Prediction for Autonomous Robots with Foundation World Models

要約

ワールド モデルは、システムの内部動的モデルを学習することでコントローラーをトレーニングし、安全違反を予測するための代理ワールドを作成します。
しかし、既存の世界モデルは、アクションに応じて観測値がどのように変化するかについての統計的学習のみに依存しており、代用ダイナミクスの精度を正確に定量化することができていないため、セーフティ クリティカルなシステムでは重大な課題となっています。
この課題に対処するために、意味のある因果関係のある潜在的な表現に観察を埋め込む基礎世界モデルを提案します。
これにより、トレーニング不要の大規模言語モデルを活用して、サロゲート ダイナミクスで因果関係のある将来の状態を直接予測できるようになります。
2 つの一般的なベンチマークにおいて、この新しいモデルは安全性予測タスクにおいて標準的な世界モデルを上回り、データをまったく使用していないにもかかわらず、教師あり学習に匹敵するパフォーマンスを示しています。
観測全体の誤差を集計するのではなく、推定された状態を比較することにより、より専門的でシステム関連のメトリクスを使用してそのパフォーマンスを評価します。

要約(オリジナル)

A world model creates a surrogate world to train a controller and predict safety violations by learning the internal dynamic model of systems. However, the existing world models rely solely on statistical learning of how observations change in response to actions, lacking precise quantification of how accurate the surrogate dynamics are, which poses a significant challenge in safety-critical systems. To address this challenge, we propose foundation world models that embed observations into meaningful and causally latent representations. This enables the surrogate dynamics to directly predict causal future states by leveraging a training-free large language model. In two common benchmarks, this novel model outperforms standard world models in the safety prediction task and has a performance comparable to supervised learning despite not using any data. We evaluate its performance with a more specialized and system-relevant metric by comparing estimated states instead of aggregating observation-wide error.

arxiv情報

著者 Zhenjiang Mao,Siqi Dai,Yuang Geng,Ivan Ruchkin
発行日 2024-04-02 17:39:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク