要約
不完全な機械学習予測にもかかわらず、安全な自律的な決定を生み出すためのフレームワークである、Conformal Decision Theory を紹介します。
このような決定の例は、歩行者の予測に依存するロボット計画アルゴリズムから、高スループットと低エラーを実現するための自律製造の調整、名目上のポリシーを信頼するか実行時に安全なバックアップ ポリシーに切り替えるかの選択に至るまで、至る所に存在します。
私たちのアルゴリズムによって生成される決定は、世界モデルをまったく仮定することなく、リスクが低いという証明可能な統計的保証が付いているという意味で安全です。
観察は I.I.D である必要はありません。
そして敵対的になることさえあります。
この理論は、予測セットの構築を必要とせずに、等角予測の結果を拡張して決定を直接調整します。
実験では、人間を中心としたロボットの動作計画、自動株取引、ロボット製造における当社のアプローチの有用性が実証されています。
要約(オリジナル)
We introduce Conformal Decision Theory, a framework for producing safe autonomous decisions despite imperfect machine learning predictions. Examples of such decisions are ubiquitous, from robot planning algorithms that rely on pedestrian predictions, to calibrating autonomous manufacturing to exhibit high throughput and low error, to the choice of trusting a nominal policy versus switching to a safe backup policy at run-time. The decisions produced by our algorithms are safe in the sense that they come with provable statistical guarantees of having low risk without any assumptions on the world model whatsoever; the observations need not be I.I.D. and can even be adversarial. The theory extends results from conformal prediction to calibrate decisions directly, without requiring the construction of prediction sets. Experiments demonstrate the utility of our approach in robot motion planning around humans, automated stock trading, and robot manufacturing.
arxiv情報
著者 | Jordan Lekeufack,Anastasios N. Angelopoulos,Andrea Bajcsy,Michael I. Jordan,Jitendra Malik |
発行日 | 2023-10-10 01:52:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google