要約
テスト条件がトレーニング データで表される条件と異なる場合、いわゆる分布外 (OOD) 入力により、最新のロボット自律スタックの学習済みコンポーネントの信頼性が損なわれる可能性があります。
したがって、OOD データに対処することは、信頼できる学習が可能なオープンワールドの自律性を実現する上での重要な課題です。
このペーパーでは、データ駆動型ロボット システムのコンテキストにおける OOD データとそれに関連する課題の謎を解き明かし、学習済みモデルに対する OOD データの影響を個別に研究する ML コミュニティの新たなパラダイムとの関連性を引き出すことを目的としています。
私たちは、ロボット工学者として、OOD 条件で動作するロボットの全体的な \textit{システム レベル} 能力について推論する必要があると主張します。
私たちは、安全で信頼性の高い学習可能な自律性に向けた将来の研究を導くために、OOD 問題のこのシステムレベルの視点に関する主要な研究上の疑問を強調します。
要約(オリジナル)
When testing conditions differ from those represented in training data, so-called out-of-distribution (OOD) inputs can mar the reliability of learned components in the modern robot autonomy stack. Therefore, coping with OOD data is an important challenge on the path towards trustworthy learning-enabled open-world autonomy. In this paper, we aim to demystify the topic of OOD data and its associated challenges in the context of data-driven robotic systems, drawing connections to emerging paradigms in the ML community that study the effect of OOD data on learned models in isolation. We argue that as roboticists, we should reason about the overall \textit{system-level} competence of a robot as it operates in OOD conditions. We highlight key research questions around this system-level view of OOD problems to guide future research toward safe and reliable learning-enabled autonomy.
arxiv情報
著者 | Rohan Sinha,Apoorva Sharma,Somrita Banerjee,Thomas Lew,Rachel Luo,Spencer M. Richards,Yixiao Sun,Edward Schmerling,Marco Pavone |
発行日 | 2023-08-25 17:58:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google