要約
自動化システムを実現するための一般的な手法の一つとして、模倣学習(IL)は幅広い領域で有望な性能を示している。しかし、政策性能の大幅な向上にもかかわらず、それに対応するILモデルの説明可能性に関する研究はまだ限定的である。我々は、説明可能な人工知能手法の最近のアプローチに触発され、R2RISEと呼ばれるILモデルのためのモデル非依存的説明フレームワークを提案する。R2RISEは、実証実験におけるフレームに対する政策全体の性能を説明することを目的としている。R2RISEは、ランダム化されたマスク実験からブラックボックスILモデルを繰り返し再トレーニングし、従来の評価結果環境リターンを係数として重要度マップを構築する。また、フレームの重要度の等質性、重要度マップの有効性、異なるILモデルからの重要度マップ間の接続に関する3つの主要な問題を調査するための実験を行った。その結果、R2RISEはデモの中から重要なフレームをうまく識別することができた。
要約(オリジナル)
As one of the prevalent methods to achieve automation systems, Imitation Learning (IL) presents a promising performance in a wide range of domains. However, despite the considerable improvement in policy performance, the corresponding research on the explainability of IL models is still limited. Inspired by the recent approaches in explainable artificial intelligence methods, we proposed a model-agnostic explaining framework for IL models called R2RISE. R2RISE aims to explain the overall policy performance with respect to the frames in demonstrations. It iteratively retrains the black-box IL model from the randomized masked demonstrations and uses the conventional evaluation outcome environment returns as the coefficient to build an importance map. We also conducted experiments to investigate three major questions concerning frames’ importance equality, the effectiveness of the importance map, and connections between importance maps from different IL models. The result shows that R2RISE successfully distinguishes important frames from the demonstrations.
arxiv情報
著者 | Boyuan Zheng,Jianlong Zhou,Chunjie Liu,Yiqiao Li,Fang Chen |
発行日 | 2023-01-03 13:31:44+00:00 |
arxivサイト | arxiv_id(pdf) |