Interpreting Neural Policies with Disentangled Tree Representations

要約

ロボット、特に人間中心の複雑な環境で機能するロボットの進歩は、機械学習による制御ソリューションに依存しています。
ロボットは多くの場合安全性が重要なシステムであるため、学習ベースのコントローラーがどのように意思決定を行うかを理解することが重要です。
これにより、ロボット学習の解釈可能性における説明要因を形式的かつ定量的に理解することが求められます。
この論文では、もつれの解けた表現のレンズを通して、コンパクトなニューラル ポリシーの解釈可能性を研究することを目的としています。
私たちは決定木を活用して、ロボット学習におけるもつれを解くための変動係数 [1] を取得します。
これらは、タスクを解決するためのスキル、行動、または戦略を要約したものです。
ネットワークが根底にあるタスクのダイナミクスをどの程度うまく明らかにしているかを評価するために、決定の集中、相互情報、モジュール性の観点から学習されたニューラルダイナミクスのもつれの解き方を測定する解釈可能性メトリクスを導入します。
私たちは、広範な実験分析を通じて一貫して、解釈可能性ともつれの解除の間の関係の有効性を示します。

要約(オリジナル)

The advancement of robots, particularly those functioning in complex human-centric environments, relies on control solutions that are driven by machine learning. Understanding how learning-based controllers make decisions is crucial since robots are often safety-critical systems. This urges a formal and quantitative understanding of the explanatory factors in the interpretability of robot learning. In this paper, we aim to study interpretability of compact neural policies through the lens of disentangled representation. We leverage decision trees to obtain factors of variation [1] for disentanglement in robot learning; these encapsulate skills, behaviors, or strategies toward solving tasks. To assess how well networks uncover the underlying task dynamics, we introduce interpretability metrics that measure disentanglement of learned neural dynamics from a concentration of decisions, mutual information and modularity perspective. We showcase the effectiveness of the connection between interpretability and disentanglement consistently across extensive experimental analysis.

arxiv情報

著者 Tsun-Hsuan Wang,Wei Xiao,Tim Seyde,Ramin Hasani,Daniela Rus
発行日 2023-11-12 19:39:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.NE, cs.RO, stat.ML パーマリンク