要約
深い強化学習は効果的であることが示されていますが、モデルのブラックボックスの性質は、政策解釈を直接するための障壁を提示します。
この問題に対処するために、エンドツーエンドのポリシー学習のために、神経DNF-MTと呼ばれる神経腫瘍アプローチを提案します。
ニューラルDNF-MTモデルの微分可能性により、トレーニングのために深い俳優criticアルゴリズムを使用することができます。
同時に、そのアーキテクチャは、訓練されたモデルを標準的な(二価または確率的)ロジックプログラムとして表現する解釈可能なポリシーに直接翻訳できるように設計されています。
さらに、追加の層を含めることができ、複雑な観測から抽象的特徴を抽出し、述語発明の形として機能します。
ロジック表現は非常に解釈可能であり、決定論的ポリシーの二価表現をどのように編集し、神経モデルに組み込むことができるかを示し、手動の介入と学習ポリシーの適応を促進します。
さまざまな形態の観測からの決定論的または確率的行動を学習する必要があるさまざまなタスクに関するアプローチを評価します。
私たちの経験的結果は、私たちのニューラルDNF-MTモデルが、解釈可能なポリシーを提供しながら、競合するブラックボックス方法のレベルで実行されることを示しています。
要約(オリジナル)
Although deep reinforcement learning has been shown to be effective, the model’s black-box nature presents barriers to direct policy interpretation. To address this problem, we propose a neuro-symbolic approach called neural DNF-MT for end-to-end policy learning. The differentiable nature of the neural DNF-MT model enables the use of deep actor-critic algorithms for training. At the same time, its architecture is designed so that trained models can be directly translated into interpretable policies expressed as standard (bivalent or probabilistic) logic programs. Moreover, additional layers can be included to extract abstract features from complex observations, acting as a form of predicate invention. The logic representations are highly interpretable, and we show how the bivalent representations of deterministic policies can be edited and incorporated back into a neural model, facilitating manual intervention and adaptation of learned policies. We evaluate our approach on a range of tasks requiring learning deterministic or stochastic behaviours from various forms of observations. Our empirical results show that our neural DNF-MT model performs at the level of competing black-box methods whilst providing interpretable policies.
arxiv情報
著者 | Kexin Gu Baugh,Luke Dickens,Alessandra Russo |
発行日 | 2025-03-05 18:04:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google