Backward explanations via redefinition of predicates

要約

History eXplanation based on Predicates (HXP) は、任意の述語のプリズムを通じて、エージェントと環境 (履歴) との一連の相互作用における強化学習 (RL) エージェントの動作を研究します。
この目的を達成するために、履歴内のアクションごとにアクション重要度スコアが計算されます。
説明は、ユーザーに対して最も重要なアクションを表示することで構成されます。
アクションの重要度の計算は #W[1] で難しいため、長い履歴では品質を犠牲にしてスコアを近似する必要があります。
したがって、スコアを近似することなくこれらの履歴を説明できる、Backward-HXP と呼ばれる新しい HXP 手法を提案します。
実験では、B-HXP が長い歴史を要約する能力を示しています。

要約(オリジナル)

History eXplanation based on Predicates (HXP), studies the behavior of a Reinforcement Learning (RL) agent in a sequence of agent’s interactions with the environment (a history), through the prism of an arbitrary predicate. To this end, an action importance score is computed for each action in the history. The explanation consists in displaying the most important actions to the user. As the calculation of an action’s importance is #W[1]-hard, it is necessary for long histories to approximate the scores, at the expense of their quality. We therefore propose a new HXP method, called Backward-HXP, to provide explanations for these histories without having to approximate scores. Experiments show the ability of B-HXP to summarise long histories.

arxiv情報

著者 Léo Saulières,Martin C. Cooper,Florence Dupin de Saint Cyr
発行日 2024-08-05 16:31:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CC, I.2.6 パーマリンク