Explanations as Programs in Probabilistic Logic Programming

要約

わかりやすい説明の生成は、現代の人工知能システムの重要な機能です。
この研究では、関係構造と不確実性を備えた領域をモデル化するのに役立つ論理プログラミングの拡張である確率的論理プログラミングを検討します。
基本的に、プログラムは、可能な世界 (つまり、一連の事実) にわたる確率分布を指定します。
説明の概念は通常、世界の概念と関連付けられているため、クエリが真となる世界だけでなく、最も可能性の高い世界を探すこともよくあります。
残念ながら、そのような説明は因果構造を示していません。
特に、特定の予測 (クエリによって表される) に必要な推論の連鎖は示されていません。
この論文では、いくつかの展開のような変換によって与えられたクエリから生成されるプログラムとして説明を表現する新しいアプローチを提案します。
ここでは、特定のクエリを証明する推論の連鎖が明示されます。
さらに、生成された説明は最小限であり (つまり、無関係な情報は含まれていません)、パラメータ化できます。
ユーザーが説明から興味のない詳細を隠すことができるように、目に見える述語の仕様。

要約(オリジナル)

The generation of comprehensible explanations is an essential feature of modern artificial intelligence systems. In this work, we consider probabilistic logic programming, an extension of logic programming which can be useful to model domains with relational structure and uncertainty. Essentially, a program specifies a probability distribution over possible worlds (i.e., sets of facts). The notion of explanation is typically associated with that of a world, so that one often looks for the most probable world as well as for the worlds where the query is true. Unfortunately, such explanations exhibit no causal structure. In particular, the chain of inferences required for a specific prediction (represented by a query) is not shown. In this paper, we propose a novel approach where explanations are represented as programs that are generated from a given query by a number of unfolding-like transformations. Here, the chain of inferences that proves a given query is made explicit. Furthermore, the generated explanations are minimal (i.e., contain no irrelevant information) and can be parameterized w.r.t. a specification of visible predicates, so that the user may hide uninteresting details from explanations.

arxiv情報

著者 Germán Vidal
発行日 2023-08-16 16:53:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LO, cs.PL パーマリンク