要約
人間が解釈可能なモデルを使用して、ブラック ボックス システムの時間的挙動を説明する問題を検討します。
この目的のために、最近の研究動向に基づいて、決定論的有限オートマトン (DFA) および線形時相論理 (LTL) 式の基本的かつ解釈可能なモデルに依存しています。
DFA と LTL 式を学習するためのほとんどの既存の作業とは対照的に、私たちはポジティブな例のみに依存しています。
私たちの動機は、特にブラックボックスシステムからは、一般に負の例を観察するのが難しいということです。
正例のみから意味のあるモデルを学習するために、正則化としてモデルの簡潔さと言語の最小性に依存するアルゴリズムを設計します。
この目的のために、私たちのアルゴリズムは 2 つのアプローチを採用しています。
シンボリックなアプローチは、制約充足問題として言語の最小性の効率的なエンコードを利用しますが、反例に基づくアプローチは、適切な負の例を生成して検索を絞り込むことに依存しています。
どちらのアプローチも、学習したモデルを理論的に保証する効果的なアルゴリズムを提供してくれます。
アルゴリズムの有効性を評価するために、すべてのアルゴリズムを合成データで評価します。
要約(オリジナル)
We consider the problem of explaining the temporal behavior of black-box systems using human-interpretable models. To this end, based on recent research trends, we rely on the fundamental yet interpretable models of deterministic finite automata (DFAs) and linear temporal logic (LTL) formulas. In contrast to most existing works for learning DFAs and LTL formulas, we rely on only positive examples. Our motivation is that negative examples are generally difficult to observe, in particular, from black-box systems. To learn meaningful models from positive examples only, we design algorithms that rely on conciseness and language minimality of models as regularizers. To this end, our algorithms adopt two approaches: a symbolic and a counterexample-guided one. While the symbolic approach exploits an efficient encoding of language minimality as a constraint satisfaction problem, the counterexample-guided one relies on generating suitable negative examples to prune the search. Both the approaches provide us with effective algorithms with theoretical guarantees on the learned models. To assess the effectiveness of our algorithms, we evaluate all of them on synthetic data.
arxiv情報
| 著者 | Rajarshi Roy,Jean-Raphaël Gaglione,Nasim Baharisangari,Daniel Neider,Zhe Xu,Ufuk Topcu |
| 発行日 | 2023-03-02 18:02:20+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google