Taking advantage of a very simple property to efficiently infer NFAs

要約

文法推論は、形式的な文法を有限状態機械として、または一連の書き換え規則として学習することで構成されます。
この論文では、特定のサンプルからいくつかの単語を受け入れ、他のいくつかの単語を拒否しなければならない非決定性有限オートマトン (NFA) の推論に関心があります。
この問題は当然、SAT でモデル化できます。
標準モデルは非常に大きく、プレフィックス、サフィックス、およびハイブリッドに基づく一部のモデルは、より小さな SAT インスタンスを生成するように設計されています。
非常に単純で明白な性質があります。特定のサンプルにサイズ k の NFA がある場合、サイズ k+1 の NFA もあるということです。
最初に、サイズ k+1 の NFA にいくつかの特性を追加することによって、このプロパティを強化します。
したがって、このプロパティを使用して、特定のサンプルの最小 NFA のサイズの境界を狭めることができます。
次に、サイズ k の NFA の初期モデルよりも小さい、サイズ k+1 の NFA の簡略化された洗練されたモデルを提案します。
サイズ k+1 の特定の NFA からサイズ k の NFA を構築する縮小アルゴリズムも提案します。
最後に、私たちのアプローチの効率性を示すいくつかの実験で提案を検証します。

要約(オリジナル)

Grammatical inference consists in learning a formal grammar as a finite state machine or as a set of rewrite rules. In this paper, we are concerned with inferring Nondeterministic Finite Automata (NFA) that must accept some words, and reject some other words from a given sample. This problem can naturally be modeled in SAT. The standard model being enormous, some models based on prefixes, suffixes, and hybrids were designed to generate smaller SAT instances. There is a very simple and obvious property that says: if there is an NFA of size k for a given sample, there is also an NFA of size k+1. We first strengthen this property by adding some characteristics to the NFA of size k+1. Hence, we can use this property to tighten the bounds of the size of the minimal NFA for a given sample. We then propose simplified and refined models for NFA of size k+1 that are smaller than the initial models for NFA of size k. We also propose a reduction algorithm to build an NFA of size k from a specific NFA of size k+1. Finally, we validate our proposition with some experimentation that shows the efficiency of our approach.

arxiv情報

著者 Tomasz Jastrzab,Frédéric Lardeux,Eric Monfroy
発行日 2023-03-16 13:36:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク