A Parameterized Theory of PAC Learning

要約

タイトル:PAC学習のパラメータ化理論
要約:
– PAC学習はサンプル複雑性理論の核心的な概念であり、効率的なPAC学習可能性は、古典的な計算的複雑性のクラスPの自然な対応物と見なされる。
– パラメータ化複雑性理論の発展により、古典的な計算的複雑性のP-NP分割超えて多数の問題の処理境界を特定することができたが、サンプル複雑性の分野には効率的なPAC学習可能性以上のものがない。
– 本研究では、パラメータ化PAC学習の理論を開発し、パラメータ化複雑性の要素を組み込んだ最近のPAC学習結果に新たな光を当てることができる。
– 理論内で、パラメータ化複雑性パラダイムの核心概念であるFPTクラスと明確に対応する2つの固定パラメータ学習の概念を特定し、固定パラメータ学習を排除するために必要な機構を開発します。
– その後、CNFおよびDNF学習の処理境界だけでなく、グラフ上の学習問題の範囲においても、この理論の応用を紹介する。

要約(オリジナル)

Probably Approximately Correct (i.e., PAC) learning is a core concept of sample complexity theory, and efficient PAC learnability is often seen as a natural counterpart to the class P in classical computational complexity. But while the nascent theory of parameterized complexity has allowed us to push beyond the P-NP “dichotomy” in classical computational complexity and identify the exact boundaries of tractability for numerous problems, there is no analogue in the domain of sample complexity that could push beyond efficient PAC learnability. As our core contribution, we fill this gap by developing a theory of parameterized PAC learning which allows us to shed new light on several recent PAC learning results that incorporated elements of parameterized complexity. Within the theory, we identify not one but two notions of fixed-parameter learnability that both form distinct counterparts to the class FPT — the core concept at the center of the parameterized complexity paradigm — and develop the machinery required to exclude fixed-parameter learnability. We then showcase the applications of this theory to identify refined boundaries of tractability for CNF and DNF learning as well as for a range of learning problems on graphs.

arxiv情報

著者 Cornelius Brand,Robert Ganian,Kirill Simonov
発行日 2023-04-27 09:39:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CC パーマリンク