A Multi-Grained Self-Interpretable Symbolic-Neural Model For Single/Multi-Labeled Text Classification

要約

レイヤースタッキングアーキテクチャに基づくディープニューラルネットワークは、歴史的に固有の解釈可能性の低さに悩まされてきました。一方、記号的確率モデルは明確な解釈可能性を持って機能するが、どのようにニューラルネットワークと組み合わせて性能を向上させるかは未解決である。本論文では、構造化言語モデルによるテキスト分類のために、この2つのシステムを融合させることを試みる。我々は、スパンレベルのゴールドラベルにアクセスすることなく、構成員ツリーからテキストスパンのクラスラベルを明示的に予測することを学習できるシンボリックニューラルモデルを提案する。構造化言語モデルは、自己教師付きで構成樹の予測を学習するため、学習データとして必要なのは生テキストと文レベルのラベルのみであり、本質的に一般的な構成樹レベルの自己解釈可能な分類モデルとなる。実験の結果、本アプローチは下流タスクにおいて良好な予測精度を達成できることが実証された。一方、予測されたスパンラベルは、人間の合理的な理由とある程度一致する。

要約(オリジナル)

Deep neural networks based on layer-stacking architectures have historically suffered from poor inherent interpretability. Meanwhile, symbolic probabilistic models function with clear interpretability, but how to combine them with neural networks to enhance their performance remains to be explored. In this paper, we try to marry these two systems for text classification via a structured language model. We propose a Symbolic-Neural model that can learn to explicitly predict class labels of text spans from a constituency tree without requiring any access to span-level gold labels. As the structured language model learns to predict constituency trees in a self-supervised manner, only raw texts and sentence-level labels are required as training data, which makes it essentially a general constituent-level self-interpretable classification model. Our experiments demonstrate that our approach could achieve good prediction accuracy in downstream tasks. Meanwhile, the predicted span labels are consistent with human rationales to a certain degree.

arxiv情報

著者 Xiang Hu,Xinyu Kong,Kewei Tu
発行日 2023-03-06 03:25:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.LG パーマリンク