Explaining Relation Classification Models with Semantic Extents

要約

近年、BERTやGPTなどの大規模な事前学習済み言語モデルの開発により、関係分類を含む様々なタスクの情報抽出システムが大幅に改善された。最先端のシステムは、科学的ベンチマークにおいて高い精度を誇っている。現在、説明可能性の欠如は、多くの実世界アプリケーションにおいて複雑な要因となっている。理解しやすいシステムは、偏った、直感に反する、あるいは有害な決定を防ぐために必要である。 我々は、関係分類タスクの決定パターンを分析するための概念である意味的エクステントを導入する。セマンティック・エクステントとは、分類決定に関するテキストの最も影響力のある部分である。我々の定義により、人間とモデルに対して、同様の手順で意味的拡張を決定することができる。我々は、人間とモデルの意味的範囲を簡便かつ再現性良く決定するためのアノテーションツールとソフトウェアフレームワークを提供する。両者を比較することにより、モデルはデータからショートカットパターンを学習する傾向があることが明らかになった。これらのパターンは、入力削減のような現在の解釈可能性手法では検出が困難である。我々のアプローチは、モデル開発中に偽の決定パターンを検出し、除去するのに役立つ。セマンティック・エクステントは自然言語処理システムの信頼性と安全性を向上させる。セマンティック・エクステントは、ヘルスケアや金融のような重要な分野でのアプリケーションを可能にするために不可欠なステップである。さらに、我々の研究は、ディープラーニングモデルを説明する方法を開発するための新しい研究の方向性を開く。

要約(オリジナル)

In recent years, the development of large pretrained language models, such as BERT and GPT, significantly improved information extraction systems on various tasks, including relation classification. State-of-the-art systems are highly accurate on scientific benchmarks. A lack of explainability is currently a complicating factor in many real-world applications. Comprehensible systems are necessary to prevent biased, counterintuitive, or harmful decisions. We introduce semantic extents, a concept to analyze decision patterns for the relation classification task. Semantic extents are the most influential parts of texts concerning classification decisions. Our definition allows similar procedures to determine semantic extents for humans and models. We provide an annotation tool and a software framework to determine semantic extents for humans and models conveniently and reproducibly. Comparing both reveals that models tend to learn shortcut patterns from data. These patterns are hard to detect with current interpretability methods, such as input reductions. Our approach can help detect and eliminate spurious decision patterns during model development. Semantic extents can increase the reliability and security of natural language processing systems. Semantic extents are an essential step in enabling applications in critical areas like healthcare or finance. Moreover, our work opens new research directions for developing methods to explain deep learning models.

arxiv情報

著者 Lars Klöser,Andre Büsgen,Philipp Kohl,Bodo Kraft,Albert Zündorf
発行日 2023-08-04 08:17:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, I.2.7 パーマリンク