要約
複雑な NLP 問題を解決するためにトランスフォーマーにますます依存するようになっているため、トランスフォーマーの決定を人間が解釈できるようにする必要性が高まっています。
Transformer ベースのモデルの出力を解釈するための説明可能な AI (XAI) 手法がいくつか提案されていますが、それらを使用して比較するための簡単なアクセスがまだありません。
トランスフォーマーベースの分類器での XAI メソッドの使用と比較を簡素化する Python ライブラリである ferret を導入します。
ferret を使用すると、ユーザーは任意のフリーテキストまたは既存の XAI コーパスで最先端の XAI メソッドを使用して、トランスフォーマー ベースのモデル出力の説明を視覚化および比較できます。
さらに、ユーザーはアドホック XAI メトリクスを評価して、最も忠実でもっともらしい説明を選択することもできます。
最近統合された Hugging Face のトランスフォーマー ベースのモデルを共有および使用するプロセスに合わせて、ferret はその Python ライブラリと直接インターフェイスします。
このホワイト ペーパーでは、センチメント分析とヘイト スピーチ検出のためにトランスフォーマーで使用される XAI メソッドのベンチマークとして ferret を紹介します。
特定の方法が一貫してより良い説明を提供し、変圧器モデルのコンテキストでどのように好ましいかを示します。
要約(オリジナル)
As Transformers are increasingly relied upon to solve complex NLP problems, there is an increased need for their decisions to be humanly interpretable. While several explainable AI (XAI) techniques for interpreting the outputs of transformer-based models have been proposed, there is still a lack of easy access to using and comparing them. We introduce ferret, a Python library to simplify the use and comparisons of XAI methods on transformer-based classifiers. With ferret, users can visualize and compare transformers-based models output explanations using state-of-the-art XAI methods on any free-text or existing XAI corpora. Moreover, users can also evaluate ad-hoc XAI metrics to select the most faithful and plausible explanations. To align with the recently consolidated process of sharing and using transformers-based models from Hugging Face, ferret interfaces directly with its Python library. In this paper, we showcase ferret to benchmark XAI methods used on transformers for sentiment analysis and hate speech detection. We show how specific methods provide consistently better explanations and are preferable in the context of transformer models.
arxiv情報
| 著者 | Giuseppe Attanasio,Eliana Pastor,Chiara Di Bonaventura,Debora Nozza |
| 発行日 | 2023-03-02 15:46:26+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google