要約
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を大きく発展させたが、その解釈可能性の欠如は大きな懸念事項であった。LLMを解釈するための現在の方法は、推論時間後に適用されるポストホックなものであり、低レベルの特徴に焦点を当て、より高いレベルのテキスト単位での説明可能性に欠けるなどの限界がある。本研究では、プロトタイプのネットワークベースのホワイトボックスフレームワークであるproto-lmを導入し、LLMの性能を維持しつつ、微調整の段階で即座に解釈可能な埋め込みを学習できるようにする。本手法の適用可能性と解釈可能性は、広範な自然言語処理タスクに対する実験を通じて実証され、その結果は、性能を犠牲にすることなく解釈可能なモデルを作成する新たな可能性を示している。LLMにおける解釈可能性へのこの新しいアプローチは、性能を犠牲にすることなく、より解釈可能なモデルへの道を開くことができる。
要約(オリジナル)
Large Language Models (LLMs) have significantly advanced the field of Natural Language Processing (NLP), but their lack of interpretability has been a major concern. Current methods for interpreting LLMs are post hoc, applied after inference time, and have limitations such as their focus on low-level features and lack of explainability at higher level text units. In this work, we introduce proto-lm, a prototypical network-based white-box framework that allows LLMs to learn immediately interpretable embeddings during the fine-tuning stage while maintaining competitive performance. Our method’s applicability and interpretability are demonstrated through experiments on a wide range of NLP tasks, and our results indicate a new possibility of creating interpretable models without sacrificing performance. This novel approach to interpretability in LLMs can pave the way for more interpretable models without the need to sacrifice performance.
arxiv情報
著者 | Sean Xie,Soroush Vosoughi,Saeed Hassanpour |
発行日 | 2023-11-03 05:55:32+00:00 |
arxivサイト | arxiv_id(pdf) |