要約
テキスト データのニューラル モデルの表現空間は、トレーニング中に教師なしの方法で出現します。
これらの表現が人間が解釈可能な概念をどのようにエンコードしているかを理解することは、基本的な問題です。
ニューラル表現における概念を特定するための顕著なアプローチの 1 つは、その消去により表現からの概念の予測が妨げられる線形部分空間を検索することです。
ただし、多くの線形消去アルゴリズムは扱いやすく解釈可能ですが、ニューラル ネットワークは必ずしも概念を線形に表現するとは限りません。
非線形に符号化された概念を識別するために、概念消去のための線形ミニマックス ゲームのカーネル化を提案します。
我々は、特定の非線形敵対者による概念の予測を防ぐことが可能であることを実証します。
ただし、その保護はさまざまな非線形の敵には移転されません。
したがって、非線形符号化された概念を徹底的に消去することは未解決の問題のままです。
要約(オリジナル)
The representation space of neural models for textual data emerges in an unsupervised manner during training. Understanding how those representations encode human-interpretable concepts is a fundamental problem. One prominent approach for the identification of concepts in neural representations is searching for a linear subspace whose erasure prevents the prediction of the concept from the representations. However, while many linear erasure algorithms are tractable and interpretable, neural networks do not necessarily represent concepts in a linear manner. To identify non-linearly encoded concepts, we propose a kernelization of a linear minimax game for concept erasure. We demonstrate that it is possible to prevent specific non-linear adversaries from predicting the concept. However, the protection does not transfer to different nonlinear adversaries. Therefore, exhaustively erasing a non-linearly encoded concept remains an open problem.
arxiv情報
著者 | Shauli Ravfogel,Francisco Vargas,Yoav Goldberg,Ryan Cotterell |
発行日 | 2023-09-06 19:58:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google