Transformer Circuit Faithfulness Metrics are not Robust

要約

機械的解釈可能性の研究では、ニューラル ネットワーク内に存在する学習済みアルゴリズムをリバース エンジニアリングしようとします。
この研究の焦点の 1 つは、「回路」、つまり特定のタスクでの動作を説明する完全なモデルのサブグラフを発見することでした。
しかし、そのような回路の性能をどのように測定すればよいのでしょうか?
これまでの研究では、回路の「忠実度」、つまり回路が完全なモデルのパフォーマンスをどの程度再現するかを測定することが試みられてきました。
この研究では、モデルの計算の一部を除去することによって回路の忠実性を測定する実験を設計するための多くの考慮事項を調査します。
懸念すべきことに、既存の方法はアブレーション方法論における一見取るに足らない変更に非常に敏感であることがわかりました。
私たちは、既存の回路忠実度スコアは、研究者の方法論的選択と回路の実際のコンポーネントの両方を反映していると結論付けています。回路が実行する必要があるタスクは、テストに使用されるアブレーションによって異なります。
機械的解釈可能性の研究の最終目標は、ニューラル ネットワークを理解することであるため、回路に関して行われている正確な主張をより明確にする必要性を強調します。
当社は、幅広いアブレーション方法論と回路発見アルゴリズムの高効率実装を含むライブラリを https://github.com/UFO-101/auto-circuit でオープンソースしています。

要約(オリジナル)

Mechanistic interpretability work attempts to reverse engineer the learned algorithms present inside neural networks. One focus of this work has been to discover ‘circuits’ — subgraphs of the full model that explain behaviour on specific tasks. But how do we measure the performance of such circuits? Prior work has attempted to measure circuit ‘faithfulness’ — the degree to which the circuit replicates the performance of the full model. In this work, we survey many considerations for designing experiments that measure circuit faithfulness by ablating portions of the model’s computation. Concerningly, we find existing methods are highly sensitive to seemingly insignificant changes in the ablation methodology. We conclude that existing circuit faithfulness scores reflect both the methodological choices of researchers as well as the actual components of the circuit – the task a circuit is required to perform depends on the ablation used to test it. The ultimate goal of mechanistic interpretability work is to understand neural networks, so we emphasize the need for more clarity in the precise claims being made about circuits. We open source a library at https://github.com/UFO-101/auto-circuit that includes highly efficient implementations of a wide range of ablation methodologies and circuit discovery algorithms.

arxiv情報

著者 Joseph Miller,Bilal Chughtai,William Saunders
発行日 2024-07-11 17:59:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク