FIND: A Function Description Benchmark for Evaluating Interpretability Methods

要約

人間が判読できる説明でニューラル ネットワーク サブモジュールにラベルを付けることは、多くの下流タスクに役立ちます。そのような説明は、障害を表面化し、介入を導き、場合によっては重要なモデルの動作を説明することさえできます。
これまで、訓練されたネットワークの機構的記述のほとんどには、小さなモデル、狭く区切られた現象、および大量の人的労働が関係していました。
サイズと複雑さが増大するモデルにおいて、人間が解釈できるすべての部分計算にラベルを付けるには、記述を自動的に生成および検証できるツールがほぼ確実に必要になります。
最近、学習済みモデルをインザループでラベル付けに使用する手法が注目を集め始めていますが、その有効性を評価する方法は限られており、その場限りです。
オープンエンドのラベル付けツールをどのように検証して比較すればよいでしょうか?
このペーパーでは、自動解釈手法の構成要素を評価するためのベンチマーク スイートである FIND (Function INterpretation and description) を紹介します。
FIND には、訓練されたニューラル ネットワークのコンポーネントに似た関数と、生成しようとしている種類の付随する記述が含まれています。
関数はテキストと数値の領域に及び、現実世界のさまざまな複雑さを伴います。
事前トレーニング済み言語モデル (LM) を使用して、自然言語とコードで関数の動作の記述を生成する方法を評価します。
さらに、自動解釈エージェント (AIA) が関数の説明を生成する新しい対話型メソッドを導入します。
関数へのブラックボックス アクセスを備えた LM から構築された AIA は、仮説を立て、実験を提案し、新しいデータに基づいて説明を更新することで科学者として機能し、関数の構造を推論できることがわかりました。
ただし、AIA の説明では、グローバルな関数の動作がキャプチャされ、ローカルな詳細が見逃される傾向があります。
これらの結果は、FIND が、現実世界のモデルに適用される前に、より高度な解釈可能性手法を評価するのに役立つことを示唆しています。

要約(オリジナル)

Labeling neural network submodules with human-legible descriptions is useful for many downstream tasks: such descriptions can surface failures, guide interventions, and perhaps even explain important model behaviors. To date, most mechanistic descriptions of trained networks have involved small models, narrowly delimited phenomena, and large amounts of human labor. Labeling all human-interpretable sub-computations in models of increasing size and complexity will almost certainly require tools that can generate and validate descriptions automatically. Recently, techniques that use learned models in-the-loop for labeling have begun to gain traction, but methods for evaluating their efficacy are limited and ad-hoc. How should we validate and compare open-ended labeling tools? This paper introduces FIND (Function INterpretation and Description), a benchmark suite for evaluating the building blocks of automated interpretability methods. FIND contains functions that resemble components of trained neural networks, and accompanying descriptions of the kind we seek to generate. The functions span textual and numeric domains, and involve a range of real-world complexities. We evaluate methods that use pretrained language models (LMs) to produce descriptions of function behavior in natural language and code. Additionally, we introduce a new interactive method in which an Automated Interpretability Agent (AIA) generates function descriptions. We find that an AIA, built from an LM with black-box access to functions, can infer function structure, acting as a scientist by forming hypotheses, proposing experiments, and updating descriptions in light of new data. However, AIA descriptions tend to capture global function behavior and miss local details. These results suggest that FIND will be useful for evaluating more sophisticated interpretability methods before they are applied to real-world models.

arxiv情報

著者 Sarah Schwettmann,Tamar Rott Shaham,Joanna Materzynska,Neil Chowdhury,Shuang Li,Jacob Andreas,David Bau,Antonio Torralba
発行日 2023-12-08 05:18:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク