AND: Audio Network Dissection for Interpreting Deep Acoustic Models

要約

ニューロンレベルの解釈は、特定の知覚または構造入力パターンに応答するニューロンを調査することにより、ネットワークの動作と特性を説明することを目的としています。
視覚と言語の領域では新たな研究が行われていますが、音響モデルについては検討されていません。
このギャップを埋めるために、音響の自然言語説明を自動的に確立する最初の $\textbf{A}$udio $\textbf{N}$etwork $\textbf{D}$issection フレームワーク $\textit{AND}$ を導入します。
応答性の高いオーディオに基づいたニューロン。
$\textit{AND}$ は、LLM を使用してオーディオ間の相互音響特徴とアイデンティティを要約することを特徴としています。
$\textit{AND}$ の正確で有益な説明を検証するために、広範な実験が行われています。
さらに、生成された記述に基づいて概念固有の枝刈りを行うことにより、オーディオ マシンの学習解除に $\textit{AND}$ を使用できる可能性を示します。
最後に、$\textit{AND}$ による分析により 2 つの音響モデルの動作を強調します。(i) モデルは、高レベルの抽象的な概念ではなく、基本的な音響特徴の組み合わせで音声を識別します。
(ii) トレーニング戦略はモデルの動作とニューロンの解釈可能性に影響します。教師ありトレーニングはニューロンの注意を徐々に狭めるように導きますが、自己教師あり学習はニューロンが高レベルの特徴を探索するために多意味になるように促します。

要約(オリジナル)

Neuron-level interpretations aim to explain network behaviors and properties by investigating neurons responsive to specific perceptual or structural input patterns. Although there is emerging work in the vision and language domains, none is explored for acoustic models. To bridge the gap, we introduce $\textit{AND}$, the first $\textbf{A}$udio $\textbf{N}$etwork $\textbf{D}$issection framework that automatically establishes natural language explanations of acoustic neurons based on highly-responsive audio. $\textit{AND}$ features the use of LLMs to summarize mutual acoustic features and identities among audio. Extensive experiments are conducted to verify $\textit{AND}$’s precise and informative descriptions. In addition, we demonstrate a potential use of $\textit{AND}$ for audio machine unlearning by conducting concept-specific pruning based on the generated descriptions. Finally, we highlight two acoustic model behaviors with analysis by $\textit{AND}$: (i) models discriminate audio with a combination of basic acoustic features rather than high-level abstract concepts; (ii) training strategies affect model behaviors and neuron interpretability — supervised training guides neurons to gradually narrow their attention, while self-supervised learning encourages neurons to be polysemantic for exploring high-level features.

arxiv情報

著者 Tung-Yu Wu,Yu-Xiang Lin,Tsui-Wei Weng
発行日 2024-06-26 17:36:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SD, eess.AS パーマリンク