要約
深いニューラルネットワークの内部表現と決定メカニズムを理解することは、依然として重要なオープンな課題です。
既存の解釈可能性方法は、影響力のある入力領域を識別することがよくありますが、モデルがクラスをどのように区別するか、または特定の変更があるカテゴリから別のカテゴリにどのような入力を移行するかを解明しない場合があります。
これらの制限に対処するために、ネットワーク勾配を無限の動きの形として扱うことにより、クラス間の暗黙のパスを視覚化する新しいフレームワークを提案します。
位相ベースの動きの倍率からインスピレーションを得て、最初に変換可能な変換を使用して画像を分解します。
勾配を完全に統合してフルパスをトレースするのではなく、ワンステップ勾配を入力に増幅し、線形外挿を実行して、モデルがソースからターゲットクラスにどのように移動するかを露出させます。
操縦可能なピラミッドドメインで動作することにより、これらの増幅された勾配は、分類器の最も敏感な方向を強調する、意味的に意味のある空間的にコヒーレントなモーフを生成し、決定境界のジオメトリに関する洞察を与えます。
合成データセットと現実世界の両方のデータセットの実験は、私たちの位相に焦点を当てた外挿が知覚的に整列した意味的に意味のある変換をもたらし、神経分類器の内部表現に斬新で解釈可能なレンズを提供することを示しています。
要約(オリジナル)
Understanding the internal representations and decision mechanisms of deep neural networks remains a critical open challenge. While existing interpretability methods often identify influential input regions, they may not elucidate how a model distinguishes between classes or what specific changes would transition an input from one category to another. To address these limitations, we propose a novel framework that visualizes the implicit path between classes by treating the network gradient as a form of infinitesimal motion. Drawing inspiration from phase-based motion magnification, we first decompose images using invertible transforms-specifically the Complex Steerable Pyramid-then compute class-conditional gradients in the transformed space. Rather than iteratively integrating the gradient to trace a full path, we amplify the one-step gradient to the input and perform a linear extrapolation to expose how the model moves from source to target class. By operating in the steerable pyramid domain, these amplified gradients produce semantically meaningful, spatially coherent morphs that highlight the classifier’s most sensitive directions, giving insight into the geometry of its decision boundaries. Experiments on both synthetic and real-world datasets demonstrate that our phase-focused extrapolation yields perceptually aligned, semantically meaningful transformations, offering a novel, interpretable lens into neural classifiers’ internal representations.
arxiv情報
著者 | Farzaneh Mahdisoltani,Saeed Mahdisoltani,Roger B. Grosse,David J. Fleet |
発行日 | 2025-06-11 06:26:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google