Transitivity Recovering Decompositions: Interpretable and Robust Fine-Grained Relationships

要約

きめの細かい表現学習における最近の進歩では、ローカルからグローバルへの (緊急) 関係を活用して、最先端の結果を達成しています。
ただし、そのようなメソッドが依存する関係表現は抽象的です。
私たちは、画像ビュー上で解釈可能なグラフとして表現することで、この抽象化を解体することを目指しています。
私たちは、抽象関係表現がローカルビュー間の推移的な関係を回復する方法にほかならないことを理論的に示すことから始めます。
これに基づいて、インスタンス レベルとクラス レベルの両方で、ポストホック計算を行わずに、抽象的な創発関係の解釈可能な等価物を識別するグラフ空間検索アルゴリズムである推移性回復分解 (TRD) を設計します。
さらに、この発見を裏付ける経験的証拠により、TRD がノイズの多いビューに対して堅牢であることが証明されていることを示します。
後者により、TRD は完全に解釈可能でありながら、最先端のものと同等かそれ以上のパフォーマンスを実現できます。
実装は https://github.com/abhrac/trd で入手できます。

要約(オリジナル)

Recent advances in fine-grained representation learning leverage local-to-global (emergent) relationships for achieving state-of-the-art results. The relational representations relied upon by such methods, however, are abstract. We aim to deconstruct this abstraction by expressing them as interpretable graphs over image views. We begin by theoretically showing that abstract relational representations are nothing but a way of recovering transitive relationships among local views. Based on this, we design Transitivity Recovering Decompositions (TRD), a graph-space search algorithm that identifies interpretable equivalents of abstract emergent relationships at both instance and class levels, and with no post-hoc computations. We additionally show that TRD is provably robust to noisy views, with empirical evidence also supporting this finding. The latter allows TRD to perform at par or even better than the state-of-the-art, while being fully interpretable. Implementation is available at https://github.com/abhrac/trd.

arxiv情報

著者 Abhra Chaudhuri,Massimiliano Mancini,Zeynep Akata,Anjan Dutta
発行日 2023-10-24 16:48:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク