The Representational Status of Deep Learning Models

要約

この論文は、深層学習モデル (DLM) の表現状態を明らかにすることを目的としています。
一般に「表現」と呼ばれますが、表現の機能的概念と関係概念が混同されているため、これが意味するものはあいまいです。
このホワイト ペーパーでは、DLM はリレーショナルな意味でターゲットを表していますが、高度に理想化されたモデルとして最もよく理解されていると主張しています。
この結果は、説明可能な AI (XAI) に直接影響を与え、DLM 表現の理想化された性質と将来の科学的調査におけるそれらの役割を調べることに哲学的な注意を向けます。

要約(オリジナル)

This paper aims to clarify the representational status of Deep Learning Models (DLMs). While commonly referred to as ‘representations’, what this entails is ambiguous due to a conflation of functional and relational conceptions of representation. This paper argues that while DLMs represent their targets in a relational sense, they are best understood as highly idealized models. This result has immediate implications for explainable AI (XAI) and directs philosophical attention toward examining the idealized nature of DLM representations and their role in future scientific investigation.

arxiv情報

著者 Eamon Duede
発行日 2023-03-21 17:19:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク