要約
不透明な機械学習モデルの出力を解釈するとはどういうことでしょうか。
1 つのアプローチは、解釈可能な機械学習技術を開発することです。
これらの手法は、モデル中心のローカルまたはグローバルの説明を提供することにより、機械学習モデルがどのように機能するかを示すことを目的としています。これは、モデルの内部動作メカニズムを明らかにする機械的解釈、または入力特徴出力データの関係を示す非機械的近似に基づくことができます。
この論文では、社会哲学を利用して、特定の規範的に顕著な領域における機械学習の出力を解釈するには、社会構造的説明と呼ばれる第 3 のタイプの説明に訴える必要がある可能性があると主張します。
この説明タイプの関連性は、機械学習モデルが孤立したエンティティではなく、社会構造内に埋め込まれ、社会構造によって形成されているという事実によって動機付けられています。
社会構造の説明は、社会構造が機械学習モデルの出力にどのように寄与するかを示し、部分的に説明することを目的としています。
私たちは、人種的に偏った医療配分アルゴリズムを調べることによって、社会構造的説明の重要性を実証します。
私たちの提案は、モデルの解釈可能性を超えた透明性の必要性を強調しており、機械学習システムの出力を理解するには、機械学習モデル自体の理解を超えた広範な分析が必要になる可能性があります。
要約(オリジナル)
What is it to interpret the outputs of an opaque machine learning model. One approach is to develop interpretable machine learning techniques. These techniques aim to show how machine learning models function by providing either model centric local or global explanations, which can be based on mechanistic interpretations revealing the inner working mechanisms of models or nonmechanistic approximations showing input feature output data relationships. In this paper, we draw on social philosophy to argue that interpreting machine learning outputs in certain normatively salient domains could require appealing to a third type of explanation that we call sociostructural explanation. The relevance of this explanation type is motivated by the fact that machine learning models are not isolated entities but are embedded within and shaped by social structures. Sociostructural explanations aim to illustrate how social structures contribute to and partially explain the outputs of machine learning models. We demonstrate the importance of sociostructural explanations by examining a racially biased healthcare allocation algorithm. Our proposal highlights the need for transparency beyond model interpretability, understanding the outputs of machine learning systems could require a broader analysis that extends beyond the understanding of the machine learning model itself.
arxiv情報
著者 | Andrew Smart,Atoosa Kasirzadeh |
発行日 | 2024-09-05 15:47:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google