Interpretable by Design: Learning Predictors by Composing Interpretable Queries

要約

高性能の機械学習アルゴリズムを使用した一般的に不透明な意思決定についての懸念が高まっています。
ドメイン固有の用語で推論プロセスの説明を提供することは、ヘルスケアなどのリスクに敏感なドメインでの採用に不可欠です。
機械学習アルゴリズムは設計によって解釈可能であるべきであり、これらの解釈が表現される言語はドメインおよびタスクに依存するべきであると主張します。
その結果、モデルの予測は、ユーザー定義およびタスク固有のデータのバイナリ関数のファミリーに基づいており、それぞれがエンドユーザーに対して明確な解釈を持っています。
次に、特定の入力に対する正確な予測に必要なクエリの予想数を最小限に抑えます。
ソリューションは一般的に扱いにくいため、以前の作業に従って、情報取得に基づいてクエリを順番に選択します。
ただし、以前の作業とは対照的に、クエリが条件付きで独立していると仮定する必要はありません。
代わりに、確率的生成モデル (VAE) と MCMC アルゴリズム (Unadjusted Langevin) を活用して、以前のクエリ回答に基づいて、入力に関する最も有益なクエリを選択します。
これにより、予測のあいまいさを解決するために必要な深さのクエリチェーンをオンラインで決定できます。
最後に、ビジョンと NLP タスクに関する実験は、私たちのアプローチの有効性と事後説明に対するその優位性を示しています。

要約(オリジナル)

There is a growing concern about typically opaque decision-making with high-performance machine learning algorithms. Providing an explanation of the reasoning process in domain-specific terms can be crucial for adoption in risk-sensitive domains such as healthcare. We argue that machine learning algorithms should be interpretable by design and that the language in which these interpretations are expressed should be domain- and task-dependent. Consequently, we base our model’s prediction on a family of user-defined and task-specific binary functions of the data, each having a clear interpretation to the end-user. We then minimize the expected number of queries needed for accurate prediction on any given input. As the solution is generally intractable, following prior work, we choose the queries sequentially based on information gain. However, in contrast to previous work, we need not assume the queries are conditionally independent. Instead, we leverage a stochastic generative model (VAE) and an MCMC algorithm (Unadjusted Langevin) to select the most informative query about the input based on previous query-answers. This enables the online determination of a query chain of whatever depth is required to resolve prediction ambiguities. Finally, experiments on vision and NLP tasks demonstrate the efficacy of our approach and its superiority over post-hoc explanations.

arxiv情報

著者 Aditya Chattopadhyay,Stewart Slocum,Benjamin D. Haeffele,Rene Vidal,Donald Geman
発行日 2022-11-25 17:47:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク