Ideal Abstractions for Decision-Focused Learning

要約

【タイトル】意思決定にフォーカスした学習の理想的な抽象化

【要約】
– 機械学習システム内で、意思決定の有用な構造を特定し活用することにより、簡略化の抽象化を行う方法論を示す。
– 多くの機械学習タスクは高次元のアウトプットスペースをもつが、多くの場合、アウトプットを粗くしたものでも意思決定に十分な情報が得られる。
– 開発者はアウトプットスペースの抽象化を手動で行うが、抽象化の可能性が多いため、モデルにとって適切なアウトプットスペースの選択が不明瞭である。
– 決定に関連した情報の損失を最小限に抑え、アウトプットスペースを自動的に構成する方法を提案する。
– 幾何学的な観点から、アルゴリズムのステップを確率シンプレックスの折畳みとして定式化し、H-エントロピーに着目して、決定に関連する情報の総損失を最小限に抑える。
– 抽象化されたアウトカムスペースでの学習は必要とするデータが少なく、意思決定の質の向上につながる。
– ディープニューラルネットワークのトレーニング用データ取得と、クローズドループの野火の管理タスクの2つのドメインで、この方法を実証する。

要約(オリジナル)

We present a methodology for formulating simplifying abstractions in machine learning systems by identifying and harnessing the utility structure of decisions. Machine learning tasks commonly involve high-dimensional output spaces (e.g., predictions for every pixel in an image or node in a graph), even though a coarser output would often suffice for downstream decision-making (e.g., regions of an image instead of pixels). Developers often hand-engineer abstractions of the output space, but numerous abstractions are possible and it is unclear how the choice of output space for a model impacts its usefulness in downstream decision-making. We propose a method that configures the output space automatically in order to minimize the loss of decision-relevant information. Taking a geometric perspective, we formulate a step of the algorithm as a projection of the probability simplex, termed fold, that minimizes the total loss of decision-related information in the H-entropy sense. Crucially, learning in the abstracted outcome space requires less data, leading to a net improvement in decision quality. We demonstrate the method in two domains: data acquisition for deep neural network training and a closed-loop wildfire management task.

arxiv情報

著者 Michael Poli,Stefano Massaroli,Stefano Ermon,Bryan Wilder,Eric Horvitz
発行日 2023-03-29 23:31:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG パーマリンク