要約
対数線形モデルまたはマルコフ ネットワークで次の制約付き最適化タスクを解決するための自己教師あり学習アプローチを提案します。
$f$ と $g$ を、それぞれ確率変数のセット $\mathbf{X}$ と $\mathbf{Y}$ に対して定義された 2 つの対数線形モデルとする。
$\mathbf{X}$ (証拠) のすべての変数への代入 $\mathbf{x}$ と実数 $q$ が与えられると、制約付き最確説明 (CMPE) タスクは代入 $\mathbf を見つけようとします。
$f(\mathbf{x}, \mathbf{y})$ が最大化され、$g(\mathbf{x}, \mathbf{y} となるように、$\mathbf{Y}$ 内のすべての変数に {y}$ を適用します。
)\leq q$。
私たちが提案する自己教師ありアプローチでは、$\mathbf{x}$ から $\mathbf{X}$ (データ) への割り当てを与えて、アクセスを必要とせずに CMPE 問題に対する最適に近い解を出力することを学習するディープ ニューラル ネットワークをトレーニングします。
事前に計算されたあらゆるソリューションに適用されます。
私たちのアプローチの重要なアイデアは、CMPE の第一原理と近似推論手法を使用して、実行不可能な解を実行可能な解に、また実行可能な解を最適な解に押し上げる新しい損失関数を導き出すことです。
私たちは提案した手法の特性を分析し、いくつかのベンチマーク問題に対するその有効性を実験的に実証します。
要約(オリジナル)
We propose a self-supervised learning approach for solving the following constrained optimization task in log-linear models or Markov networks. Let $f$ and $g$ be two log-linear models defined over the sets $\mathbf{X}$ and $\mathbf{Y}$ of random variables respectively. Given an assignment $\mathbf{x}$ to all variables in $\mathbf{X}$ (evidence) and a real number $q$, the constrained most-probable explanation (CMPE) task seeks to find an assignment $\mathbf{y}$ to all variables in $\mathbf{Y}$ such that $f(\mathbf{x}, \mathbf{y})$ is maximized and $g(\mathbf{x}, \mathbf{y})\leq q$. In our proposed self-supervised approach, given assignments $\mathbf{x}$ to $\mathbf{X}$ (data), we train a deep neural network that learns to output near-optimal solutions to the CMPE problem without requiring access to any pre-computed solutions. The key idea in our approach is to use first principles and approximate inference methods for CMPE to derive novel loss functions that seek to push infeasible solutions towards feasible ones and feasible solutions towards optimal ones. We analyze the properties of our proposed method and experimentally demonstrate its efficacy on several benchmark problems.
arxiv情報
著者 | Shivvrat Arya,Tahrima Rahman,Vibhav Gogate |
発行日 | 2024-04-17 17:55:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google