要約
ニューラル アルゴリズム推論 (NAR) は、古典的なアルゴリズムを最適化することを目的としています。
ただし、NAR の正規実装では、単一ソースの最短パスなど、問題に対して正しい解決策が複数ある場合でも、単一の解決策のみを返すようにニューラル ネットワークをトレーニングします。
アプリケーションによっては、複数の正しい解決策を回復することが望ましい場合があります。
そのために、複数のソリューションを使用した NAR の最初の方法を示します。
ベルマンフォード (BF) と深さ優先探索 (DFS) という 2 つの古典的なアルゴリズムで手法を実証し、アルゴリズムの広範な調査よりも 2 つのアルゴリズムに対するより深い洞察を優先します。
この方法には、適切なトレーニング データの生成と、モデル出力からのソリューションのサンプリングと検証が含まれます。
私たちの方法の各ステップは、この論文で提示されたタスクを超えたニューラルアルゴリズム推論のフレームワークとして機能し、この分野にとって独立した興味深いものになる可能性があり、私たちの結果はNAR文献におけるこのタスクに対する最初の試みを表しています。
要約(オリジナル)
Neural Algorithmic Reasoning (NAR) aims to optimize classical algorithms. However, canonical implementations of NAR train neural networks to return only a single solution, even when there are multiple correct solutions to a problem, such as single-source shortest paths. For some applications, it is desirable to recover more than one correct solution. To that end, we give the first method for NAR with multiple solutions. We demonstrate our method on two classical algorithms: Bellman-Ford (BF) and Depth-First Search (DFS), favouring deeper insight into two algorithms over a broader survey of algorithms. This method involves generating appropriate training data as well as sampling and validating solutions from model output. Each step of our method, which can serve as a framework for neural algorithmic reasoning beyond the tasks presented in this paper, might be of independent interest to the field and our results represent the first attempt at this task in the NAR literature.
arxiv情報
著者 | Zeno Kujawa,John Poole,Dobrik Georgiev,Danilo Numeroso,Pietro Liò |
発行日 | 2024-10-16 17:56:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google