要約
人間は、象徴的な推論と直感的な反応の両方を活用できます。
対照的に、補強学習ポリシーは通常、ニューラルネットワークなどの不透明なシステムまたは事前に定義されたシンボルとルールに依存するシンボリックシステムでエンコードされます。
このばらばらのアプローチは、神経剤の柔軟な低レベルの反応とシンボリック薬剤の解釈可能な推論のいずれかを欠いているため、エージェントの能力を厳しく制限します。
この課題を克服するために、論理政策と神経政策の両方の混合物を使用するRLエージェント内の両方のパラダイムを調和させて統合するニューロ – シンボリックRLフレームワークであるBlendrlを紹介します。
Blendrlのエージェントは、標準的なAtari環境での神経と象徴的なベースラインよりも優れていることを経験的に実証し、環境の変化に対する堅牢性を示しています。
さらに、神経と象徴的なポリシーの相互作用を分析し、それらのハイブリッド使用がエージェントが互いの限界を克服するのに役立つ方法を示しています。
要約(オリジナル)
Humans can leverage both symbolic reasoning and intuitive reactions. In contrast, reinforcement learning policies are typically encoded in either opaque systems like neural networks or symbolic systems that rely on predefined symbols and rules. This disjointed approach severely limits the agents’ capabilities, as they often lack either the flexible low-level reaction characteristic of neural agents or the interpretable reasoning of symbolic agents. To overcome this challenge, we introduce BlendRL, a neuro-symbolic RL framework that harmoniously integrates both paradigms within RL agents that use mixtures of both logic and neural policies. We empirically demonstrate that BlendRL agents outperform both neural and symbolic baselines in standard Atari environments, and showcase their robustness to environmental changes. Additionally, we analyze the interaction between neural and symbolic policies, illustrating how their hybrid use helps agents overcome each other’s limitations.
arxiv情報
著者 | Hikaru Shindo,Quentin Delfosse,Devendra Singh Dhami,Kristian Kersting |
発行日 | 2025-04-21 16:49:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google