要約
動的なプログラミングと強化学習では、確率的環境におけるエージェントの連続的な意思決定のポリシーは、通常、目標をスカラー報酬関数として表現し、予想される合計報酬を最大化するポリシーを求めることによって決定されます。
しかし、人間が気にする多くの目標は、当然世界の複数の側面に関係しているため、それらを単一の報酬機能に凝縮する方法は明らかではないかもしれません。
さらに、最大化は仕様ゲームに苦しんでおり、得られたポリシーは意図しない方法で高い予想される合計報酬を達成し、しばしば極端なまたは無意味な行動をとっています。
ここでは、複数の明確な評価メトリックを備えた有限の非環式マルコフ決定プロセスを考慮します。これは、ユーザーが最大化したい量を必ずしも表しているわけではありません。
エージェントのタスクは、評価メトリックの予想される合計のベクトルが、吸引セットと呼ばれるいくつかの凸セットに分類されることを保証することです。
私たちのアルゴリズムは、このタスクがシンプルを使用して実現可能性セットを近似し、願望を前進させながら、実行可能なままにしていることを保証します。
可能な状態 – アクション – サクサクセルのトリプルの数に複雑な線形と、評価メトリックの数に多項式があります。
さらに、選択されたポリシーと目標の明示的に非最大化された性質は、アクションの選択にヒューリスティックな安全基準を適用するために使用できる追加の自由度を生み出します。
エージェントをより保守的な行動に向けることを目的とするこのような安全基準について説明します。
要約(オリジナル)
In dynamic programming and reinforcement learning, the policy for the sequential decision making of an agent in a stochastic environment is usually determined by expressing the goal as a scalar reward function and seeking a policy that maximizes the expected total reward. However, many goals that humans care about naturally concern multiple aspects of the world, and it may not be obvious how to condense those into a single reward function. Furthermore, maximization suffers from specification gaming, where the obtained policy achieves a high expected total reward in an unintended way, often taking extreme or nonsensical actions. Here we consider finite acyclic Markov Decision Processes with multiple distinct evaluation metrics, which do not necessarily represent quantities that the user wants to be maximized. We assume the task of the agent is to ensure that the vector of expected totals of the evaluation metrics falls into some given convex set, called the aspiration set. Our algorithm guarantees that this task is fulfilled by using simplices to approximate feasibility sets and propagate aspirations forward while ensuring they remain feasible. It has complexity linear in the number of possible state-action-successor triples and polynomial in the number of evaluation metrics. Moreover, the explicitly non-maximizing nature of the chosen policy and goals yields additional degrees of freedom, which can be used to apply heuristic safety criteria to the choice of actions. We discuss several such safety criteria that aim to steer the agent towards more conservative behavior.
arxiv情報
著者 | Simon Dima,Simon Fischer,Jobst Heitzig,Joss Oliver |
発行日 | 2025-02-25 14:03:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google