要約
強化学習 (RL) は、複雑なポリシーを効果的に学習できます。
ただし、これらのポリシーを学習するには、多くの場合、環境との広範な試行錯誤が必要になります。
現実の多くのシナリオでは、データ収集コストが高く、安全性への懸念があるため、このアプローチは現実的ではありません。
その結果、一般的な戦略は、低コストで高速なソース シミュレータでトレーニングされたポリシーを現実世界のターゲット環境に転送することです。
ただし、このプロセスには課題があります。
シミュレーターは、どれほど高度であっても、現実世界の複雑さを完全に再現することはできず、ソース環境とターゲット環境の間でダイナミクスの不一致が生じます。
過去の調査では、ソース ドメインは考えられるすべてのターゲット移行を包含する必要があり、この条件を完全サポートと呼んでいます。
ただし、特にダイナミクスに大きな矛盾が生じるシナリオでは、完全なサポートを期待することは非現実的であることがよくあります。
この論文では、大きなダイナミクスの不一致の適応への対処に焦点を移します。
私たちは、以前の研究のような厳格な完全サポート条件から脱却し、代わりに対象ドメインに効果的なポリシーを作成することに焦点を当てます。
私たちが提案するアプローチはシンプルですが効果的です。
これは、サポートの不足を軽減するために、ソース サポートをターゲット サポートに偏らせて拡張するという中心的な概念に基づいています。
さまざまなベンチマークのセットでの包括的なテストを通じて、私たちの手法の有効性は際立っており、以前の手法と比べて顕著な改善が見られます。
要約(オリジナル)
Reinforcement Learning (RL) can effectively learn complex policies. However, learning these policies often demands extensive trial-and-error interactions with the environment. In many real-world scenarios, this approach is not practical due to the high costs of data collection and safety concerns. As a result, a common strategy is to transfer a policy trained in a low-cost, rapid source simulator to a real-world target environment. However, this process poses challenges. Simulators, no matter how advanced, cannot perfectly replicate the intricacies of the real world, leading to dynamics discrepancies between the source and target environments. Past research posited that the source domain must encompass all possible target transitions, a condition we term full support. However, expecting full support is often unrealistic, especially in scenarios where significant dynamics discrepancies arise. In this paper, our emphasis shifts to addressing large dynamics mismatch adaptation. We move away from the stringent full support condition of earlier research, focusing instead on crafting an effective policy for the target domain. Our proposed approach is simple but effective. It is anchored in the central concepts of the skewing and extension of source support towards target support to mitigate support deficiencies. Through comprehensive testing on a varied set of benchmarks, our method’s efficacy stands out, showcasing notable improvements over previous techniques.
arxiv情報
著者 | Linh Le Pham Van,Hung The Tran,Sunil Gupta |
発行日 | 2024-02-16 15:39:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google