Multi-Objective Reinforcement Learning for Water Management

要約

現実世界の多くの問題(資源管理、自律走行、創薬など)では、複数の相反する目的を最適化する必要がある。多目的強化学習(Multi-objective reinforcement learning: MORL)は、古典的な強化学習を拡張し、複数の目的を同時に扱うことで、様々なトレードオフを捉えたポリシーの集合をもたらす。しかしながら、MORLの分野には複雑で現実的な環境やベンチマークが不足している。我々は水資源(ナイル川流域)管理のケーススタディを紹介し、それをMORL環境としてモデル化する。そして既存のMORLアルゴリズムのベンチマークを行う。その結果、水管理に特化した手法が最先端のMORLアプローチを凌駕することが示され、MORLアルゴリズムが実世界のシナリオで直面するスケーラビリティの課題が浮き彫りになった。

要約(オリジナル)

Many real-world problems (e.g., resource management, autonomous driving, drug discovery) require optimizing multiple, conflicting objectives. Multi-objective reinforcement learning (MORL) extends classic reinforcement learning to handle multiple objectives simultaneously, yielding a set of policies that capture various trade-offs. However, the MORL field lacks complex, realistic environments and benchmarks. We introduce a water resource (Nile river basin) management case study and model it as a MORL environment. We then benchmark existing MORL algorithms on this task. Our results show that specialized water management methods outperform state-of-the-art MORL approaches, underscoring the scalability challenges MORL algorithms face in real-world scenarios.

arxiv情報

著者 Zuzanna Osika,Roxana Radelescu,Jazmin Zatarain Salazar,Frans Oliehoek,Pradeep K. Murukannaiah
発行日 2025-05-02 08:14:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク