Comparing Reinforcement Learning and Human Learning using the Game of Hidden Rules

要約

強化学習 (RL) 手法を現実世界に確実に展開するには、その手法の長所と短所、および人間の手法とどのように比較するかを微妙に理解する必要があります。
ヒューマン マシン システムはますます普及しており、これらのシステムの設計は人間学習 (HL) と RL の両方に対するタスク指向の理解に依存しています。
したがって、重要な研究分野は、学習タスクの構造が学習パフォーマンスにどのように影響するかを特徴付けることです。
ベンチマーク環境はますます複雑になり、RL 機能が向上していますが、そのような環境をタスク構造の専用の研究に使用するのは困難です。
この課題に対処するために、HL と RL に対するタスク構造の影響の厳密な研究をサポートするために構築された学習環境を紹介します。
私たちは、人間と RL アルゴリズムのパフォーマンスの違いを示すタスク構造の実験例を通じて、このような研究における環境の有用性を実証します。

要約(オリジナル)

Reliable real-world deployment of reinforcement learning (RL) methods requires a nuanced understanding of their strengths and weaknesses and how they compare to those of humans. Human-machine systems are becoming more prevalent and the design of these systems relies on a task-oriented understanding of both human learning (HL) and RL. Thus, an important line of research is characterizing how the structure of a learning task affects learning performance. While increasingly complex benchmark environments have led to improved RL capabilities, such environments are difficult to use for the dedicated study of task structure. To address this challenge we present a learning environment built to support rigorous study of the impact of task structure on HL and RL. We demonstrate the environment’s utility for such study through example experiments in task structure that show performance differences between humans and RL algorithms.

arxiv情報

著者 Eric Pulick,Vladimir Menkov,Yonatan Mintz,Paul Kantor,Vicki Bier
発行日 2023-06-30 16:18:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク