要約
強化学習アルゴリズムはソーシャル ロボットに適用されることがよくあります。
ただし、ほとんどの強化学習アルゴリズムはソーシャル ロボットの使用に最適化されていないため、ユーザーを退屈させる可能性があります。
私たちはソーシャルロボットに特化した、ユーザーの退屈を回避できる新たな強化学習手法「FRAC-Q-learning」を提案しました。
提案されたアルゴリズムは、ランダム化と分類のプロセスに加えて、忘却プロセスで構成されます。
この研究では、従来の Q ラーニングとの比較により、FRAC-Q ラーニングの興味と退屈の難易度スコアを評価しました。
FRAC-Q ラーニングは、従来の Q ラーニングと比較して、関心スコアが大幅に高い傾向を示し、ユーザーが著しく退屈しにくいことを示しました。
したがって、FRAC-Q学習はユーザーを飽きさせないソーシャルロボットの開発に貢献することができます。
提案されたアルゴリズムは、Web ベースのコミュニケーションおよび教育システムに適用できる可能性があります。
この文書では、FRAC-Q 学習の全体プロセス、詳細な実装、および詳細な評価方法を初めて紹介します。
要約(オリジナル)
The reinforcement learning algorithms have often been applied to social robots. However, most reinforcement learning algorithms were not optimized for the use of social robots, and consequently they may bore users. We proposed a new reinforcement learning method specialized for the social robot, the FRAC-Q-learning, that can avoid user boredom. The proposed algorithm consists of a forgetting process in addition to randomizing and categorizing processes. This study evaluated interest and boredom hardness scores of the FRAC-Q-learning by a comparison with the traditional Q-learning. The FRAC-Q-learning showed significantly higher trend of interest score, and indicated significantly harder to bore users compared to the traditional Q-learning. Therefore, the FRAC-Q-learning can contribute to develop a social robot that will not bore users. The proposed algorithm has a potential to apply for Web-based communication and educational systems. This paper presents the entire process, detailed implementation and a detailed evaluation method of the of the FRAC-Q-learning for the first time.
arxiv情報
著者 | Akinari Onishi |
発行日 | 2024-09-05 07:27:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google