Human Machine Co-adaption Interface via Cooperation Markov Decision Process System

要約

タイトル:Cooperation Markov Decision Process Systemを介した人間と機械の共同適応インターフェース
要約:
– この論文は、モデルベースの強化学習を介して、ユーザー(患者)とマシン(ロボット)の両方の観点からリハビリテーションパフォーマンスを改善するための新しい人間-機械インターフェースを開発することを目的としています。
– 従来の研究は、ロボットの支援に重点を置いており、つまり、Assist-As-Neededの目的を達成するために制御戦略を改善することです。この研究では、ロボット支援リハビリテーションの全プロセスを共適応または相互学習プロセスとして扱い、ユーザーの機械への適応に重点を置いています。
– そのために、Co-adaptive MDPs(CaMDPs)モデルを提案し、システムの高抽象層で協働的なマルチエージェント強化学習(MARL)に基づいて学習速度を量子化します。
– 我々は、ポリシーイテレーションのフレームワーク内で2つのエージェント間のポリシー改善を協力的に調整するためのいくつかのアプローチを提案しました。
– 提案された共適応MDPsに基づくシミュレーション研究により、非静止問題がさまざまな提案されたポリシー改善アプローチを使用して緩和されることが示されます。

要約(オリジナル)

This paper aims to develop a new human-machine interface to improve rehabilitation performance from the perspective of both the user (patient) and the machine (robot) by introducing the co-adaption techniques via model-based reinforcement learning. Previous studies focus more on robot assistance, i.e., to improve the control strategy so as to fulfill the objective of Assist-As-Needed. In this study, we treat the full process of robot-assisted rehabilitation as a co-adaptive or mutual learning process and emphasize the adaptation of the user to the machine. To this end, we proposed a Co-adaptive MDPs (CaMDPs) model to quantify the learning rates based on cooperative multi-agent reinforcement learning (MARL) in the high abstraction layer of the systems. We proposed several approaches to cooperatively adjust the Policy Improvement among the two agents in the framework of Policy Iteration. Based on the proposed co-adaptive MDPs, the simulation study indicates the non-stationary problem can be mitigated using various proposed Policy Improvement approaches.

arxiv情報

著者 Kairui Guo,Adrian Cheng,Yaqi Li,Jun Li,Rob Duffield,Steven W. Su
発行日 2023-05-03 12:00:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.HC, cs.MA, cs.RO パーマリンク