Learning Symbolic Task Representation from a Human-Led Demonstration: A Memory to Store, Retrieve, Consolidate, and Forget Experiences

要約

我々は、高レベルのタスク計画と知識のブートストラップをサポートするタスク表現を生成するための、認知に似た記憶機能 (つまり、保存、取得、統合、忘却) に触発された記号学習フレームワークを提示します。
私たちは、単一タスクのデモンストレーションを実行する専門家ではない人間と、経験、つまり観察に基づいてタスクを再実行するための構造化された知識をオンラインで学習するロボットが関与するシナリオに取り組みます。
私たちは、タスクのわかりやすい表現を保存するための、注釈のないデータに基づくワンショット学習プロセスを検討します。これは、口頭または視覚的なコミュニケーションなどの対話を通じて改善することができます。
私たちの汎用フレームワークは、以前に開発されたシーン識別およびタグ付けアルゴリズムを拡張するために使用されているファジー記述ロジックに依存しています。
この論文では、このようなアルゴリズムを利用して、単純なヒューリスティックに基づいて時間の経過とともに記憶された観察をランク付けするスコアを使用する認知的な記憶機能を実装します。
私たちの主な貢献は、ロボット観察に基づいて階層的知識表現をブートストラップするためのさまざまなヒューリスティックを体系的に調査するために使用できるフレームワークの形式化です。
この文書では、例示的なアセンブリ タスク シナリオを通じてフレームワークのパフォーマンスを示し、その利点と限界について説明します。

要約(オリジナル)

We present a symbolic learning framework inspired by cognitive-like memory functionalities (i.e., storing, retrieving, consolidating and forgetting) to generate task representations to support high-level task planning and knowledge bootstrapping. We address a scenario involving a non-expert human, who performs a single task demonstration, and a robot, which online learns structured knowledge to re-execute the task based on experiences, i.e., observations. We consider a one-shot learning process based on non-annotated data to store an intelligible representation of the task, which can be refined through interaction, e.g., via verbal or visual communication. Our general-purpose framework relies on fuzzy Description Logic, which has been used to extend the previously developed Scene Identification and Tagging algorithm. In this paper, we exploit such an algorithm to implement cognitive-like memory functionalities employing scores that rank memorised observations over time based on simple heuristics. Our main contribution is the formalisation of a framework that can be used to systematically investigate different heuristics for bootstrapping hierarchical knowledge representations based on robot observations. Through an illustrative assembly task scenario, the paper presents the performance of our framework to discuss its benefits and limitations.

arxiv情報

著者 Luca Buoncompagni,Fulvio Mastrogiovanni
発行日 2024-04-16 14:14:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 05C72, 68Q32, 68T20, 68T27, 68T30, 68T37, cs.AI, cs.HC, cs.LO, cs.RO, I.2.4 パーマリンク