要約
人間規模の操作タスクを実行するロボットは、その動作を人間らしく有能に実行するために、周囲に関する広範な知識を必要とします。
この研究では、ロボット環境モデリングの実装として仮想現実テクノロジーの使用を調査し、シーン グラフを知識ベースに変換する手法を紹介します。
この目的を達成するために、複雑な環境のオーサリング、視覚化、およびシミュレーションのための新しい標準であるユニバーサル シーン ディスクリプション (USD) 形式を利用します。
私たちは、セマンティックなクエリと追加の知識ソースとの統合を容易にする、USD ベースの環境モデルのナレッジ グラフ (KG) 表現への変換を調査します。
要約(オリジナル)
Robots performing human-scale manipulation tasks require an extensive amount of knowledge about their surroundings in order to perform their actions competently and human-like. In this work, we investigate the use of virtual reality technology as an implementation for robot environment modeling, and present a technique for translating scene graphs into knowledge bases. To this end, we take advantage of the Universal Scene Description (USD) format which is an emerging standard for the authoring, visualization and simulation of complex environments. We investigate the conversion of USD-based environment models into Knowledge Graph (KG) representations that facilitate semantic querying and integration with additional knowledge sources.
arxiv情報
著者 | Giang Hoang Nguyen,Daniel Bessler,Simon Stelter,Mihai Pomarlan,Michael Beetz |
発行日 | 2023-10-25 16:09:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google