要約
国内環境で動作するロボットの長期計画は、人間、オブジェクト、スペースの間の相互作用のために独自の課題をもたらします。
軌道計画の最近の進歩により、視覚言語モデル(VLM)を活用して、実際の環境で動作するロボットのコンテキスト情報を抽出しました。
これらの方法は満足のいくパフォーマンスを実現しますが、人間の活動を明示的にモデル化しません。
このようなアクティビティは、周囲のオブジェクトに影響を与え、空間的制約を再構築します。
このペーパーでは、濃縮された3Dシーングラフ(3DSG)表現を介して、人間の好み、活動、空間コンテキストを統合する軌道計画に対する新しいアプローチを提示します。
アクティビティベースの関係を組み込むことにより、私たちの方法は人間の行動の空間的影響を捉え、よりコンテキストに敏感な軌跡の適応につながります。
予備的な結果は、私たちのアプローチが人間の活動の影響を受けたスペースにコストを効果的に割り当て、ロボットの軌跡が進行中の環境に文脈的に適切で敏感なままであることを保証することを示しています。
タスクの効率と社会的適切性のこのバランスは、国内の設定でのコンテキストを意識した人間とロボットの相互作用を促進します。
将来の作業には、完全な計画パイプラインの実装と、軌道の受容性を評価するためのユーザー調査の実施が含まれます。
要約(オリジナル)
Long-term planning for robots operating in domestic environments poses unique challenges due to the interactions between humans, objects, and spaces. Recent advancements in trajectory planning have leveraged vision-language models (VLMs) to extract contextual information for robots operating in real-world environments. While these methods achieve satisfying performance, they do not explicitly model human activities. Such activities influence surrounding objects and reshape spatial constraints. This paper presents a novel approach to trajectory planning that integrates human preferences, activities, and spatial context through an enriched 3D scene graph (3DSG) representation. By incorporating activity-based relationships, our method captures the spatial impact of human actions, leading to more context-sensitive trajectory adaptation. Preliminary results demonstrate that our approach effectively assigns costs to spaces influenced by human activities, ensuring that the robot trajectory remains contextually appropriate and sensitive to the ongoing environment. This balance between task efficiency and social appropriateness enhances context-aware human-robot interactions in domestic settings. Future work includes implementing a full planning pipeline and conducting user studies to evaluate trajectory acceptability.
arxiv情報
著者 | Ermanno Bartoli,Dennis Rotondi,Kai O. Arras,Iolanda Leite |
発行日 | 2025-03-12 09:00:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google