UniAff: A Unified Representation of Affordances for Tool Usage and Articulation with Vision-Language Models

要約

ロボット操作に関する以前の研究は、基礎となる3D運動の制約とアフォーダンスの限られた理解に基づいています。
これらの課題に対処するために、3Dオブジェクト中心の操作と統一された定式化にタスク理解を統合するUniaffと呼ばれる包括的なパラダイムを提案します。
具体的には、19のカテゴリから900の明確なオブジェクトと12のカテゴリから600のツールで構成される操作関連のキー属性をラベル付けしたデータセットを構築しました。
さらに、MLLMSを活用して、アフォーダンス認識や3Dモーション制約に関する推論など、操作タスクのオブジェクト中心の表現を推測します。
シミュレーションと現実世界の両方の設定での包括的な実験は、Uniaffがツールと明確なオブジェクトのロボット操作の一般化を大幅に改善することを示しています。
Uniaffが将来の統一されたロボット操作タスクの一般的なベースラインとして機能することを願っています。
画像、ビデオ、データセット、およびコードは、プロジェクトWebサイト(https://sites.google.com/view/uni-aff/home)に公開されています。

要約(オリジナル)

Previous studies on robotic manipulation are based on a limited understanding of the underlying 3D motion constraints and affordances. To address these challenges, we propose a comprehensive paradigm, termed UniAff, that integrates 3D object-centric manipulation and task understanding in a unified formulation. Specifically, we constructed a dataset labeled with manipulation-related key attributes, comprising 900 articulated objects from 19 categories and 600 tools from 12 categories. Furthermore, we leverage MLLMs to infer object-centric representations for manipulation tasks, including affordance recognition and reasoning about 3D motion constraints. Comprehensive experiments in both simulation and real-world settings indicate that UniAff significantly improves the generalization of robotic manipulation for tools and articulated objects. We hope that UniAff will serve as a general baseline for unified robotic manipulation tasks in the future. Images, videos, dataset, and code are published on the project website at:https://sites.google.com/view/uni-aff/home

arxiv情報

著者 Qiaojun Yu,Siyuan Huang,Xibin Yuan,Zhengkai Jiang,Ce Hao,Xin Li,Haonan Chang,Junbo Wang,Liu Liu,Hongsheng Li,Peng Gao,Cewu Lu
発行日 2025-02-07 05:25:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク