要約
この論文では、ビジュアル コンフィギュレーション スペース (VCS) と呼ばれる、コンフィギュレーション スペースの概念の別の特徴付けを提案します。
この新しい特徴付けにより、身体化されたエージェント (ロボットなど) は、自身の身体構造を発見し、ランダムな姿勢の一連の自身の画像を使用して、周囲の空間で障害物のない動作を計画することができます。
ここでは、エージェント、障害物、環境のジオメトリについての知識は想定していません。
我々は、(a) ロボットの動作計画のためのジオメトリフリーのモデルの構築と操作、(b) 人間の赤ちゃんがモーターのせせらぎを通じて周囲空間にある物体に到達する方法をどのように学習するかを説明する、(c) 自動的に生成する VCS の有用性を実証します。
仮想環境におけるデジタル アバターの自然な頭部動作アニメーション。
この作業は多様体の形式主義とエージェントの画像を使用した多様体学習に基づいているため、これを視覚多様体でのモーション プランニングと呼びます。
要約(オリジナル)
In this thesis, we propose an alternative characterization of the notion of Configuration Space, which we call Visual Configuration Space (VCS). This new characterization allows an embodied agent (e.g., a robot) to discover its own body structure and plan obstacle-free motions in its peripersonal space using a set of its own images in random poses. Here, we do not assume any knowledge of geometry of the agent, obstacles or the environment. We demonstrate the usefulness of VCS in (a) building and working with geometry-free models for robot motion planning, (b) explaining how a human baby might learn to reach objects in its peripersonal space through motor babbling, and (c) automatically generating natural looking head motion animations for digital avatars in virtual environments. This work is based on the formalism of manifolds and manifold learning using the agent’s images and hence we call it Motion Planning on Visual Manifolds.
arxiv情報
著者 | M Seetha Ramaiah |
発行日 | 2024-02-19 06:46:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google