要約
群衆の行動のモデリングと再現は、心理学、ロボット工学、輸送工学、仮想環境などのさまざまなドメインで重要です。
従来の方法では、現実世界の群衆の継続的な性質を複製するのが困難な瞬間的なシーンの合成に焦点を当てています。
この論文では、個人間の異種の行動と相互作用を備えた連続的で現実的な群衆の軌跡を自動的に生成するための新しい方法を紹介します。
最初にクラウドエミッタモデルを設計します。
これを行うために、群衆の生成前に、セグメンテーションマップ、外観マップ、人口密度マップ、母集団の確率を含む単一の入力画像から空間レイアウトを取得します。
その後、エミッタは、拡散モデルを使用してエージェントのタイプ、ペース、開始/終了位置などの独立した動作特性を割り当てることにより、個人をタイムラインに継続的に配置します。
次に、クラウドシミュレーターは長期的な運動を生成します。
多様なアクションをシミュレートするために、マルコフ連鎖に基づいて行動を強化できます。
その結果、私たちの全体的なフレームワークは、提案されたエミッターとシミュレータを交互に行うことにより、シーンに不均一な群衆の行動を導入します。
提案されたフレームワークのすべてのコンポーネントはユーザー制御可能であることに注意してください。
最後に、シーンレベルの人口ダイナミクスと個人レベルの軌道精度の観点から、生成された群衆のリアリズムと品質を評価するためのベンチマークプロトコルを提案します。
私たちのアプローチは、さまざまな地理的環境で多様な群衆の行動パターンを効果的にモデル化し、よく一般化することを実証します。
コードはhttps://github.com/inhwanbae/crowdesで公開されています。
要約(オリジナル)
Modeling and reproducing crowd behaviors are important in various domains including psychology, robotics, transport engineering and virtual environments. Conventional methods have focused on synthesizing momentary scenes, which have difficulty in replicating the continuous nature of real-world crowds. In this paper, we introduce a novel method for automatically generating continuous, realistic crowd trajectories with heterogeneous behaviors and interactions among individuals. We first design a crowd emitter model. To do this, we obtain spatial layouts from single input images, including a segmentation map, appearance map, population density map and population probability, prior to crowd generation. The emitter then continually places individuals on the timeline by assigning independent behavior characteristics such as agents’ type, pace, and start/end positions using diffusion models. Next, our crowd simulator produces their long-term locomotions. To simulate diverse actions, it can augment their behaviors based on a Markov chain. As a result, our overall framework populates the scenes with heterogeneous crowd behaviors by alternating between the proposed emitter and simulator. Note that all the components in the proposed framework are user-controllable. Lastly, we propose a benchmark protocol to evaluate the realism and quality of the generated crowds in terms of the scene-level population dynamics and the individual-level trajectory accuracy. We demonstrate that our approach effectively models diverse crowd behavior patterns and generalizes well across different geographical environments. Code is publicly available at https://github.com/InhwanBae/CrowdES .
arxiv情報
著者 | Inhwan Bae,Junoh Lee,Hae-Gon Jeon |
発行日 | 2025-04-21 11:42:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google