要約
オブジェクト状態の構成を認識して生成することは、特に目に見えない構成に一般化する場合、困難な作業でした。
この論文では、さまざまなスタイルでオブジェクトを切断するタスクと、その結果生じるオブジェクトの状態の変化について研究します。
私たちは、複数の視点を使用した学習オブジェクトやさまざまなカット スタイルのニーズに対応する、新しいベンチマーク スイート Chop & Learn を提案します。
また、新しいオブジェクト状態画像を生成することで、学習したカット スタイルをさまざまなオブジェクトに転送できる、構成画像生成という新しいタスクも提案します。
さらに、構成アクション認識にもビデオを使用し、複数のビデオ タスクに対するこのデータセットの貴重な使用法を示します。
プロジェクトの Web サイト: https://chopnlearn.github.io。
要約(オリジナル)
Recognizing and generating object-state compositions has been a challenging task, especially when generalizing to unseen compositions. In this paper, we study the task of cutting objects in different styles and the resulting object state changes. We propose a new benchmark suite Chop & Learn, to accommodate the needs of learning objects and different cut styles using multiple viewpoints. We also propose a new task of Compositional Image Generation, which can transfer learned cut styles to different objects, by generating novel object-state images. Moreover, we also use the videos for Compositional Action Recognition, and show valuable uses of this dataset for multiple video tasks. Project website: https://chopnlearn.github.io.
arxiv情報
著者 | Nirat Saini,Hanyu Wang,Archana Swaminathan,Vinoj Jayasundara,Bo He,Kamal Gupta,Abhinav Shrivastava |
発行日 | 2023-09-25 17:59:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google