要約
製品の魅力を最大限に引き出すためには、スタイルに関する目的を形状設計に取り入れることが中心的な課題となっています。しかし、美的感覚や意味的属性といったスタイルの特徴は、専門家であってもコード化することが困難である。そのため、アルゴリズムによるスタイルの取得と再利用は、デザイン記述可能性の困難な性質のため、自動化されたデータ駆動型方法論の恩恵を十分に受けていない。本論文では、ブランドに関連する特徴の発見を完全に自動化するAI駆動型の手法を提案する。我々のアプローチは、スカラーベクターグラフィックス(SVG)を分類・分析するために、2層のブランド識別グラフニューラルネットワーク(GNN)であるBIGNetを導入する。まず、ベクトル化された商品画像の希少性に取り組むため、本研究では、小さな曲線ベースのデータセットからのパラメトリックモデリングと、大きなピクセルベースのデータセットからのベクトル化という2つのデータ取得ワークフローを提案しています。第二に、本研究では、SVGの曲線レベルとチャンクレベルの両方のパラメータから学習するために、新しい階層型GNNアーキテクチャを構築する。最初の事例では、BIGNetは携帯電話のブランドを分類するだけでなく、レンズの位置、高さと幅の比率、画面とフレームの隙間など、複数のスケールにわたるブランド関連の特徴も取得し、AI評価によって確認されています。2つ目の研究として、本論文では、ベクトル化された自動車画像データセットからBIGNet学習の一般性を示し、4つのシナリオを与えてその予測の一貫性と頑健性を検証しています。その結果は、自動車市場で一般的に観察される高級ブランドとエコノミーブランドの違いに一致する。最後に、本論文では、畳み込みニューラルネットワークから生成された活性化マップを可視化し、BIGNetがより人間に優しく、説明可能で、明確なスタイル捕捉エージェントであるという利点を示しています。コードとデータセットはGithubで見ることができます: 1.電話のケーススタディ:github.com/parksandrecfan/bignet-phone 2.車のケーススタディ:github.com/parksandrecfan/binet-car
要約(オリジナル)
Incorporating style-related objectives into shape design has been centrally important to maximize product appeal. However, stylistic features such as aesthetics and semantic attributes are hard to codify even for experts. As such, algorithmic style capture and reuse have not fully benefited from automated data-driven methodologies due to the challenging nature of design describability. This paper proposes an AI-driven method to fully automate the discovery of brand-related features. Our approach introduces BIGNet, a two-tier Brand Identification Graph Neural Network (GNN) to classify and analyze scalar vector graphics (SVG). First, to tackle the scarcity of vectorized product images, this research proposes two data acquisition workflows: parametric modeling from small curve-based datasets, and vectorization from large pixel-based datasets. Secondly, this study constructs a novel hierarchical GNN architecture to learn from both SVG’s curve-level and chunk-level parameters. In the first case study, BIGNet not only classifies phone brands but also captures brand-related features across multiple scales, such as the location of the lens, the height-width ratio, and the screen-frame gap, as confirmed by AI evaluation. In the second study, this paper showcases the generalizability of BIGNet learning from a vectorized car image dataset and validates the consistency and robustness of its predictions given four scenarios. The results match the difference commonly observed in luxury vs. economy brands in the automobile market. Finally, this paper also visualizes the activation maps generated from a convolutional neural network and shows BIGNet’s advantage of being a more human-friendly, explainable, and explicit style-capturing agent. Code and dataset can be found on Github: 1. Phone case study: github.com/parksandrecfan/bignet-phone 2. Car case study: github.com/parksandrecfan/bignet-car
arxiv情報
| 著者 | Yu-hsuan Chen,Levent Burak Kara,Jonathan Cagan |
| 発行日 | 2023-06-05 16:38:11+00:00 |
| arxivサイト | arxiv_id(pdf) |