要約
世界には多様な素材が豊富にあり、それぞれが独特の表面外観を持ち、それらの特性の日常的な認識と理解に重要な役割を果たしています。
視覚化や品質管理のために材料の外観をキャプチャして現実的に再現できる技術の進歩にもかかわらず、さまざまな測定表現やソフトウェア プラットフォームにわたる材料特性情報の相互運用性は依然として複雑な課題です。
この課題を克服する鍵は、材料の知覚的特徴を自動的に識別し、異種の材料データ表現に保存されている特性を直感的に区別できるようにすることにあります。
私たちは、多くの実用的な目的において、網羅的な物理的記述よりも知覚的外観のコンパクトな表現の方が有用であると推論しました。この論文では、動的視覚刺激から得られる知覚的特徴をエンコードすることによる物質識別への新しいアプローチを紹介します。
私たちは、347 の素材のビデオから得られた 16 の特に重要な知覚属性を選択して検証するための心理物理学的実験を実施しました。
次に、20 人以上の参加者から各マテリアルの属性評価を収集し、各マテリアルの固有の知覚特性をコード化する「マテリアル フィンガープリント」を作成しました。
最後に、多層パーセプトロン モデルをトレーニングして、統計的および深層学習の画像特徴とそれらに対応する知覚特性の間の関係を予測しました。
個々の属性に応じたマテリアルの検索とフィルタリングにおけるモデルのパフォーマンスを実証します。
このモデルは、デジタル表現に関係なく、多様なデジタル環境における材料特性の共有と理解を簡素化し、材料識別の精度と効率の両方を向上させるための重要な一歩を表しています。
要約(オリジナル)
The world is abundant with diverse materials, each possessing unique surface appearances that play a crucial role in our daily perception and understanding of their properties. Despite advancements in technology enabling the capture and realistic reproduction of material appearances for visualization and quality control, the interoperability of material property information across various measurement representations and software platforms remains a complex challenge. A key to overcoming this challenge lies in the automatic identification of materials’ perceptual features, enabling intuitive differentiation of properties stored in disparate material data representations. We reasoned that for many practical purposes, a compact representation of the perceptual appearance is more useful than an exhaustive physical description.This paper introduces a novel approach to material identification by encoding perceptual features obtained from dynamic visual stimuli. We conducted a psychophysical experiment to select and validate 16 particularly significant perceptual attributes obtained from videos of 347 materials. We then gathered attribute ratings from over twenty participants for each material, creating a ‘material fingerprint’ that encodes the unique perceptual properties of each material. Finally, we trained a multi-layer perceptron model to predict the relationship between statistical and deep learning image features and their corresponding perceptual properties. We demonstrate the model’s performance in material retrieval and filtering according to individual attributes. This model represents a significant step towards simplifying the sharing and understanding of material properties in diverse digital environments regardless of their digital representation, enhancing both the accuracy and efficiency of material identification.
arxiv情報
著者 | Jiri Filip,Filip Dechterenko,Filipp Schmidt,Jiri Lukavsky,Veronika Vilimovska,Jan Kotera,Roland W. Fleming |
発行日 | 2024-10-17 14:47:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google