Organic or Diffused: Can We Distinguish Human Art from AI-generated Images?

要約

AIによる画像生成の登場は、アートの世界を完全に破壊した。AIが生成した画像を人間の芸術作品から識別することは困難な問題であり、その影響は時間とともに増大している。この問題への対処を怠ると、悪質な業者が人間の美術品にプレミアムを支払っている個人や、AI画像を禁止している企業のポリシーから詐取することを許してしまう。この問題は、AIモデルのトレーナーにとっても重要であり、トレーナーはモデルの崩壊を避けるためにトレーニングデータをフィルタリングする必要があります。人間の芸術作品をAIの画像と区別するためには、教師あり学習で訓練された分類器、拡散モデルを対象とした研究ツール、プロのアーティストによる芸術技法の知識を用いた識別など、いくつかの異なるアプローチがある。本論文では、これらのアプローチが、良性および敵対的な設定の両方において、今日の最新の生成モデルに対してどの程度の性能を発揮できるかを理解することを目指す。我々は、7つのスタイルにわたる実際の人間の芸術をキュレートし、5つの生成モデルからマッチング画像を生成し、8つの検出器(5つの自動検出器と、180人のクラウドワーカー、4000人以上のプロのアーティスト、およびAIの検出に経験豊富な13人の専門家アーティストを含む3つの異なる人間グループ)を適用する。Hiveもエキスパート・アーティストも非常に良い結果を出しているが、異なる方法で間違いを犯している(Hiveは敵対的な摂動に弱く、エキスパート・アーティストはより高い誤検出を生み出している)。我々は、モデルが進化し続けるにつれて、これらの弱点が残っていくと考えており、人間と自動化された検出器の組み合わせチームが、精度と堅牢性の最良の組み合わせを提供する理由を実証するために我々のデータを使用しています。

要約(オリジナル)

The advent of generative AI images has completely disrupted the art world. Identifying AI generated images from human art is a challenging problem whose impact is growing over time. The failure to address this problem allows bad actors to defraud individuals paying a premium for human art, and companies whose stated policies forbid AI imagery. This is also critical for AI model trainers, who need to filter training data to avoid potential model collapse. There are several different approaches to distinguishing human art from AI images, including classifiers trained by supervised learning, research tools targeting diffusion models, and identification by professional artists using their knowledge of artistic techniques. In this paper, we seek to understand how well these approaches can perform against today’s modern generative models in both benign and adversarial settings. We curate real human art across 7 styles, generate matching images from 5 generative models, and apply 8 detectors (5 automated detectors and 3 different human groups including 180 crowdworkers, 4000+ professional artists, and 13 expert artists experienced at detecting AI). Both Hive and expert artists do very well, but make mistakes in different ways (Hive is weaker against adversarial perturbations while Expert artists produce higher false positives). We believe these weaknesses will remain as models continue to evolve, and use our data to demonstrate why a combined team of human and automated detectors provides the best combination of accuracy and robustness.

arxiv情報

著者 Anna Yoo Jeong Ha,Josephine Passananti,Ronik Bhaskar,Shawn Shan,Reid Southen,Haitao Zheng,Ben Y. Zhao
発行日 2024-02-05 17:25:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク