要約
最近の人工知能の進歩により、生成モデルは元の画像と見分けがつかない合成科学画像を生成できるようになり、そのようなコンテンツを扱うことに慣れている専門科学者にとってさえも課題となっています。
これらのテクノロジーは、組織的に不正な論文を作成する製紙工場として知られる組織によって悪用されると、根拠のない科学に関する誤った情報の拡散に大きく寄与し、科学研究に対する信頼を損なう可能性があります。
これまでの研究では、合成コンテンツを識別するための畳み込みニューラル ネットワークなどのブラック ボックス ソリューションが検討されてきましたが、さまざまなモデル間で一般化して、検出プロセスに情報を与える合成画像内のアーティファクトへの洞察を提供するという課題に取り組んだ研究は一部のみでした。
この研究は、最先端の生成モデル (敵対的生成ネットワークや拡散モデルなど) によって生成された説明可能なアーティファクトを特定し、それらをオープンセットの識別とソースの帰属 (つまり、画像を作成したモデルを示す) に活用することを目的としています。
)。
要約(オリジナル)
Recent advancements in artificial intelligence have enabled generative models to produce synthetic scientific images that are indistinguishable from pristine ones, posing a challenge even for expert scientists habituated to working with such content. When exploited by organizations known as paper mills, which systematically generate fraudulent articles, these technologies can significantly contribute to the spread of misinformation about ungrounded science, potentially undermining trust in scientific research. While previous studies have explored black-box solutions, such as Convolutional Neural Networks, for identifying synthetic content, only some have addressed the challenge of generalizing across different models and providing insight into the artifacts in synthetic images that inform the detection process. This study aims to identify explainable artifacts generated by state-of-the-art generative models (e.g., Generative Adversarial Networks and Diffusion Models) and leverage them for open-set identification and source attribution (i.e., pointing to the model that created the image).
arxiv情報
著者 | João Phillipe Cardenuto,Sara Mandelli,Daniel Moreira,Paolo Bestagini,Edward Delp,Anderson Rocha |
発行日 | 2024-09-27 16:18:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google