Back to list
arxiv_cs_cv 2026年4月24日

UniGenDet: コエボリューション画像生成と生成画像検出のための統合的な生成・判別フレームワーク

UniGenDet: A Unified Generative-Discriminative Framework for Co-Evolutionary Image Generation and Generated Image Detection

Translated: 2026/4/24 19:47:10

Japanese Translation

arXiv:2604.21904v1 Announce Type: new Abstract: 近年、画像生成と生成画像検出の両分野において大きな進歩がなされています。この2 つの分野は急速に発展しており、しかしほとんど独立して成長し、それぞれが独自の建築 paradigm を発展させてきました:前者は主に生成ネットワークに依存し、後者は判別フレームワークを好みます。両分野における最近のトレンドとして、性能向上にアドバーサrial な情報を使う傾向が見られ、これはシナジーの潜在力を示しています。しかし、それらの間の大きな建築的分岐は著しい課題を生み出しました。既存のアプローチとは異なり、われわれは UniGenDet: コエボリューション画像生成と生成画像検出のための統合的な生成・判別フレームワークを提案します。タスクのギャップを埋めるために、共生的多モーダルセルフアテンションメカニズムと統合されたファインチューニングアルゴリズムを設計しました。このシナジーにより、生成タスクは本物識別の解釈性を高め、本物基準はより忠実な画像の作成を導きます。さらに、検出器による生成アライメントメカニズムを導入し、 seamless な情報交換を可能にしました。複数のデータセットにおける大規模な実験により、我々の方法が state-of-the-art の性能を実現したことが示されました。Code: \href{https://github.com/Zhangyr2022/UniGenDet}{https://github.com/Zhangyr2022/UniGenDet}.

Original Content

arXiv:2604.21904v1 Announce Type: new Abstract: In recent years, significant progress has been made in both image generation and generated image detection. Despite their rapid, yet largely independent, development, these two fields have evolved distinct architectural paradigms: the former predominantly relies on generative networks, while the latter favors discriminative frameworks. A recent trend in both domains is the use of adversarial information to enhance performance, revealing potential for synergy. However, the significant architectural divergence between them presents considerable challenges. Departing from previous approaches, we propose UniGenDet: a Unified generative-discriminative framework for co-evolutionary image Generation and generated image Detection. To bridge the task gap, we design a symbiotic multimodal self-attention mechanism and a unified fine-tuning algorithm. This synergy allows the generation task to improve the interpretability of authenticity identification, while authenticity criteria guide the creation of higher-fidelity images. Furthermore, we introduce a detector-informed generative alignment mechanism to facilitate seamless information exchange. Extensive experiments on multiple datasets demonstrate that our method achieves state-of-the-art performance. Code: \href{https://github.com/Zhangyr2022/UniGenDet}{https://github.com/Zhangyr2022/UniGenDet}.