Back to list
arxiv_cs_lg 2026年4月24日

多数対 1 崩壊を緩和するためのペアリング正則化

Pairing Regularization for Mitigating Many-to-One Collapse in GANs

Translated: 2026/4/24 19:56:45
ganmode-collapsegenerative-modelsregularizationlatent-variables

Japanese Translation

arXiv:2604.20130v1 発表タイプ: 新規 要約: モード崩壊は、生成对抗ネットワーク(GAN)のトレーニングにおける根本的な課題の一つです。既存の研究は主にモードの脱落などのモード間崩壊に焦点を当てていましたが、多数の潜在変数が同じまたは類似した出力を生成するモード内崩壊については、著しいほどの注目が集まっていません。本稿では、生成器と共同最適化されるペアリング正則化を提案し、潜在変数と生成サンプル間の局所的な整合性を強制することで、多数対 1 崩壊を緩和します。ペアリング正則化の効率はトレーニングの主要な失敗モードに依存することを示します。探索が不十分な崩壊傾向のレジメでは、ペアリングは構造化された局所探索を促し、改善された覆盖率と高い再現率をもたらします。一方、十分な探索がある安定したトレーニングの下では、ペアリングは冗長なマッピングを避けることで生成器の誘起データ密度を洗練させ、再現率を犠牲にせずに精度を向上させます。玩具分布とリアルイメージベンチマークの広範な実験により、提案される正則化器は、モード内崩壊を直接的に解決することで、既存の安定化手法と効果的に補完することを示唆しています。

Original Content

arXiv:2604.20130v1 Announce Type: new Abstract: Mode collapse remains a fundamental challenge in training generative adversarial networks (GANs). While existing works have primarily focused on inter-mode collapse, such as mode dropping, intra-mode collapse-where many latent variables map to the same or highly similar outputs-has received significantly less attention. In this work, we propose a pairing regularizer jointly optimized with the generator to mitigate the many-to-one collapse by enforcing local consistency between latent variables and generated samples. We show that the effect of pairing regularization depends on the dominant failure mode of training. In collapse-prone regimes with limited exploration, pairing encourages structured local exploration, leading to improved coverage and higher recall. In contrast, under stabilized training with sufficient exploration, pairing refines the generator's induced data density by discouraging redundant mappings, thereby improving precision without sacrificing recall. Extensive experiments on both toy distributions and real-image benchmarks demonstrate that the proposed regularizer effectively complements existing stabilization techniques by directly addressing intra-mode collapse.