Back to list
arxiv_cs_cv 2026年2月10日

D$^2$-VR: 複合最適化戦略による耐減衰・ディストillation 動画修復

D$^2$-VR: Degradation-Robust and Distilled Video Restoration with Synergistic Optimization Strategy

Translated: 2026/3/16 14:04:49
diffusion-modelsvideo-restorationtemporal-consistencyadversarial-distillationimage-processing

Japanese Translation

arXiv:2602.08395v1 発表タイプ:新規 本文: 拡散事前情報と時系列整合を組み合わせたパラダイムが、動画修復において画質を劇的に向上させると同時に、複雑な実世界の減衰に直面した際の推論遅延の禁止性と時系列不安定さを引き起こす問題に直面している。この限界を解消するために、我々は低ステップ推論を備えた単画像拡散ベースの動画修復枠ワークである **D$^2$-VR** を提案した。激しい減衰条件下で正確な時系列誘導を得るため、まずは信頼性認識関数の注意機構を活用し、不安定な運動シグナルをフィルタリングする耐減衰フロー整合 (DRFA) モジュールを設計した。その後、拡散サンプリング軌道を手早く数ステップの領域に圧縮するための敵対的ディストillation パラダイムを取り入れた。最後に、知覚画質と厳格な時系列整合を調和させるための複合最適化戦略を策定した。広範な実験により、D$^2$-VR は最先端の性能を示し、サンプリング過程を **12 倍** 加速したことを示した。

Original Content

arXiv:2602.08395v1 Announce Type: new Abstract: The integration of diffusion priors with temporal alignment has emerged as a transformative paradigm for video restoration, delivering fantastic perceptual quality, yet the practical deployment of such frameworks is severely constrained by prohibitive inference latency and temporal instability when confronted with complex real-world degradations. To address these limitations, we propose \textbf{D$^2$-VR}, a single-image diffusion-based video-restoration framework with low-step inference. To obtain precise temporal guidance under severe degradation, we first design a Degradation-Robust Flow Alignment (DRFA) module that leverages confidence-aware attention to filter unreliable motion cues. We then incorporate an adversarial distillation paradigm to compress the diffusion sampling trajectory into a rapid few-step regime. Finally, a synergistic optimization strategy is devised to harmonize perceptual quality with rigorous temporal consistency. Extensive experiments demonstrate that D$^2$-VR achieves state-of-the-art performance while accelerating the sampling process by \textbf{12$\times$}