Back to list
arxiv_cs_cv 2026年4月24日

Lightweight Image Super-Resolutionのための Transformer-Progressive Mamba ネットワーク

Transformer-Progressive Mamba Network for Lightweight Image Super-Resolution

Translated: 2026/4/24 19:50:28
super-resolutionmambatransformerimage-processingcomputer-vision

Japanese Translation

arXiv:2511.03232v2 Announce Type: replace 要約: 最近、Mamba に基づいた超解像 (SR) メソッドは、変換器 (Transformer) に基づいた SR アプローチの二次的な計算コストに対抗して、線形計算複雑性とグローバル受信野を同時に捉える能力を示しました。しかし、既存の Mamba に基づいたメソッドは、異なるモデル化スケール間で微細な遷移を欠き、特徴表現の効率が制限されています。本稿では、ウィンドウベースの自己注意機構と Progressive Mamba を統合した軽量 SR フレームワークである T-PMambaSR を提案します。受信野同士のスケーリング間相互作用を可能にすることで、我々の方法は追加の計算コストを導入することなく、微細なモデル化パラダイムを確立し、特徴表現を段階的に向上させます。さらに、変換器および Mamba 処理で失われた高周波詳細を復元するための適応的 high-frequency 改良モジュール (AHFRM) を導入します。大規模な実験では、T-PMambaSR がモデルの受信野と表現力を段階的に向上させ、最近の変換器または Mamba に基づいたメソッドよりも優れたパフォーマンスを示しつつ、低い計算コストを維持することが示されました。

Original Content

arXiv:2511.03232v2 Announce Type: replace Abstract: Recently, Mamba-based super-resolution (SR) methods have demonstrated the ability to capture global receptive fields with linear complexity, addressing the quadratic computational cost of Transformer-based SR approaches. However, existing Mamba-based methods lack fine-grained transitions across different modeling scales, which limits the efficiency of feature representation. In this paper, we propose T-PMambaSR, a lightweight SR framework that integrates window-based self-attention with Progressive Mamba. By enabling interactions among receptive fields of different scales, our method establishes a fine-grained modeling paradigm that progressively enhances feature representation without introducing additional computational cost. Furthermore, we introduce an Adaptive High-Frequency Refinement Module (AHFRM) to recover high-frequency details lost during Transformer and Mamba processing. Extensive experiments demonstrate that T-PMambaSR progressively enhances the model's receptive field and expressiveness, yielding better performance than recent Transformer- or Mamba-based methods while incurring lower computational cost.