Back to list
arxiv_cs_cv 2026年4月24日

分布間拡散事前量に駆動的反復再構築:画数減少型 CT 用スプラースビュー問題への対応

Cross-Distribution Diffusion Priors-Driven Iterative Reconstruction for Sparse-View CT

Translated: 2026/4/24 19:52:57
svctdiffusion-modelsartifactsoodimage-reconstruction

Japanese Translation

arXiv:2509.13576v2 Announce Type: replace-cross 本文書では、Scalable Interpolant Transformer(SiT)から導出された、Cross-Distribution Diffusion Priors-Driven Iterative Reconstruction(CDPIR)と呼ばれるフレームワークを紹介する。CDPIR は、Scalable Interpolant Transformer(SiT)とモデルベース反復再構築法の統合により構築されている。 SiT バックボーンは、拡散トランスフォーマー(DiT)アーキテクチャの拡張であり、クラシファイヤーフリーガイダンス(CFG)を複数データセットにわたって活用することで、統一されたランダム変換の事前量フレームワークを確立する。訓練段階では、Null Embedding を用いたコンディションのランダム落下(Randomly dropping the conditioning with a null embedding)を実施し、これによりドメイン特化的な事前量とドメイン不変的な事前量の両方を学習させることで、汎化性を向上させる。 サンプリング段階では、グローバルに感度を持つトランスフォーマーベースの拡散モデルは、統一されたランダム変換の事前量フレームワーク内の分布間事前量を有効に活用し、複数分布からノイズへの変換経路における柔軟で安定した制御、および分離したサンプリング戦略を可能にする。これにより、OOD 再構築への適応性が改善される。 データ忠実性とサンプリング更新を交互に行うことで、当モデルは SVCT 再構築において画質の優位な保存を伴い、最先进的な性能を実現した。広範な実験により、CDPIR は既存のアプローチ、特に OOD 条件下において顕著に優れていることが示され、このフレームワークは困難な画像化シナリオにおける頑健性と臨床価値を備えていることが判明した。

Original Content

arXiv:2509.13576v2 Announce Type: replace-cross Abstract: Sparse-View CT (SVCT) reconstruction enhances temporal resolution and reduces radiation dose, yet its clinical use is hindered by artifacts due to view reduction and domain shifts from scanner, protocol, or anatomical variations, leading to performance degradation in out-of-distribution (OOD) scenarios. In this work, we propose a Cross-Distribution Diffusion Priors-Driven Iterative Reconstruction (CDPIR) framework to tackle the OOD problem in SVCT. CDPIR integrates cross-distribution diffusion priors, derived from a Scalable Interpolant Transformer (SiT), with model-based iterative reconstruction methods. Specifically, we train a SiT backbone, an extension of the Diffusion Transformer (DiT) architecture, to establish a unified stochastic interpolant framework, leveraging Classifier-Free Guidance (CFG) across multiple datasets. By randomly dropping the conditioning with a null embedding during training, the model learns both domain-specific and domain-invariant priors, enhancing generalizability. During sampling, the globally sensitive transformer-based diffusion model exploits the cross-distribution prior within the unified stochastic interpolant framework, enabling flexible and stable control over multi-distribution-to-noise interpolation paths and decoupled sampling strategies, thereby improving adaptation to OOD reconstruction. By alternating between data fidelity and sampling updates, our model achieves state-of-the-art performance with superior detail preservation in SVCT reconstructions. Extensive experiments demonstrate that CDPIR significantly outperforms existing approaches, particularly under OOD conditions, highlighting its robustness and potential clinical value in challenging imaging scenarios.