Back to list
arxiv_cs_lg 2026年4月20日

DB-FGA-Net:マルチクラス脳腫瘍分類および Grad-CAM 解釈可能性を備えた二重バックボン Frequent-Gated Attention ネットワーク

DB-FGA-Net: Dual Backbone Frequency Gated Attention Network for Multi-Class Brain Tumor Classification with Grad-CAM Interpretability

Translated: 2026/4/20 11:04:16
brain-tumordeep-learningattention-mechanismmedical-imaginggrad-cam

Japanese Translation

arXiv:2510.20299v3 Announce Type: replace 要約:脳腫瘍は神経外科学において重要な早期かつ正確な診断が成功した治療のために不可欠ですが、この分野では依然として大きな課題です。ディープラーニングベースの脳腫瘍分類法では、通常大量のデータアウグメンテーションに依存しており、これが一般化性能と臨床応用における信頼性を制限する傾向があります。本稿では、補完的な局所的特徴とглобал特徴をキャッチするよう設計した VGG16 と Xception を統合し、そこに頻度ゲート付き注意力(FGA)ブロックを取り入れた二重バックボンネットワークを提案します。当モデルは、高度に競争的な性能をアウグメンテーションなしで達成しており、変動するサイズおよび分布を持つデータセットに対するrobustnessを示しました。さらに、予測根拠に基づく腫瘍領域の可視化のために Grad-CAM を統合し、モデルの予測と臨床的解釈可能性のギャップを埋めることを試みます。提案されたフレームワークは、7K-DS データセットの 4 クラス設定において 99.24% の精度を達成し、3 クラスおよび 2 クラス設定においてそれぞれ 98.68% および 99.85% を達成しました。また、独立した 3K-DS データセットにおいては、同等の実験設定下でいくつかのベースライン法を凌駕する 95.77% の精度でモデル是一般化し得ました。臨床的な可用性をさらに支援するために、リアルタイム分類および Grad-CAM に基づいた腫瘍局在を提供するグラフィカルユーザーインターフェース(GUI)を開発しました。これらの知見は、アウグメンテーションなし、解釈可能、かつデプロイ可能なディープラーニングモデル(例:DB-FGA-Net)が、脳腫瘍診断における信頼できる臨床翻訳に強い潜在的な力を秘めていることを示唆しています。

Original Content

arXiv:2510.20299v3 Announce Type: replace Abstract: Brain tumors are a challenging problem in neuro-oncology, where early and precise diagnosis is important for successful treatment. Deep learning-based brain tumor classification methods often rely on heavy data augmentation which can limit generalization and trust in clinical applications. In this paper, we propose a double-backbone network integrating VGG16 and Xception with a Frequency-Gated Attention (FGA) Block to capture complementary local and global features. Our model achieves highly competitive performance without augmentation which demonstrates robustness to variably sized and distributed datasets. For further transparency, Grad-CAM is integrated to visualize the tumor regions based on which the model is giving prediction, bridging the gap between model prediction and clinical interpretability. The proposed framework achieves 99.24% accuracy on the 7K-DS dataset for the 4-class setting, along with 98.68% and 99.85% in the 3-class and 2-class settings, respectively. On the independent 3K-DS dataset, the model generalizes with 95.77% accuracy, outperforming several baseline methods under the same experimental setting. To further support clinical usability, we developed a graphical user interface (GUI) that provides real-time classification and Grad-CAM-based tumor localization. These findings suggest that augmentation-free, interpretable, and deployable deep learning models such as DB-FGA-Net hold strong potential for reliable clinical translation in brain tumor diagnosis.