Back to list
arxiv_cs_cv 2026年2月10日

組織病理学全スライド画像における効果的かつ効率的なコンテキスト認識な核細胞検出への取り組み

Towards Effective and Efficient Context-aware Nucleus Detection in Histopathology Whole Slide Images

Translated: 2026/3/15 17:02:06
histopathologynucleus-detectionwhole-slide-imagesmachine-learningdeep-learning

Japanese Translation

arXiv:2503.05678v2 Announce Type: replace-cross Abstract: 組織病理学全スライド画像(WSI)における核細胞検出は、多岐にわたる臨床応用において不可欠です。WSI のギガピクセルサイズは、核細胞検出にスライディングウィンドウ手法の使用を要請します。しかし、主流の方法は各スライディングウィンドウを独立して処理しており、広範な文脈情報を無視し、容易に不正確な予測を招きます。この制限に対処するため、最近の研究では各スライディングウィンドウを中心に大きく切り抜いたフィールド・オブ・バュー(LFoV)パッチを用いて文脈特徴を抽出するよう追加しています。しかし、そのような手法は全スライド推論の遅延を著しく増加させます。本稿では、効果的かつ効率的なコンテキスト認識な核細胞検出アプローチを提案します。具体的には、LFoV パッチを代わりに使用せず、歴史的に訪問されたスライディングウィンドウのオフザシェルフ特徴から文脈的な手がかりを集約し、推論効率を著しく向上させます。さらに、以前の実績で使用された LFoV パッチと比較して、スライディングウィンドウパッチは高い倍率であり、より微細な組織の詳細を提供し、分類精度を向上させます。提案されたコンテキスト認識モデルを開発するため、我々はアノテートされたパッチとその周囲のラベル付与されていないパッチを使用しトレーニングを行いました。これらの周囲領域から高レベルの組織文脈を活用するだけでなく、我々はそれらに富むラベル付与されていない核細胞サンプルを活用するポストトレーニング戦略を設計し、モデルの文脈適応性を向上させました。3 つの挑戦的なベンチマークに対する大規模実験結果は、我々の方法の優位性を示しています。

Original Content

arXiv:2503.05678v2 Announce Type: replace-cross Abstract: Nucleus detection in histopathology whole slide images (WSIs) is crucial for a broad spectrum of clinical applications. The gigapixel size of WSIs necessitates the use of sliding window methodology for nucleus detection. However, mainstream methods process each sliding window independently, which overlooks broader contextual information and easily leads to inaccurate predictions. To address this limitation, recent studies additionally crop a large Filed-of-View (LFoV) patch centered on each sliding window to extract contextual features. However, such methods substantially increase whole-slide inference latency. In this work, we propose an effective and efficient context-aware nucleus detection approach. Specifically, instead of using LFoV patches, we aggregate contextual clues from off-the-shelf features of historically visited sliding windows, which greatly enhances the inference efficiency. Moreover, compared to LFoV patches used in previous works, the sliding window patches have higher magnification and provide finer-grained tissue details, thereby enhancing the classification accuracy. To develop the proposed context-aware model, we utilize annotated patches along with their surrounding unlabeled patches for training. Beyond exploiting high-level tissue context from these surrounding regions, we design a post-training strategy that leverages abundant unlabeled nucleus samples within them to enhance the model's context adaptability. Extensive experimental results on three challenging benchmarks demonstrate the superiority of our method.