Back to list
arxiv_cs_cv 2026年4月24日

FunduSegmenter:RETFound 基礎モデルを活用した網膜眼底画像における網膜盤と視杯の同時セグメンテーション

FunduSegmenter: Leveraging the RETFound Foundation Model for Joint Optic Disc and Optic Cup Segmentation in Retinal Fundus Images

Translated: 2026/4/24 19:49:43
fundusegmenterretfoundretinal-image-analysismedical-aioptic-disc-cup-segmentation

Japanese Translation

arXiv:2508.11354v3 Announce Type: replace 目的:本研究では、網膜眼底画像における網膜盤 (OD) と視杯 (OC) の同時セグメンテーションを初めて実現するための RETFound の適応モデルを紹介する。RETFound は、眼底カメラ画像および光学干渉断層計 (OCT) 画像の開発に特化した、疾患診断における有望な性能を示す有名人形モデルである。 方法:我々は、Pre-ア达プター、デコーダー、Post-ア达プター、コンヴォリューション・ブロック・アッテンション・モジュール (C-BAM) を含むスキップ接続、そしてビジュアル・トランスフォーマーブロックア达プターを統合した Novel モジュールシリーズを搭載した FunduSegmenter というモデルを提案した。このモデルは、内部検証、外部検証、ドメイン一般化実験を并通过し、GoDARTS(自社プロプライエタリーデータセット)および IDRiD、Drishti-GS、RIM-ONE-r3、REFUGE の 4 つの公開データセットで評価された。 結果:内部検証では平均 Dice 類似係数は 90.51% と達成され、すべての基準を上回った。いくつかは著しく高い(nnU-Net: 82.91%、DUNet: 89.17%、TransUNet: 87.91%)。すべての外部検証実験において、平均結果は最良の基準モデルに対して約 3% 高いものであり、ドメイン一般化においても競争力のある性能を示した。 結論:本研究では、RETFound が学習した潜在的一般表現を用いた眼底カメラ画像における OD と OC セグメンテーションの可能性を探った。我々の FunduSegmenter は、現在最も優れた基準手法を一般的に上回った。提案されたモジュールは汎用性が高く、他の基礎モデルのファインチューニングに拡張可能である。 変換的関連性:モデルは分布内および分布外データで強い安定性と一般化性能を示し、安定した OD と OC セグメンテーションを提供する。これは、網膜座標の正確な設定からバイオマーカー発見に至るまで、多くの自動化タスクに不可欠な一歩である。コードとトレーニング済み重みは以下で利用可能である:https://github.com/JusticeZzy/FunduSegmenter。

Original Content

arXiv:2508.11354v3 Announce Type: replace Abstract: Purpose: This study introduces the first adaptation of RETFound for joint optic disc (OD) and optic cup (OC) segmentation. RETFound is a well-known foundation model developed for fundus camera and optical coherence tomography images, which has shown promising performance in disease diagnosis. Methods: We propose FunduSegmenter, a model integrating a series of novel modules with RETFound, including a Pre-adapter, a Decoder, a Post-adapter, skip connections with Convolutional Block Attention Module and a Vision Transformer block adapter. The model is evaluated on a proprietary dataset, GoDARTS, and four public datasets, IDRiD, Drishti-GS, RIM-ONE-r3, and REFUGE, through internal verification, external verification and domain generalization experiments. Results: An average Dice similarity coefficient of 90.51% was achieved in internal verification, which outperformed all baselines, some substantially (nnU-Net: 82.91%; DUNet: 89.17%; TransUNet: 87.91%). In all external verification experiments, the average results were about 3% higher than those of the best baseline, and our model was also competitive in domain generalization. Conclusions: This study explored the potential of the latent general representations learned by RETFound for OD and OC segmentation in fundus camera images. Our FunduSegmenter generally outperformed state-of-the-art baseline methods. The proposed modules are general and can be extended to fine-tuning other foundation models. Translational Relevance: The model shows strong stability and generalization on both in-distribution and out-of-distribution data, providing stable OD and OC segmentation. This is an essential step for many automated tasks, from setting the accurate retinal coordinate to biomarker discovery. The code and trained weights are available at: https://github.com/JusticeZzy/FunduSegmenter.