Back to list
コンテキスト制御サンプルによる生物医学イメージリングにおけるドメインギャップの埋め合わせ
Closing the Domain Gap in Biomedical Imaging by In-Context Control Samples
Translated: 2026/4/24 20:01:07
Japanese Translation
arXiv:2604.20824v1 Announce Type: new
要約:生物医学イメージリングにおける中心的な課題はバッチ効果(対象の生物学的シグナルとは無関係な体系的な技術的変動)です。これらのバッチ効果は実験の再現性を根本的に損ない、ディープラーニングシステムを新たな実験バッチで失敗させ、実世界での実用を阻害しています。何十年もわたる研究にも関わらず、ディープラーニングモデルにおけるこのパフォーマンスギャップを埋める成功した方法はありません。我々は、負制御サンプルを活用するメタ学習適応手法である「バッチ正規化を通じた制御安定化適応リスク最小化(CS-ARM-BN)」を提案します。このような未変調な参照画像は、設計上、あらゆる実験バッチに含まれており、適応のための安定したコンテキストを提供します。我々は、大規模な JUMP-CP データセットを用いて、薬剤開発における重要なタスクである「作用メカニズム(MoA)分類」に我々の新しい手法を検証しました。通常の ResNet の精度は、トレーニングドメインで 0.939 ± 0.005 から、新しい実験データで 0.862 ± 0.060 へと低下します。基礎モデルでは、通常バリアント変化正規化を行ったとしてもこのギャップを埋めることはできません。我々は、メタ学習アプローチが 0.935 ± 0.018 の実績を通じてドメインギャップを埋めることを初めて示しました。新たな実験バッチが強いドメインシフトを示す場合(例えば、異なるラボで生成された場合)、常に生物医学実験で入手可能な制御サンプルを用いてメタ学習アプローチを安定化できます。我々の研究は、生物イメージリングデータのバッチ効果を原則的なコンテキスト適応を介して効果的に無効化し、それを実用的で効率的な手法とすることを示しています。
Original Content
arXiv:2604.20824v1 Announce Type: new
Abstract: The central problem in biomedical imaging are batch effects: systematic technical variations unrelated to the biological signal of interest. These batch effects critically undermine experimental reproducibility and are the primary cause of failure of deep learning systems on new experimental batches, preventing their practical use in the real world. Despite years of research, no method has succeeded in closing this performance gap for deep learning models. We propose Control-Stabilized Adaptive Risk Minimization via Batch Normalization (CS-ARM-BN), a meta-learning adaptation method that exploits negative control samples. Such unperturbed reference images are present in every experimental batch by design and serve as stable context for adaptation. We validate our novel method on Mechanism-of-Action (MoA) classification, a crucial task for drug discovery, on the large-scale JUMP-CP dataset. The accuracy of standard ResNets drops from 0.939 $\pm$ 0.005, on the training domain, to 0.862 $\pm$ 0.060 on data from new experimental batches. Foundation models, even after Typical Variation Normalization, fail to close this gap. We are the first to show that meta-learning approaches close the domain gap by achieving 0.935 $\pm$ 0.018. If the new experimental batches exhibit strong domain shifts, such as being generated in a different lab, meta-learning approaches can be stabilized with control samples, which are always available in biomedical experiments. Our work shows that batch effects in bioimaging data can be effectively neutralized through principled in-context adaptation, which also makes them practically usable and efficient.