Back to list
SAMix:ニューラル・カプセル化を適応させる球形混合により、校正された高精度な継続学習
SAMix: Calibrated and Accurate Continual Learning via Sphere-Adaptive Mixup and Neural Collapse
Translated: 2026/4/24 20:08:54
Japanese Translation
arXiv:2510.15751v2 Announce Type: replace
Abstract: 多くの継続学習手法は忘れの軽減と精度向上に焦点を当てているが、それらの重要性にもかかわらず、ネットワークの校正について十分重視されていない。ニューラル・カプセル化、すなわち最終層の特徴量がクラス平均に崩れる現象は、特徴量と分類器のミスマッチを減らすことで継続学習において優位性を示しており、少数の論文において継続モデルの校正が、より信頼できる予測を可能にするかという点で改善されている。本研究は、過信を減らし、忘れを軽減し、精度を向上させることで校正を強化するだけでなく、性能を向上させる新しい手法を提案することにより、さらに一歩を進めています。私達は、ニューラル・カプセル化に基づく手法に特化した適応混合を提案する、Sphere-Adaptive Mixup (SAMix) という新しい手法を導入します。SAMix は、ニューラル・カプセル化下の特徴空間の幾何学的性質に適応した混合過程を採用することで、より頑健な正則化と整合性を確保します。実験では、SAMix が継続学習の最先端手法を上回る性能を向上させ、かつモデルの校正も向上することが示されました。SAMix は、クロスタスク精度と予測のより広い信頼性を両立させます。
Original Content
arXiv:2510.15751v2 Announce Type: replace
Abstract: While most continual learning methods focus on mitigating forgetting and improving accuracy, they often overlook the critical aspect of network calibration, despite its importance. Neural collapse, a phenomenon where last-layer features collapse to their class means, has demonstrated advantages in continual learning by reducing feature-classifier misalignment. Few works aim to improve the calibration of continual models for more reliable predictions. Our work goes a step further by proposing a novel method that not only enhances calibration but also improves performance by reducing overconfidence, mitigating forgetting, and increasing accuracy. We introduce Sphere-Adaptive Mixup (SAMix), an adaptive mixup strategy tailored for neural collapse-based methods. SAMix adapts the mixing process to the geometric properties of feature spaces under neural collapse, ensuring more robust regularization and alignment. Experiments show that SAMix significantly boosts performance, surpassing SOTA methods in continual learning while also improving model calibration. SAMix enhances both across-task accuracy and the broader reliability of predictions, making it a promising advancement for robust continual learning systems.