Back to list
HyCal: ヘテロゲン・ドメインにおける少数ショットクラス・インクリメンタル学習のためのトレーニングフリープロタイプ補正法
HyCal: A Training-Free Prototype Calibration Method for Cross-Discipline Few-Shot Class-Incremental Learning
Translated: 2026/4/20 10:41:26
Japanese Translation
arXiv:2604.15678v1 発表タイプ:新規
要約:CLIP といった事前学習されたビジョン・ラングauge モデル (VLMs) は、継続的学習において希望を示していますが、既存の少数ショットクラス・インクリメンタル学習 (FSCIL) の手法は同質的なドメインと平衡的なデータ分布を前提としており、異質な分野から生じ、サンプル可用性の不均衡と可視的な複雑度のバリエーションが存在する実世界での適用性を制限しています。私たちが特定した「ドメイン重力 (Domain Gravity)」という概念は、異質なドメイン間でのデータ不均衡がエンベディング空間を過代表または低エントロピーのドメインが不均衡に影響し、プロタイプドリフトを引き起こし、未代表または高エントロピーのドメインでのパフォーマンスが低下することを意味します。これを解決するために、私たちは、自然にドメイン重力が強まる実世界の異質性と不均衡を捉えるベンチマークである「クロス・ディシプリナ・バリアル・Few-Shot・クラス・インクリメンタル学習 (XD-VSCIL)」を導入しました。私たちは、余白な CLIP エンベディング上で動作するトレーニングフリー手法である「ハイブリッドプロタイプ補正法 (HyCal)」を提案し、余白な異質条件下でも安定したプロタイプを得るために、方向性の一致とコバリエンス認識された絶対値という補完的な幾何学的性質をキャプチャするために余白類似度和マハラーノビ距離を組み合わせました。HyCal は一貫したレテンション・アダプトレーションの改善をもたらしつつ効率性を維持し、実験では HyCal がドメイン重力を効果的に軽減し、不均衡なクロスドメインのインクリメンタル学習において既存の手法を上回ったことを示しました。
Original Content
arXiv:2604.15678v1 Announce Type: new
Abstract: Pretrained Vision-Language Models (VLMs) like CLIP show promise in continual learning, but existing Few-Shot Class-Incremental Learning (FSCIL) methods assume homogeneous domains and balanced data distributions, limiting real-world applicability where data arises from heterogeneous disciplines with imbalanced sample availability and varying visual complexity. We identify Domain Gravity, a representational asymmetry where data imbalance across heterogeneous domains causes overrepresented or low-entropy domains to disproportionately influence the embedding space, leading to prototype drift and degraded performance on underrepresented or high-entropy domains. To address this, we introduce Cross-Discipline Variable Few-Shot Class-Incremental Learning (XD-VSCIL), a benchmark capturing real-world heterogeneity and imbalance where Domain Gravity naturally intensifies. We propose Hybrid Prototype Calibration (HyCal), a training-free method combining cosine similarity and Mahalanobis distance to capture complementary geometric properties-directional alignment and covariance-aware magnitude-yielding stable prototypes under imbalanced heterogeneous conditions. Operating on frozen CLIP embeddings, HyCal achieves consistent retention-adaptation improvements while maintaining efficiency. Experiments show HyCal effectively mitigates Domain Gravity and outperforms existing methods in imbalanced cross-domain incremental learning.