Back to list
arxiv_cs_lg 2026年4月24日

FedSIR:ノイズラベル付きフーダー学習におけるスペクトRAL クライアント識別と再ラベリング

FedSIR: Spectral Client Identification and Relabeling for Federated Learning with Noisy Labels

Translated: 2026/4/24 20:01:12
federated-learningnoise-labelsspectral-analysismachine-learningarxiv

Japanese Translation

論文:arXiv:2604.20825v1 発表タイプ:新規 要旨:フーダー学習(FL)は生データを共有せずに協力的なモデル訓練を可能にしますが、分散されたクライアント間に存在するノイズラベルは学習性能を著しく低下させる可能性があります。本稿では、ノイズラベル下での頑健なフーダー学習のための複数段階フレームワークである FedSIR を提案します。既存のアプローチが主にノイズに耐性のある損失関数の設計や、訓練中の損失ダイナミクスを利用しているのに対し、私たちの方法はクライアント特徴表現のスペクトル構造を利用してノイズラベルを識別し軽減します。 当社のフレームワークは 3 つの主要コンポーネントを備えています。第一に、クラスごとの特徴空間のスペクトル一貫性を分析して、最小の通信オーバーヘッドでクリーンなクライアントとノイズクライアントを識別します。第二に、クリーンなクライアントが提供するスペクトル参照を利用して、ノイズクライアントが支配的なクラス方向および残差空間を用いて潜在的に損傷したサンプルを再ラベル付けします。第三に、ロジット調整損失、知識蒸馏、距離意識的な集積を統合したノイズ対応トレーニング戦略を採用し、さらにフーダー最適化を安定化します。標準的なフーダーベンチマークにおける大規模実験により、FedSIR はノイズラベル付きフーダー学習において状態の最良(SOTA)の手法を常に凌駕する性能を示すことが確認されました。コードは https://github.com/sinagh72/FedSIR に公開されています。

Original Content

arXiv:2604.20825v1 Announce Type: new Abstract: Federated learning (FL) enables collaborative model training without sharing raw data; however, the presence of noisy labels across distributed clients can severely degrade the learning performance. In this paper, we propose FedSIR, a multi-stage framework for robust FL under noisy labels. Different from existing approaches that mainly rely on designing noise-tolerant loss functions or exploiting loss dynamics during training, our method leverages the spectral structure of client feature representations to identify and mitigate label noise. Our framework consists of three key components. First, we identify clean and noisy clients by analyzing the spectral consistency of class-wise feature subspaces with minimal communication overhead. Second, clean clients provide spectral references that enable noisy clients to relabel potentially corrupted samples using both dominant class directions and residual subspaces. Third, we employ a noise-aware training strategy that integrates logit-adjusted loss, knowledge distillation, and distance-aware aggregation to further stabilize federated optimization. Extensive experiments on standard FL benchmarks demonstrate that FedSIR consistently outperforms state-of-the-art methods for FL with noisy labels. The code is available at https://github.com/sinagh72/FedSIR.