Back to list
arxiv_cs_lg 2026年4月24日

モバイル自律システムにおけるライフサイクル意識型のフェデレート継続的学習

Lifecycle-Aware Federated Continual Learning in Mobile Autonomous Systems

Translated: 2026/4/24 20:00:38
federated-learningcontinual-learninglifelong-learningreinforcement-learningartificial-intelligence

Japanese Translation

arXiv:2604.20745v1 Announce Type: new Abstract: フェデレート継続的学習(FCL)は、自律的な車両部隊が、長期ミッションにおける進化する地形タイプに協力的に適応することを可能にします。ただし、現在のアプローチはいくつかの重要な課題に直面しています:1)異なるネットワークレイヤーにおける忘却感受性のばらつきを考慮しない一貫した保護戦略を採用していること;2)トレーニング中の忘却防止に焦点を当てており、長期累積ドリフトの長期的な影響には対処していないこと;3)現実の自律車両部隊に存在する異質性を捉えられない理想化されたシミュレーションに依存していること。本論文では、トレーニング時(忘却前)の防止と(忘却後)の回復を組み入れた、ライフサイクル意識型のデュアル・タイムスケール FCL フレームワークを提案します。このフレームワークの下、局所トレーニング中の即座の忘却を軽減するためのレイヤー選択的リハーサル戦略と、長期累積ドリフトによる劣化したモデルを復元するための迅速な知識回復戦略を設計しました。我々は、異質な忘却ダイナミクスを特徴付ける理論的分析を行い、長期劣化の必然性を確立しました。実験結果は、このフレームワークが最も強力なフェデレートベースラインよりも最大 8.3% の mIoU 改善、従来のファインチューニングよりも最大 31.7% の改善をもたらすことを示しています。また、我々は FCL フレームワークを実世界のカブ(Rover)テストベッドに展開し、現実的な制約下でのシステムレベルの堅牢性を評価しました。テスト結果は、我々の FCL デザインの有効性をさらに確認しました。

Original Content

arXiv:2604.20745v1 Announce Type: new Abstract: Federated continual learning (FCL) allows distributed autonomous fleets to adapt collaboratively to evolving terrain types across extended mission lifecycles. However, current approaches face several key challenges: 1) they use uniform protection strategies that do not account for the varying sensitivities to forgetting on different network layers; 2) they focus primarily on preventing forgetting during training, without addressing the long-term effects of cumulative drift; and 3) they often depend on idealized simulations that fail to capture the real-world heterogeneity present in distributed fleets. In this paper, we propose a lifecycle-aware dual-timescale FCL framework that incorporates training-time (pre-forgetting) prevention and (post-forgetting) recovery. Under this framework, we design a layer-selective rehearsal strategy that mitigates immediate forgetting during local training, and a rapid knowledge recovery strategy that restores degraded models after long-term cumulative drift. We present a theoretical analysis that characterizes heterogeneous forgetting dynamics and establishes the inevitability of long-term degradation. Our experimental results show that this framework achieves up to 8.3\% mIoU improvement over the strongest federated baseline and up to 31.7\% over conventional fine-tuning. We also deploy the FCL framework on a real-world rover testbed to assess system-level robustness under realistic constraints; the testing results further confirm the effectiveness of our FCL design.