Back to list
arxiv_cs_lg 2026年2月10日

TAAM: インдукティブ・グラフクラス漸近学習におけるタスク認識による適応的調制度

TAAM:Inductive Graph-Class Incremental Learning with Task-Aware Adaptive Modulation

Translated: 2026/3/15 15:01:07
graph-continual-learninginductive-learninggraph-neural-networkscatastrophic-forgettingtask-aware-learning

Japanese Translation

arXiv:2602.08036v1 Announce Type: new Abstract: グラフ継続的学習 (GCL) はストリーミンググラフデータの課題を解決することを目的としている。しかし、既存の方法は多くの場合、再プレイベースの戦略に依存しており、これはメモリ制約やプライバシーの問題を引き起こすとともに、安定性と可塑性のジレンマを解決する際に困難である。本稿では、軽量でタスク固有のモジュールが固定された GNN バックボーンの推論過程を効果的に導くことができるという観点から、タスク認識による適応的調制度 (TAAM) を提案する。TAAM の主要なコンポーネントは軽量な神経シナプス調制度 (NSM) である。各新しいタスクに対して、専用 NSM を訓練し凍結し、それを「専門家モジュール」として機能させる。これらのモジュールは、共有 GNN バックボーンの計算フローに詳細でノード注意能による適応的調制度を実行する。この設定により、新しい知識は緊密なタスク固有のモジュール内に保持され、データ再プレイを介さない状態で自然なカタルーパシブフォゲットを防止される。また、実際のシナリオにおける未知のタスク ID という重要な課題に対処するために、Anchored Multi-hop Propagation (AMP) という新しい手法を提案し、理論的に証明を行った。特に、既存の GCL ベンチマークにはデータリークとバイアスされた評価を引き起こす欠陥があることを発見した。したがって、我々はより厳密なインдукティブ学習シナリオで行うすべての実験を行った。広範な実験が示すには、TAAM は 8 つのデータセット全体で最前線の方法を包括的に凌駕する。コードとデータセットは、https://github.com/1iuJT/TAAM_AAMAS2026 で利用可能です。

Original Content

arXiv:2602.08036v1 Announce Type: new Abstract: Graph Continual Learning (GCL) aims to solve the challenges of streaming graph data. However, current methods often depend on replay-based strategies, which raise concerns like memory limits and privacy issues, while also struggling to resolve the stability-plasticity dilemma. In this paper, we suggest that lightweight, task-specific modules can effectively guide the reasoning process of a fixed GNN backbone. Based on this idea, we propose Task-Aware Adaptive Modulation (TAAM). The key component of TAAM is its lightweight Neural Synapse Modulators (NSMs). For each new task, a dedicated NSM is trained and then frozen, acting as an "expert module." These modules perform detailed, node-attentive adaptive modulation on the computational flow of a shared GNN backbone. This setup ensures that new knowledge is kept within compact, task-specific modules, naturally preventing catastrophic forgetting without using any data replay. Additionally, to address the important challenge of unknown task IDs in real-world scenarios, we propose and theoretically prove a novel method named Anchored Multi-hop Propagation (AMP). Notably, we find that existing GCL benchmarks have flaws that can cause data leakage and biased evaluations. Therefore, we conduct all experiments in a more rigorous inductive learning scenario. Extensive experiments show that TAAM comprehensively outperforms state-of-the-art methods across eight datasets. Code and Datasets are available at: https://github.com/1iuJT/TAAM_AAMAS2026.