Back to list
MemAdapter:生成サブグラフ検索によるエージェントメモリパラディグムの間での高速な対齐
MemAdapter: Fast Alignment across Agent Memory Paradigms via Generative Subgraph Retrieval
Translated: 2026/3/15 8:03:16
Japanese Translation
arXiv:2602.08369v1 発表タイプ:クロス
概要:メモリ機構は、LLM ベースのエージェントの要所であり、長期的コンテキストにおける論理推論と知識発見を可能にします。既存のエージェントメモリシステムは、明示的、パラメトリック、あるいはlatent(潜在的)など、隔離されたパラディグム内で設計され、緊密に結合された検索手法が、パラディグム間の一般化と融合を妨げることが多くあります。本研究では、単一のメモリシステム内で異種のメモリパラディグムを統合するという第一歩に踏み込みます。私たちは、MemAdapter という提案しました。これは、エージェントメモリパラディグムの間での高速な対齐を可能にするメモリ検索フレームワークです。MemAdapter は、二段階のトレーニング戦略を採用しています:(1) 統一されたメモリ空間から生成型サブグラフリetriever をトレーニングすること、(2) 目に見えないメモリパラディグムにリetriever を適応させるために、対比学習を通じて軽量な対齐モジュールをトレーニングすること。この設計は、メモリ検索の柔軟性を向上させ、パラディグム間の対齐コストを大幅に削減します。3 つの公開評価ベンチマークにおける総合的な実験では、生成型サブグラフリetriever が 3 つのメモリパラディグムおよびエージェントモデルの規模において、5 つの強力なエージェントメモリシステムより一貫して優れていることを示しています。特に、MemAdapter は 1 つの GPU 上で 13 分以内に跨パラディグムの対齐を完了し、トレーニング計算量の 5% 未満で、オリジナルのメモリリetriever より優れたパフォーマンスを達成します。さらに、MemAdapter はメモリパラディグム間の効果的なゼロショット融合を可能にし、エージェントメモリシステムにおけるプラグ&プレイソリューションとしての潜在力を示しました。
Original Content
arXiv:2602.08369v1 Announce Type: cross
Abstract: Memory mechanism is a core component of LLM-based agents, enabling reasoning and knowledge discovery over long-horizon contexts. Existing agent memory systems are typically designed within isolated paradigms (e.g., explicit, parametric, or latent memory) with tightly coupled retrieval methods that hinder cross-paradigm generalization and fusion. In this work, we take a first step toward unifying heterogeneous memory paradigms within a single memory system. We propose MemAdapter, a memory retrieval framework that enables fast alignment across agent memory paradigms. MemAdapter adopts a two-stage training strategy: (1) training a generative subgraph retriever from the unified memory space, and (2) adapting the retriever to unseen memory paradigms by training a lightweight alignment module through contrastive learning. This design improves the flexibility for memory retrieval and substantially reduces alignment cost across paradigms. Comprehensive experiments on three public evaluation benchmarks demonstrate that the generative subgraph retriever consistently outperforms five strong agent memory systems across three memory paradigms and agent model scales. Notably, MemAdapter completes cross-paradigm alignment within 13 minutes on a single GPU, achieving superior performance over original memory retrievers with less than 5% of training compute. Furthermore, MemAdapter enables effective zero-shot fusion across memory paradigms, highlighting its potential as a plug-and-play solution for agent memory systems.