Back to list
arxiv_cs_ai 2026年4月24日

FSFM:エージェントメモリに対する選択的な忘却を促生する生物学的灵感に基づくフレームワーク

FSFM: A Biologically-Inspired Framework for Selective Forgetting of Agent Memory

Translated: 2026/4/24 20:31:20
fsfmllm-agentsmemory-managementcognitive-neuroscienceselective-forgetting

Japanese Translation

arXiv:2604.20300v2 公式宣言 型:更新 摘要: LLM エージェントにおいて、メモリ管理は効率性、品質、セキュリティに決定的に影響を与えます。多くの研究が保持に焦点を当てていますが、人間のかognitive プロセス(海馬におけるインデックス化/統合理論および Ebbinghaus 忘却曲線)に着想を得た選択的忘却についてはまだ十分に研究されていません。我々は、リソース制約のある環境において、設計された忘却メカニズムが記憶するものと同じくらい重要であることを論じ、以下三つの次元にわたる利点を生み出します:(1) 知能的なメモリ剪定による効率性、(2) 古い優先度や文脈の動的な更新による品質の向上、(3) 悪意のある入力、機密データ、プライバシーを損なうコンテンツの能動的忘却によるセキュリティ強化。我々のフレームワークは忘却メカニズムの分類を確立しました:被動減衰ベース、能動的削除ベース、安全トリガーベース、適応的強化学習ベース。LLM エージェントアーキテクチャおよびベクトルデータベースの進展に基づき、詳細な仕様、実装戦略、制御実験からの実証的検証を提示します。結果は著しい改善を示しました:アクセス効率 (+8.49%)、コンテンツ品質 (+29.2% のシグナル対ノイズ比)、セキュリティ性能(セキュリティリスクの 100% 排除)。我々の仕事は認知神経科学と AI システムを架け渡し、現実世界の展開において実践的な解決策を提供すると同時に倫理的・法的コンプライアンスに対処します。論文は課題と将来の方向性で終わります。選択的忘却は、現実世界のリソース制約されたシナリオで動作する次世代 LLM エージェントの基本的能力として確立されました。我々の貢献は、AI ネイティブなメモリシステムおよび責任ある AI 開発と整合しています。

Original Content

arXiv:2604.20300v2 Announce Type: replace Abstract: For LLM agents, memory management critically impacts efficiency, quality, and security. While much research focuses on retention, selective forgetting--inspired by human cognitive processes (hippocampal indexing/consolidation theory and Ebbinghaus forgetting curve)--remains underexplored. We argue that in resource-constrained environments, a well-designed forgetting mechanism is as crucial as remembering, delivering benefits across three dimensions: (1) efficiency via intelligent memory pruning, (2) quality by dynamically updating outdated preferences and context, and (3) security through active forgetting of malicious inputs, sensitive data, and privacy-compromising content. Our framework establishes a taxonomy of forgetting mechanisms: passive decay-based, active deletion-based, safety-triggered, and adaptive reinforcement-based. Building on advances in LLM agent architectures and vector databases, we present detailed specifications, implementation strategies, and empirical validation from controlled experiments. Results show significant improvements: access efficiency (+8.49%), content quality (+29.2% signal-to-noise ratio), and security performance (100% elimination of security risks). Our work bridges cognitive neuroscience and AI systems, offering practical solutions for real-world deployment while addressing ethical and regulatory compliance. The paper concludes with challenges and future directions, establishing selective forgetting as a fundamental capability for next-generation LLM agents operating in real-world, resource-constrained scenarios. Our contributions align with AI-native memory systems and responsible AI development.