Back to list
arxiv_cs_ai 2026年4月24日

StructMem: LLM における長期動作のための構造化メモリ

StructMem: Structured Memory for Long-Horizon Behavior in LLMs

Translated: 2026/4/24 20:28:34
structured-memoryllmlong-horizontemporal-reasoningmulti-hop-question-answering

Japanese Translation

arXiv:2604.21748v1 発表タイプ:横断 要約:長期的対話エージェントは、単なる孤立した事実を捉えるだけでなく、イベント間の関係を捉えるメモリシステムを必要とし、時系列推理やマルチホップ質問応答を支援する必要があります。現在の手法には根本的なトレードオフがあります:平面型メモリは効率的ですが関係構造をモデル化できず、グラフベースのメモリは構造化推理を可能にしますが、高コストかつ脆い構築を伴います。これらの問題を解決するために、 extbf{StructMem} という、イベントレベルのバインディングを保持しクロスイベントの接続を誘導する構造富ん hierarchical メモリフレームワークを提案しました。StructMem は時系列を軸として二つの視点を持ち、定期的なセマンティック統合を行うことで、 exttt{LoCoMo} における時系列推理とマルチホップの性能を改善し、先代のメモリシステムと比較してトークン使用量、API 呼び出し、実行時間を大幅に削減します。詳しくは https://github.com/zjunlp/LightMem を参照してください。

Original Content

arXiv:2604.21748v1 Announce Type: cross Abstract: Long-term conversational agents need memory systems that capture relationships between events, not merely isolated facts, to support temporal reasoning and multi-hop question answering. Current approaches face a fundamental trade-off: flat memory is efficient but fails to model relational structure, while graph-based memory enables structured reasoning at the cost of expensive and fragile construction. To address these issues, we propose \textbf{StructMem}, a structure-enriched hierarchical memory framework that preserves event-level bindings and induces cross-event connections. By temporally anchoring dual perspectives and performing periodic semantic consolidation, StructMem improves temporal reasoning and multi-hop performance on \texttt{LoCoMo}, while substantially reducing token usage, API calls, and runtime compared to prior memory systems, see https://github.com/zjunlp/LightMem .